Investor's wiki

probabilidad previa

probabilidad previa

¿Qué es la probabilidad previa?

La probabilidad previa, en las estadísticas bayesianas, es la probabilidad de un evento antes de que se recopilen nuevos datos. Esta es la mejor evaluación racional de la probabilidad de un resultado basada en el conocimiento actual antes de realizar un experimento.

La probabilidad previa se puede comparar con la probabilidad posterior.

Comprender la probabilidad previa

La probabilidad previa de un evento se revisará a medida que se disponga de nuevos datos o información, para producir una medida más precisa de un posible resultado. Esa probabilidad revisada se convierte en la probabilidad posterior y se calcula utilizando el teorema de Bayes. En términos estadísticos, la probabilidad posterior es la probabilidad de que ocurra el evento A dado que ha ocurrido el evento B.

Ejemplo

Por ejemplo, tres acres de tierra tienen las etiquetas A, B y C. Un acre tiene reservas de petróleo debajo de su superficie, mientras que los otros dos no. La probabilidad previa de que se encuentre petróleo en el acre C es un tercio, o 0,333. Pero si se realiza una prueba de perforación en el acre B y los resultados indican que no hay petróleo presente en el lugar, entonces la probabilidad posterior de que se encuentre petróleo en los acres A y C se convierte en 0,5, ya que cada acre tiene una de dos posibilidades.

El teorema de Bayes se aplica a menudo a la minería de datos y al aprendizaje automático.

Teorema de Bayes

<semántica> P(A</ mi>B) = < /mtext>P(AB )P(B< /mi>) = < mrow>P(A) × P(B ∣ < /mo>A)P<mo stretchy="falso" e">(B)< /mtr>donde:< mstyle scriptlevel="0" displaystyle="true">< /mrow>P(A) </ mtext>= la probabilidad previa de que ocurra A< /mtr>P(A B)= la probabilidad condicional de A</ mrow></mt r> dado que B ocurre< mrow>P(BA) = la probabilidad condicional de B dado que A</ mi> ocurre P(B) = la probabilidad de que ocurra B <codificación de anotación="aplicación/x-tex">\begin&P(A\mid B)\ =\ \frac{P(A\cap B)}{P(B)}\ = \ \ frac{P(A)\ \times\ P(B\mid A)}{P(B)}\&\textbf\&P(A)\ =\ \textA\text\&P(A\mid B)=\ \textA\&\qquad\qquad\quad\ \textB\ text\&P(B\mid A)\ = \ \textB\&\qquad\qquad\quad\ \ \textA\text\&P(B)\ =\ \textB\text\end</ span>P(A B) = </ span> P(B )P(AB)</ span> = P(B)</ span>P(< /span>A) × P( B</ span>A</ span>)donde:< /span>P(< /span>A) = la probabilidad previa de A ocurriendoP(AB)</s pan>= la probabilidad condicional de </ span>A dado que B ocurre P( BA) = la probabilidad condicional de B</ span> dado que < /span>A ocurreP(B) = la probabilidad de B ocurriendo</ span>< /span>

Si estamos interesados en la probabilidad de un evento del que tenemos observaciones previas; llamamos a esto la probabilidad previa. Consideraremos este evento A, y su probabilidad P(A). Si hay un segundo evento que afecta a P(A), al que llamaremos evento B, entonces queremos saber cuál es la probabilidad de que A se dé B. En notación probabilística, esto es P(A|B) y se conoce como probabilidad posterior o probabilidad revisada. Esto se debe a que ocurrió después del evento original, de ahí la publicación posterior. Así es como el teorema de Baye nos permite de manera única actualizar nuestras creencias previas con nueva información.

Reflejos

  • En términos estadísticos, la probabilidad previa es la base de las probabilidades posteriores.

  • Una probabilidad previa, en estadística bayesiana, es la probabilidad ex ante de que ocurra un evento antes de tomar en consideración cualquier información nueva (posterior).

  • La probabilidad posterior se calcula actualizando la probabilidad previa mediante el teorema de Bayes.

PREGUNTAS MÁS FRECUENTES

¿Cómo se usa el teorema de Bayes en el aprendizaje automático?

El teorema de Bayes proporciona un método útil para pensar en la relación entre un conjunto de datos y una probabilidad. Por lo tanto, es útil para ajustar datos y algoritmos de entrenamiento, donde estos pueden actualizar sus probabilidades posteriores en cada ronda de entrenamiento.

¿Cuál es la diferencia entre probabilidad anterior y posterior?

La probabilidad previa representa lo que se cree originalmente antes de que se introduzcan nuevas pruebas, y la probabilidad posterior tiene en cuenta esta nueva información.

¿Cómo se usa el teorema de Bayes en finanzas?

En finanzas, el teorema de Bayes se puede utilizar para actualizar una creencia anterior una vez que se obtiene nueva información. Esto se puede aplicar a los rendimientos de las acciones, la volatilidad observada, etc. El teorema de Bayes también se puede utilizar para calificar el riesgo de prestar dinero a prestatarios potenciales al actualizar la probabilidad de incumplimiento en función de la experiencia pasada.