Vorherige Wahrscheinlichkeit
Was ist die vorherige Wahrscheinlichkeit?
Die vorherige Wahrscheinlichkeit ist in der Bayes'schen Statistik die Wahrscheinlichkeit eines Ereignisses, bevor neue Daten erfasst werden. Dies ist die beste rationale Einschätzung der Wahrscheinlichkeit eines Ergebnisses basierend auf dem aktuellen Wissen, bevor ein Experiment durchgeführt wird.
Die vorherige Wahrscheinlichkeit kann mit der späteren Wahrscheinlichkeit verglichen werden.
Vorherige Wahrscheinlichkeit verstehen
Die vorherige Wahrscheinlichkeit eines Ereignisses wird revidiert, wenn neue Daten oder Informationen verfügbar werden, um ein genaueres Maß für ein potenzielles Ergebnis zu erhalten. Diese revidierte Wahrscheinlichkeit wird zur späteren Wahrscheinlichkeit und wird unter Verwendung des Satzes von Bayes berechnet . Statistisch gesehen ist die A-posteriori-Wahrscheinlichkeit die Wahrscheinlichkeit, dass Ereignis A eintritt, wenn Ereignis B eingetreten ist.
Beispiel
Zum Beispiel haben drei Morgen Land die Bezeichnungen A, B und C. Ein Morgen hat Ölreserven unter seiner Oberfläche, die anderen beiden nicht. Die vorherige Wahrscheinlichkeit, dass Öl auf Acre C gefunden wird, beträgt ein Drittel oder 0,333. Wenn jedoch auf Acre B ein Bohrtest durchgeführt wird und die Ergebnisse darauf hindeuten, dass an der Stelle kein Öl vorhanden ist, beträgt die nachträgliche Wahrscheinlichkeit, dass auf Acre A und C Öl gefunden wird, 0,5, da für jeden Acre eine Wahrscheinlichkeit von eins zu zwei besteht.
Das Theorem von Bayes wird häufig auf Data Mining und maschinelles Lernen angewendet.
Satz von Bayes
Wenn wir an der Wahrscheinlichkeit eines Ereignisses interessiert sind, von dem wir vorherige Beobachtungen haben; wir nennen dies die vorherige Wahrscheinlichkeit. Wir betrachten dieses Ereignis als A und seine Wahrscheinlichkeit als P(A). Wenn es ein zweites Ereignis gibt, das P(A) beeinflusst, das wir Ereignis B nennen, dann wollen wir wissen, mit welcher Wahrscheinlichkeit A bei gegebenem B eingetreten ist. In probabilistischer Schreibweise ist dies P(A|B) und wird als spätere Wahrscheinlichkeit oder revidierte Wahrscheinlichkeit bezeichnet. Dies liegt daran, dass es nach dem ursprünglichen Ereignis aufgetreten ist, daher der Post in posterior. Auf diese Weise ermöglicht uns Bayes Theorem auf einzigartige Weise, unsere früheren Überzeugungen mit neuen Informationen zu aktualisieren.
Höhepunkte
Statistisch gesehen ist die Prior-Wahrscheinlichkeit die Grundlage für die Posterior-Wahrscheinlichkeiten.
Eine vorherige Wahrscheinlichkeit ist in der Bayes'schen Statistik die Ex-ante-Wahrscheinlichkeit, dass ein Ereignis eintritt, bevor neue (nachträgliche) Informationen berücksichtigt werden.
Die Posterior-Wahrscheinlichkeit wird berechnet, indem die Prior-Wahrscheinlichkeit unter Verwendung des Satzes von Bayes aktualisiert wird.
FAQ
Wie wird der Satz von Bayes beim maschinellen Lernen verwendet?
Das Bayes-Theorem bietet eine nützliche Methode, um über die Beziehung zwischen einem Datensatz und einer Wahrscheinlichkeit nachzudenken. Es ist daher beim Anpassen von Daten und Trainingsalgorithmen nützlich, wo diese in der Lage sind, ihre A-Posteriori-Wahrscheinlichkeiten bei jeder Trainingsrunde zu aktualisieren.
Was ist der Unterschied zwischen vorheriger und späterer Wahrscheinlichkeit?
Die vorherige Wahrscheinlichkeit stellt dar, was ursprünglich geglaubt wurde, bevor neue Beweise eingeführt werden, und die spätere Wahrscheinlichkeit berücksichtigt diese neuen Informationen.
Wie wird der Satz von Bayes im Finanzwesen verwendet?
Im Finanzwesen kann das Theorem von Bayes verwendet werden, um eine frühere Überzeugung zu aktualisieren, sobald neue Informationen vorliegen. Dies kann auf Aktienrenditen, beobachtete Volatilität usw. angewendet werden. Das Bayes-Theorem kann auch verwendet werden, um das Risiko der Kreditvergabe an potenzielle Kreditnehmer zu bewerten, indem die Ausfallwahrscheinlichkeit auf der Grundlage früherer Erfahrungen aktualisiert wird.