Probabilità condizionata

In teoria della probabilità la probabilità condizionata di un evento A {\displaystyle A} rispetto a un evento B {\displaystyle B} è la probabilità che si verifichi A , {\displaystyle A,} sapendo che B {\displaystyle B} è verificato. Questa probabilità, indicata P ( A | B ) {\displaystyle P(A|B)} o P B ( A ) {\displaystyle P_{B}(A)} , esprime una "correzione" delle aspettative per A , {\displaystyle A,} dettata dall'osservazione di B . {\displaystyle B.}

Poiché, come si vedrà nella successiva definizione, P ( B ) {\displaystyle P(B)} compare al denominatore, P ( A | B ) {\displaystyle P(A|B)} ha senso solo se B {\displaystyle B} ha una probabilità non nulla di verificarsi.

È utile osservare che la notazione con il simbolo "barra verticale" è comune con la definizione del connettivo logico NAND.

Esempio

Per esempio, la probabilità di ottenere "4" con il lancio di un dado a sei facce (evento A {\displaystyle A} ) ha probabilità P ( A ) = 1 / 6 {\displaystyle P(A)=1/6} di verificarsi. Sapendo però che il risultato del lancio è un numero tra "4", "5" e "6" (evento B {\displaystyle B} ), la probabilità di A {\displaystyle A} diventa

P ( A | B ) = P ( A B ) P ( B ) = P ( A ) + P ( B ) P ( A B ) P ( B ) = 1 / 6 + 3 / 6 3 / 6 3 / 6 = 1 3 . {\displaystyle P(A|B)={\frac {P(A\cap B)}{P(B)}}={\frac {P(A)+P(B)-P(A\cup B)}{P(B)}}={\frac {1/6+3/6-3/6}{3/6}}={\frac {1}{3}}.}

Si consideri questo secondo esempio, la probabilità di ottenere "1" con il lancio di un comune dado (evento A {\displaystyle A} ) ha probabilità P ( A ) = 1 / 6 {\displaystyle P(A)=1/6} di verificarsi. Sapendo però che il risultato del lancio è un numero tra "4", "5" e "6" (evento B {\displaystyle B} ), la probabilità di A {\displaystyle A} diventa

P ( A | B ) = P ( A B ) P ( B ) = P ( A ) + P ( B ) P ( A B ) P ( B ) = 1 / 6 + 3 / 6 4 / 6 3 / 6 = 0. {\displaystyle P(A|B)={\frac {P(A\cap B)}{P(B)}}={\frac {P(A)+P(B)-P(A\cup B)}{P(B)}}={\frac {1/6+3/6-4/6}{3/6}}=0.}

Definizione

La probabilità di A {\displaystyle A} condizionata da B {\displaystyle B} è

P ( A | B ) = P B ( A ) = P ( A B ) P ( B ) , {\displaystyle P(A|B)=P_{B}(A)={\frac {P(A\cap B)}{P(B)}},}

dove P ( A B ) {\displaystyle P(A\cap B)} è la probabilità congiunta dei due eventi, ovvero la probabilità che si verifichino entrambi.

In termini più rigorosi, dato uno spazio misurabile ( Ω , A ) {\displaystyle (\Omega ,{\mathcal {A}})} di misura P , {\displaystyle P,} ogni evento B {\displaystyle B} eredita una struttura di spazio misurato ( B , A B , P ) {\displaystyle (B,{\mathcal {A}}_{B},P)} , restringendo gli insiemi misurabili a quelli contenuti in B , {\displaystyle B,} ed induce una nuova misura P B ( A ) = P ( A B ) {\displaystyle P'_{B}(A)=P(A\cap B)} su ( Ω , A ) {\displaystyle (\Omega ,{\mathcal {A}})} , con P B ( Ω ) = P ( B ) {\displaystyle P'_{B}(\Omega )=P(B)} . Se ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} è uno spazio probabilizzato ( P ( Ω ) = 1 {\displaystyle P(\Omega )=1} ) e B {\displaystyle B} non è trascurabile ( P ( B ) 0 {\displaystyle P(B)\neq 0} ), allora riscalando P B {\displaystyle P'_{B}} a P B = 1 P ( B ) P B {\displaystyle \textstyle P_{B}={\frac {1}{P(B)}}P'_{B}} si ottiene lo spazio probabilizzato ( Ω , A , P B ) {\displaystyle \textstyle (\Omega ,{\mathcal {A}},P_{B})} delle probabilità condizionate da B . {\displaystyle B.}

Proprietà

La formula della probabilità condizionata permette di descrivere la probabilità congiunta come

P ( A B ) = P ( A | B ) P ( B ) . {\displaystyle P(A\cap B)=P(A|B)P(B).}

Ossia, la probabilità che si verifichino sia A {\displaystyle A} sia B {\displaystyle B} è uguale alla probabilità che si verifichi B {\displaystyle B} moltiplicata per la probabilità che si verifichi A {\displaystyle A} supponendo che B {\displaystyle B} sia verificato.

Due eventi A {\displaystyle A} e B {\displaystyle B} sono indipendenti quando vale una delle tre equazioni equivalenti:

  • P ( A B ) = P ( A ) P ( B ) ; {\displaystyle P(A\cap B)=P(A)P(B);}
  • P ( A | B ) = P ( A ) ; {\displaystyle P(A|B)=P(A);}
  • P ( B | A ) = P ( B ) . {\displaystyle P(B|A)=P(B).}

Per trovare la probabilità dell'evento a destra negato (anche detto complementare) si può usare la seguente formula:

P ( ¬ A | B ) = 1 P ( A | B ) . {\displaystyle P(\neg A|B)=1-P(A|B).}

Casi particolari

Se A {\displaystyle A} e B {\displaystyle B} sono eventi disgiunti, cioè se A B = {\displaystyle A\cap B=\varnothing } , le loro probabilità condizionate sono nulle: sapendo che uno dei due eventi si è verificato, è impossibile che si sia verificato anche l'altro.

Se l'evento A {\displaystyle A} implica l'evento B {\displaystyle B} , cioè se A B {\displaystyle A\subset B} , allora la loro intersezione è A , {\displaystyle A,} per cui P ( A B ) = P ( A ) {\displaystyle P(A\cap B)=P(A)} e:

  • P ( B | A ) = P ( A ) P ( A ) = 1 {\displaystyle P(B|A)={\frac {P(A)}{P(A)}}=1} ( A {\displaystyle A} implica B {\displaystyle B} );
  • P ( A | B ) = P ( A ) P ( B ) {\displaystyle P(A|B)={\frac {P(A)}{P(B)}}} ( B {\displaystyle B} è necessario per A {\displaystyle A} ).

Nel caso di una misura di probabilità uniforme su uno spazio Ω finito, questa formula per P ( A | B ) {\displaystyle P(A|B)} esprime la definizione classica di probabilità come "casi favorevoli ( A {\displaystyle A} ) su casi possibili ( B {\displaystyle B} )".

Invece, per P ( B | A ) {\displaystyle P(B|A)} otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpretò in senso lato come la certezza che il tutto sia condizionato dalla parte.

Ulteriori definizioni

Il valore atteso condizionato E [ X | B ] {\displaystyle E[X|B]} di una variabile aleatoria X {\displaystyle X} ad un evento B {\displaystyle B} è il valore atteso di X {\displaystyle X} calcolato sulle probabilità P B {\displaystyle P_{B}} (cioè condizionate da B {\displaystyle B} ).

La probabilità di un evento A {\displaystyle A} può essere condizionata da una variabile aleatoria discreta X , {\displaystyle X,} originando una nuova variabile aleatoria, Y = P ( A | X ) {\displaystyle Y=P(A|X)} , che per X = x {\displaystyle X=x} assume il valore Y = P ( A | x ) {\displaystyle Y=P(A|x)} .

Applicazioni

Il teorema di Bayes esprime l'uguaglianza simmetrica P ( A | B ) P ( B ) = P ( B | A ) P ( A ) {\displaystyle P(A|B)P(B)=P(B|A)P(A)} del teorema della probabilità composta come

P ( A | B ) = P ( B | A ) P ( A ) P ( B ) . {\displaystyle P(A|B)=P(B|A){\frac {P(A)}{P(B)}}.}

Questo teorema è alla base dell'inferenza bayesiana in statistica, dove P ( A ) {\displaystyle P(A)} è detta "probabilità a priori di A {\displaystyle A} " e P ( A | B ) {\displaystyle P(A|B)} "probabilità a posteriori di A {\displaystyle A} ".

Paradossi

Molti paradossi sono legati alla probabilità condizionata e derivano sia da un'errata formulazione del problema sia dalla confusione di P ( A | B ) {\displaystyle P(A|B)} con P ( A ) {\displaystyle P(A)} o con P ( B | A ) . {\displaystyle P(B|A).}

Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e il paradosso di Simpson.

Bibliografia

  • Giuseppe Zwirner, L. Scaglianti, Itinerari nella matematica vol.1, Padova, CEDAM, 1989, ISBN 88-1316794-6

Voci correlate

Altri progetti

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file sulla probabilità condizionata

Collegamenti esterni

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica