Indipendenza stocastica

Niente fonti!
Questa voce o sezione sull'argomento matematica non cita le fonti necessarie o quelle presenti sono insufficienti.
Eventi dipendenti ma indipendenti a due a due
Eventi dipendenti ma indipendenti a due a due

Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A {\displaystyle A} e B {\displaystyle B} si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata P ( A | B ) {\displaystyle \mathbb {P} (A|B)} oppure P ( B | A ) {\displaystyle \mathbb {P} (B|A)} è pari rispettivamente a P ( A ) {\displaystyle \mathbb {P} (A)} e P ( B ) {\displaystyle \mathbb {P} (B)}

P ( A | B ) = P ( A ) , {\displaystyle \mathbb {P} (A|B)=\mathbb {P} (A),}
P ( B | A ) = P ( B ) , {\displaystyle \mathbb {P} (B|A)=\mathbb {P} (B),}

queste due condizioni si possono sintetizzare con la formula

P ( A B ) = P ( A ) P ( B ) . {\displaystyle \mathbb {P} (A\cap B)=\mathbb {P} (A)\cdot \mathbb {P} (B).}

Descrizione

In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si è verificato non modifica la valutazione di probabilità sul secondo. Per esempio, il fatto di ottenere "1" quando viene lanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti.

Analogamente, quando si afferma che due variabili casuali X {\displaystyle X} e Y {\displaystyle Y} definite sullo stesso spazio campionario H {\displaystyle H} sono indipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazione circa il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che viene lanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ogni coppia di eventi A {\displaystyle A} e B {\displaystyle B} risulta

P ( X A Y B ) = P ( X A ) P ( Y B ) . {\displaystyle \mathbb {P} (X\in A\cap Y\in B)=\mathbb {P} (X\in A)\mathbb {P} (Y\in B).}

Equivalentemente ciò si verifica se, detta F {\displaystyle F} la funzione di ripartizione della variabile congiunta ( X , Y ) {\displaystyle (X,Y)} e F X {\displaystyle F_{X}} , F Y {\displaystyle F_{Y}} le due funzioni di ripartizione marginali, allora per ogni x {\displaystyle x} , y {\displaystyle y} vale che

F ( x , y ) = F X ( x ) F Y ( y ) . {\displaystyle F(x,y)=F_{X}(x)F_{Y}(y).}

Condizioni analoghe si trovano per la funzione di densità di probabilità e la funzione di probabilità, se X {\displaystyle X} è rispettivamente una variabile casuale continua o una variabile casuale discreta:

f ( x , y ) = f X ( x ) f Y ( y ) , {\displaystyle f(x,y)=f_{X}(x)f_{Y}(y),}

e

p ( x , y ) = p X ( x ) p Y ( y ) . {\displaystyle p(x,y)=p_{X}(x)p_{Y}(y).}

Generalizzazioni

Abbozzo matematicaQuesta sezione sull'argomento matematica è solo un abbozzo. Contribuisci a migliorarla secondo le convenzioni di Wikipedia. Segui i suggerimenti del progetto di riferimento.

Nell'ambito della teoria della probabilità, la nozione di indipendenza stocastica può essere generalizzata ampiamente. Sia ( Ω , F , P ) {\displaystyle (\Omega ,{\mathfrak {F}},\mathbb {P} )} uno spazio di probabilità, e sia { F α } α A {\displaystyle \{{\mathfrak {F}}_{\alpha }\}_{\alpha \in {\mathcal {A}}}} una famiglia arbitraria (finita o non finita) di σ-algebre contenute in F {\displaystyle {\mathfrak {F}}} : F α F {\displaystyle {\mathfrak {F}}_{\alpha }\subseteq {\mathfrak {F}}} . Esse si dicono indipendenti rispetto a P {\displaystyle \mathbb {P} } se, per ogni sottoinsieme finito I = { α 1 , , α n } {\displaystyle {\mathcal {I}}=\{\alpha _{1},\ldots ,\alpha _{n}\}} di A {\displaystyle {\mathcal {A}}} , e per ogni sottoinsieme A α F α {\displaystyle A_{\alpha }\in {\mathfrak {F}}_{\alpha }} , accade:

P ( α I A α ) = α I P ( A α ) {\displaystyle \mathbb {P} \left(\bigcap _{\alpha \in {\mathcal {I}}}A_{\alpha }\right)=\prod _{\alpha \in {\mathcal {I}}}\mathbb {P} \left(A_{\alpha }\right)} .

Questa nozione si riduce alla precedente nel caso in cui la famiglia di σ-algebre sia formata da due soli elementi F A {\displaystyle {\mathfrak {F}}_{A}} e F B {\displaystyle {\mathfrak {F}}_{B}} , dove, dato un insieme misurabile E {\displaystyle E} , F E {\displaystyle {\mathfrak {F}}_{E}} è la σ-algebra da esso generata: F E = { , E , E c , Ω } {\displaystyle {\mathfrak {F}}_{E}=\{\varnothing ,E,E^{c},\Omega \}} .

Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che l'indipendenza stocastica di una famiglia di σ-algebre, non è in generale equivalente all'indipendenza dei suoi elementi a due a due. Ad esempio, dati tre insiemi A , B , C {\displaystyle A,B,C} , sapendo che A {\displaystyle A} e B {\displaystyle B} , A {\displaystyle A} e C {\displaystyle C} , B {\displaystyle B} e C {\displaystyle C} sono indipendenti, non se ne può dedurre che:

P ( A B C ) = P ( A ) P ( B ) P ( C ) . {\displaystyle \mathbb {P} (A\cap B\cap C)=\mathbb {P} (A)\mathbb {P} (B)\mathbb {P} (C).}

Voci correlate

Altri progetti

Altri progetti

  • Wikiversità
  • Wikimedia Commons
  • Collabora a Wikiversità Wikiversità contiene risorse sull'indipendenza stocastica
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file sull'indipendenza stocastica

Collegamenti esterni

  • (EN) independent event, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Indipendenza stocastica, su MathWorld, Wolfram Research. Modifica su Wikidata
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica