Calcolo delle Probabilità

 

Presentazione
La probabilità nella concezione classica
La probabilità nella concezione frequentista (o statistica)
La probabilità nella concezione soggettiva (o personale)
La probabilità nell’impostazione assiomatica
Probabilità della somma di eventi
Probabilità condizionata. Eventi dipendenti e indipendenti
Probabilità del prodotto logico di eventi
Probabilità completa o totale
Problema delle prove ripetute (o schema di Bernoulli)
Teorema di Bayes

 

Presentazione

Nel linguaggio corrente si sentono spesso frasi del tipo:

<<è probabile che fra poco piova>>;

<<con questo titolo di studio vi sono poche probabilità di trovare lavoro>>;

<<è molto probabile che nel 2000 si costruiscano stazioni extraterrestri>>;

<<è probabile che l’incendio sia d’origine dolosa>>.

Utilizziamo frequentemente il termine <<probabilità>> quando ci riferiamo a situazioni incerte, a fenomeni che possono o non verificarsi, ma nel linguaggio comune il concetto di probabilità é per lo più generico. Tale concetto è associato a quello d’evento aleatorio, intendendo distinguere, in questo modo, gli eventi certi, che si verificano sicuramente, da tutti quegli eventi il cui verificarsi dipende esclusivamente dal caso, detti appunto eventi aleatori o casuali. Ad esempio, un evento certo è quello di estrarre una pallina rossa da un'urna che contiene esclusivamente palline rosse. Esistono anche eventi definiti impossibili, perché non si verificheranno mai. Ad esempio, estrarre una pallina rossa da un'urna che contiene solo palline verdi è un evento impossibile. Gli eventi aleatori sono, essenzialmente, eventi incerti e possibili. Ad esempio, l’estrazione di una pallina rossa da un'urna che contenga palline rosse e bianche è un evento aleatorio; nel lancio di una moneta il fatto che si presenti la faccia contrassegnata dalla <<testa>> è un evento aleatorio, come anche l’estrazione di un asso da un mazzo di carte. Nell’ambito degli eventi aleatori, si possono distinguere eventi che hanno maggiori possibilità di verificarsi rispetto ad altri. Il calcolo delle probabilità cerca di formulare delle valutazioni numeriche della possibilità di verificarsi di tali eventi detti <<aleatori>> o <<casuali>>. Dobbiamo subito rilevare che, come non esiste un'unica definizione di probabilità così non esiste un unico modo di valutare la probabilità di un evento aleatorio. Un breve cenno storico permette di vedere come il concetto di probabilità sia notevolmente modificato nel corso di tre secoli e come il calcolo delle probabilità ha grandemente ampliato il suo campo d’applicazione. Il calcolo delle probabilità nasce nel Seicento per risolvere alcuni problemi sui giochi d’azzardo (dadi) posti da un giocatore, il cavaliere de Méré, al matematico e filosofo B. Pascal, del quale rimane, sull’argomento, un carteggio, datato 1654, con il matematico P. Fermat. Uno dei primi trattati di calcolo delle probabilità risale a J. Bernoulli (Ars conjectandi, pubblicato postumo a Basilea nel 1713), ma la prima impostazione sistematica della concezione classica, è opera di P. S. Laplace (Thèorie analytique des probabilités, Parigi 1812 e Essai philosophique sur les probabilités, Parigi 1814). Nell’Ottocento si delineano altre concezioni della probabilità. La prima concezione molto importante è la frequentista basata sull’esperimento e sull’osservazione di prove ripetute del fenomeno che è oggetto di studio ed è dovuta a J. Venn, A. Cournot e, nel Novecento, a R. von Mises e altri. Sempre nell’Ottocento, con sviluppo nel Novecento, sorge una nuova concezione, la soggettiva, che valuta la probabilità di un evento in base al grado di fiducia che un individuo attribuisce, secondo le sue informazioni, al verificarsi di un evento. Questa concezione può essere applicata a qualunque evento tanto che le decisioni, di maggiore o minore importanza, che prendiamo ogni giorno, sono fondate su valutazioni soggettive di probabilità (a livello conscio o inconscio). Di notevole importanza nella formulazione di questa concezione è l’opera di B. de Finetti (Teoria delle probabilità, Einaudi, Torino, 1970). Un’altra concezione, la logistica, è stata proposta da G. Boole nell’Ottocento e sviluppata nel Novecento da vari autori, fra i quali J. M. Keynes e R. Carnap. Per questi studiosi la probabilità di un evento è una relazione logica fra l’evento stesso e un insieme di conoscenze di cui si dispone. Infine, nel nostro secolo, si ha un'impostazione astratta, l’impostazione assiomatica, dovuta a A. N. Kolmogorov (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933) e altri, che sviluppa tutta la teoria della probabilità partendo da due concetti primitivi: evento e probabilità, e assegnando alcuni assiomi. Questa concezione ha avuto molta importanza e ha permesso di raggiungere notevoli risultati da un punto di vista generale, applicabili ai settori più svariati: dalla fisica all’economia, dalla statistica alla psicologia. Nonostante queste numerose concezioni, il campo di studio è aperto a nuove visioni del concetto di probabilità. Osserviamo che il concetto di evento è assunto come concetto primitivo per indicare <<qualcosa che può accadere>>. L’evento è espresso da una proposizione che risulterà vera se l’evento si sarà verificato, falsa se l’evento non si sarà verificato.

arrowsu.gif (371 byte)

La probabilità nella concezione classica

Consideriamo i seguenti problemi.

Se lanciamo una moneta <<regolare>> e chiediamo a qualsiasi persona qual è la probabilità di ottenere <<testa>>, si ha la risposta: <<Nel 50% dei casi si presenta "testa", nell’altro 50% si presenta "croce">>.Si preferisce affermare che la probabilità di avere <<testa>> è ½.

Estraiamo a caso una carta da un mazzo di 40 carte (dopo averle ben mescolate) e chiediamo d'indicare la probabilità che la carta estratta sia di fiori. Il nostro interlocutore sapendo che delle 40 carte, 10 sono di fiori, dirà: <<La probabilità di estrarre una carta di fiori è del 25%, o, meglio, 10/40=1/4>>.

Da questi due semplici esempi si può vedere che è spontanea la seguente definizione, data da Laplace, di probabilità secondo la concezione classica:

 

La probabilità P (E) di un evento E è il rapporto fra il numero m dei casi favorevoli (al verificarsi di E) e il numero n dei casi possibili, giudicati egualmente possibili.

 

La probabilità è un numero razionale p compreso fra 0 e 1:

0£ p £ 1

Il numeratore m è il numero dei casi favorevoli al verificarsi dell’evento e quindi è minore, o al più eguale, al numero n di tutti i casi possibili, che è al denominatore. In particolare:

se m=0, ossia se non esistono casi favorevoli al verificarsi dell’evento, l’evento è detto impossibile e la sua probabilità è nulla: P (E) =0;

se m=n, ossia se tutti i casi sono favorevoli al verificarsi dell’evento, l’evento è detto certo e la sua probabilità è 1: P(E)=1.

La caratteristica essenziale della concezione classica (e uno dei suoi punti deboli) è la condizione che tutti i casi in cui può manifestarsi il fenomeno siano egualmente possibili. Così, ad esempio, nel lancio della moneta le due facce devono avere eguale possibilità di presentarsi e anche nel lancio di un dado le facce devono presentarsi <<pari facilitate>>. Inoltre si deve rilevare che la definizione si può applicare quando l’insieme dei casi è un insieme finito. La definizione classica di probabilità è stata molto criticata, poiché supporre che i casi siano egualmente possibili significa supporre che abbiano eguale probabilità di verificarsi e quindi nella definizione si utilizza lo stesso concetto che si vuole definire. Per superare la circolarità della definizione già J. Bernoulli aveva introdotto il principio della ragione non sufficiente detto, successivamente, principio d'indifferenza. Tale principio asserisce che, in mancanza di ragioni che permettano di assegnare probabilità diverse a ciascuno degli eventi elementari, questi devono essere considerati come egualmente possibili. Ad esempio, se non ci sono motivi per affermare che un dado sia irregolare, si accetta che ogni faccia sia equipossibile. Un altro tipo di difficoltà s'incontra nel calcolo del numero dei casi possibili e dei casi favorevoli quando i casi sono molto numerosi; tale calcolo è addirittura impossibile se si debbono valutare insiemi infiniti. Inoltre il campo di applicazione della probabilità definita nel modo classico risulta molto ristretto perché la definizione è valida per eventi nei quali vi siano ragioni di simmetria che permettano di giudicare egualmente possibili i vari casi (come nel lancio di una moneta o di un dado non truccati, nell’estrazione dei numeri del lotto e, in generale nei problemi riconducibili a estrazione a sorte di palline da un'urna). Se non vi sono ragioni per ammettere che un caso sia più favorito di un altro, si accetta l’impostazione classica che è utile per quei problemi che ammettono come modello matematico un'urna contenente palline eguali per forma e peso, ma distinguibili per il colore. Tipico esempio di applicazione della concezione classica di probabilità si ha in genetica con le leggi ottenute da Mendel (verificate statisticamente da Mendel e da altri biologi ) nello studio dei problemi legati all'ereditarietà. Altro campo di applicazione della concezione classica della probabilità si ha nella teoria del campionamento. Nell’impostazione classica non si può determinare la probabilità di molti eventi, ad esempio, la probabilità per una persona di 40 anni di raggiungere l’età di 60 anni, la probabilità di subire un furto, la probabilità che un nuovo medicinale dia esiti positivi nella cura di una malattia. È necessario quindi rivedere e modificare la definizione di Laplace per ampliare il campo di applicazione della probabilità.

arrowsu.gif (371 byte)

La probabilità nella concezione frequentista (o statistica)

Dalle critiche alla definizione classica di probabilità, anche in conseguenza dei progressi delle scienze sperimentali, si sviluppò una nuova concezione della probabilità: la concezione frequentista, che si può applicare quando si possono eseguire tante prove quante si vogliono sull’evento, oppure sono disponibili tavole con i risultati di rilevazioni statistiche relative a un certo fenomeno (ad esempio, le tavole di mortalità e di sopravvivenza). Secondo la concezione frequentista, per conoscere la probabilità di un evento si deve ricorrere all’esperimento. È importante rilevare che per un frequentista non ha senso calcolare la probabilità di una singola prova, perché non si può prevedere il risultato di un singolo esperimento, mentre in una gran successione di prove si riscontra una sorprendente regolarità. Ad esempio, se si lancia più volte una moneta non si può calcolare la probabilità che a un determinato lancio si presenti testa, ma solo la probabilità che si presenti testa dopo avere effettuato un numero sufficientemente grande di lanci. La concezione frequentista è basata sulla definizione di frequenza relativa di un evento.

 

Si definisce frequenza relativa di un evento in n prove effettuate nelle stesse condizioni, il rapporto fra il numero k delle prove nelle quali l’evento si è verificato e il numero n delle prove effettuate:

, dove 0 £ f £ 1

 

La frequenza dipende non solo da n, numero delle prove fatte, ma, per uno stesso n, può variare al variare del gruppo delle prove, cioè se, per esempio, si lancia 100 volte una moneta e si presenta testa 46 volte, effettuando altri 100 lanci, testa si può presentare un altro numero di volte, ad esempio 52; ne segue che la frequenza per il primo gruppo di lanci è 46/100, per il secondo è 52/100. Anche la frequenza è compresa fra 0 e 1, ma se f=0 non si può affermare che l’evento è impossibile, ma che non si è verificato in quelle n prove; e se invece f=1 non si può affermare che l’evento è certo, ma che in quelle n prove esso si è sempre verificato. La frequenza varia al variare del gruppo delle prove eseguite, ma, fatto interessante, è stato costatato che se il numero di prove è sufficientemente alto, il rapporto k/n tende a stabilizzarsi. Questo fatto era già stato costatato da alcuni demografi nel diciassettesimo e diciottesimo secolo su fenomeni quali frequenze di nascite maschili e frequenze di decessi in una stessa popolazione. Inoltre, per fenomeni di cui è possibile calcolare la probabilità con la concezione classica, la frequenza, al crescere delle prove, <<tende>>, generalmente, ad avvicinarsi alla probabilità calcolata a priori. A questo riguardo sono storici gli esperimenti di Buffon e Pearson. Il primo lanciò 4.040 volte una moneta ottenendo <<testa>> 2.048 volte con una frequenza 0,5069. Il Pearson in un primo esperimento con 12.000 lanci ottenne <<testa>> 6.019 volte, con frequenza 0,50158; in un secondo esperimento ottenne, su 24.000 lanci, 12.012 volte <<testa>>, con frequenza 0,5005. Quindi la frequenza, al crescere del numero delle prove, si avvicina ordinariamente al valore 0,5 della probabilità dell’evento <<viene testa>>, calcolato con l’impostazione classica. Si giunge a enunciare, per eventi per i quali si può calcolare la probabilità, la cosiddetta

 

legge empirica del caso: in una serie di prove, ripetute un gran numero di volte, eseguite tutte nelle stesse condizioni, la frequenza <<tende>> ad assumere valori prossimi alla probabilità dell’evento e, generalmente, l’approssimazione è tanto maggiore quanto più numerose sono le prove eseguite.

 

Bisogna applicare con attenzione tale legge, in quanto la legge afferma che se si eseguono numerose prove su un evento, la frequenza ordinariamente si discosta di poco dalla probabilità, ma ciò non esclude che qualche volta, anche se raramente, la frequenza, che è un valore sperimentale, assuma valori non attesi. Inoltre non è detto che, se, ad esempio, nel gioco del lotto un numero non si è presentato da molte settimane, abbia maggiore probabilità di presentarsi, in quanto per ogni estrazione tale probabilità è sempre la stessa, indipendentemente dai numeri usciti nelle altre estrazioni. La legge empirica del caso permette di formulare la seguente definizione frequentista di probabilità per eventi ripetibili.

 

La probabilità di un evento è la frequenza relativa in un numero di prove ritenuto <<sufficientemente>> elevato.

 

In generale non si può dire quante prove siano necessarie, perché il numero delle prove dipende dal fenomeno in esame. La frequenza, calcolata in un gran numero di prove, permette di prevedere i risultati di prove future eseguite nelle stesse condizioni. Il campo di applicazione della concezione frequentista è molto vasto, in quanto la definizione può essere applicata a fenomeni dei quali si posseggano dati statistici riguardanti fenomeni passati che si sono verificati in condizioni analoghe. Ad esempio, si potranno calcolare, per una data popolazione, la probabilità di morte o di sopravvivenza degli individui o la probabilità di nascita di maschi o di femmine. Si hanno pure importanti applicazioni nella medicina, nella psicologia, nell’economia, nella meccanica quantistica e, in generale, in tutte le scienze per le quali si possono utilizzare metodi statistici. Le probabilità calcolate sia con la concezione classica, sia con la concezione frequentista, sono dette probabilità oggettive per distinguerle dalle probabilità valutate secondo la concezione soggettiva.

arrowsu.gif (371 byte)

La probabilità nella concezione soggettiva (o personale)

Esaminiamo i seguenti problemi.

Qual è la probabilità per uno studente di trovare impiego subito dopo il conseguimento del diploma?

Domenica prossima si svolgerà un’importante maratona internazionale; qual è la probabilità che la gara sia vinta da Pini?

Qual è la probabilità che un nuovo modello di automobile ha d'incontrare il favore del pubblico?

Per eventi del tipo indicato non è possibile valutare la probabilità né secondo la concezione classica, perché non si possono determinare i casi possibili e i casi favorevoli, né secondo la concezione frequentista, perché gli eventi non sono ripetibili; in questi casi si stima la probabilità in base allo stato d'informazione, precisamente:

 

La probabilità P(E) di un evento E è la misura del grado di fiducia che un individuo attribuisce, in base alle sue informazioni e alle sue opinioni, al verificarsi dell’evento E.

 

Le valutazioni di probabilità sono soggettive, ossia possono variare da individuo a individuo, ma deve essere rispettata la coerenza. Per meglio fissare questo concetto, B. de Finetti, che è uno dei principali sostenitori di quest'impostazione si ricollega alle scommesse e dà la seguente definizione:

 

La probabilità di un evento E, secondo l’opinione di un certo individuo, è il prezzo p che ritiene equo attribuire all’importo unitario, esigibile al verificarsi di E.

 

Ossia la probabilità è quella somma p che l’individuo è disposto a pagare per ricevere una lira nel caso si verifichi E; ma, per coerenza, egli è anche disposto ad accettare la scommessa inversa, ossia a ricevere p e pagare una lira al verificarsi di E. Ad esempio, attribuire la probabilità di 0,7 a un certo evento E significa essere disposti a pagare 70 lire per riceverne 100 nel caso si verifichi l’evento E; e inversamente, per coerenza, essere disposti a ricevere 70 lire e pagarne 100 nel caso si verifichi l’evento E. In questa concezione la probabilità è un numero reale compreso fra 0 e 1. Infatti: se l’evento è giudicato impossibile, il prezzo è p=0, se l’evento è giudicato certo, il prezzo è p=1; in tutti gli altri casi 0<p<1. Il campo di applicazione di questa concezione è illimitato in quanto qualsiasi evento può essere valutato in base a essa; anzi, anche inconsciamente, quando prendiamo qualche decisione, il fatto stesso di scegliere un’alternativa invece di un’altra, presuppone che abbiamo assegnato delle probabilità. Riprendiamo in esame i problemi indicati all’inizio.

La valutazione della probabilità di trovare impiego per uno studente neodiplomato dipende da molti fattori, come, ad esempio, la sua preparazione professionale, le sue doti intellettuali, la sua capacità di rapporti interpersonali. La valutazione della probabilità è puramente soggettiva e persone diverse possono assegnare a uno stesso giovane probabilità diverse. Ad esempio, una persona pessimista può valutare che la probabilità di trovare lavoro sia del 25%, un’ottimista, invece, può assegnare la probabilità del 70%. Entrambe le valutazioni, pur così diverse, devono essere accettate, purché siano coerenti.

La probabilità che un campione vinca una gara dipende da vari fattori, quali le sue condizioni di forma o la presenza di altri atleti di maggiore capacità. Anche in questo caso in base alle informazioni e alle opinioni, le valutazioni della probabilità di vittoria sono generalmente diverse secondo lo sportivo o il giornalista che lo formula.

Anche per quanto si riferisce al successo di un prodotto nuovo presso gli acquirenti, le opinioni dipendono dai gusti di chi compie la valutazione e anche dalla sua stima per la Casa produttrice.

Ad esempio, un imprenditore può assegnare una valutazione prudenziale del 40% al successo di un nuovo modello di automobile, un altro imprenditore, che ama il rischio, con le stesse informazioni può attribuire al nuovo modello di automobile la probabilità del 70% di successo. In base a queste valutazioni si possono prendere decisioni diverse: l’imprenditore <<prudente>> può stimare rischioso produrre il nuovo modello e non dà corso alla produzione, mentre l’imprenditore più ottimista decide, in base alla sua valutazione, d'iniziare la produzione del nuovo modello. A quest'impostazione sono state mosse critiche poiché le valutazioni di probabilità verrebbero, in generale, a differire da individuo a individuo.

arrowsu.gif (371 byte)

La probabilità nell’impostazione assiomatica

Con lo sviluppo degli studi matematici, soprattutto con l'applicazione della logica formale all'analisi dei fondamenti della matematica e della scienza in genere, si è giunti a un'impostazione che dà della probabilità una definizione implicita mediante un sistema di assiomi, analogamente, per esempio, alla definizione implicita di retta data dalla Geometria razionale. L’impostazione assiomatica è sorta proprio per l’esigenza dei matematici di sistemare in modo rigoroso le conoscenze e le molte applicazioni del calcolo delle probabilità che durante due secoli i ricercatori hanno sviluppato in molteplici campi. L‘idea di costruire un'impostazione assiomatica si può far risalire, per lo meno, a H. Poincarè (Calcul des probabilités, 1894). Successivamente molti autori hanno proposto varie assiomatiche; citiamo, fra i molti, A. N. Kolmogoroff (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933) e D. Scott-P. Krauss (in Assigning probabilities to logical formula, Aspect of introductive logic, a cura di Hintikka e Suppes, 1966). A ogni eperimento (reale o concettuale ) si può associare un insieme U, detto universo o spazio dei campioni o spazio degli eventi, i cui elementi sono tutti i possibili risultati dell‘esperimento (o fenomeno). La scelta dell‘universo U, legato a un certo esperimento, non è fissa, ma può dipendere dal problema. Ad esempio, se lanciamo un dado e vogliamo distinguere i risultati possibili, possiamo considerare come insieme universo l’insieme U={ 1,2,3,4,5,6} ; se, invece, c'interessa solo distinguere i numeri pari dai numeri dispari, possiamo assumere come insieme universo l’insieme U’ costituito dagli elementi P e D: U’={ P,D} . Precisiamo alcune caratteristiche del concetto di evento:

 

La nozione di evento è assunta come primitiva.

Un evento(passato, o presente, o futuro) è descrivibile con un'espressione linguistica alla quale si può associare un sottoinsieme dell’insieme universo U.

Si può identificare l’evento con il sottoinsieme associato all'espressione linguistica che lo descrive e tradurre le operazioni logiche sugli eventi in operazioni fra sottoinsiemi.

I sottoinsiemi costituiti da un solo elemento sono detti eventi elementari.

 

Si dirà che l’evento si verifica se il risultato dell’esperimento è un elemento appartenente al sottoinsieme associato all’evento. Ad esempio, nel lancio di un dado, l’evento <<la faccia presentata è un numero pari>>, risulta verificato se si presenta una delle facce 2, 4, 6. Sugli eventi si definiscono operazioni analoghe a quelle definite sugli insiemi.

 

Si definisce evento contrario dell’evento A, l’evento A che si verifica se e solo se non si verifica A, cioè A è il sottoinsieme complementare di A rispetto a U.

Si definisce somma logica (o unione) di due eventi A e B, l’evento A È B che si verifica quando si verifica almeno uno degli eventi A o B.

Si definisce prodotto logico (o intersezione) di due eventi A e B, l’evento A Ç B che si verifica se si verificano entrambi gli eventi A e B.

 

In particolare:

Due eventi si dicono incompatibili se il verificarsi dell’uno esclude il verificarsi dell’altro, cioè se i loro sottoinsiemi sono disgiunti: A Ç B=Æ ;

L’evento impossibile corrisponde al sottoinsieme vuoto;

L’evento certo corrisponde all’insieme U.

L’insieme degli eventi, nel caso che U sia un insieme finito, è l’insieme formato da tutti i sottoinsiemi di U, e quindi è l’insieme delle parti P (U). Dato un universo U consideriamo una famiglia F di sottoinsiemi di U (non necessariamente coincide con P (U)), che goda delle seguenti proprietà:

Contenga U come suo elemento;

Sia chiusa rispetto alle operazioni di unione, intersezione e complementazione (ossia tale che se contiene due sottoinsiemi A e B di U contenga la loro unione, la loro intersezione e i loro complementari).

Si deduce che in F vi è anche l’insieme vuoto Æ che è il complementare di U. Gli elementi di F sono detti eventi casuali. In tali ipotesi F è detta campo degli eventi (o s -algebra). Si ha la seguente definizione assiomatica di probabilità:

 

La probabilità P(E)è una funzione che associa a ogni evento del campo degli eventi un numero reale, in modo che siano soddisfatti i seguenti assiomi:

P(E) >= 0

P(U) = 1

Se E1 e E2 sono incompatibili, ossia E1 Ç E2 = Æ ,si ha: P(E1 È E2) = P(E1) + P(E2).

 

Da questi assiomi si deducono le seguenti proprietà:

a) L’evento impossibile ha probabilità zero. Infatti dall’eguaglianza:

U = U È Æ

applicando l’assioma 3° si ricava:

P(U) = P(U È Æ ) = P(U) + P(Æ )

e per l’assioma 2° si ha:

1 = 1 + P(Æ )

da cui segue:

P(Æ ) = 0

b) Dato un evento E, la probabilità dell’evento contrario è eguale al complemento a 1 della probabilità dell’evento E, in pratica:

P() = 1 - P(E)

Infatti, dalla relazione:

U = E È

segue, per l’assioma 3°:

P(U) = P(E È ) = P(E) + P()

ed essendo, per l’assioma 2°, P(U) = 1, si ha:

P() = 1 - P(E)

c) Dalla relazione precedente e dall'assioma 1° si deduce che la probabilità è un numero reale compreso fra zero e uno, cioè:

0<= P(E) <=1

d) Per la proprietà associativa dell'unione fra insiemi, si ha;

P(E1 È E2 È E3) = P(E1)+ P(E2)+ P(E3)

purché:

E1 Ç E2 = E1 Ç E3 = E2 Ç E3 = Æ

cioè se gli eventi sono incompatibili a due a due. La proprietà si estende a K eventi a due a due incompatibili:

P(E1 È E2 È E3È Ek )= P(E1)+ P(E2)+ P(E3)+…+ P(Ek)

se:

Ei Ç Ej = Æ ; i ¹ j; i , j=1,2,…,k

e) Siano E1 ,…, En eventi elementari di U, incompatibili a due a due e aventi come unione l'insieme U, cioè:

Ei Ç Ej = Æ ; i ¹ j; i , j=1,2,…,n

E1 È E2 ÈÈ En=U

Allora, per la proprietà d) e per l'assioma 2°, si ha:

P(E1 È E2 ÈÈ En )= P(E1)+ P(E2)+…+ P(En)=P(U)=1

Se si aggiunge l'ipotesi che gli eventi siano equiprobabili, come nell'impostazione classica, ciascun evento avrà probabilità;

i=1,2,…,n

Se E è un evento unione di m eventi elementari, la sua probabilità è allora:

Si può quindi affermare che:

 

La probabilità secondo la concezione classica è un caso particolare della probabilità secondo l'impostazione assiomatica.

 

f) Se E1 Ì E2 allora la probabilità della differenza fra E2 ed E1 è uguale alla differenza delle probabilità :

P(E2 - E1)=P(E2)- P(E1)

Infatti, essendo E1 ed E2 - E1 disgiunti, si può scrivere (vedi figura):

E2 = E1 È (E2 - E1)

E per l'assioma 3°:

P(E2)=P(E1) + P(E2 - E1)

cioè:

P(E2 - E1)=P(E2)- P(E1)

L'impostazione assiomatica è soddisfacente dal punto di vista teorico, ma non indica come valutare la probabilità di un evento, poiché rimane da definire il tipo di funzione.

arrowsu.gif (371 byte)

Probabilità della somma di eventi

La probabilità della somma logica di eventi, se gli eventi sono incompatibili, è espressa dall’assioma 3° e dalla sua estensione a più di due eventi incompatibili a due a due, come si è visto nella proprietà d). Si presenta il problema di calcolare la probabilità della somma logica in caso di eventi compatibili. Esaminiamo alcuni casi.

a) Se due eventi A e B sono compatibili si ha la seguente relazione di Boole:

P(A È B)=P(A) + P(B) – P(A Ç B)

cioè:

La probabilità della somma logica di due eventi è eguale alla somma delle probabilità dei due eventi diminuita della probabilità dell'intersezione dei due eventi.

 

Infatti essendo A e (B - A) disgiunti si può scrivere:

A È B = A È (B - A)

e inoltre

B - A = B - (A Ç B) dove (A Ç B) Ì B

Applicando il 3° assioma e la sua proprietà f) si ottiene:

P(A È B) = P(A) + P(B - A) = P(A) + P[B - (A Ç B)] = P(A) + P(B) – P(A Ç B)

b) La precedente relazione si estende alla somma logica di tre eventi A, B, C qualunque (se i tre eventi fossero incompatibili a due a due, ritroveremmo la proprietà d)):

P(A È B È C) = P(A) + P(B) + P(C) – P(A Ç B) – P(A Ç C) – P(B Ç C) + P(A Ç B Ç C)

Una verifica intuitiva si può avere esaminando i sottoinsiemi A,B,C, nel seguente grafico:

La precedente relazione può essere estesa a un numero qualunque di eventi.

c) Se A e B sono due eventi qualunque si ha la relazione:

Infatti, i due eventi B e sono incompatibili e la loro unione è U; per le proprietà delle operazioni fra insiemi si può scrivere:

I due sottoinsiemi e sono disgiunti poiché lo sono B e ; quindi, per l'assioma 3° si ha la tesi, considerando il primo e l'ultimo membro delle eguaglianze precedenti:

d) Si può estendere la precedente relazione.

Se B1,B2,…,BK costituiscono una partizione di U, ossia se:

Bi¹ Æ , i=1,…k, cioè nessun Bi è l'evento impossibile;

Bi Ç Bj =Æ , i¹ j, i,j=1,…,k, cioè Bi è incompatibile con tutti gli altri;

B1È B2ÈÈ Bk=U, ossia la somma logica di tutti i Bi è l'evento certo;

allora, si ha la relazione:

La partizione {B1 Bk} è anche detta classe completa di eventi incompatibili. Talvolta per il calcolo della probabilità di un evento A è più facile servirsi della probabilità dell'evento contrario e applicare la proprietà b), che si può scrivere nella forma:

arrowsu.gif (371 byte)

Probabilità condizionata. Eventi dipendenti e indipendenti

Si è detto più volte che la valutazione di probabilità dipende anche dallo stato d'informazione, quindi la probabilità di un evento può variare subordinatamente al verificarsi di un altro evento. Ad esempio, nel lancio di un dado, la probabilità che esca il 4 è 1/6. Se si ha l'informazione che è uscito un numero pari, la probabilità che sia 4 è 1/3, mentre se l'informazione fosse che è uscito un numero superiore a due, la probabilità sarebbe 1/4.

 

Si definisce probabilità di un evento A condizionata (o subordinata) all'evento B, e s'indica P(A/B), la probabilità del verificarsi di A nell'ipotesi che B si sia verificato. Se B non si verifica, l'evento A/B non è definito.

 

Facciamo notare che per valutare P(A) si è preso in considerazione l'universo U degli eventi elementari(o dei casi possibili nell'impostazione classica); adesso, per ulteriori informazioni o per effetto di scelta, l'universo U si riduce al suo sottoinsieme B e quindi è in B che si debbono considerare gli eventi elementari. In sostanza, si valuta la probabilità di A subordinata all'ipotesi B, mentre prima si valutava la probabilità di A subordinata all'ipotesi U; l'informazione restringe l'universo U a un suo sottoinsieme B.

Secondo l'impostazione classica si vede facilmente che se b sono i casi favorevoli al verificarsi dell'evento B, e k sono quelli favorevoli al verificarsi di A Ç B, la probabilità di A condizionato a B risulta:

La precedente frazione si può trasformare dividendo per n, numero totale dei casi possibili, il numeratore e il denominatore, e si ottiene:

L’impostazione assiomatica definisce proprio come probabilità di A condizionata a B la relazione:

Si può dimostrare, che la P(A/B), definita dalla precedente, soddisfa ai tre assiomi dell’impostazione assiomatica enunciati precedentemente. Osserviamo che P(A/B) può essere minore, eguale, maggiore di P(A). Analogamente si può calcolare la probabilità di B condizionata ad A:

La probabilità di A condizionata a B può essere eguale, o maggiore o minore di P(A). Importante è il caso in cui vale l'eguaglianza; precisamente si ha la seguente definizione:

 

Due eventi A e B si dicono stocasticamente indipendenti (ossia indipendenti dal punto di vista del calcolo delle probabilità), se:

 

Se questa relazione è vera, si deduce, con alcuni passaggi, che risulta pure P(B)=P(B/A). La relazione d'indipendenza stocastica è simmetrica , cioè se A è indipendente da B, anche B è indipendente da A. Se non vale l'eguaglianza precedente, gli eventi si dicono stocasticamente dipendenti; si hanno i due seguenti casi:

Se risulta P(A/B)>P(A), si dice che gli eventi sono correlati positivamente, cioè l’informazione ha aumentato la probabilità dell’evento A;

Se risulta P(A/B)<P(A), si dice che gli eventi sono correlati negativamente, cioè l’informazione ha diminuito la probabilità dell’evento A.

arrowsu.gif (371 byte)

Probabilità del prodotto logico di eventi

Dati due eventi, si definisce evento composto o prodotto logico degli eventi, l’evento che risulta verificato se gli eventi componenti si verificano entrambi. Nella rappresentazione insiemistica all’evento composto è associato il sottoinsieme intersezione degli eventi componenti.

Dalle relazioni sulle probabilità condizionate si ricava immediatamente:

oppure

Queste due relazioni costituiscono il teorema delle probabilità composte.

 

La probabilità dell’evento composto, o del prodotto logico A Ç B, è uguale al prodotto della probabilità di un evento per la probabilità dell’altro condizionata al verificarsi del primo.

 

Se gli eventi sono stocasticamente indipendenti, cioè se P(A / B) = P(A), oppure se P(B / A) = P( B ), il teorema delle probabilità composte diventa:

Il teorema delle probabilità composte si può estendere al prodotto logico di tre o più eventi. Se gli eventi E1, E2,…,En sono stocasticamente indipendenti, la probabilità del loro prodotto logico è uguale al prodotto delle probabilità dei singoli eventi. Se gli eventi E1, E2,…,En sono stocasticamente dipendenti, la probabilità del loro prodotto logico è eguale al prodotto della probabilità del primo per la probabilità del secondo condizionata al primo, per la probabilità del terzo condizionata ai primi due, eccetera.

arrowsu.gif (371 byte)

Probabilità completa o totale

Sia data una partizione dell’evento certo in n eventi non impossibili, incompatibili a due a due e tali che la loro somma logica sia l’evento certo e si consideri un evento A. Mediante la seguente rappresentazione grafica visualizziamo quest'ipotesi:

Vogliamo esprimere la probabilità di A mediante la probabilità degli eventi Hi. Dallo schema si rileva che il sottoinsieme A è l’unione delle intersezioni di A con gli Hi che sono disgiunti; la probabilità di A è, allora, la somma delle probabilità degli eventi AÇ Hi:

Applicando il teorema delle probabilità composte si ricava:

La formula trovata per P(A) è detta formula della probabilità totale o completa (detta da alcuni autori, formula di disintegrazione). Questa formula permette di calcolare la probabilità di un evento A somma logica di n eventi incompatibili a due a due, eventi che sono ognuno prodotto logico di due eventi. Tale formula trova un’interessante applicazione nel teorema di Bayes.

arrowsu.gif (371 byte)

Problema delle prove ripetute (o schema di Bernoulli)

In molti problemi di applicazione si debbono considerare le prove indipendenti ripetute di un esperimento. Per ogni prova sia p la probabilità che la prova dia esito positivo (o successo, come si usa dire) e sia q=1-p la probabilità contraria (o fallimento). Vogliamo calcolare la probabilità che su n prove indipendenti, k e solo k abbiano successo. Supponiamo che l’esperimento abbia successo nelle prime k prove e fallimento nelle successive n-k. Per il principio delle probabilità composte, la probabilità di quest'evento è data da:

Le k prove con successo possono presentarsi con ordine diverso, ma, ovviamente, la probabilità ha lo stesso valore precedente. Il numero degli eventi formati da k successi e da n-k fallimenti è dato da tutte le combinazioni delle n prove a k a k e quindi è .

 

La probabilità che, su n prove bernoulliane, k e solo k abbiano successo è data da:

arrowsu.gif (371 byte)

Teorema di Bayes

Una prima formulazione del teorema di Bayes (o teorema della probabilità delle cause) si ricava dal teorema delle probabilità composte. Consideriamo le relazioni e indicando gli eventi con A e H, come si usa scrivere in questo contesto:

Dall’eguaglianza dei due secondi membri si ottiene la seguente relazione che esprime il teorema di Bayes nel caso di un solo evento H:

In generale, se un evento A può verificarsi in seguito a più cause, che si escludano a vicenda, dalla conoscenza della probabilità delle cause, essendosi verificato l’evento A, possiamo calcolare la probabilità che esso sia dovuto a una determinata causa. Ricaviamo adesso la forma generale del teorema di Bayes. Sappiamo che data una partizione di U e un evento qualunque A si può esprimere P(A) nel modo seguente:

e sostituendo questo valore di P(A) si ha la formula che esprime il:

 

Teorema di Bayes

Dal teorema si rileva che le probabilità <<a posteriori>> P(Hi /A) delle cause (cioè dopo che l’evento A si è verificato), sono proporzionali alle corrispondenti probabilità <<a priori>> P(Hi) corrette con il fattore P(A/Hi). In altre parole, se è alta la probabilità che l’evento A sia effetto della causa Hi , il fatto che l’evento A si sia verificato aumenta la probabilità, anche se non dà la certezza, che a produrlo sia proprio la causa Hi . Viceversa, se è bassa la probabilità che l’evento A sia effetto della causa Hi, il fatto che l’evento A si sia verificato diminuisce la probabilità che a produrre A sia stata proprio la causa Hi. In molti problemi non si conoscono le probabilità P(Hi) delle cause; in questi casi si assume per le cause un eguale valore di probabilità. Il teorema di Bayes è interpretato dai soggettivisti come un modo per incrementare lo stato di conoscenza di un fenomeno in base alle nuove informazioni. Mendel applicò il teorema di Bayes ai suoi studi di genetica.

arrowsu.gif (371 byte)