Il teorema di Bayes è una di quelle affascinanti formule matematico-probabilistiche che usiamo quotidianamente senza che ce ne accorgiamo. Contrariamente a quanto si possa pensare, però, essa riesce ad aprirci il mondo della probabilità condizionata usando una sintassi semplice ed efficace.
IN BREVE
La probabilità condizionata, tra matematica e vita comune
Nel calcolare la probabilità di un evento in genere adottiamo diversi metodi a seconda della situazione, degli agenti esterni e dei risvolti che tale evento avranno sulla nostra giornata. Partiamo con un presupposto importantissimo: la probabilità è una scienza estremamente controintuitiva. Molto spesso infatti la nostra mente viene ingannata da vari fattori esterni (o interni, propri della psiche umana), a tal punto che il risultato che ci aspettiamo è tremendamente lontano da quello reale. È bene quindi affidarsi alla matematica ed alla statistica, che ci forniscono strumenti affidabili per esplorare questo fitto e contorto mondo. Ad esempio, se lanciamo un dado regolare la probabilità che esca un 5 è pari a 1/6, ovvero circa il 17%. Se lo vediamo come un singolo evento il risultato ci appare semplice e tutto sommato scontato. Ma se esso fosse in realtà l’ultimo di una lunga sequenza di lanci effettuati con la stessa modalità e se sapessimo che finora non è ancora uscito un 5 come cambierebbe la probabilità che esca un 5? Si alzerebbe, si abbasserebbe, rimarrebbe costante? O ancora, immaginiamo di trovarci in una fitta foresta da soli e di incappare in un bivio: solo una delle due strade porta al rifugio. Come ci comportiamo? Senza alcun indizio è chiaro che ogni strada ha la stessa probabilità di essere quella giusta (50%), ma se avessimo delle informazioni in più, come ad esempio un numero maggiore di impronte di scarponi su una delle due vie, le cose (quasi) sicuramente cambierebbero. Ecco dunque il problema: come cambia (se cambia) la probabilità di un evento al variare di informazioni aggiuntive? Come si può quantificare questo cambiamento? Questo articolo spiega il teorema di Bayes a cosa serve e come in questo contesto ci regala la spiegazione matematica più adeguata.
Il ruolo del teorema di Bayes, dimostrazione e commenti
Chiamiamo A e B due eventi: se essi sono indipendenti (uno non influenza la possibilità di realizzarsi dell’altro) la probabilità che si verifichino entrambi è data dal prodotto delle due probabilità, ovvero
\(\)\[ P(A\: e\: B)=P(A)⋅P(B) \]\(\)
dove la funzione P(E) è la Probabilità che accada l’evento E. Ad esempio, supponiamo di lanciare una moneta ed un dado. La probabilità che esca testa è 0.5 (cioè il 50%), mentre la probabilità che esca un 3 è circa 0.17 (cioè il 17%). I due eventi sono tra loro indipendenti, non hanno nulla a che fare tra di loro. Di conseguenza possiamo usare la formula di prima, ovvero per avere la probabilità di avere una testa ed un 3 basta moltiplicare le due probabilità, quindi è pari a 0.5⋅0.17=0.08, cioè circa l’8%. Se invece i due eventi non sono indipendenti il discorso cambia. La probabilità che si verifichino entrambi infatti diventa
\(\)\[ P(A\: e\: B)=P(A)⋅P(B|A) \]\(\)
dove P(B|A) si legge “Probabilità che accada l’evento B sapendo che si è verificato l’evento A” o , più brevemente, “Probabilità di B dato A”. Quindi viene introdotta all’interno della formula l’informazione aggiuntiva che abbiamo sapendo che uno dei due eventi si è già verificato e, dal momento che i due eventi sono dipendenti (cioè si influenzano a vicenda), il fatto che sia già avvenuto A modifica la probabilità che accadano tutti e 2. Tramite alcuni passaggi matematici si ottiene la formula del teorema di Bayes, ovvero
\(\)\[ P(A|B)=P(B|A)⋅ \frac{P(A)}{P(B)} \]\(\)
e come si vede entra in gioco il termine P(evento 1|evento 2) spiegato prima che si chiama probabilità condizionata (infatti calcolo la probabilità che accada l’evento 1 condizionandomi al fatto che so che si è già verificato l’evento 2). Il teorema funge quindi da “ponte” tra la situazione in cui non abbiamo indizi e quella dove abbiamo una qualche informazione in più.
Problema di Monty Hall: come salvare capra e… macchina
Uno dei più classici e conosciuti indovinelli legati al calcolo delle probabilità può essere risolto proprio tramite la formula del teorema di Bayes. In un ipotetico quiz televisivo vengono presentate al concorrente tre porte chiuse: dietro una porta c’è una macchina, dietro le altre due c’è una capra; l’obiettivo del giocatore è chiaramente trovare la macchina. Il conduttore, che sa dove si trova l’oggetto vincente, fa scegliere al concorrente una porta, dopodiché ne apre un’altra mostrando che dietro di essa c’è una capra. Ora la domanda è: al giocatore conviene cambiare porta o rimanere sulla scelta iniziale? Mettendoci nei suoi panni abbiamo due porte rimaste e solo dietro una c’è la macchina; intuitivamente ci verrebbe da dire che la probabilità è 50% e 50%, ma le cose non stanno così. Supponiamo che la scelta iniziale sia la terza porta e che il conduttore apra la seconda. Chiamiamo P1, P2, P3 le tre porte e M1, M2, M3 gli eventi “c’è una macchina dietro le porte 1, 2 e 3” e C1, C2, C3 gli eventi “c’è una capra dietro le porte 1, 2, 3”. Applicando il teorema di Bayes troviamo che
\(\)\[ P(M1|C2)=P(C2|M1)⋅\frac{P(M1)}{P(C2)} \]\(\)
dove P(M1|C2) è la probabilità che la macchina sia sulla porta 1 sapendo che sulla seconda porta c’è una capra. P(C2|M1)=1 perchè siamo già sicuri che sulla seconda porta c’è una capra, P(M1)=1/3 perchè inizialmente c’era solo una macchina su 3 porte, mentre P(C2)=1/2. Questo ultimo risultato è una probabilità condizionata ma per evitare lunghi calcoli la “trasformiamo” in “qual è la probabilità che dietro alla seconda porta ci sia una capra sapendo che il conduttore deve scegliere tra le due porte non scelte dal concorrente?”. Risulta quindi che
\(\)\[P(M1|C2)=\frac{1⋅\frac{1}{3}}{\frac{1}{2}}=\frac{2}{3}=66.666\%\]\(\)
Quindi il giocatore, cambiando porta ha il 66.666% di probabilità di vincere. Chiaramente la probabilità di vittoria restando sulla seconda porta è 33.333%.
La fallacia dello scommettitore: quando l’ignoranza ti porta alla morte
La fallacia dello scommettitore è una distorsione logica, diffusa principalmente tra i giocatori d’azzardo, secondo cui il risultato di un evento dipende da ciò che è successo in passato mentre in realtà ciò non è vero. Ad esempio, se lanciamo una moneta 10 volte qual è la probabilità che escano 10 teste? I 10 lanci sono indipendenti quindi come spiegato all’inizio
\(\)\[ P(10T)=\left(\frac{1}{2}\right)⋅\left(\frac{1}{2}\right)⋅……⋅\left(\frac{1}{2}\right)=\left(\frac{1}{2}\right)^{10} \]\(\)
ovvero circa lo 0.1%. Se invece abbiamo già lanciato 10 monete e sono uscite 10 teste consecutive, qual è la probabilità che l’11° mi dia una testa? Chiamiamo 10T e 11°T i due eventi. Sappiamo già che

\(\)\[P(11°T|10T)=P(10T|11°T)⋅\frac{P(11°T)}{P(10T)}\]\(\)
Sfruttando il risultato precedente ovvero P(10T)=0.1%, il fatto che P(11°T)=1/2 e che P(10T|11°T)=0.1% perchè il fatto che sia uscita testa all’11° lancio non influisce i precedenti 10, otteniamo che
\(\)\[P(11°T|10T)=0.1\%⋅\frac{\frac{1}{2}}{0.1\%}=\frac{1}{2}\]\(\)
Quindi la probabilità non cambia nonostante precedentemente ci siano state 10 teste. Ecco un risultato fondamentale, i giochi di questo tipo non si “ricordano” del passato ed è assolutamente errato pensare che un esito abbia più probabilità di un altro solo perchè è da molto che non si verifica. Questo tipo di ragionamento vale chiaramente anche per giochi come la roulette o il SuperEnalotto. Quante persone si sono rovinate la vita puntando un sacco di soldi sul maledetto “numero ritardatario”?
Bayes in medicina: come rappresentare gli errori dei test
Come si sa, in medicina sono fondamentali i test per verificare la presenza o meno la patologia su un paziente; essi possono dare esito positivo (P che sta per positive) o negativo (N che sta per negative), ma come è immaginabile non sempre sono affidabili e purtroppo c’è sempre un margine di errore. Ad esempio ci possono essere casi in cui il test rileva una malattia che in realtà non è presente (FP che sta per false positive, falso negativo) o viceversa dichiarare sano un paziente in realtà malato (FN che sta per false negative, falso negativo). Per semplicità chiameremo TP e TN (true positive e true negative) i pazienti correttamente classificati malati e sani. Ecco un esempio nella rilevazione di un distubo mentale.

Esistono vari indici per valutare la bontà del test, ad esempio l’accuratezza: si tratta semplicemente di calcolare la quantità di pazienti classificati correttamente sul totale:
\(\)\[accuratezza=\frac{TP+TN}{TP+TN+FP+FN}\]\(\)
Ma il valore più importante da valutare a livello clinico è il seguente: sapendo che il test ha dato esito positivo, qual è la probabilità che il paziente sia effettivamente malato? Come forse avrete già capito, si tratta di un problema di probabilità condizionata, che il teorema di Bayes può tranquillamente risolvere, infatti si vede che
\(\)\[P(M+|T+)=P(T+|M+)⋅\frac{P(M+)}{P(T+)}\]\(\)
dove M+ e T+ non sono simboli matematici ma con M+ si intende “vero malato” e con T+ “test positivo”. Le quantità che entrano in gioco sono facilmente calcolabili tramite i valori all’interno della tabella di prima, che in gergo tecnico si chiama matrice di confusione o di errata classificazione. L’aspetto più sorprendente è che senza il teorema non si coglierebbe un fatto molto importante in questo ambito: a parità di altri indicatori di bontà, in genere la P(M+|T+) è più alta per malattie più diffuse, mentre cala per malattie rare. Ecco come una semplice formula può rivelarsi determinante in questo tipo di studi clinici.
Fonte
- Il teorema di Bayes nella diagnostica di laboratorio
IRCCS Istituto Auxologico Italiano, Milano - Fate il nostro gioco – Matematica e gioco d’azzardo
Alberto Sarracco – Unipr