E’ il cenone di Natale, allegoria dell’abbondanza e palcoscenico dell’opulenza. Il vostro vicino di posto, probabilmente un cugino di quarto grado di cui ricordate a malapena il nome, sembra dare i primi segni di cedimento e cerca invano il vostro sguardo complice. Ma voi con finta nonchalance e incauta intraprendenza vi mostrate ancora affamati nonostante la quantità di cibo appena ingerita possa bastare per soddisfare il fabbisogno calorico dell’intera provincia di Isernia. Ecco quindi comparire sulla tavola imbandita, allo scoccare della terza ora di cena, una nuova portata succulenta: un bel tacchino ripieno. Allora, in un fugace scampolo di coscienza, che in queste occasioni viene opportunamente lasciata a casa (non si capirebbe altrimenti il motivo di una quantità così spropositata di cibo) vi interrogate sulla storia del tacchino che avete davanti.

Ebbene, questo tacchino viveva in un allevamento in cui sin dal primo giorno gli venne dato da mangiare regolarmente. Il tacchino si accorse che il cibo veniva portato tutti i giorni alla stessa ora, indipendentemente dalla stagione, dal clima o da altri fattori esterni.

Con il passare dei giorni iniziò a rendersi conto di poter ricavare una regola generale basandosi sull’osservazione ripetuta della realtà. Iniziò dunque a maturare una concezione induttivista, ovvero  raccolse un numero così grande di osservazioni da arrivare ad asserire, dopo un certo numero di giorni, la seguente affermazione: “Tutti i giorni alla stessa ora, mi porteranno del cibo”. Convinto e soddisfatto del suo ragionamento induttivista, andò avanti così per diversi mesi. Purtroppo per lui però, alla vigilia di Natale la sua asserzione fu clamorosamente smentita dai fatti, nel momento in cui il proprietario si presentò da lui come tutti i giorni ma invece di dargli da mangiare lo sgozzò, per servirlo in tavola al cenone a cui state partecipando.

Questa triste storia è in realtà una famosa metafora sviluppata dal filosofo gallese Bertrand Russell all’inizio del ‘900 che confuta in modo banale ma chiaro il concetto che dall’osservazione ripetuta di un fenomeno relativo alla realtà sia possibile dedurne un’asserzione generale con certezza assoluta. La storia del tacchino induttivista è da collocare storicamente in un’epoca in cui Russell si opponeva alle idee del neopositivismo del Circolo di Vienna, che invece attribuivano fiducia incondizionata alla scienza, e in particolare all’induttivismo, e lo ponevano come l’unico strumento di conoscenza possibile.

L’esempio del tacchino venne poi ripreso successivamente dal filosofo austriaco Karl Popper, che lo usò a supporto del suo principio di falsificabilità. Secondo questa teoria, una delle più brillanti del Novecento, la scienza procede per deduzioni che non sono mai definitive, ma possono essere costantemente falsificate, ovvero smentite dalla realtà dei fatti. Non c’è scienza se le verità a cui si giunge sono immutabili e non falsificabili, e di conseguenza non c’è progresso, stimolo, dibattito.

Ma allora, tornando al nostro tacchino, viene da chiedersi: stando così le cose, non è possibile trarre conclusioni basandosi sull’esperienza diretta dei fatti? Certo che si, lo studio dei casi particolari ci aiuta comunque nella comprensione del fenomeno generale che stiamo indagando e ci può dare le basi per lo sviluppo di leggi generali, ma la verità della conclusione a cui giungiamo non è mai garantita. In termini molto più banali se davanti a noi sta passando un gregge e vediamo 100 pecore bianche di fila non è detto che la prossima sia bianca. Da un punto di vista ancora più pragmatico: non esiste un numero tale di osservazioni che una volta raggiunto ci dia la sicurezza di trarre conclusioni generali sul fenomeno in questione.

La statistica e in particolare l’inferenza che ne è una parte, derivano le loro fondamenta filosofiche proprio da questo concetto. Lo scopo dell’inferenza è quello di trarre conclusioni generali  sulla base di un’osservazione parziale della realtà, ovvero sulla base di un campione.

Prendiamo un esempio piuttosto banale ma in tema con il nostro argomento: vogliamo stimare il numero medio di invitati al cenone natalizio. Come fare? Lasciamo da parte per un attimo il piatto con il tacchino, posiamo forchetta e coltello, e immaginiamo di avere a disposizione un campione di 100 cenoni natalizi e di poter contare il numero di invitati. In base a un teorema fondamentale della statistica conosciuto come “teorema limite centrale”, possiamo affermare che la media del numero di invitati rilevata sul nostro campione è una stima corretta della vera media della popolazione (ovviamente il campione deve essere rappresentativo e non essere distorto, ma questo è un altro discorso che merita ulteriori approfondimenti), e che l’errore che commettiamo facendo questa stima diminuisce al crescere della numerosità del campione. Ovvero più cenoni prendiamo in considerazione nel nostro campione e più la stima sarà robusta e non soggetta a variazioni dovute al caso. Tutto secondo logica, no?

Ma quanto siamo sicuri che la nostra stima sia giusta? Supponiamo di aver rilevato il numero medio di invitati in 100 cenoni diversi e che tale numero sia 10. Da questa osservazione siamo in grado di fornire anche un determinato intervallo entro il quale il vero numero medio di invitati è verosimilmente compreso: ovvero con un campione di 100 unità possiamo affermare con un certo grado di confidenza (in altri termini, con una certa probabilità), di solito del 95%, che questo intervallo sia compreso tra 7 e 13. Con un campione di 200 unità la nostra stima sarà più robusta per cui possiamo restringere questo intervallo ed affermare che il vero numero di invitati sia compreso tra 8 e 12. Dunque più grande è il nostro campione e più precisa sarà la stima.

Queste stime sono valide con un grado di confidenza del 95%. Ma se volessimo avere un grado di confidenza del 100%? Sarebbe possibile ottenerlo? Ed è qui che ritorna improvvisamente in gioco il nostro tacchino induttivista. Se volessimo un grado di confidenza del 100% faremmo lo stesso errore che ha fatto il tacchino, ovvero da una serie di osservazioni cercheremmo di trarre conclusioni su un fenomeno generale con certezza assoluta, ed abbiamo visto bene, a spese del tacchino, che questo è impossibile. La spiegazione è semplice: pur avendo a disposizione un campione molto grande e rappresentativo, non è mai possibile eliminare completamente l’influenza del caso, ovvero ci sarà sempre una probabilità benché bassa di trovare un cenone con un numero di invitati maggiore o minore di quello stabilito dal nostro intervallo di confidenza, ovvero un’osservazione che confuta le stime ottenute finora.

Dunque ciò che la statistica può fare in questi casi è fornire una stima robusta, molto robusta, del parametro che stiamo studiando (invece del numero di invitati al cenone pensate a qualcosa di più importante come il reddito medio di una popolazione, l’incidenza di un farmaco, i sondaggi elettorali) ma non potrà mai esprimersi con certezza assoluta su un fenomeno. E questo semplicemente perché il mondo in cui viviamo non è deterministico, ma regolato in parte dal caso. Insomma, la statistica è una scienza che dimostra la “non assolutezza” delle altre scienze, ed è forse per questo che spesso è odiata o temuta.

D’altronde essa ha conosciuto il suo massimo sviluppo proprio nel Novecento, in quello che è stato il secolo del relativismo, si pensi alla teoria della relatività di Einstein, al principio di indeterminazione di Heisenberg o appunto al criterio di falsificabilità di Popper.

Ma ora è tempo di mangiare il tacchino prima che si freddi!