Numeri che mentono
Cinque domande per non prendere ogni dato come una certezza assoluta
13min
Cinque domande per non prendere ogni dato come una certezza assoluta
13min
Episodi di Allena il tuo pensiero critico
Nelle puntate precedenti hai imparato come funziona il cervello, quali bias cognitivi ti portano fuori strada e come riconoscere gli argomenti che sembrano validi ma non lo sono. Oggi, invece, affrontiamo qualcosa di ancora più insidioso, e in un certo senso più pericoloso, perché si traveste da scienza.
Quando qualcuno dice "gli studi dimostrano che", oppure "secondo i dati", la nostra guardia si abbassa quasi automaticamente, perché i numeri godono di un'aura di oggettività che le parole non hanno. Ma i numeri possono essere selezionati, incorniciati e presentati in modo da raccontare storie molto diverse da quella reale. Attenzione, però, non si tratta quasi mai di falsificare i dati. Semplicemente si decide di scegliere quali mostrare, come presentarli, e quale contesto includere oppure omettere.
Partiamo dal campione, cioè il gruppo da cui arrivano i dati. Perché vedi, ogni statistica nasce così: osservi un certo numero di persone o di casi, e da quelle osservazioni ricavi un numero. Da com'è fatto il campione però dipende tutto il resto. Se è scelto male, il numero finale non vale niente, per quanto preciso possa sembrare. Facciamo un esempio. Immagina di leggere un titolo: il 90% delle persone preferisce questo prodotto. Suona convincente, no? La prima domanda da farsi per capire se lo è davvero è chiedersi sì, ma su quale base? Perché se il sondaggio è stato fatto su cento clienti già affezionati a quel brand, il risultato non ci dice nulla sul mercato in generale.
E poi ci sono i sondaggi online, che soffrono quasi sempre di quello che i ricercatori chiamano selection bias. Cosa vuol dire? Che risponde solo chi ha un'opinione forte, chi è già coinvolto nell'argomento, chi ha tempo e motivazione. Chi invece è indifferente, semplicemente non risponde. E così il campione non è rappresentativo della popolazione reale, anche se il numero totale di rispondenti sembra impressionante.
Anche il modo in cui una domanda viene formulata influenza i risultati, e parecchio. Ti faccio un esempio classico. In un loro famoso studio, gli psicologi Kahneman e Tversky presentarono ai partecipanti due versioni dello stesso scenario medico. Alla prima metà dissero: questo trattamento ha un tasso di sopravvivenza del 90%. All'altra metà: questo trattamento ha un tasso di mortalità del 10%. Le informazioni sono identiche, giusto? Eppure la prima versione spingeva molti più partecipanti a scegliere quel trattamento. Questo fenomeno ha un nome, si chiama framing, e ci dice una cosa importante: il modo in cui presenti un dato cambia le risposte delle persone, anche quando il dato in sé è esattamente lo stesso.
Poi c'è la confusione tra correlazione e causalità, che abbiamo già incontrato parlando delle fallacie logiche. Due variabili sono correlate quando tendono a muoversi insieme, ma questo non significa che una causi l'altra. E qui ti racconto una cosa divertente. C'è uno ricercatore americano, Tyler Vigen, che nel 2015 ha pubblicato un intero libro dedicato a raccogliere correlazioni assurde. Si tratta di correlazioni vere, statisticamente perfette, ma completamente senza senso. Ti faccio il mio esempio preferito. Negli Stati Uniti, il consumo di formaggio pro capite segue esattamente lo stesso andamento del numero di persone che muoiono impigliate nelle proprie lenzuola. Proprio così. Ora, però, nessuno di noi si sognerebbe di concludere che mangiare formaggio sia pericoloso per il sonno, giusto? L'assurdità qui è troppo evidente. Ma quando la correlazione riguarda qualcosa che ci interessa davvero, come una dieta, un farmaco, una mossa politica, allora l'assurdità diventa meno assurda ai nostri occhi e cadiamo nella stessa identica trappola.
Un altro trucco molto usato è giocare con la baseline, cioè con il valore iniziale rispetto al quale si misura un cambiamento. Ti faccio un esempio. Immagina di leggere un titolo che dice: questo farmaco riduce il rischio del 50%. Suona impressionante, no? Però, prima di crederci, è necessario domandarsi: 50%... rispetto a cosa? Perché se il rischio originale era del 2%, ora è dell'1%. Un solo punto percentuale in meno, che in certi contesti può essere significativo, ma non è certo la rivoluzione che il titolo suggerisce. E se il rischio originale fosse stato ancora più basso, diciamo lo 0,002%? Allora saremmo davanti a una variazione praticamente irrilevante, anche se il 50% di riduzione è matematicamente corretto. Ecco, questo si chiama giocare sul rischio relativo invece che sul rischio assoluto. Ed è uno dei trucchi più usati nella comunicazione farmaceutica e commerciale, proprio perché la percentuale relativa suona sempre più grande di quella assoluta.
E poi ci sono i grafici, che sono un altro terreno scivoloso. Pensa a un semplice grafico a barre. Se l'asse verticale parte da zero, tu vedi le cose come stanno davvero. Ma se parte da un valore vicino al minimo, il gioco è fatto. Una differenza minima tra due valori, magari di uno o due punti percentuali, ti può sembrare un abisso, una caduta verticale. I dati sono tutti veri, attenzione. È solo il modo di mostrarli che inganna l'occhio.
Parliamo ora di un'altra differenza che sembra un dettaglio tecnico, ma che nella vita reale ha enormi implicazioni: quella tra media e mediana. La media la conosci: prendi tutti i valori, li sommi e dividi per quanti sono. La mediana, invece, è il valore che sta proprio in mezzo, quello che divide il gruppo a metà: metà dei casi sopra, metà sotto. Detto così sembra astratto, lo so, ma guarda come cambia con un esempio. Immagina un ufficio con dieci persone. Nove di loro guadagnano 22.000 euro all'anno. L'ultima, che è il fondatore dell'azienda, ne guadagna 220.000. Ora fai la media: viene circa 40.000 euro. Quindi tecnicamente lo stipendio medio in quell'ufficio è di 40.000 euro. Peccato che nessuno, in quell'ufficio, guadagni davvero 40.000 euro. Nove persone guadagnano molto meno, una guadagna molto di più. La mediana invece, che è 22.000 euro, ti racconta la realtà di quasi tutti i dipendenti. Quindi, la prossima volta che leggi lo stipendio medio è X, oppure il prezzo medio delle case è Y, fermati un attimo e chiediti: ma la mediana, cosa direbbe?
E arriviamo al bias del sopravvissuto, in inglese survivorship bias. È forse il più insidioso di tutti, perché agisce senza che tu te ne accorga. In pratica, noi tendiamo a trarre conclusioni basandoci solo sui casi che sono arrivati alla nostra attenzione. Ci dimentichiamo di tutti quelli che, per un motivo o per l'altro, non ci sono arrivati. Per esempio, guardiamo i grandi imprenditori che hanno abbandonato l'università per fondare aziende di enorme successo, e concludiamo che studiare non serva a nulla. Ma non vediamo le migliaia, forse milioni, di persone che hanno fatto la stessa identica scelta senza ottenere niente. Quelli non fanno notizia, e quindi per noi è come se non esistessero.
Su questo tema c'è una storia bellissima che voglio raccontarti. Siamo durante la Seconda Guerra Mondiale. Il matematico Abraham Wald riceve dai militari statunitensi l'incarico di capire dove rinforzare le corazze degli aerei da combattimento, per farli resistere meglio ai colpi. I tecnici dell'esercito avevano già analizzato gli aerei che tornavano dalle missioni, e avevano notato che i danni erano sempre concentrati nelle stesse zone, tipicamente sulle ali e sulla coda. La conclusione sembrava ovvia: rinforziamo proprio quelle zone. Ma Wald disse il contrario. Secondo lui bisognava rinforzare le aree che sembravano intatte, come la cabina di pilotaggio e i motori. Perché? Semplice. Perché gli aerei colpiti in quelle aree non erano tornati affatto. Erano stati abbattuti. L'esercito stava guardando solo i sopravvissuti, perdendosi così l'altra metà della storia.
Bene, ecco cosa ti porti a casa da questa lezione. Cinque domande per capire se la situazione è davvero così come dicono i dati, o meno. Prima domanda: da quale campione proviene questa statistica, e com'è stato costruito il campione? Seconda: stai guardando una semplice correlazione, o una relazione causale dimostrata? Terza: rispetto a quale punto di partenza viene calcolata questa variazione, e come appare poi in termini assoluti? Quarta: stai usando la media o la mediana, e quale delle due è più rappresentativa? Quinta: stai vedendo tutti i casi, o solo quelli visibili?
Facciamo un esempio pratico per mettere insieme tutto quanto. Immagina di aprire il giornale e leggere questo titolo: i lavoratori in smart working sono il 30% meno produttivi. Senza il pensiero critico, cosa fai? Lo prendi per buono, magari lo condividi anche sui social. Ma dopo questa lezione, spero proprio che tu ti faccia almeno le cinque domande che abbiamo visto prima. Proviamo insieme. La prima domanda riguarda il campione. Da dove arriva questo dato? Lo studio è stato condotto su quali aziende, in quale settore, in quale periodo storico? E soprattutto, come è stata misurata la produttività? Perché si può misurare in mille modi diversi. La seconda è sulla causalità. Si tratta di una correlazione o di un rapporto causale dimostrato? Pensaci: magari le aziende che hanno adottato lo smart working erano già in difficoltà prima, oppure l'hanno fatto in fretta e furia durante una crisi. In quel caso il calo di produttività non è causato dallo smart working, ma è solo successo nello stesso periodo. La terza domanda riguarda la baseline. Quel 30% in meno, è calcolato rispetto a cosa? A quando? Con quale metodologia? Senza un punto di partenza chiaro, quella percentuale non vuol dire niente. La quarta prende in causa media e mediana. Quel 30% è una media? E se lo è, di che cosa? Perché in un campione di lavoratori e settori molto diversi tra loro, la media può nascondere realtà completamente opposte. Magari metà delle aziende è molto più produttiva, l'altra metà molto meno, e il valore medio finisce per dirti poco o niente. Infine, la quinta domanda riguarda il bias del sopravvissuto. Stai vedendo davvero tutti i casi? O solo quelli che sono finiti nello studio? Magari le aziende dove lo smart working funziona alla grande non hanno partecipato, o semplicemente non fanno notizia, e quindi tu non senti parlare di loro. Ecco. Passare da un titolo che sembra un dato di fatto a una serie di domande verificabili: questo è quello che il pensiero critico applicato ai numeri significa nella pratica quotidiana.
E ora, prima di chiudere, voglio dirti un'ultima cosa, perché mi sembra importante: la differenza tra incertezza e ignoranza. Quando uno scienziato dice non siamo ancora sicuri, sta dicendo che al momento i dati in loro possesso non bastano per trarre una conclusione definitiva. E questa, a ben vedere, è una posizione intellettualmente onesta, spesso la più accurata possibile. Chi invece ti offre certezze assolute su questioni complesse, o sta semplificando in modo distorto, o ha interessi che non ti sta dichiarando, o più banalmente non conosce bene l'argomento. Imparare a stare a proprio agio con l'incertezza, e a saperla distinguere dall'ignoranza, è uno degli aspetti più maturi del pensiero critico.
Nella prossima lezione di Allena il tuo pensiero critico vedremo insieme come applicare il pensiero critico alla vita di tutti i giorni. Dalle notizie che leggi ogni mattina, fino alle decisioni più importanti della tua vita personale e professionale.
Alla prossima lezione!