Controfase

Il potere dell’euristica della disponibilità

Che cos’è l’euristica?

Perché tendiamo a temere di più gli attacchi terroristici che l’inquinamento atmosferico?
Perché ci sembra che certi eventi — come incidenti aerei o casi di cronaca nera — siano più comuni di quanto realmente sono?

La risposta a tutte queste domande è una sola: euristica della disponibilità.

Partiamo innanzitutto dal termine “euristica”: in psicologia indica una scorciatoia mentale che il cervello utilizza per prendere decisioni rapide, senza fare calcoli complessi. Le euristiche sono diverse, molteplici e sono spesso utili, ma talvolta portano a bias cognitivi, cioè a errori sistematici di giudizio.

Per quanto riguarda l’euristica della disponibilità, questa è un meccanismo mentale che usiamo inconsciamente per valutare la probabilità di un evento basandoci su quanto facilmente ci viene in mente. Più un’informazione è disponibile nella memoria, più la riteniamo comune, frequente o probabile.

Le persone tendono a valutare la frequenza o la probabilità in base alla facilità con cui esempi rilevanti vengono in mente.
— Daniel Kahneman —

Il problema? La disponibilità di un ricordo non riflette la realtà, ma solo ciò che è recente, vivido o enfatizzato nei media.

L’esperimento “K”: quando la memoria guida il giudizio

Nel saggio del 1973 di Amos Tversky e Daniel Kahneman “Availability: A Heuristic for Judging Frequency and Probability”, i due autori descrissero una serie di esperimenti per mostrare come le persone stimano la frequenza di eventi sulla base della facilità con cui riescono a richiamarli alla mente.

Uno degli esperimenti più famosi riguarda il giudizio sulla frequenza delle parole in inglese. Ai partecipanti fu chiesto se ci fossero più parole che:
• iniziano con la lettera K (es. kite, kind, key), oppure
• hanno la lettera K come terza lettera (es. acknowledge, bake, asked).

La maggior parte delle persone rispose che le parole che iniziano con K erano più numerose.
In realtà, la lingua inglese contiene circa il doppio delle parole con K in terza posizione rispetto a quelle con K all’inizio.
Perché questo errore?
Tversky e Kahneman lo spiegarono così: è più facile recuperare dalla memoria parole che iniziano con una determinata lettera, rispetto a parole in cui quella lettera è in una posizione intermedia.
Di conseguenza, le parole che iniziano con “K” sono più “disponibili” nella mente, e ciò porta a sovrastimare la loro frequenza.
Questo semplice esperimento mostra in modo brillante come l’euristica della disponibilità possa generare giudizi sistematicamente distorti, anche in compiti che sembrano banali o “oggettivi”.

Paul Slovic e l’affetto alla base dei giudizi sul rischio

Nel capitolo 13 di Pensieri lenti e veloci, Daniel Kahneman analizza il lavoro di Paul Slovic, figura centrale nello studio della percezione del rischio.

Slovic dimostra che i nostri giudizi su ciò che è pericoloso non si basano su dati statistici, ma su ciò che ci colpisce emotivamente e che ricordiamo più facilmente. È la cosiddetta affect heuristic (euristica dell’affetto): un meccanismo mentale in cui la valutazione del rischio dipende dalla risposta emotiva evocata da un evento.

Secondo Slovic, eventi recenti, tragici o carichi di pathos — come incidenti aerei, attentati o disastri naturali — tendono a dominare la nostra memoria. Di conseguenza, ci sembrano molto più frequenti o pericolosi di altri eventi meno visibili ma statisticamente letali, come malattie cardiovascolari o cadute domestiche.

Poiché la memoria accessibile guida il giudizio, ciò che viene ricordato con vividezza appare anche più probabile, distorcendo, appunto, la valutazione oggettiva del rischio.

Slovic evidenziò come le persone sovrastimino i rischi spettacolari (omicidi, terrorismo, incidenti aerei) e sottostimino quelli silenziosi (fumo, obesità, malattie croniche).
Ma già qualche anno prima, un altro studio aveva misurato in modo sistematico anche l’impatto dei media su questi meccanismi mentali.

Lichtenstein, Slovic e Fischhoff: il ruolo dei media

Nel 1978, Sarah Lichtenstein, Paul Slovic, Baruch Fischhoff, Mark Layman pubblicarono uno studio fondamentale nel Journal of Experimental Psychology, in cui esplorarono come le persone percepiscono le cause di morte più comuni negli Stati Uniti.
Ai partecipanti fu chiesto di stimare la frequenza di eventi come incidenti stradali, tumori, omicidi, fulmini, infarti, terrorismo. Le risposte furono confrontate con i dati statistici reali.

Il risultato fu chiaro: i partecipanti sovrastimavano le morti legate a eventi spettacolari e ampiamente coperti dai media (come disastri aerei o omicidi), mentre sottostimavano le cause più frequenti ma meno visibili (come malattie cardiache o incidenti domestici).
Ma ciò che rese questo studio straordinario fu l’analisi parallela dei notiziari e della stampa americana: gli eventi sovrastimati erano anche quelli con maggiore copertura mediatica.
La correlazione tra esposizione mediatica e percezione distorta era inconfutabile.

I media non riflettono la realtà, la amplificano secondo criteri narrativi e sensazionalistici, fornendo al pubblico una rappresentazione distorta della probabilità reale.
— Lichtenstein — 

Gerbner e la “Mean World Syndrome”: quando i media generano paura

Fin dagli anni ’70, la “teoria della coltivazione” di George Gerbner ha evidenziato come un’esposizione continua a contenuti specifici — specialmente violenti — possa plasmare la visione della realtà delle persone, portandole a percepire il mondo come più pericoloso di quanto non sia realmente, un fenomeno noto come Mean World Syndrome.
I media non si limitano quindi a riportare fatti: edificano una realtà narrativa che agisce sulla memoria a lungo termine e alimenta paure irrazionali.

La narrazione intensa su eventi drammatici, utilizzando linguaggio sensazionalistico e immagini potenti (resource negativity), induce una memoria emotiva amplificata, che non solo facilita il richiamo dell’evento, ma ne altera la percezione cronologica e contestuale.

Questo effetto è noto come la Media Equation (cognizione emotiva che attribuisce verità ai contenuti multimediali) e spesso rende persistenti anche ricordi falsi o amplificati.

Diversi esperimenti mostrano che, dopo aver visto scene drammatiche in film o documentari, le persone riportano valutazioni immediate di rischio alterate, pur se l’effetto tende a dissiparsi nel tempo.
Questa dinamica ha conseguenze profonde: la social amplification of risk mostra che una percezione amplificata — anche se inizialmente minima — può diffondersi rapidamente nella popolazione, rendendo il rischio percepito più estremo e persistente.

Ne consegue che le politiche pubbliche spesso si orientano verso obiettivi emotivamente urgenti (antiterrorismo, pandemie, crimini efferati), invece di affrontare problemi strutturali e statisticamente più pericolosi (malattie croniche, incidenti quotidiani, cambiamenti climatici), proprio perché è più facile suscitare indignazione che suscitare consapevolezza sui dati.

Questo meccanismo ha conseguenze concrete sulla vita pubblica. Le distorsioni percettive influenzano:
• Le priorità di spesa: ad esempio, maggiori investimenti contro il terrorismo dopo un attentato, anche se le cause di morte più frequenti rimangono altre.
• La regolamentazione: norme severissime su rischi rari e mediatici, mentre si ignorano problemi cronici come l’obesità o l’inquinamento.
• La comunicazione istituzionale: campagne costruite sull’emotività anziché sull’evidenza statistica.
In Pensieri lenti e veloci, Kahneman osserva con amarezza che “il pubblico non sa quanto poco sa”.
Ma questo limite cognitivo non si esaurisce nel cittadino comune: anche i politici, spesso, assecondano la percezione pubblica anziché correggerla, amplificando la distorsione.

Il paradosso del post 11 settembre

Un caso emblematico del potere dell’euristica della disponibilità si è verificato dopo gli attacchi terroristici dell’11 settembre 2001. In quei mesi, milioni di americani hanno modificato le proprie abitudini di viaggio: spinti dalla paura del terrorismo, hanno evitato di volare e scelto l’auto per gli spostamenti — anche su lunghe distanze.
Questa reazione è stata comprensibile dal punto di vista emotivo, ma irrazionale da quello statistico. Il volo commerciale, infatti, rimane uno dei mezzi di trasporto più sicuri al mondo, mentre la guida su strada comporta un rischio molto più alto di morte accidentale.

Il paradosso è stato documentato dallo psicologo tedesco Gerd Gigerenzer in uno studio pubblicato nel 2004 su American Scientist.
Analizzando i dati del traffico e della mortalità stradale negli Stati Uniti nei mesi successivi agli attentati, Gigerenzer ha stimato circa 1.500 morti in eccesso dovute alla maggiore esposizione al rischio stradale. In altre parole, il tentativo di evitare un pericolo percepito (terrorismo aereo) ha aumentato l’esposizione a un rischio molto più reale (incidenti stradali).


La gente voleva evitare i voli perché la paura del terrorismo era onnipresente nella mente di tutti — ma proprio questa scelta ha causato più vittime.”
— Gigerenzer —


Il caso post-11 settembre è un altro esempio potente di come la vividezza emotiva di un evento e la copertura mediatica incessante creino una percezione del rischio profondamente distorta.

Sistema 1 e Sistema 2: come la mente ci inganna in pochi secondi

In questo contesto è utile conoscere il modello dei due sistemi del pensiero proposto da Daniel Kahneman nel suo celebre libro Thinking, Fast and Slow (Pensieri lenti e veloci).
Kahneman descrive la mente umana come divisa in due modalità operative distinte:
Sistema 1: è veloce, intuitivo, automatico.
Funziona “in sottofondo”, senza sforzo cosciente. È il sistema che ci fa reagire d’istinto, riconoscere un volto, completare frasi familiari o rispondere alla domanda: “Qual è la capitale di Francia?”
Sistema 2: è lento, razionale, deliberativo.
Si attiva quando dobbiamo concentrarci, fare un calcolo, valutare dati complessi o prendere decisioni ponderate. È il pensiero analitico, ma richiede più energia e attenzione.
L’euristica della disponibilità nasce dal Sistema 1, che cerca scorciatoie per giudicare rapidamente quanto è probabile o frequente un evento. Invece di contare statistiche o ragionare con freddezza (Sistema 2), il cervello si affida a ciò che gli viene in mente più facilmente: episodi recenti, immagini vivide, notizie impressionanti.
La vividezza emotiva (affect heuristic), il linguaggio drammatico, la ripetizione e il coinvolgimento personale aumentano la disponibilità mnemonica, portandoci a giudizi errati (bias).

Consapevolezza come antidoto

L’euristica della disponibilità è solo una delle tante scorciatoie che la mente usa per risparmiare energia. Ma, nei tempi dell’informazione istantanea e del bombardamento emotivo, diventa un’arma a doppio taglio.
Allenare la propria capacità di riconoscere questi bias — come invita a fare Daniel Kahneman — non significa diventare razionali al 100%, ma limitare i danni dell’irrazionalità.
In un mondo dove l’apparenza domina la realtà, pensare in modo più lento e consapevole è un atto rivoluzionario.

Fonti

  • Kahneman, D. (2011). Thinking, Fast and Slow.
  • Tversky, A., & Kahneman, D. (1973). Availability: A heuristic for judging frequency and probability. Cognitive Psychology, 5(2), 207–232.
  • Slovic, P. (2000). The Perception of Risk.
  • Lichtenstein, S., Slovic, P., Fischhoff, B., Layman, M., & Combs, B. (1978). Judged frequency of lethal events. Journal of Experimental Psychology: Human Learning and Memory, 4(6), 551–578.
  • Gerbner, G., Gross, L., Morgan, M., & Signorielli, N. (1980). The “Mainstreaming” of America: Violence Profile No. 11. Journal of Communication, 30(3), 10–29.
  • Gigerenzer, G. (2004). Dread risk, September 11, and fatal traffic accidents. Psychological Science, 15(4), 286–287
error: Content is protected !!