Che cos’hanno in comune un fuoco che non brucia, un terreno che diventa più fertile e un clima che forse possiamo ancora salvare?
La risposta sta in un materiale oscuro e poroso, nato dal calore ma fatto per resistere al tempo: il biochar.
Immaginate un carbone che, invece di dissolversi in fumo, rimane nel suolo per secoli. Non è carbone da ardere, ma carbone che custodisce carbonio. Un paradosso? Forse sì. Eppure è proprio qui che la scienza ci invita a guardare più da vicino.
Un enigma nella giungla
Tutto comincia in Amazzonia. Quando i primi archeologi e pedologi iniziarono a scavare nella foresta pluviale, trovarono qualcosa di inatteso: macchie di terra scura e fertile che si distinguevano nettamente dal rosso povero degli Oxisols circostanti. Gli indigeni la chiamavano “Terra Preta do Indios”, la “terra nera degli indios”.
Com’era possibile che suoli notoriamente poverissimi e instabili, incapaci di trattenere nutrienti, ospitassero invece zone in cui le piante crescevano rigogliose?
Negli anni Duemila, studi pionieristici di Bruno Glaser e colleghi mostrarono che quelle terre nere contenevano fino a 70 volte più carbonio nero rispetto ai suoli circostanti. Non un carbonio qualsiasi, ma il prodotto della combustione incompleta di biomassa: charcoal, carbone vegetale. Non il fuoco distruttivo degli incendi, ma quello controllato dei focolari domestici, dei forni di cottura, delle pratiche agricole precolombiane.
Dalla leggenda alla scienza
La Terra Preta non era un fenomeno naturale. Era la traccia lasciata da comunità indigene che, 1500–2500 anni fa, avevano imparato a trasformare residui di cucina, legno e scarti organici in un suolo fertile e duraturo. Non slash-and-burn, la bruciatura che divora foreste e libera CO₂, ma slash-and-char: un modo per intrappolare carbonio e costruire fertilità.
Quel carbone, altamente aromatico e stabile, sopravvive nel suolo per secoli. Con il tempo, l’ossidazione ne arricchisce i bordi di gruppi carbossilici, che aumentano la capacità di trattenere nutrienti. È così che un materiale apparentemente inerte diventa uno scrigno di fertilità, capace di sostenere colture ben oltre il tempo degli indigeni che lo produssero.
Ed è da questa eredità che nasce la parola che oggi usiamo: biochar. Non più soltanto un reperto archeologico, ma una tecnologia da ripensare in chiave moderna.
Il biochar oggi
Il nome potrebbe sembrare una trovata di marketing, ma non lo è. È il termine scelto dalla comunità scientifica per indicare il materiale carbonioso ottenuto dalla pirolisi di biomasse di scarto – legno, residui agricoli, perfino sottoprodotti animali – e applicato volontariamente al suolo per migliorarne la qualità.
Perché dovremmo interessarcene?
Perché sappiamo che l’aumento della temperatura globale è dovuto alle attività umane, e abbiamo bisogno di strumenti nuovi per rallentare la corsa dei gas serra. Il biochar, se ben prodotto e ben usato, sembra offrire proprio questo:
intrappolare carbonio nei suoli, togliendolo dall’atmosfera;
migliorare la struttura dei terreni, rendendoli più fertili e meno erodibili;
adsorbire sostanze tossiche, ripulendo acque e suoli inquinati;
modificare il pH, favorendo la crescita delle piante.
Tutto questo non è teoria: sono osservazioni sperimentali che hanno acceso un entusiasmo globale. Ma… funziona sempre così?
I segreti nei pori
Il punto è che il biochar non è mai uguale a sé stesso. Dipende dalla biomassa di partenza, dalle temperature di pirolisi, dalle condizioni di produzione. Alcuni biochar sono stabili e utili; altri, invece, si degradano più in fretta o rilasciano ciò che dovrebbero trattenere.
E allora come capire quali biochar funzionano davvero?
È qui che entrano in gioco le tecniche che uso nel mio lavoro. Con la risonanza magnetica nucleare (NMR) possiamo osservare il comportamento dell’acqua confinata nei pori del biochar: come si muove, quanto resta intrappolata, quali interazioni crea con ioni e contaminanti. In pratica, possiamo ascoltare la “vita interiore” di un pezzo di carbone.
Queste informazioni ci permettono di costruire modelli più affidabili e di distinguere tra biochar efficaci e biochar illusori. È un lavoro di pazienza, ma necessario: se vogliamo usare il biochar come strumento di sostenibilità, dobbiamo capire i suoi meccanismi più profondi.
Esprit de char
Il National MagLab ha raccontato parte di questa avventura in un articolo dal titolo evocativo: Esprit de char. “Lo spirito del carbone”: un nome che rende bene l’idea. Perché il biochar non è solo un materiale tecnico, è un ponte tra passato e futuro. Un carbone antico, ma con un compito nuovo: aiutarci a riscrivere il rapporto tra l’uomo, il suolo e il clima.
E domani?
Sarà allora il biochar la chiave di un’agricoltura davvero sostenibile?
Non dobbiamo illuderci: non è una bacchetta magica. Non basterà da solo a risolvere la crisi climatica o a rigenerare i suoli impoveriti. Ma può essere uno strumento potente, se usato con intelligenza.
Forse, in fondo, l’“esprit de char” non è altro che questo: la memoria di un fuoco che, anziché consumare, ha creato. Un fuoco che ancora oggi può insegnarci a trasformare l’ombra in risorsa, il carbone in futuro.
What do a fire that doesn’t burn, a soil that becomes more fertile, and a climate we might still save have in common?
The answer lies in a dark, porous material, born from heat yet made to resist time: biochar.
Imagine a charcoal that, instead of turning into smoke, remains in the soil for centuries. Not charcoal for burning, but charcoal that locks carbon away. A paradox? Perhaps. And yet this is precisely where science invites us to look closer.
A jungle enigma
It all begins in the Amazon basin. When the first archaeologists and soil scientists dug into the rainforest, they found something unexpected: patches of dark, fertile earth standing out against the poor, reddish Oxisols all around. The locals called it “Terra Preta do Indios”, the “black earth of the Indians.”
How was it possible that soils known for being extremely poor and unstable, unable to hold nutrients, could instead host areas where plants thrived so vigorously?
In the early 2000s, pioneering studies by Bruno Glaser and colleagues revealed that these black soils contained up to 70 times more black carbon than their surroundings. Not just any carbon, but the product of the incomplete combustion of biomass: charcoal. Not the destructive fire of wild burns, but the controlled fires of domestic hearths, cooking stoves, and pre-Columbian farming practices.
From legend to science
Terra Preta was not a natural phenomenon. It was the trace left by indigenous communities who, 1,500–2,500 years ago, had learned how to turn kitchen waste, wood, and organic residues into fertile, enduring soil. Not slash-and-burn, the practice that devours forests and releases CO₂, but slash-and-char: a way to trap carbon and build fertility.
That charcoal, highly aromatic and chemically stable, survives in soil for centuries. Over time, oxidation enriches its edges with carboxylic groups, increasing its nutrient-holding capacity. In this way, an apparently inert material becomes a treasure chest of fertility, able to sustain crops long after the indigenous people who created it had disappeared.
And it is from this legacy that the word we use today was born: biochar. No longer just an archaeological curiosity, but a technology to be reimagined for modern times.
Biochar today
The name may sound like a marketing gimmick, but it isn’t. It’s the term chosen by the scientific community to define the carbon-rich material produced by the pyrolysis of waste biomass – wood, agricultural residues, even animal by-products – and deliberately applied to soil to improve its quality.
Why should we care?
Because we know that global warming is driven by human activity, and we need new tools to slow the race of greenhouse gases. Biochar, if properly produced and applied, seems to offer exactly this:
locking carbon into soils, keeping it out of the atmosphere;
improving soil structure, making it more fertile and less prone to erosion;
adsorbing toxic substances, helping to clean polluted soils and waters;
altering soil pH, favoring plant growth.
This isn’t theory: these are experimental findings that have sparked worldwide enthusiasm. But… does it always work that way?
Secrets in the pores
The truth is that biochar is never the same. It depends on the feedstock, on the pyrolysis temperature, and on the production conditions. Some biochars are stable and effective; others degrade quickly or release what they were meant to retain.
So how do we know which biochar really works?
This is where the techniques I use in my research come into play. With nuclear magnetic resonance (NMR) we can observe how water behaves inside biochar pores: how it moves, how long it remains trapped, how it interacts with ions and contaminants. In practice, we can listen to the “inner life” of a piece of charcoal.
Such information allows us to build more reliable models and to distinguish effective biochar from illusory ones. It’s painstaking work, but essential: if we want biochar to be a true sustainability tool, we must first understand its deepest mechanisms.
Esprit de char
The National MagLab told part of this story in an article with an evocative title: Esprit de char. “The spirit of charcoal”: a name that captures the essence. Because biochar is not just a technical material—it’s a bridge between past and future. An ancient charcoal with a new task: to help rewrite the relationship between humans, soils, and climate.
And tomorrow?
So, is biochar the key to truly sustainable agriculture?
We shouldn’t fool ourselves: it’s no magic wand. Biochar alone won’t solve the climate crisis or restore degraded soils. But it can be a powerful tool – if used wisely.
Perhaps, in the end, the “esprit de char” is nothing more than this: the memory of a fire that, instead of consuming, created. A fire that still today can teach us how to turn shadow into resource, charcoal into future.
Ormai lo sanno anche le pietre: mi occupo di risonanza magnetica nucleare su matrici ambientali. Tradotto per i non addetti: uso la stessa tecnica che in medicina serve a vedere dentro il corpo umano, ma applicata a tutt’altro – suoli, sostanza organica naturale, piante e materiali inerti. Ripeto: non corpi umani né animali, ma sistemi ambientali.
C’è un dettaglio curioso. I medici hanno tolto l’aggettivo “nucleare” dal nome, per non spaventare i pazienti. Peccato che, senza quell’aggettivo, l’espressione “risonanza magnetica” non significhi nulla: risonanza di cosa? elettronica, fotonica, nucleare? Io, che non ho pazienti da rassicurare, preferisco chiamare le cose con il loro nome: risonanza magnetica nucleare, perché studio la materia osservando come i nuclei atomici interagiscono con la radiazione elettromagnetica a radiofrequenza.
Non voglio dilungarmi: non è questa la sede per i dettagli tecnici. Per chi fosse curioso, rimando al mio volume The Environment in a Magnet edito dalla Royal Society of Chemistry.
Tutto questo per dire che in fatto di risonanza magnetica nucleare non sono proprio uno sprovveduto. Me ne occupo dal 1992, subito dopo la laurea in Chimica con indirizzo Organico-Biologico. All’epoca iniziai a lavorare al CNR, che aveva una sede ad Arcofelice, vicino Pozzuoli, in provincia di Napoli. È lì che cominciai a usare l’NMR per studiare la relazione struttura-attività dei metaboliti vegetali: un banco di prova perfetto per capire quanto questa tecnica potesse rivelare.
Successivamente passai all’Università degli Studi di Napoli Federico II, dove estesi l’uso della risonanza magnetica nucleare non solo alla fase liquida, ma anche a quella solida e semisolida. Non più soltanto metaboliti vegetali, dunque, ma matrici molto più complesse dal punto di vista chimico: il suolo e la sostanza organica ivi contenuta.
Con il mio trasferimento all’Università di Palermo ho potuto ampliare ulteriormente le competenze in NMR: dall’uso di strumenti a campo magnetico fisso sono passato allo studio delle stesse matrici naturali con spettrometri a campo variabile. Un passo avanti che mi ha permesso di guardare i sistemi ambientali con ancora più profondità e sfumature.
Ed eccomi qui, dopo più di trent’anni di esperienza, a spiegare perché chi immagina di usare la risonanza magnetica nucleare sulla Sindone di Torino forse ha una visione un po’… fantasiosa della tecnica.
Andiamo con ordine.
La Sindone di Torino: simbolo religioso e falso storico
La Sindone
La Sindone di Torino è un lenzuolo di lino lungo circa quattro metri che reca impressa l’immagine frontale e dorsale di un uomo crocifisso. Per il mondo cattolico rappresenta una delle reliquie più importanti: secondo la tradizione, sarebbe il sudario che avvolse il corpo di Cristo dopo la crocifissione. Attorno ad essa si è sviluppato un culto popolare immenso, fatto di pellegrinaggi e ostensioni pubbliche che ne hanno consacrato il valore spirituale.
Ma che cosa ci dice la scienza su questo straordinario manufatto?
La datazione al radiocarbonio
Il dato più solido arriva dalla datazione con il radiocarbonio. Nel 1988 tre laboratori indipendenti – Oxford, Zurigo e Tucson – pubblicarono sulla rivista Nature i risultati delle loro analisi: il lino della Sindone risale a un periodo compreso fra il 1260 e il 1390 d.C., cioè in piena epoca medievale (Damon et al., 1989). La conclusione degli autori fu inequivocabile: “evidence that the linen of the Shroud is mediaeval”.
Riproduzioni sperimentali
A rafforzare questa interpretazione è intervenuto anche il lavoro del chimico Luigi Garlaschelli, che ha realizzato una riproduzione della Sindone utilizzando tecniche compatibili con l’arte medievale: applicazione di pigmenti su un rilievo, trattamenti acidi per simulare l’invecchiamento, lavaggi parziali per attenuare il colore. Il risultato, esposto in varie conferenze e mostre, mostra come un artigiano del Trecento avrebbe potuto ottenere un’immagine con molte delle caratteristiche dell’originale (Garlaschelli, 2009).
Le conferme della storia
Anche le fonti storiche convergono. Un documento recentemente portato alla luce (datato 1370) mostra che già all’epoca un vescovo locale denunciava il telo come un artefatto, fabbricato per alimentare un culto redditizio (RaiNews, 2025). Questo si aggiunge al più noto documento del 1389, in cui il vescovo di Troyes, Pierre d’Arcis, scriveva a papa Clemente VII denunciando la falsità della reliquia.
Le contro-argomentazioni sindonologiche
Naturalmente, chi sostiene l’autenticità della Sindone non è rimasto in silenzio. Le principali obiezioni riguardano:
Il campione del 1988 – secondo alcuni, la zona prelevata sarebbe stata contaminata da un rammendo medievale, o comunque non rappresentativa dell’intero telo (Karapanagiotis, 2025).
L’eterogeneità dei dati – alcuni statistici hanno osservato che i tre laboratori non ottennero risultati perfettamente omogenei, segnalando possibili anomalie (Karapanagiotis, 2025).
Eventi successivi – l’incendio di Chambéry del 1532, o la formazione di patine microbiche, avrebbero potuto alterare la concentrazione di carbonio-14, facendo sembrare il tessuto più giovane (Karapanagiotis, 2025).
Sono ipotesi discusse ma che non hanno mai trovato prove decisive: nessuna spiegazione è riuscita a giustificare in modo convincente come un tessuto del I secolo potesse apparire medievale a tre laboratori indipendenti.
Le nuove analisi ai raggi X
Negli ultimi anni si è parlato di nuove tecniche di datazione basate sulla diffusione di raggi X ad ampio angolo (WAXS). L’idea è di valutare il grado di cristallinità della cellulosa del lino: più il tessuto è antico, maggiore è la degradazione della sua struttura cristallina. Applicata a un singolo filo della Sindone, questa metodologia ha suggerito un’età più antica di quella medievale (De Caro et al., 2022).
Tuttavia, i limiti sono evidenti: si è analizzato un solo filo, e la cristallinità della cellulosa dipende non solo dal tempo, ma anche da condizioni ambientali come umidità, calore o contatto con sostanze chimiche. Inoltre, il metodo è recente e richiede ulteriori validazioni indipendenti. In sintesi: interessante come indicatore di degrado, ma non ancora un’alternativa solida al radiocarbonio.
Una nuova frontiera? L’NMR
Accanto a tutto ciò è emersa anche la proposta di applicare la risonanza magnetica nucleare (NMR) alla Sindone (Fanti & Winkler, 1998). Alcuni autori suggeriscono che questa tecnica possa rivelare “concentrazioni atomiche” di idrogeno, carbonio o azoto nel telo, o addirittura produrre mappe tomografiche.
Nel prossimo paragrafo entrerò nel dettaglio di questa prospettiva “NMR”, analizzando perché, alla luce dell’esperienza maturata in oltre trent’anni di lavoro su queste tecniche, considero queste proposte non solo irrealistiche, ma anche profondamente fuorvianti.
I limiti della prospettiva NMR
Tra le tante proposte avanzate negli anni, c’è anche quella di usare la risonanza magnetica nucleare per studiare la Sindone. Nel lavoro di Giulio Fanti e Ulf Winkler si ipotizza di applicare tecniche NMR per “vedere” la distribuzione di atomi come idrogeno, carbonio e persino azoto sul telo, o addirittura per ottenere mappe tomografiche simili a quelle della risonanza magnetica medica. Sulla carta può sembrare affascinante, ma nella pratica questa prospettiva presenta numerosi limiti.
Nel caso dei protoni (1H), ad esempio, gran parte del segnale in un lino asciutto deriva dall’acqua residua o da componenti volatili: un parametro che può variare fino all’80% semplicemente cambiando le condizioni ambientali. Inoltre, in un solido come il lino della Sindone, l’analisi 1H-NMR non offre risoluzione: lo spettro mostra soltanto due contributi sovrapposti, un picco stretto e intenso dovuto alle zone cristalline della cellulosa e una larga campana sottostante, tipica delle frazioni amorfe. È chiaro, quindi, che non solo è arduo quantificare i protoni, ma è del tutto irrealistico pensare di usarli per una datazione del tessuto.
Per quanto riguarda l’analisi al carbonio-13 (13C), ci sono diversi punti da sottolineare. La tecnica più usata è la CPMAS 13C-NMR: in questo caso una piccola quantità di campione, dell’ordine dei milligrammi, viene inserita in un porta-campioni invisibile all’NMR, posto nel campo magnetico secondo una geometria precisa, e il carbonio viene “visto” sfruttando l’abbondanza dei protoni. Si tratta però di una tecnica qualitativa: non consente una vera quantificazione del nucleo osservato. Inoltre, richiede tempi di misura molto lunghi, con costi elevati e il rischio concreto di non ottenere informazioni davvero utili.
L’alternativa sarebbe la DPMAS 13C-NMR. Qui, a differenza della CPMAS, non ci si appoggia ai protoni e quindi bisogna fare affidamento solo sull’abbondanza naturale del 13C, circa l’1%: troppo bassa. Di conseguenza i tempi macchina si allungano ulteriormente, con dispendio sia di tempo sia economico. E in più la tecnica è priva di risoluzione: i segnali dei diversi nuclei si sovrappongono in un unico inviluppo indistinguibile, rendendo impossibile perfino la stima del rapporto fra cellulosa cristallina e amorfa.
Quanto all’azoto-14 (14N), il nucleo è quadrupolare e produce linee larghissime e difficilmente interpretabili: in pratica, misure affidabili non sono realistiche.
Nel lavoro di Fanti e Winkler, ci sono poi anche problemi di coerenza interna. Nel testo, ad esempio, si ipotizzano tempi di rilassamento e acquisizione non compatibili con i valori sperimentali reali, e si propongono scenari come la “tomografia NMR dell’intero telo” che, per un materiale rigido e povero di mobilità come il lino secco, sono semplicemente impraticabili: i tempi di decadimento del segnale sono troppo brevi perché si possa ricostruire un’immagine come in risonanza magnetica medica.
Infine, il lavoro suggerisce di estendere le misure addirittura a mappature di radioattività con contatori Geiger o a esperimenti di irraggiamento con neutroni, ipotizzando collegamenti con la formazione dell’immagine. Si tratta di congetture prive di fondamento sperimentale, più vicine a un esercizio di fantasia che a un protocollo scientifico realistico.
In sintesi, Fanti e Winkler hanno portato il linguaggio della NMR nel dibattito sulla Sindone, ma le applicazioni che propongono si scontrano con limiti tecnici insormontabili e interpretazioni sbagliate.
L’NMR è uno strumento potentissimo per lo studio di suoli, sostanza organica e sistemi complessi, ma applicarlo alla Sindone nei termini proposti non ha basi scientifiche solide: rischia anzi di trasformare una tecnica seria in un’arma retorica al servizio di ipotesi precostituite.
Conclusioni
Alla fine dei conti, la Sindone di Torino resta ciò che la scienza ha già dimostrato da tempo: un manufatto medievale. Lo dice la datazione al radiocarbonio pubblicata su Nature; lo confermano le riproduzioni sperimentali di Luigi Garlaschelli e i documenti storici del Trecento che la denunciavano come artefatto devozionale; lo ribadiscono i limiti delle nuove tecniche “alternative” che, per quanto presentate come rivoluzionarie, non hanno mai scalfito la solidità del verdetto del 1988. Le contro-argomentazioni dei sindonologi — campioni non rappresentativi, rammendi invisibili, incendi o contaminazioni miracolose — sono ipotesi suggestive, ma prive di prove concrete e incapaci di spiegare perché tre laboratori indipendenti abbiano ottenuto lo stesso responso: Medioevo. Le proposte più recenti, come l’uso dei raggi X o addirittura della risonanza magnetica nucleare, non fanno che spostare il problema, avanzando idee tecnicamente fragili e spesso concettualmente errate.
La Sindone rimane dunque un oggetto straordinario, ma non perché testimoni la resurrezione di Cristo: straordinaria è la sua forza simbolica, straordinaria è la devozione che suscita, straordinaria è la capacità che ha avuto per secoli di alimentare fede, immaginazione e perfino business. Ma sul piano scientifico la questione è chiusa. Continuare a spacciarla per “mistero insoluto” significa ignorare le evidenze e trasformare la ricerca in propaganda. E questo, più che un atto di fede, è un insulto all’intelligenza.
Un indizio ci arriva da un curioso fenomeno psicologico, studiato qualche anno fa da un gruppo di ricercatori di Harvard e pubblicato su Science: il prevalence-induced concept change, o, per dirla in breve, la tendenza ad ampliare i confini di un concetto man mano che il problema, cui il concetto si riferiva, diventa sempre meno visibile.
Gli autori dello studio – condotto attraverso sette esperimenti su centinaia di volontari – hanno utilizzato compiti molto diversi, dai più semplici ai più complessi. In uno di questi, ad esempio, hanno mostrato ai partecipanti migliaia di puntini colorati che variavano lungo un continuum dal viola al blu e hanno chiesto, test dopo test, di stabilire se ciascun puntino fosse blu oppure no. Al diminuire del numero di puntini blu, i soggetti cominciavano a essere più inclusivi nella definizione: anche puntini che in precedenza avrebbero classificato come viola cominciavano a essere etichettati come blu.
Lo stesso schema si è ripetuto in altri contesti. Per esempio, la valutazione delle espressioni facciali tendeva ad ampliare la definizione di minacciosità quando il numero di volti realmente minacciosi diminuiva. In altre parole, i partecipanti finivano per giudicare come “minacciose” anche espressioni neutre.
Lo stesso si è osservato quando ai volontari è stato chiesto di valutare l’eticità di proposte di ricerca: quando quelle eticamente discutibili diventavano sempre meno numerose, i volontari finivano per giudicare “non etiche” perfino proposte del tutto innocue.
Insomma, al calare della frequenza del problema reale, la mente dei volontari spostava i confini della definizione, includendo dentro la categoria situazioni che in precedenza ne sarebbero rimaste fuori.
In questo vuoto di percezione, ogni piccolo segnale post-vaccinazione viene sovradimensionato. Un dolore al braccio o una febbriciattola diventano indizi di pericolo grave. Episodi rarissimi finiscono in prima pagina e assumono un peso sproporzionato rispetto all’enorme beneficio collettivo. La percezione si deforma: non vediamo più il quadro generale – la scomparsa o il contenimento di malattie mortali – ma inseguiamo il dettaglio marginale.
E qui entra in gioco la disinformazione. Basta prendere un evento raro, magari un caso clinico eccezionale, e presentarlo come se fosse frequente. L’effetto è immediato: chi legge o ascolta ha l’impressione che i vaccini siano pieni di insidie, anche se i dati mostrano l’esatto contrario. Anzi, paradossalmente la loro stessa sicurezza – dimostrata da miliardi di dosi somministrate senza conseguenze gravi – alimenta la nostra disponibilità a credere alle paure: siccome le malattie non le vediamo più, ci concentriamo sul resto.
La disinformazione, però, non è mai neutrale. C’è sempre qualcuno che ha interesse a diffonderla o, quantomeno, a cavalcarla. Cui prodest? Chi ci guadagna? A volte sono gruppi organizzati che vendono prodotti alternativi, dalle cure miracolose agli integratori “rinforzanti” da assumere al posto dei vaccini. Altre volte sono influencer e canali che cercano visibilità, like, condivisioni: la paura è un potente amplificatore di traffico. E non mancano attori politici che, agitando lo spettro di un presunto complotto, riescono a costruire consenso e identità contro il “sistema”.
Il risultato è che un successo straordinario della scienza – i vaccini che hanno ridotto poliomielite, difterite, morbillo e tante altre infezioni – rischia di apparire, nella percezione comune, come una minaccia anziché come una protezione. È l’ennesima dimostrazione che i dati, da soli, non bastano: servono anche strumenti culturali per difendersi dalla manipolazione del giudizio.
E allora, la prossima volta che qualcuno ci racconta un aneddoto allarmistico, proviamo a fermarci un istante e chiederci: sto giudicando i dati o sto cedendo a un’illusione della percezione?
Perché non sempre ciò che vediamo riflette la realtà. Spesso riflette i tranelli della nostra mente.
Ed è proprio su questi tranelli che i movimenti no-vax costruiscono la loro narrazione: ingigantiscono casi marginali, ignorano le prove scientifiche e alimentano paure che non hanno alcun fondamento. Ma i dati parlano chiaro: i vaccini salvano milioni di vite ogni anno, hanno debellato il vaiolo, ridotto la poliomielite e reso rare malattie che per secoli hanno mietuto vittime. Rifiutarli non è un atto di libertà: è un atto di incoscienza che mette a rischio non solo chi li rifiuta, ma anche chi non può vaccinarsi.
La vera libertà non è cedere a una menzogna rassicurante. La vera libertà è scegliere sulla base delle evidenze, senza farsi manipolare da chi, per interesse o ideologia, lucra sulla paura degli altri.
Uno dei cavalli di battaglia degli antivaccinisti, soprattutto durante la pandemia di Covid, è stato: “Non sappiamo cosa ci iniettano”. Una frase che sembra prudente, ma che in realtà nasconde il vuoto più assoluto. In rete, e purtroppo anche in certi palchi mediatici, si sono lette e ascoltate fandonie indegne: vaccini pieni di grafene, di materiale “fetale”, di microchip. Panzane. Bufale. Balle cosmiche spacciate per verità scomode.
Il punto è che la percezione del rischio, quando si parla di vaccini, viene distorta fino al ridicolo. Gli stessi che si indignano davanti a una fiala di vaccino non si fanno problemi ad abusare di Voltaren per un mal di schiena, di Tachipirina per un raffreddore o di Aspirina a stomaco vuoto. Farmaci che, se presi male o in dosi eccessive, hanno effetti collaterali ben documentati e tutt’altro che lievi. Ma nessuno apre gruppi Telegram per denunciare il “complotto della Tachipirina”.
E allora torniamo alle basi. La differenza tra pericolo e rischio.
Il pericolo è una proprietà intrinseca di una sostanza: la candeggina, per esempio, è pericolosa. Ma il rischio dipende dall’uso: se non la bevi, se non la respiri, la candeggina non ti ammazza. Lo stesso vale per i farmaci. Aspirina e Tachipirina hanno pericoli reali, ma li consideriamo a basso rischio perché li usiamo con buon senso.
Con i vaccini si è creata la tempesta perfetta: un farmaco nuovo, un’emergenza sanitaria mondiale e un esercito di disinformatori pronti a manipolare la paura. Eppure, i dati clinici erano chiari già nel 2021: i vaccini anti-Covid erano molto più sicuri di tanti farmaci da banco. I rischi di complicazioni gravi erano rarissimi, infinitamente inferiori rispetto a quelli legati alla malattia. Ma invece di guardare i numeri, ci si è lasciati spaventare dai fantasmi.
C’è chi liquida la pandemia come una “farsa”, chi parla di “censura” e di “virostar” in televisione. È il classico copione: invece di discutere sui dati, si attacca chi li porta. Roberto Burioni e altri virologi sono stati accusati di essere “ospiti fissi” senza contraddittorio. Ma davvero serve un contraddittorio tra chi studia i virus da decenni e chi diffonde complotti sui microchip nei vaccini? Sarebbe come chiedere di contrapporre un astrologo a un astronomo quando si parla di orbite planetarie.
La realtà è che i dati c’erano, e chiunque poteva consultarli: studi clinici, report di farmacovigilanza, pubblicazioni scientifiche. Non erano nascosti – erano ignorati. La vera censura è quella che gli antivaccinisti applicano a se stessi e ai loro seguaci: censura dei numeri, censura dei fatti, censura del pensiero critico.
Il risultato? Una percezione capovolta: farmaci familiari diventano “innocui per definizione”, mentre vaccini che hanno salvato milioni di vite vengono descritti come “veleni sperimentali”. Non è prudenza, è ignoranza travestita da saggezza.
Chiariamo una volta per tutte: i vaccini non sono perfetti, ma nessun farmaco lo è. La differenza è che i vaccini non curano soltanto: prevengono, riducono i contagi, salvano intere comunità. Attaccarli con menzogne non è opinione, è irresponsabilità sociale.
In fondo, la chimica e la farmacologia ci dicono una cosa semplice: nessuna sostanza è innocua, nemmeno l’acqua. È il contesto, la dose, l’uso che fanno la differenza. Non capirlo – o, peggio, fingere di non capirlo per ideologia – significa giocare con la salute propria e quella altrui.
Il vero pericolo, oggi, non sono i vaccini. Sono gli antivaccinisti.
vi siete mai chiesti perché si formano gli aloni gialli sotto le ascelle delle maglie chiare? È tutta questione di chimica.
Oltre alla normale igiene personale – uso di acqua e sapone – facciamo molto ricorso a quelli che chiamiamo deodoranti ascellari. In realtà, molti di essi sono deodoranti nel senso che contengono profumi che servono a coprire i cattivi odori che produciamo dopo una giornata intensa. Tuttavia, la maggior parte dei prodotti in commercio contiene anche sostanze chimiche in grado di ridurre la produzione di sudore. In altre parole, sono veri e propri antitraspiranti.
I miei amici biologi e medici mi perdonino se uso un linguaggio un po’ semplificato: il mio obiettivo qui non è fare un trattato, ma spiegare in modo chiaro ciò che accade sotto le nostre ascelle.
Il sudore: un condizionatore naturale
Innanzitutto. diciamo che il sudore ha un ruolo fisiologico molto importante. Per capire meglio, proviamo con un esempio semplice: avete mai bagnato le mani con alcol etilico in estate? Ricorderete la sensazione di fresco che si avverte subito dopo. Perché succede?
L’evaporazione di un liquido – cioè, il passaggio dalla fase liquida a quella gassosa – è un processo che richiede energia. In termini fisici, il sistema assorbe calore dall’ambiente circostante, ovvero la pelle su cui abbiamo messo l’alcol etilico: ecco perché, dopo applicazione di alcol, abbiamo una sensazione di freschezza.
Il sudore funziona allo stesso modo. È composto principalmente da acqua, che evaporando sulla nostra pelle porta via calore e ci aiuta a regolare la temperatura corporea. A questo si aggiungono sali (soprattutto cloruro di sodio), piccole quantità di proteine, lipidi e altre molecole prodotte dal metabolismo.
Da solo, il sudore non ha un odore particolarmente sgradevole. Quell’odore tipico che associamo alle “ascelle sudate” nasce in realtà dall’azione dei batteri che vivono normalmente sulla nostra pelle: essi degradano alcune delle sostanze organiche contenute nel sudore, producendo composti maleodoranti.
Il ruolo dei deodoranti e degli antitraspiranti
Ed eccoci ai deodoranti e agli antitraspiranti. Molti prodotti contengono sali di alluminio (come il cloruro o il cloridrato di alluminio), che riducono la traspirazione formando una sorta di tappo temporaneo nei dotti sudoripari. In questo modo restiamo “asciutti” più a lungo, ma si innescano anche conseguenze meno gradite per i nostri vestiti. Gli aloni gialli, infatti, non derivano semplicemente dal sudore, bensì da una vera e propria orchestra di reazioni chimiche che coinvolgono diversi attori: i sali di alluminio presenti negli antitraspiranti interagiscono con le proteine e i metaboliti azotati del sudore, generando complessi stabili dalle sfumature giallo-brune che si fissano nelle fibre del cotone. Una parte dell’ingiallimento ricorda, in scala ridotta, le reazioni di Maillard, le stesse che fanno dorare pane e biscotti: qui entrano in gioco gli amminoacidi del sudore e i carboidrati della cellulosa del tessuto, catalizzati dal calore corporeo e dalla presenza di metalli. Anche i lipidi e gli acidi grassi secreti dalle ghiandole apocrine danno il loro contributo, andando incontro a processi di ossidazione che producono composti colorati, simili a quelli che rendono irrancidito un olio da cucina. Infine, i residui organici dei deodoranti stessi – fragranze, tensioattivi, polimeri – possono degradarsi e ossidarsi, consolidando l’alone. È, in definitiva, una piccola “reazione chimica da guardaroba”, in cui si intrecciano almeno quattro sistemi: complessi metallo-proteici, reazioni zuccheri-proteine, ossidazioni lipidiche e trasformazioni dei composti organici residui.
Dall’alone al buco: la lenta agonia del cotone
C’è poi un’altra conseguenza meno evidente ma altrettanto fastidiosa: con il tempo le fibre di cellulosa del tessuto, sottoposte a sudore e residui di deodorante, tendono a irrigidirsi e a diventare fragili. Anche qui la chimica ha un ruolo chiave. I sali di alluminio si comportano come veri e propri agenti reticolanti: creano legami incrociati tra le catene della cellulosa, irrigidendo la trama del tessuto. A questo si aggiunge l’effetto dei prodotti di ossidazione del sudore e dei lipidi, che modificano la struttura superficiale delle fibre, rendendole meno elastiche e più inclini a rompersi sotto stress meccanico. È per questo che, oltre agli aloni gialli, le magliette “storiche” finiscono spesso per bucarsi proprio nella zona delle ascelle: le fibre non cedono più in modo elastico, ma si spezzano come se fossero diventate fragili.
Alochimica o chelichimica?
Traendo spunto dall’intervista impossibile a Herr Goethe, potremmo battezzare questo intreccio di reazioni quotidiane con un nome nuovo: Alochimica, la chimica degli aloni, che ci accompagna tanto nel cielo quanto nell’armadio. Il termine deriva dal greco ἅλως, “alone luminoso”, riferito agli astri. In realtà, a voler essere più precisi, dovremmo guardare a κηλίς, che significa “macchia”: da qui il possibile neologismo Chelichimica. In italiano, però, Alochimica suona più evocativo e musicale, mentre Chelichimica è forse più corretto dal punto di vista etimologico sebbene meno immediato. A voi la scelta: quale vi piace di più?
Come prevenire gli aloni (o almeno ridurli)
Alcuni semplici accorgimenti possono limitare il problema:
usare deodoranti privi di sali di alluminio (almeno a giorni alterni),
lasciare asciugare bene il prodotto prima di indossare la maglia,
lavare i capi il prima possibile dopo aver sudato,
Dietro un alone giallo c’è molta più chimica di quanto immaginiamo. È la stessa chimica che ci permette di sudare e sopravvivere al caldo, che regola l’equilibrio del nostro corpo e ci difende dallo stress termico. Ma è anche quella che, una volta trasferita sui tessuti insieme ai deodoranti, avvia una catena di reazioni che finisce per lasciare un segno visibile e, a volte, indelebile. Così una semplice maglietta bianca diventa una piccola lavagna su cui si scrivono storie di evaporazione, ossidazione, complessi metallici e fibre irrigidite.
Ecco allora che possiamo parlare, con un pizzico di ironia, di una vera e propria chimica degli aloni domestica: qualcuno la chiamerebbe Alochimica, dal greco ἅλως, “alone luminoso”; altri preferirebbero Chelichimica, da κηλίς, “macchia”. Due nomi diversi per lo stesso intreccio di reazioni quotidiane, che non si manifesta solo nel cielo quando guardiamo il sole o la luna, ma anche nel nostro armadio, tra i vestiti di tutti i giorni. Una scienza silenziosa che ci accompagna ovunque e che, a saperla leggere, trasforma persino un alone giallo sotto l’ascella in un piccolo racconto di meraviglia chimica.
Lo ammetto: come poeta non valgo molto. Niente a che vedere con Gabriele D’Annunzio, che in pochi versi seppe rendere l’acqua una creatura viva, brillante, sempre in movimento:
Acqua di monte,
acqua di fonte,
acqua piovana,
acqua sovrana,
acqua che odo,
acqua che lodo,
acqua che squilli,
acqua che brilli,
acqua che canti e piangi,
acqua che ridi e muggi.
Tu sei la vita
e sempre sempre fuggi.
“Acqua che squilli, acqua che brilli,
dacci l’ossigeno senza rovelli.”
Ma se io non sono un poeta, nel campo della chimica c’è chi riesce a fare ancora peggio di me con le parole – e soprattutto con i numeri. Nonostante la mia attività divulgativa (o forse proprio a causa di essa), mi capita ancora di imbattermi nei suggerimenti di Facebook che pubblicizzano la cosiddetta “acqua arricchita di ossigeno”, presentata come un toccasana universale.
Ora, tralasciando l’iperbole pubblicitaria, proviamo a capire: a cosa servirebbe tutta questa abbondanza di ossigeno disciolto nell’acqua.
L’ossigeno disciolto e la vita acquatica
Da un punto di vista ambientale, la presenza di ossigeno disciolto in acqua è fondamentale. I pesci, i crostacei e la maggior parte degli organismi acquatici hanno bisogno di ossigeno per vivere, proprio come noi terrestri. La differenza è che loro lo ricavano dall’acqua grazie alle branchie, mentre noi lo ricaviamo dall’aria grazie ai polmoni.
Quando un pesce respira, fa passare l’acqua attraverso sottilissime membrane branchiali: da un lato c’è l’acqua con l’ossigeno disciolto, dall’altro il sangue povero di ossigeno. Per semplice diffusione, l’ossigeno passa nelle cellule del pesce (Figura 1).
Figura 1. Meccanismo di respirazione di un pesce: l’acqua con ossigeno disciolto attraversa le branchie e, per diffusione, l’ossigeno passa nel sangue povero di O₂.
Per questo motivo, i chimici quando valutano la qualità di un’acqua non guardano solo alla sua purezza, ma anche a due parametri legati all’ossigeno:
il BOD (Biochemical Oxygen Demand), che indica quanta parte dell’ossigeno disciolto viene consumata dai microrganismi per decomporre la sostanza organica;
il COD (Chemical Oxygen Demand), che misura quanta parte dell’ossigeno è necessaria per ossidare la sostanza organica, indipendentemente dai microrganismi.
Più alti sono BOD e COD, meno ossigeno resta a disposizione degli organismi acquatici. Insomma, per un pesce l’ossigeno disciolto è questione di vita o di morte.
E per noi terrestri?
Qui arriva il punto dolente. Noi abbiamo bisogno di ossigeno come gli organismi acquatici, ma senza branchie e con un fluido diverso: i nostri polmoni catturano l’ossigeno dall’aria, lo legano all’emoglobina e lo trasportano in tutto il corpo (Figura 2). Se ci immergessimo nell’acqua tentando di respirare come un pesce, non estrarremmo neppure una molecola di ossigeno perché semplicemente non abbiamo le branchie.
Figura 2. Meccanismo della respirazione polmonare: l’ossigeno viene inspirato, catturato dai polmoni, legato all’emoglobina nei globuli rossi e trasportato in tutto il corpo.
In altre parole, l’ossigeno disciolto nell’acqua che beviamo non ci serve a nulla.
Eppure, le aziende che vendono “acqua ricca di ossigeno” promettono ogni genere di beneficio: più energia, digestione facilitata, migliore resistenza fisica, addirittura un gusto esaltato delle pietanze. Sembra quasi di leggere il bugiardino di un olio di serpente moderno.
La realtà è molto più banale: quando beviamo, l’acqua raggiunge lo stomaco e l’intestino, non i polmoni. Da lì non può passare ossigeno nel sangue: l’assorbimento avviene solo attraverso l’apparato respiratorio. Se vogliamo ossigenare i tessuti, l’unico modo resta respirare.
Quanta aria può davvero entrare nell’acqua?
La chimica ci offre uno strumento molto semplice per rispondere: la legge di Henry, secondo la quale la quantità di gas che si scioglie in un liquido dipende dalla pressione parziale del gas stesso e dalla temperatura.
Tradotto:
più alta è la pressione, più gas si può sciogliere;
più bassa è la temperatura, maggiore è la solubilità;
la presenza di altri soluti (come i sali) riduce la quantità di gas che può sciogliersi.
Per dare un numero concreto: a 25 °C e alla normale pressione atmosferica, la quantità massima di ossigeno che si può sciogliere in acqua pura è circa 8–9 milligrammi per litro. Anche spremendo al massimo le condizioni di pressione e temperatura, non si arriva certo a quantità “miracolose”. Eppure, non di rado, si trovano in rete percentuali di ossigeno disciolto così esagerate da sembrare uscite da un fumetto, ben oltre il 100%: numeri che la chimica smentisce senza appello.
Inoltre, una volta che apriamo una bottiglia di acqua “ossigenata” e la riportiamo alle condizioni di pressione e temperatura ambientali, l’ossigeno in eccesso tende a liberarsi, esattamente come accade con le bollicine di una bibita gassata. Ciò che resta, in definitiva, è una comunissima acqua potabile.
Conclusione: acqua arricchita o arricchita di marketing?
Possiamo anche saturare un litro d’acqua con più ossigeno del normale, ma quando la beviamo il nostro corpo non ne ricava alcun vantaggio: non abbiamo branchie e non possiamo estrarre ossigeno dall’acqua come i pesci.
Queste bevande, quindi, non sono altro che acqua — buona e potabile, certo — ma identica a quella del rubinetto o delle bottiglie del supermercato, con l’unica differenza che costano di più.
In sintesi: l’ossigeno per vivere continuiamo a prenderlo dall’aria. Per l’idratazione basta la normale acqua. Per il resto, fidiamoci dei nostri polmoni: sono molto più efficienti di qualsiasi “acqua ricca di ossigeno”.
Chiunque navighi un po’ sui social sa che prima o poi finirà per imbattersi in una teoria del complotto. Le scie chimiche, il 5G, i vaccini, società segrete che tirerebbero i fili del mondo: racconti affascinanti che spesso viaggiano più veloci delle notizie verificate. A volte fanno sorridere, altre volte mettono i brividi. Ma il punto interessante è un altro: perché sembrano così attraenti? E perché, nonostante viviamo nell’epoca della massima disponibilità di informazioni, hanno tanto successo?
Che cos’è una teoria del complotto
Una teoria del complotto non è semplicemente un sospetto o un dubbio legittimo. È un racconto strutturato, che propone una spiegazione alternativa di eventi complessi attribuendone la responsabilità a un gruppo ristretto e potente che agirebbe nell’ombra. In sé, l’idea di complotto non è assurda: la storia è piena di trame segrete e accordi illeciti che hanno avuto un impatto reale. Basti pensare al Watergate negli Stati Uniti o a Tangentopoli in Italia, episodi che hanno mostrato come politici e imprenditori possano effettivamente cospirare per i propri interessi.
La differenza fondamentale tra un complotto reale e una teoria complottista sta nelle prove. Nel primo caso disponiamo di documenti, testimonianze, indagini giornalistiche e processi che permettono di ricostruire i fatti. Nel secondo, invece, le “prove” sono spesso vaghe: interpretazioni arbitrarie o coincidenze cucite insieme in un’unica trama.
Come si è visto, nella nostra lingua il termine complotto viene usato in entrambi i sensi, generando ambiguità. Una distinzione più chiara sarebbe parlare di cospirazione quando ci riferiamo a eventi storici reali e documentati, e riservare l’espressione teoria del complotto ai racconti speculativi privi di fondamento.
Indipendentemente dal lessico scelto, resta il fatto che il fascino delle teorie complottiste non nasce dalla loro solidità logica, ma dalla loro capacità di trasformare frammenti sparsi in storie suggestive e coinvolgenti.
Psicologia dei complotti: perché ci crediamo
Molti studiosi hanno mostrato come le teorie del complotto facciano leva su meccanismi profondi della nostra mente. Uno dei più radicati è la tendenza a riconoscere schemi anche dove non ci sono: è ciò che lo psicologo Michael Shermer ha chiamato patternicity. Collegare eventi casuali in una trama coerente ci dà l’impressione di capire meglio il mondo, anche quando in realtà stiamo solo costruendo connessioni inesistenti.
Un altro ingrediente che contribuisce al successo dei complotti è quello che gli psicologi David Dunning e Justin Kruger hanno descritto ormai più di vent’anni fa: il cosiddetto effetto Dunning-Kruger. Si tratta della tendenza, molto diffusa, delle persone con competenze limitate a sopravvalutare le proprie conoscenze. Chi conosce poco un argomento non ha gli strumenti per valutare la propria ignoranza e finisce per sentirsi molto più competente di quanto sia.
Sui social media questo fenomeno è evidente: chi non ha una formazione scientifica solida può mostrarsi estremamente sicuro di “aver capito” meccanismi complessi che, in realtà, studiosi con anni di esperienza trattano con cautela. È la paradossale sicurezza di chi sa poco, contrapposta al dubbio metodico di chi sa di più.
Quando la sovrastima di sé si unisce alla scarsa comprensione dei contenuti complessi, il terreno è fertile per i complotti. Una spiegazione semplice, anche se sbagliata, risulta più convincente di una realtà intricata che richiede studio e pazienza per essere compresa.
Così, una voce marginale può crescere rapidamente fino a diventare un fenomeno di massa. Le comunità online che si formano intorno a queste narrazioni funzionano come camere dell’eco: chi ne fa parte trova continuamente conferme, rafforzando la propria convinzione e allontanandosi progressivamente da fonti alternative. L’effetto è quello di una polarizzazione crescente, dove chi prova a introdurre dubbi o dati correttivi viene percepito come un nemico o un ingenuo “complice del sistema”.
I complotti possono minare la fiducia nelle istituzioni democratiche, spingere le persone a rifiutare dati scientifici fondamentali – come quelli sul cambiamento climatico – e perfino fomentare conflitti sociali. Non mancano esempi in cui comunità online complottiste hanno alimentato forme di odio, radicalizzazione e violenza. In fondo, ogni complotto funziona un po’ come una lente distorta: divide il mondo in “noi” e “loro”, i pochi illuminati contro i tanti manipolati, creando una frattura che si allarga nella società reale.
A questo punto, il discorso si sposta su un piano più profondo: quello epistemologico, cioè del modo in cui costruiamo e valutiamo la conoscenza. Qui il pensiero di Evandro Agazzi, filosofo della scienza che ha riflettuto molto sul rapporto tra razionalità e verità, può essere illuminante. Agazzi distingue tra razionalità critica e sfiducia generalizzata.
La differenza è sottile, ma decisiva. La scienza vive della prima, mentre le teorie complottiste prosperano sulla seconda. In altre parole, non è lo spirito critico a generare complotti, ma la sua caricatura: una sfiducia cieca che porta a credere solo a ciò che si adatta al proprio pregiudizio.
Conclusione: la verità è meno spettacolare, ma più solida
Ridicolizzare chi crede ai complotti è una tentazione comprensibile, ma spesso controproducente. Le persone finiscono per sentirsi attaccate e si rifugiano ancora di più nelle proprie convinzioni. È più utile capire i meccanismi che portano a credere in certe narrazioni e proporre alternative: una buona educazione al pensiero critico, la capacità di distinguere tra scetticismo sano e sfiducia totale, la diffusione di una cultura scientifica accessibile ma rigorosa.
La verità, ammettiamolo, non avrà mai il fascino di un grande intrigo segreto: non promette trame lineari né colpi di scena spettacolari. È frammentaria, complessa, a volte persino noiosa. Ma ha un vantaggio che nessun complotto inventato può vantare: resiste al tempo. L’ombra seducente dei complotti svanisce alla luce dei fatti, e alla lunga, è sempre quella luce a illuminare la strada.
È da tanto tempo che mi interrogo sulle enormi differenze culturali che esistono tra gli Stati Uniti e l’Europa. Gli USA sono sempre stati l’emblema della realizzazione dei sogni più audaci. Io stesso ho una parte della mia famiglia dislocata in diversi stati di quel paese: persone che sono emigrate per inseguire i propri sogni e realizzare una vita migliore rispetto a quella che avrebbero avuto in Italia. A questo aggiungiamo pure il fatto che gli USA hanno contribuito notevolmente alla liberazione del nostro Paese dal nazi-fascismo, lasciando un segno profondo e positivo nella nostra storia collettiva.
Eppure, proprio questo contrasto tra l’immagine luminosa dell’America dei sogni e alcune sue ombre mi ha sempre colpito. Pur riconoscendo la vitalità e l’influenza americana, non ho mai potuto ignorare una contraddizione: come può un Paese che mantiene la pena di morte proporsi come esempio di libertà e democrazia? Una domanda che diventa ancora più urgente se pensiamo alla qualità — talvolta pirandelliana — della sua classe politica attuale.
Ma c’è un altro aspetto che rende gli Stati Uniti culturalmente distanti dall’Europa: la forte coscienza religiosa che attraversa la società americana. Secondo il Pew Research Center (2025), più del 60% degli adulti si definisce cristiano, quasi la metà prega quotidianamente e un terzo frequenta regolarmente i servizi religiosi. Oltre l’80% dichiara di credere in Dio o in una forza spirituale, e circa due terzi affermano che la religione ha un ruolo importante nella propria vita. Numeri che mostrano come la religione, pur in un contesto di crescente pluralismo e presenza di “non affiliati”, rimanga un pilastro dell’identità nazionale e della vita pubblica.
È proprio da qui che parte la mia riflessione: come spiegare una divergenza così marcata tra due rami dello stesso ceppo culturale occidentale, Europa e Stati Uniti? Una divergenza che, a ben vedere, somiglia molto a un processo di speciazione culturale.
Nota a margine:
Non sono un sociologo né un filosofo. Questo articolo non pretende quindi rigore accademico in quei campi: è piuttosto una riflessione personale che nasce dal mio sguardo di scienziato applicato a un terreno diverso dal solito.
Un’analogia evolutiva per capire la divergenza religiosa
In biologia evolutiva, quando una popolazione viene separata da una barriera naturale, inizia spesso un processo detto speciazione allopatrica. Isolate in ambienti diversi, le popolazioni non condividono più le stesse pressioni selettive e, col tempo, accumulano differenze genetiche e comportamentali.
Un esempio classico riguarda le lucertole mediterranee (Podarcis siculus). Studi condotti su popolazioni introdotte artificialmente in piccole isole dell’Adriatico e del Tirreno hanno mostrato cambiamenti sorprendenti in poche decine di generazioni. Alcuni gruppi hanno sviluppato crani più robusti e mascelle più larghe, adattamenti che permettono di sfruttare risorse alimentari diverse, come piante e semi in aggiunta agli insetti. In parallelo, è comparsa una maggiore lunghezza dell’intestino, necessaria per digerire materiale vegetale più fibroso. Anche la colorazione della pelle è cambiata, diventando talvolta più scura o con disegni differenti, per mimetizzarsi meglio nei nuovi ambienti (Figura 1). Persino i comportamenti sociali hanno subito modifiche: in alcune popolazioni si è osservata una minore aggressività territoriale, probabilmente favorita dalla necessità di condividere risorse limitate.
Stessa origine, dunque, ma adattamenti diversi: la spinta selettiva di ambienti distinti ha prodotto fenotipi riconoscibilmente differenti, pur restando nello stesso genere.
Questa immagine si presta bene a descrivere — in senso metaforico — la divergenza culturale tra Europa e Stati Uniti, in particolare nel rapporto tra religione e vita pubblica.
Figura 1. Confronto morfologico tra popolazioni di Podarcis siculus. A sinistra, la popolazione originaria, con testa più slanciata e dieta prevalentemente insettivora; a destra, la popolazione insulare divergente, con cranio più robusto, mascelle potenti e adattamenti digestivi che consentono una dieta più ricca di materiale vegetale. Immagine generata con l’ausilio di ChatGPT.
Radici comuni
Europa e Stati Uniti condividono un patrimonio culturale di partenza che può essere visto come il terreno comune da cui sono germogliate due piante destinate a crescere in direzioni diverse. Alla base vi è la tradizione giudaico-cristiana, che per secoli ha fornito il linguaggio morale e simbolico con cui interpretare il mondo. A questo si aggiungono le grandi eredità giuridiche: da un lato il diritto romano, con le sue strutture codificate che hanno dato stabilità e ordine alle società europee, dall’altro il diritto anglosassone, fondato più sulla prassi e sul precedente che sulla norma scritta, ma capace di influenzare profondamente la nascente America. Infine, non si può dimenticare l’Illuminismo europeo, che con la sua enfasi sulla libertà, la razionalità e la fiducia nel progresso ha fornito l’impalcatura intellettuale di quella che chiamiamo modernità.
Su queste basi comuni, Europa e Stati Uniti hanno costruito la loro civiltà. Alexis de Tocqueville, osservatore attento della giovane democrazia americana, aveva già colto nel XIX secolo un aspetto sorprendente: negli Stati Uniti la religione non si contrapponeva alla libertà, ma la sosteneva. La fede, lungi dall’essere vista come un ostacolo, era parte integrante della vita pubblica, un collante che dava senso e coesione alle comunità. In Europa, invece, la stessa radice religiosa si intrecciava spesso con i poteri monarchici e con istituzioni secolari, generando conflitti e suscitando movimenti di contestazione. Così, pur partendo dallo stesso ceppo culturale, i due continenti hanno cominciato a prendere strade diverse, guidati da ambienti storici e politici che avrebbero portato a esiti divergenti.
L’“habitat” europeo: secolarizzazione
In Europa, per molti secoli, la religione non è stata solo una questione di fede personale ma una vera e propria istituzione politica. Papi, vescovi e chiese nazionali hanno avuto un ruolo determinante non solo nell’orientare la vita spirituale, ma anche nel decidere le sorti di regni e imperi. Basti pensare all’alleanza tra trono e altare: i sovrani traevano legittimità dalle benedizioni ecclesiastiche, mentre le chiese godevano di privilegi e potere grazie alla protezione dei monarchi.
Questa vicinanza al potere secolare, però, ha avuto un effetto collaterale importante: quando le istituzioni religiose si sono mostrate troppo oppressive o conservatrici, sono diventate il bersaglio diretto delle contestazioni. La Riforma protestante del Cinquecento, la Rivoluzione francese con la sua spinta anticlericale, il Risorgimento italiano con la lotta al potere temporale del papato: tutti momenti in cui la religione istituzionalizzata è stata percepita come un ostacolo al cambiamento.
Secondo il sociologo Peter Berger e altri teorici della secolarizzazione, questo processo si è intensificato con la modernità. Con l’avanzare delle rivoluzioni industriali e sociali, lo Stato ha progressivamente assorbito molte delle funzioni che un tempo erano affidate alle chiese: l’educazione dei giovani, l’assistenza ai poveri, la cura dei malati. Ciò che un tempo era prerogativa religiosa è diventato un compito dello Stato moderno e, più tardi, dello Stato sociale.
Il risultato è che, in gran parte dell’Europa occidentale, la religione ha perso centralità pubblica. Non è scomparsa, ma si è ritirata sempre di più nella sfera privata, diventando per molti individui una scelta personale, senza più un ruolo decisivo nella vita politica e civile. In alcuni Paesi, come la Francia, questa separazione è stata addirittura sancita come principio fondante: la laïcité non solo separa lo Stato dalla religione, ma diffida dell’ingerenza del religioso nello spazio pubblico.
In altre parole, l’habitat europeo ha favorito un processo di secolarizzazione profondo: la religione resta come radice culturale e tradizione, ma la sua influenza quotidiana sulla vita politica e sociale si è progressivamente attenuata.
L’“habitat” americano: pluralismo religioso
Negli Stati Uniti il contesto era profondamente diverso da quello europeo. Molte delle colonie furono fondate da gruppi di dissidenti religiosi in fuga dalle persecuzioni del Vecchio Mondo. Per questi coloni la religione non era un apparato di potere che controllava le coscienze, ma la ragione stessa della loro ricerca di libertà. Questo tratto originario rimase impresso a lungo nella mentalità americana: la fede come esperienza di emancipazione, non come vincolo.
La Costituzione, con il Primo Emendamento, proibì esplicitamente l’istituzione di una religione di Stato. Questa scelta non indebolì la fede, anzi: permise a ciascuna comunità di vivere la propria religiosità senza interferenze governative, creando un terreno fertile per la nascita di un pluralismo religioso senza precedenti. In America non c’era una chiesa nazionale, ma decine, poi centinaia di chiese e denominazioni, tutte in competizione fra loro per attirare fedeli.
Il sociologo Max Weber sottolineò come l’etica protestante, con il suo richiamo al lavoro, alla sobrietà e alla responsabilità individuale, avesse alimentato lo spirito del capitalismo. Negli Stati Uniti questa connessione si manifestò con particolare intensità: il successo economico non era visto solo come un traguardo terreno, ma anche come segno di benedizione divina.
Questa vitalità è stata spiegata, in tempi più recenti, con la cosiddetta teoria del “mercato religioso” proposta da Rodney Stark: la competizione fra chiese funziona come un motore che mantiene viva la religione. Ogni comunità deve offrire qualcosa – un senso di appartenenza, servizi di sostegno, attività culturali e caritative – per convincere le persone a farne parte. In questo modo, le chiese americane sono diventate non solo luoghi di culto, ma veri centri di socialità, di solidarietà e persino di mobilitazione politica. Un esempio famoso è quello delle Chiese battiste afroamericane, che hanno avuto un ruolo decisivo nel movimento per i diritti civili guidato da Martin Luther King.
A questa dimensione comunitaria si aggiunge un altro elemento: la religione si è intrecciata con il mito fondativo della nazione. L’idea del manifest destiny, la convinzione che il popolo americano avesse una missione speciale da compiere, quasi un disegno provvidenziale, ha trasformato la fede in un elemento di legittimazione patriottica. Essere religiosi, in America, ha significato per lungo tempo non solo credere in Dio, ma anche sentirsi parte integrante del destino nazionale.
Così, mentre in Europa la religione perdeva influenza pubblica, negli Stati Uniti la fede diventava parte della vita civile e politica, contribuendo a forgiare un’identità collettiva che ancora oggi resta profondamente segnata dal riferimento religioso.
Divergenze oltre la religione: giustizia e punizione
Le differenze tra Europa e Stati Uniti non si fermano al rapporto con la religione: emergono anche in altri campi fondamentali della vita collettiva. Uno degli ambiti più significativi è quello della giustizia penale.
Negli Stati Uniti, il sistema giudiziario conserva una forte impronta punitiva. Le pene sono spesso pensate in termini di deterrenza e vendetta sociale: l’idea è che chi ha commesso un crimine debba “pagare” in modo esemplare, così da scoraggiare altri a seguire la stessa strada. È in questo contesto che si spiega la persistenza della pena di morte in diversi Stati della federazione, una pratica che in Europa è ormai vista come inaccettabile. La carcerazione di massa, con pene molto lunghe e spesso inflessibili, riflette la stessa mentalità.
In Europa – e in Italia in particolare – prevale invece un approccio diverso, che affonda le radici nella tradizione giuridica e umanistica del continente. Le pene non vengono pensate soltanto come retribuzione o vendetta, ma soprattutto come strumenti di recupero e reinserimento del reo nella società. La Costituzione italiana, all’articolo 27, è molto chiara: le pene devono tendere alla rieducazione del condannato. È un principio che, almeno nelle intenzioni, sposta l’attenzione dalla punizione alla possibilità di cambiare, di ricostruire un percorso di vita.
Questa differenza riflette due mentalità culturali distinte: da un lato un approccio più pragmatico e spesso implacabile, dall’altro una visione che si richiama a valori di umanesimo e di fiducia nel cambiamento dell’individuo. Due modi diversi di intendere la giustizia, nati da radici comuni ma plasmati da storie, società e sensibilità culturali differenti.
Le radici storiche: la frontiera americana
Per capire da dove nasca questa diversa concezione della giustizia, bisogna guardare alle origini della società americana. I coloni che lasciarono l’Europa si trovarono immersi in un ambiente percepito come selvaggio e ostile, privo delle istituzioni consolidate del Vecchio Continente. La sopravvivenza dipendeva dall’autorganizzazione delle comunità e dalla capacità di difendere le risorse con fermezza. In questo contesto, la legge non era tanto uno strumento di recupero, quanto un mezzo immediato per mantenere l’ordine e scoraggiare i trasgressori.
Lo storico Frederick Jackson Turner, con la sua celebre Frontier Thesis, ha descritto la frontiera americana come il laboratorio in cui si è forgiata l’identità nazionale: un confine mobile, sempre da conquistare, dove individualismo, pragmatismo e uso della forza diventavano virtù necessarie. Col tempo, questa esperienza ha lasciato un’impronta culturale duratura: l’idea che la giustizia debba essere severa, esemplare, capace di garantire sicurezza prima ancora che rieducazione. Non è un caso che ancora oggi il linguaggio politico statunitense evochi con forza il motto law and order.
In termini evolutivi, si potrebbe dire che la “frontiera” abbia agito come una barriera ecologica: lo stesso patrimonio culturale europeo, trapiantato in un nuovo habitat, ha dovuto adattarsi a condizioni radicalmente diverse. Così, come accade alle popolazioni animali separate da un ostacolo geografico, anche qui i tratti originari hanno preso strade divergenti: da una parte, in Europa, l’orientamento verso la rieducazione e il recupero; dall’altra, in America, una giustizia temprata dal bisogno di sopravvivere in un mondo percepito come incerto e pericoloso.
Religione e giustizia: due volti della stessa divergenza
Se osserviamo insieme il ruolo della religione e quello della giustizia, emerge con chiarezza come entrambi riflettano la stessa logica di adattamento agli ambienti originari. In Europa, dove le istituzioni erano antiche, stratificate e spesso intrecciate con il potere politico, la religione ha finito per secolarizzarsi e la giustizia per assumere un volto rieducativo, più attento all’individuo che alla punizione. Negli Stati Uniti, al contrario, la condizione della frontiera ha richiesto comunità coese, capaci di trovare forza e identità nella religione, e leggi dure che garantissero l’ordine in un contesto incerto.
Religione e giustizia, dunque, non sono ambiti separati, ma due espressioni dello stesso processo di divergenza culturale. Come in natura popolazioni della stessa specie, poste in habitat diversi, sviluppano tratti distinti per sopravvivere, così i due rami del ceppo occidentale hanno maturato risposte differenti: in Europa l’indebolimento dell’autorità religiosa e la fiducia nel recupero del reo, in America la vitalità delle comunità di fede e un sistema penale improntato alla severità. Due adattamenti diversi, nati da un’origine comune ma selezionati da ambienti culturali opposti.
Divergenze accumulate
Nel corso dei decenni, Europa e Stati Uniti hanno seguito traiettorie culturali sempre più distinte, proprio come popolazioni isolate che, pur partendo dallo stesso ceppo, si adattano in modi diversi. Oggi, in Europa molti percepiscono la religione come una scelta privata, che ha perso parte della sua influenza pubblica e politica. Le politiche secolari, l’emergere di una sfera laica e il calo della partecipazione religiosa hanno ridisegnato il ruolo della fede nella vita civile.
I numeri confermano questa trasformazione. In base ai dati Eurobarometer, circa il 64% degli europei si identifica come cristiano, ma una parte significativa – tra il 17% e il 27%, a seconda dei Paesi – si dichiara non religiosa o agnostica. In Italia, ad esempio, il 74% dei cittadini crede in un qualche Dio, mentre il 6% esplicitamente nega l’esistenza di una forza spirituale.
Negli Stati Uniti, invece, la religione continua a svolgere un ruolo di grande visibilità pubblica. Circa il 62% degli adulti si definisce cristiano, con un 29% che si descrive come «non affiliato» (agnostico, ateo o “niente in particolare”). Le pratiche religiose sono inoltre più radicate: circa il 44% delle persone prega quotidianamente e il 33% partecipa mensilmente ai riti religiosi. Questo divario si osserva anche nell’intensità della spiritualità: negli USA una forte maggioranza crede in un’anima, in un anteriore all’esistenza e in una forza divina oltre il tangibile.
In sintesi, mentre in gran parte dell’Europa la religione tende a essere vissuta in modo più simbolico, culturale o rituale – spesso relegata alla sfera privata – negli Stati Uniti continua a rappresentare un ingrediente centrale dell’identità nazionale, della politica, del senso civico. È una distinzione che riflette quella “speciazione culturale” di cui parliamo: due rami evolutivi dello stesso albero, plasmati da ambienti storici diversi, che hanno prodotto adattamenti profondi e duraturi.
Una speciazione incompleta
Nonostante le differenze accumulate nei secoli, Europa e Stati Uniti non possono essere considerati due mondi del tutto separati. Entrambi restano parte dello stesso “genoma culturale occidentale”, fatto di valori condivisi, scambi continui e una rete fitta di influenze reciproche. La scienza, ad esempio, parla una lingua comune su entrambe le sponde dell’Atlantico: università, laboratori e centri di ricerca collaborano costantemente, dando vita a scoperte che appartengono a un patrimonio globale. Lo stesso si può dire per la tecnologia, per il diritto internazionale e persino per la cultura popolare: cinema, musica, letteratura e moda circolano senza confini, creando un immaginario collettivo in cui è difficile distinguere ciò che è nato a Los Angeles da ciò che è stato elaborato a Berlino o a Parigi.
Eppure, dentro questo fondo comune, la divergenza sul ruolo pubblico della religione resta marcata. In Europa il processo di secolarizzazione ha portato le istituzioni a dichiararsi neutrali, quando non apertamente diffidenti verso ogni ingerenza del religioso nella sfera politica. Negli Stati Uniti, invece, la religione continua a presentarsi come una forza vitale e pluralista: non un ostacolo, ma un elemento che alimenta identità, comunità e perfino legittimazione politica. Si tratta, in un certo senso, di una speciazione incompleta: due rami dello stesso albero che, pur riconoscendosi affini e dialogando costantemente, hanno ormai sviluppato tratti distintivi difficilmente reversibili.
Conclusione
L’Atlantico, più che un oceano, ha agito come una barriera evolutiva. Dalle stesse radici culturali sono nate due traiettorie distinte: da un lato un’Europa che ha progressivamente secolarizzato le proprie istituzioni, relegando la religione a fatto privato; dall’altro un’America in cui la fede è rimasta vitale, competitiva e parte integrante della sfera pubblica.
La metafora evolutiva ci aiuta a capire che queste differenze non sono il frutto di superiorità o arretratezza, ma di ambienti diversi che hanno selezionato tratti diversi. Come accade alle specie animali, che pur condividendo un antenato comune sviluppano adattamenti peculiari in risposta al proprio habitat, così Europa e Stati Uniti hanno maturato risposte divergenti alle sfide della modernità.
Eppure, nonostante queste distanze, i due mondi non sono estranei l’uno all’altro. La scienza, la tecnologia, l’economia globale, la cultura pop e i sistemi politici continuano a intrecciarsi in mille modi. Si può dire che Europa e America appartengano ancora allo stesso ecosistema, anche se i loro fenotipi culturali sono ormai chiaramente distinti.
In definitiva, due rami dello stesso albero hanno imparato a vivere in mondi separati, ma restano legati da una radice comune. Capire questa “speciazione incompleta” non significa scegliere quale modello sia migliore, ma riconoscere la ricchezza della diversità culturale e imparare a leggerla come il risultato di storie, ambienti e adattamenti differenti. È forse proprio in questa pluralità di percorsi che risiede la forza dell’Occidente: la capacità di restare una famiglia, pur nella differenza delle sue voci. C’è chi ammira la vitalità americana: io, personalmente, preferisco di gran lunga l’Europa.
Mi accingo a scrivere questo articolo prendendo spunto da un recente pezzo del mio amico e collega Enrico Bucci, pubblicato su Il Foglio e disponibile anche sul suo blog al seguente link: Contro il populismo sanitario.
Ad Enrico va il merito di aver messo a fuoco con grande chiarezza un nodo cruciale del dibattito contemporaneo: l’uso distorto di parole come libertà e pluralismo per giustificare la presenza, nei tavoli scientifici, di opinioni che nulla hanno a che vedere con la solidità delle prove.
Partendo dalle sue riflessioni, vorrei proporre un parallelismo storico che ci aiuta a comprendere meglio la posta in gioco, ma che al tempo stesso mostra come noi italiani non abbiamo mai fatto buon uso delle lezioni che la storia ci consegna.
Non è un caso, del resto, se oggi viviamo in una realtà che, a mio avviso, ricorda la fine dell’Impero Romano e preannuncia gli anni più bui dell’alto medioevo. Pur disponendo di una tecnologia senza precedenti e di possibilità di conoscenza mai così ampie, siamo circondati da ignoranza bieca e da un populismo slogan-based che erode secoli di evoluzione culturale.
Il parallelismo di cui voglio discutere ci porta indietro di quasi un secolo, nell’Unione Sovietica di Stalin, quando un agronomo di nome Trofim Denisovič Lysenko riuscì a piegare la scienza alle esigenze della politica, con conseguenze drammatiche.
Chi era Lysenko
Trofim Denisovič Lysenko nacque in Ucraina nel 1898, in un’epoca in cui la genetica mendeliana stava già gettando basi solide in Europa e negli Stati Uniti, aprendo una nuova stagione di scoperte che avrebbe cambiato per sempre la biologia. Mentre il mondo avanzava verso la modernità scientifica, egli imboccò una via diversa: più comoda per la retorica del potere che per la verità sperimentale.
Convinto che i caratteri acquisiti dalle piante durante la loro vita – come l’adattamento al freddo – potessero essere trasmessi alle generazioni successive, Lysenko resuscitava sotto nuove vesti un lamarckismo ormai screditato. Non era innovazione, ma regressione: una costruzione ideologica spacciata per scienza, utile a chi voleva piegare la natura alla volontà politica.
La sua pratica più celebre, la cosiddetta vernalizzazione, prometteva raccolti miracolosi. “Educando” i semi al gelo, sosteneva, li si sarebbe resi più fertili e produttivi. Una favola travestita da metodo, priva di fondamento sperimentale, che però parlava il linguaggio dei sogni collettivi e delle promesse facili: quello stesso linguaggio che i regimi totalitari e i populismi di ogni epoca amano usare per sedurre le masse e zittire la scienza.
L’appoggio di Stalin
Il destino di Lysenko cambiò radicalmente nel 1935, quando presentò le sue teorie davanti al vertice del regime. In quell’occasione, Stalin lo incoraggiò pubblicamente con un secco ma inequivocabile: «Bravo, compagno Lysenko!». Quelle parole, apparentemente banali, furono in realtà una sentenza: da quel momento, la sua ascesa divenne inarrestabile.
Non contavano più le prove, non contavano i dati, non contava la comunità scientifica internazionale: ciò che contava era la fedeltà ideologica. Lysenko incarnava perfettamente il messaggio che Stalin voleva trasmettere al popolo: la natura, come l’uomo sovietico, era malleabile, poteva essere piegata e trasformata a piacere dal potere politico.
In un Paese dove il dissenso significava prigione o morte, l’agronomo ucraino divenne il simbolo della “scienza ufficiale”, il vessillo di una biologia che non cercava la verità, ma l’approvazione del dittatore. La fedeltà alla linea sostituiva la fedeltà ai fatti: e da quel momento, in URSS, non era più la scienza a guidare la politica, ma la politica a decidere che cosa fosse scienza.
Il crimine contro la ragione
Il prezzo di questa deriva fu immenso, pagato non solo dalla comunità scientifica ma da milioni di cittadini sovietici.
La genetica mendeliana venne bandita come “scienza borghese” e i libri che la insegnavano finirono al macero. Le cattedre universitarie furono svuotate, i laboratori costretti ad abbandonare ricerche rigorose per piegarsi alle direttive di regime. In un colpo solo, l’Unione Sovietica si amputò di decenni di progresso scientifico.
Gli scienziati che osavano resistere pagarono un prezzo terribile. Il caso più emblematico fu quello di Nikolaj Vavilov, uno dei più grandi genetisti del XX secolo, che aveva dedicato la vita a raccogliere semi da ogni angolo del pianeta per assicurare all’umanità la sicurezza alimentare. Arrestato, processato come “nemico del popolo” e internato in un gulag, morì di stenti nel 1943. La sua fine è il simbolo di una scienza libera sacrificata sull’altare della fedeltà ideologica.
Le pratiche agricole di Lysenko, prive di fondamento, furono applicate su larga scala e condannarono intere regioni alla fame. Le promesse di raccolti miracolosi si infransero nella realtà dei campi sterili, e carestie devastanti falciarono milioni di vite.
Così, nel nome di un dogma politico, la verità fu soffocata, la scienza ridotta a propaganda e la popolazione trasformata in vittima sacrificale. Il lisenkoismo non fu soltanto un errore scientifico: fu un crimine storico contro la ragione e contro il popolo.
Le ombre di casa nostra
Il fascismo italiano
E non è necessario guardare soltanto a Mosca per cogliere questo meccanismo. Anche l’Italia fascista impose il suo controllo alle università attraverso il giuramento di fedeltà al regime. Solo dodici professori ebbero il coraggio di rifiutare: un numero esiguo, che mostra quanto fragile diventi la libertà accademica quando il potere politico pretende obbedienza invece di pensiero critico.
Il fascismo non si fermò lì: con il Manifesto della razza, firmato da accademici italiani compiacenti, la scienza fu ridotta a strumento di propaganda, piegata a giustificare l’ideologia razzista del regime. È un precedente che dovrebbe farci rabbrividire, perché dimostra che anche nel nostro Paese la comunità scientifica può essere sedotta, intimidita o resa complice.
L’Italia di oggi
E oggi? Il controllo non passa più attraverso giuramenti di fedeltà o manifesti infami, ma attraverso nuove forme di ingerenza: la burocratizzazione estrema, la trasformazione dell’università in un apparato amministrativo svuotato di senso critico, e persino la proposta – inquietante – di introdurre i servizi segreti all’interno degli atenei (Servizi segreti nelle università: i rischi del ddl sicurezza; Ricerca pubblica, servizi segreti: il ddl sicurezza e l’università). Cambiano le forme, ma la logica resta la stessa: soffocare la libertà del sapere sotto il peso del controllo politico.
Pluralismo o propaganda?
Oggi nessuno rischia più il gulag, ma il meccanismo che vediamo riproporsi ha la stessa logica corrosiva.
Ieri, in Unione Sovietica, l’accesso al dibattito scientifico era subordinato alla fedeltà ideologica al regime. Oggi, in Italia e in altre democrazie occidentali, il rischio è che l’accesso ai tavoli scientifici sia garantito non dalla forza delle prove ma dalla forza delle pressioni politiche e mediatiche, camuffate sotto la parola rassicurante di pluralismo.
Qui sta l’inganno: confondere due piani radicalmente diversi.
Il pluralismo politico è un pilastro della democrazia: rappresenta valori, interessi, visioni del mondo.
Il pluralismo scientifico invece non è questione di sensibilità o di opinioni: è confronto tra ipotesi sottoposte allo stesso vaglio, alla stessa verifica, alla stessa brutalità dei fatti.
Se i due piani vengono confusi, allora ogni opinione – per quanto priva di fondamento – reclama pari dignità. È così che la pseudoscienza trova la sua sedia accanto alla scienza:l’omeopatia diventa “alternativa terapeutica”, la biodinamica “agricoltura innovativa”, il no-vax “voce da ascoltare”. È il falso equilibrio, l’illusione che esista sempre una “controparte” legittima anche quando le prove hanno già da tempo pronunciato il loro verdetto.
Ecco il punto: quando la politica impone la par condicio delle opinioni in campo scientifico, non difende la democrazia, ma la tradisce. Toglie ai cittadini la bussola della conoscenza verificata e li abbandona in balìa delle narrazioni. È la stessa logica che portò Lysenko al trionfo: non contavano i dati, contava il gradimento del potere.
Oggi, in un’Italia soffocata da slogan e da populismi che si travestono di democrazia mentre erodono la cultura, questo monito pesa come un macigno. La lezione di Lysenko ci dice che non esiste compromesso tra scienza e ideologia: o la scienza resta fedele al metodo e ai fatti, o smette di essere scienza e diventa propaganda.
Conclusione
La vicenda di Lysenko non è un reperto da manuale di storia della scienza: è un monito vivo, che parla a noi, oggi. Ci ricorda che ogni volta che la politica pretende di piegare la scienza a logiche di consenso, ogni volta che si invoca il “pluralismo” per spalancare le porte a tesi già smentite, ogni volta che l’evidenza viene relativizzata in nome della rappresentanza, non stiamo ampliando la democrazia: stiamo segando il ramo su cui essa stessa si regge.
La scienza non è perfetta, ma è l’unico strumento che l’umanità abbia costruito per distinguere il vero dal falso in campo naturale. Se la sostituiamo con il gioco delle opinioni, ci ritroveremo non in una società più libera, ma in una società più fragile, più manipolabile, più esposta all’arbitrio dei potenti di turno.
Ecco perché il parallelismo con il lisenkoismo non è un eccesso retorico, ma un allarme. Allora furono milioni le vittime della fame; oggi rischiamo vittime diverse, più silenziose ma non meno gravi: la salute pubblica, l’ambiente, la fiducia stessa nelle istituzioni.
La domanda che dobbiamo porci, senza ipocrisie, è semplice: vogliamo una scienza libera che guidi la politica, o una politica che fabbrica la sua scienza di comodo?
La storia ci ha già mostrato cosa accade quando si sceglie la seconda strada. Ignorarlo, oggi, sarebbe un crimine non meno grave di quello commesso ieri. Oggi l’Italia deve scegliere se vuole una scienza libera o un nuovo lisenkoismo democratico
Di recente Paolo Bellavite, professore associato presso l’Università di Verona, in pensione dal 2017 e noto per le sue posizioni critiche verso le vaccinazioni e per la promozione dell’omeopatia, ha pubblicato un post sui social (Figura 1) in cui denuncia presunte “censure” e un rifiuto del confronto scientifico da parte delle istituzioni sanitarie. Il pretesto è lo scioglimento del comitato NITAG (National Immunization Technical Advisory Group) da parte del Ministero della Salute.
Il NITAG fornisce indicazioni basate su prove per le strategie vaccinali a livello nazionale, valutando costantemente rischi e benefici in relazione a età, condizioni di salute e contesto epidemiologico. Di questo tema ho già parlato in un mio precedente articolo (Nomine e cortocircuiti: quando l’antiscienza entra nei comitati scientifici).
Al di là della cronaca, però, il post di Bellavite si rivela soprattutto un insieme di slogan e artifici retorici non supportati da evidenze scientifiche solide, costruito sui più classici argomenti cari ai critici delle vaccinazioni. Ed è proprio qui che torna utile un altro parallelismo: le stesse strategie comunicative – indipendentemente dal campo, che si tratti di vaccini o di agricoltura – le ritroviamo nell’universo della “scienza alternativa”. Ne ho dato esempio in un altro articolo, Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci.
I toni retorici possono apparire convincenti a chi non ha dimestichezza con il metodo scientifico ma non reggono alla prova dei fatti. Proviamo dunque a smontare, punto per punto, le argomentazioni dell’ex professore Paolo Bellavite.
Figura 1. Screenshot dalla pagina facebook del Dr. Bellavite.
Il mito della “censura”
Uno degli argomenti più frequenti nella retorica tipica dei critici dei vaccini è l’idea che la comunità scientifica “censuri” le voci “fuori dal coro” per paura o per difendere interessi di un qualche tipo.
Per rafforzare questa immagine, viene spesso evocata la vicenda di Ignác Semmelweis, il medico che nell’Ottocento intuì l’importanza dell’igiene delle mani per ridurre la febbre puerperale. Il paragone, però, è fuorviante. Semmelweis non fu osteggiato perché considerato “eretico” ma perché il contesto scientifico dell’epoca non disponeva ancora degli strumenti teorici e sperimentali necessari a comprendere e verificare le sue osservazioni. La teoria dei germi non era stata ancora formulata e l’idea che “qualcosa di invisibile” potesse trasmettere la malattia appariva inconcepibile. Nonostante ciò, i dati raccolti da Semmelweis erano solidi e difficilmente confutabili: nelle cliniche in cui introdusse il lavaggio delle mani la mortalità scese in maniera drastica. Quei numeri, alla lunga, hanno avuto la meglio.
Oggi, il confronto scientifico avviene tramite peer-review, conferenze specialistiche e comitati di valutazione sistematica delle evidenze (ne ho parlato qualche tempo fa in un articolo semiserio dal titolo Fortuna o bravura? osservazioni inusuali sul metodo scientifico). In definitiva, la scienza non mette a tacere: filtra. Ogni idea può essere proposta e discussa, ma per sopravvivere deve poggiare su dati riproducibili, verificabili e coerenti con l’insieme delle conoscenze disponibili. In mancanza di queste condizioni, non viene esclusa per censura, bensì perché non regge al vaglio delle prove.
Trasformare questo processo di selezione in un racconto di “persecuzione” significa confondere il metodo scientifico con un tribunale ideologico, quando in realtà è solo il meccanismo che permette alla conoscenza di avanzare.
La falsa richiesta di “prove definitive”
Un espediente retorico molto diffuso tra chi vuole mettere in discussione i vaccini è quello di pretendere “prove definitive” – come se esistesse una singola evidenza in grado di dimostrare in modo assoluto l’utilità di un vaccino. La verità è che nessuna terapia medica è vantaggiosa sempre e comunque, ma le raccomandazioni vaccinali si basano su analisi robuste e ben documentate di rapporto rischio/beneficio.
Ecco alcuni esempi concreti e supportati da fonti autorevoli:
Vaccino anti‑morbillo: secondo la Fondazione Veronesi, nel 2023 il morbillo ha causato circa 107500 decessi, per lo più tra bambini sotto i 5 anni, nonostante esista un vaccino efficace da decenni. Dati dell’ISS evidenziano che nelle aree dove la copertura vaccinale è scesa sotto la soglia del 95 %, il morbillo è tornato a circolare con forza.
Chiedere quindi una singola prova assoluta significa distogliere l’attenzione da un ampio corpus di evidenze solide e riproducibili, e puntare invece su un vuoto nella narrazione che non corrisponde alla realtà scientifica.
“I bambini vaccinati non sono più sani”
Alcuni insinuano che non esistano prove che i bambini vaccinati siano “più sani” o addirittura suggeriscono l’opposto. Ma qui il trucco retorico sta nella vaghezza del concetto di “salute” che può essere interpretato in molti modi.
I dati concreti parlano chiaro: i bambini vaccinati hanno un rischio nettamente ridotto di contrarre malattie infettive gravi e le evidenze epidemiologiche mostrano riduzioni significative della mortalità, delle complicanze e degli accessi ospedalieri.
Questi dati si legano strettamente al paragrafo precedente in cui si evidenziava che vaccinare i bambini – come con il caso del vaccino anti-COVID e la prevenzione del morbillo – non solo limita le infezioni specifiche, ma contribuisce a migliorare la salute complessiva della popolazione infantile.
Questo si traduce in una maggiore efficienza delle campagne, minori costi logistici e un impatto complessivo più forte sulla salute pubblica. Lo confermano anche diversi studi su riviste di settore. Per esempio, un trial pubblicato su Lancet ha documentato un’efficacia del 94.9 % contro la varicella e fino al 99.5 % contro altre forme virali moderate o severe, mentre una meta-analisi del 2015 ha evidenziato che le formulazioni combinate mantengono un profilo di sicurezza e immunogenicità paragonabile, ma più efficiente rispetto alle somministrazioni separate. Infine, in un recente studio caso-controllo, il vaccino Priorix‑Tetra (MMRV) ha mostrato un’efficacia dell’88‑93 % contro la varicella dopo una sola o due dosi, e del 96 % contro le ospedalizzazioni.
Uno dei cavalli di battaglia dei critici dei vaccini è l’utilizzo di analisi pre‑vaccinali – come test genetici, tipizzazione HLA o dosaggi di anticorpi – per valutare il rischio individuale o l’immunità naturale. A prima vista può sembrare una precauzione intelligente ma in realtà è un’idea infondata e controproducente. Gli eventi avversi gravi legati alle vaccinazioni sono estremamente rari e non correlabili a marcatori genetici o immunologici conosciuti. Al momento non esistono esami in grado di prevedere in anticipo chi potrebbe sviluppare una reazione avversa significativa.
L’introduzione obbligatoria di esami prevaccinali renderebbe logisticamente impossibili le campagne, ostacolando la copertura diffusa necessaria per l’immunità di gregge. Le vaccinazioni funzionano proprio perché applicate su larga scala, creando uno scudo comunitario che riduce la circolazione dei patogeni.
L’inversione retorica: “noi siamo la vera scienza”
Un tratto distintivo della comunicazione di chi contesta le vaccinazioni è la pretesa di incarnare la “vera scienza”, accusando al tempo stesso le istituzioni di rifiutare il confronto. È un vero rovesciamento di prospettiva: si imputa alla comunità scientifica un atteggiamento dogmatico, mentre ci si propone come gli unici detentori delle “vere prove”. In pratica, si pretende di cambiare le regole del gioco scientifico, così che affermazioni prive di fondamento possano essere messe sullo stesso piano delle evidenze prodotte e validate dall’intera comunità. È come voler riscrivere le regole del Monopoli per far sì che a vincere non sia chi accumula dati e dimostrazioni, ma chi urla di più o pesca la carta giusta al momento opportuno.
La realtà è un’altra: il confronto scientifico non si svolge sui social o nei talk show, ma nelle riviste peer-reviewed, nei congressi specialistici e nei comitati di valutazione delle evidenze. Ed è in questi contesti che certe tesi non trovano spazio, non per censura, ma per una ragione molto più semplice: mancano dati solidi che le sostengano.
Conclusione: la scienza contro gli slogan
Il caso Bellavite mostra come il linguaggio della scienza possa essere piegato e trasformato in uno strumento di retorica ideologica: un lessico apparentemente tecnico usato non per chiarire ma per confondere; non per spiegare ma per insinuare dubbi e paure privi di basi reali.
I vaccini rimangono uno dei più grandi successi della medicina moderna. Hanno ridotto o eliminato malattie che per secoli hanno decimato intere popolazioni. Certo, come ogni atto medico comportano rischi, ma il rapporto rischi/benefici è da decenni valutato e aggiornato con metodi rigorosi ed è incontrovertibile: il beneficio collettivo e individuale supera enormemente i rari effetti collaterali.
In politica, come nei discorsi attraverso cui si criticano le vaccinazioni, accade spesso che a prevalere siano slogan facili e interpretazioni personali. Il dibattito si trasforma così in un’arena di opinioni precostituite, dove il volume della voce sembra contare più della solidità delle prove. Ma la scienza non funziona in questo modo: non si piega alle opinioni, non segue le mode e non obbedisce agli slogan. È un processo collettivo, autocorrettivo e guidato dai dati, che avanza proprio perché seleziona ciò che resiste alla verifica e scarta ciò che non regge all’evidenza.
Chi tenta di manipolare questo processo dimentica un punto essenziale: la verità scientifica non appartiene a chi urla più forte, ma a chi misura, dimostra e sottopone i risultati al vaglio della comunità. È questo meccanismo che, tra errori e correzioni, consente alla scienza di progredire e di migliorare la vita di tutti.
Nota a margine dell’articolo
Sono perfettamente consapevole che questo scritto non convincerà chi è già persuaso che i vaccini siano dannosi o chi si rifugia dietro un malinteso concetto di “libertà di vaccinazione”. Desidero però ricordare ai miei quattro lettori che l’Art. 32 della nostra Costituzione recita:
“La Repubblica tutela la salute come fondamentale diritto dell’individuo e interesse della collettività, e garantisce cure gratuite agli indigenti. Nessuno può essere obbligato a un determinato trattamento sanitario se non per disposizione di legge. La legge non può in nessun caso violare i limiti imposti dal rispetto della persona umana”.
La Corte Costituzionale, interpretando questo articolo, ha più volte ribadito che la salute pubblica può prevalere su quella individuale. Già con la sentenza n. 307/1990 e la n. 218/1994 ha chiarito che l’obbligo vaccinale è compatibile con la Costituzione se proporzionato e giustificato dall’interesse collettivo. La sentenza n. 282/2002, pur riguardando i trattamenti sanitari obbligatori in ambito psichiatrico, ribadisce il principio generale: un trattamento sanitario può essere imposto per legge, purché rispettoso della dignità della persona. Infine, la più recente sentenza n. 5/2018 ha confermato la piena discrezionalità del legislatore nell’introdurre obblighi vaccinali a tutela della salute pubblica.
Il mio intento non è convincere chi non vuole ascoltare, ma offrire strumenti a chi esita, a chi è spaventato. La paura è umana, comprensibile, ma non ha fondamento: i dati dimostrano che vaccinarsi significa proteggere sé stessi e, soprattutto, la comunità di cui facciamo parte. È questo il senso profondo dell’art. 32: la salute non è mai solo un fatto privato, ma un bene comune.
Questo sito usa i cookie per migliorare la tua esperienza di navigazione. Viene assunto che tu sia d'accordo. Tuttavia, puoi annullare i cookie se lo desideri cliccando su “cookie settings” e deselezionando i cookie non necessari. Cookie settingsACCEPT
Privacy & Cookies Policy
Privacy Overview
Questo sito Web utilizza i cookie per migliorare la tua esperienza durante la navigazione. Tra questi, i cookie classificati come necessari vengono memorizzati nel browser in quanto sono essenziali per il funzionamento base del sito. Si utilizzano anche cookie di terze parti che aiutano ad analizzare e comprendere come si utilizza il sito. Questi cookie sono memorizzati nel tuo browser solo con il tuo consenso. Hai anche la possibilità di disattivarli. La disattivazione di alcuni cookie può, tuttavia, influire sulla tua esperienza di navigazione.
I cookie cosiddetti necessari sono essenziali per il funzionamento corretto del sito Web. Questa categoria include solo i cookie che assicurano le funzionalità di base e la sicurezza del sito Web. Non viene conservata alcuna informazione personale.