Quando la mano fa scienza: gli scimpanzé e i fichi verdi

Il mercato della foresta

C’è un mercato nella foresta dove i venditori non urlano i prezzi e i clienti non pagano con monete ma con attenzione. I prodotti sono piccole sfere verdi appese ai rami: i fichi. Per un osservatore distratto molti di questi frutti sembrano uguali – verdi, anonimi, tutti lì a mezz’aria – eppure, per uno scimpanzé affamato, scegliere il fico giusto è questione di vita quotidiana. Non importa tanto il colore: è la mano che decide.

Un esperimento naturale

In uno studio molto elegante, Dominy e collaboratori hanno seguito gli scimpanzé di Kibale (Uganda) mentre esaminavano, palpavano e a volte incidevano con morsi i fichi della specie Ficus sansibarica. I ricercatori hanno misurato colore, elasticità, resistenza alla frattura e contenuto di zuccheri dei frutti, e hanno poi messo insieme comportamento e fisica con un semplice ma potente ragionamento statistico: ogni test sensoriale riduce l’incertezza su quanto dolce sia il frutto. In pratica, gli scimpanzé fanno Bayes con le dita.

Perché è interessante?

Per tre motivi.

  1. Il segnale visivo è debole. Molti fichi rimangono verdi anche quando sono maturi: il colore non tradisce la dolcezza. Per un animale che si affida alla vista, questo è un problema. Ma gli scimpanzé non rimangono fermi a guardare: si arrampicano, afferrano, premono. La palpazione dura una frazione di secondo – in media circa 1,4 s – e fornisce un’informazione meccanica che si correla molto meglio con il contenuto di fruttosio del frutto. In altre parole: il dito è più informativo dell’occhio.
  2. La sequenza sensoriale è modulare e razionale. Gli scimpanzé prima osservano (valutano dimensione e qualche indicazione cromatica), poi palpano – la mano misura elasticità – e infine, se serve, mordono per valutare la resistenza all’incisione (KIC, una misura meccanica della facilità con cui il tessuto si rompe). Ogni sensazione è un pezzo di informazione che, sommato agli altri, rende la decisione più affidabile.
  3. La ricerca suggerisce una lettura evolutiva intrigante: la mano come strumento di misura. Spesso colleghiamo la precisione della mano umana all’uso di utensili; questo lavoro propone invece che, almeno in parte, la selezione per mani sensibili e destre possa essere stata guidata anche da esigenze quotidiane di raccolta e valutazione del cibo — vale a dire: la mano non è nata solo per costruire strumenti, ma anche per saggiare il mondo.

Un piccolo laboratorio sensoriale

Questa visione sposta il centro dell’attenzione: non è solo l’innovazione tecnologica che plasma l’evoluzione della mano, ma anche la routine del foraggiamento. Pensalo come un piccolo laboratorio sensoriale: lo scimpanzé solleva un fico, lo preme con il polpastrello, percepisce la “cedibilità”, stima se dentro ci sono zuccheri a sufficienza e poi decide. Un segnale visivo vago (verde) viene corretto da informazioni meccaniche precise. Il risultato è una strategia efficiente: meno errori nella scelta di frutti importanti (i fichi sono una risorsa alimentare di riserva nelle stagioni difficili) e quindi un vantaggio per la sopravvivenza e la riproduzione.

La mano come utensile per conoscere

Per milioni di anni, fichi e altri frutti “criptici” hanno messo alla prova la capacità dei primati di distinguere il commestibile dal deludente. La pressione selettiva non ha riguardato soltanto occhi e cervello, ma anche la mano. La destrezza manuale, che oggi colleghiamo soprattutto all’uso degli strumenti, potrebbe avere radici ben più antiche: la necessità di valutare il cibo. La mano, prima di diventare utensile per costruire, è stata utensile per conoscere.

Un fotogramma della nostra storia

Il gesto dello scimpanzé che palpa un fico non è solo un dettaglio curioso di comportamento, ma un fotogramma della nostra stessa storia evolutiva. La precisione del pollice opponibile, la ricchezza sensoriale del polpastrello, la capacità di coordinare occhio e mano: tutto ciò che oggi ci permette di scrivere, scolpire, dipingere o operare, è nato anche da azioni semplici come scegliere il frutto giusto su un ramo.

Dalla foresta al mercato

Così, la foresta diventa laboratorio, la mano un sensore, il frutto una sfida evolutiva. E se ci pensiamo, la linea che ci separa dagli scimpanzé non è poi così netta: anche noi, al mercato, prima di comprare una pesca o un avocado, li osserviamo, li tocchiamo, li premiamo leggermente con le dita. In fondo, facciamo la stessa cosa: riduciamo l’incertezza con la complessità della mano.

Conclusione

La prossima volta che vedrai uno scimpanzé contemplare un frutto, immaginalo come un piccolo scienziato improvvisato: non sta solo mangiando, sta raccogliendo dati. Con il polpastrello riduce l’incertezza, proprio come noi davanti a una confezione con etichetta sbiadita.

E allora si capisce: la mano è nata per conoscere, prima ancora che per costruire. È questa complessità – fatta di tatto, intelligenza e memoria – che ha guidato la nostra evoluzione.

Dal fico della foresta alla penna, allo scalpello, al bisturi: ogni gesto umano porta ancora impressa quella prima funzione. La mano che oggi crea, cura, scrive e dipinge è la stessa che, milioni di anni fa, imparava a saggiare un frutto. In fondo, la nostra evoluzione è cominciata con un dito sul frutto.

Dimostrami che non esiste! La trappola preferita della pseudoscienza

Frequento i social network dal 2009 e, qualche anno dopo – era il 2015, ormai dieci anni fa – ho aperto il mio blog. All’inizio, da neofita, mi ritrovavo a discutere animatamente con persone di ogni tipo: rabdomanti convinti di sentire l’acqua con un bastoncino, cacciatori di fantasmi armati di telecamerine, fan dell’omeopatia pronti a difendere il niente travestito da nulla diluito e sostenitori dell’agricoltura biodinamica intenti a recitare formule magiche come i druidi di Asterix per aumentare la produttività dei campi.

Ogni volta che li mettevo davanti all’evidenza, la conversazione finiva invariabilmente con la stessa frase a effetto:
“Ah sì? Allora dimostrami [provami] che [argomento a piacere] non esiste!”

Oppure, in contesti diversi ma con identica logica capovolta: “Allora dimostrami [provami] che Dio non esiste”.

Chissà perché, ogni volta che ascolto queste argomentazioni, resto colpito dall’involuzione culturale che si sta diffondendo sempre di più. Sono frasi che potevano avere un senso quando ero in terza elementare, quando ci si appellava alla maestra per dirimere questioni vitali come: “Non sono stato io a mettere le mani nella marmellata, è stato lui!”.

Ma in età adulta mi aspetto qualcosa di diverso: argomentazioni più mature, meno retoriche e più legate alla razionalità. E invece questi trucchetti – vecchi come il mondo – continuano a funzionare con chi, pur avendo studiato, non si è abituato al pensiero critico e al metodo scientifico. Il punto è che la scienza, nel bene e nel male, non funziona così.

Provare: ma in che senso?

Ed è proprio qui che nasce la confusione: cosa significa davvero “provare”? Nel linguaggio quotidiano questa parola viene usata in mille modi diversi: provare un vestito, provare a fare una torta, provare un sentimento, provare a convincere qualcuno. E, lasciatemela passare, “provare un esame” – espressione tipica dei miei studenti, che poi però vengono puntualmente bocciati.

Ma in scienza non basta “fare un tentativo” o “avere un’impressione”: qui “provare” significa sottoporre un’idea a un controllo severo, verificare se regge quando viene messa di fronte ai dati.

La Treccani ci ricorda che “provare” significa sia “fare un tentativo” sia “dimostrare con prove la verità di un’affermazione”. Nel linguaggio scientifico, però, prevale il secondo significato: mettere alla prova un’ipotesi. In altre parole, valutare se un’ipotesi spiega davvero i fenomeni osservati e, soprattutto, se permette di fare previsioni verificabili.

Fare scienza significa:

  • osservare un fenomeno;
  • formulare un’ipotesi che lo spieghi e consenta di fare previsioni;
  • progettare esperimenti che possano confermare o smentire l’ipotesi;
  • accettare senza sconti il verdetto dei dati.

Se i dati non la confermano, l’ipotesi è falsificata. Punto. In altre parole, non è più utile: non spiega i fenomeni, non regge alla verifica, è semplicemente errata.

L’onere della prova

Rileggiamo l’elenco del paragrafo precedente, partendo dal primo punto:

  • osservare un fenomeno.

Qui sta il punto cruciale: se non posso osservare un fenomeno, tutto il resto non ha alcun senso. Come potrei formulare un’ipotesi su qualcosa che non vedo? E se non ho un’ipotesi, come potrei progettare esperimenti? Senza esperimenti non ottengo dati e, senza dati, non posso né confermare né confutare nulla.

In definitiva, se qualcosa non è osservabile, non posso applicare alcun metodo per “provarne” l’inesistenza. La scienza non funziona così: non dimostra l’inesistenza, ma mette alla prova ciò che si afferma di aver osservato. L’onere della prova, quindi, ricade sempre su chi fa l’affermazione, non su chi la mette in dubbio.

Mettiamola in un altro modo: se ipotizzo che una sostanza chimica acceleri la germinazione dei semi, posso progettare un esperimento. Se i dati non mostrano differenze, l’ipotesi cade. Ma se qualcuno sostiene che “una misteriosa energia invisibile accelera la germinazione solo in certe notti particolari”, senza dire quando, dove e come… beh, quella non è scienza: è una storia che non può essere né verificata né smentita, in altre parole non può essere falsificata.

Ecco perché fantasmi, energie occulte, biodinamica, draghi invisibili o divinità onnipresenti non possono essere oggetto di indagine scientifica: semplicemente non sono ipotesi falsificabili.

Un insegnamento dalla storia

Certo, gli amanti delle scienze occulte (che se sono occulte non sono scienze, ma va bene: usiamo pure l’ossimoro tanto caro ai fan di queste cose) potranno sempre dire: “Ma scusa, come fai a dire che qualcosa non funziona o non esiste se non lo provi? Non è compito dello scienziato verificare, sperimentare e, casomai, proporre o rigettare?”

Sì, certo. Ma solo se – ripeto – il fenomeno è osservabile o se esiste un impianto logico-matematico che consenta di formulare ipotesi verificabili con una progettazione sperimentale precisa.

Facciamo alcuni esempi. L’etere luminifero, ipotizzato come mezzo di propagazione della luce, è stato messo alla prova con esperimenti celebri come quello di Michelson e Morley (1887). I dati hanno detto chiaramente che non c’era nessuna evidenza a suo favore. Lo stesso destino è toccato al flogisto, sostanza immaginaria che avrebbe dovuto spiegare la combustione, spazzata via dalla chimica di Lavoisier.

E cosa dire della meccanica classica – sì, proprio quella sviluppata da Isaac Newton – che ha dominato per oltre due secoli e ancora oggi descrive benissimo il mondo macroscopico? All’inizio del Novecento, però, si è mostrata inadeguata a spiegare il comportamento delle particelle microscopiche e i fenomeni a velocità prossime a quella della luce. Da lì sono nate la relatività di Einstein e la meccanica quantistica, due teorie che hanno ampliato il quadro e che, pur con approcci diversi, permettono di fare previsioni in ambiti dove Newton non basta. Eppure, i razzi continuano a essere lanciati nello spazio grazie ai calcoli newtoniani: semplicemente, la sua fisica funziona finché si rimane dentro i suoi limiti di validità.

In tutti questi casi, la scienza non ha “provato l’inesistenza” di etere, flogisto o della validità universale della meccanica classica: ha mostrato che i dati non erano compatibili con quelle ipotesi, oppure che servivano modelli più ampi e predittivi per descrivere meglio la realtà.

La differenza tra scienza e pseudoscienza

Alla luce di tutto quanto scritto finora, si può ribadire con chiarezza che la scienza non fornisce verità eterne: propone modelli coerenti con le prove disponibili, validi finché i dati li confermano. Basta anche un solo dato contrario per metterli in crisi. In quel caso, il modello viene abbandonato oppure ampliato, formulando nuove ipotesi che ne estendano i limiti di validità.

La pseudoscienza, invece, gioca sporco: pretende di invertire l’onere della prova e chiede di dimostrare l’inesistenza dei suoi fantasmi. Non è un caso se, dopo più di due secoli, l’omeopatia è rimasta immobile, sempre uguale a se stessa, senza mai evolversi. O se l’agricoltura biodinamica – nonostante il supporto di figure accademiche che hanno scelto di accreditare l’esoterico come se fosse scienza – non sia mai riuscita a produrre una validazione sperimentale credibile. E l’elenco potrebbe continuare.

Come ammoniva Carl Sagan: affermazioni straordinarie richiedono prove straordinarie. Chi non porta prove, porta solo storie… e spesso nemmeno originali.

Conclusione

No, non si può provare l’inesistenza di qualcosa in senso assoluto. Quello che la scienza può fare, e che fa ogni giorno, è mostrare l’assenza di evidenze e smontare affermazioni che non reggono alla prova dei dati.

Per questo non ha senso chiedere di dimostrare che i fantasmi non infestano le vecchie case, che i preparati biodinamici non funzionano o che Dio non esiste. L’onere della prova spetta sempre a chi afferma, non a chi dubita.

La scienza non è un gioco di prestigio in cui si fanno sparire gli spettri: è un metodo per distinguere ciò che ha basi reali da ciò che resta soltanto una storia.

Esprit de char

➡ Read in English

Che cos’hanno in comune un fuoco che non brucia, un terreno che diventa più fertile e un clima che forse possiamo ancora salvare?
La risposta sta in un materiale oscuro e poroso, nato dal calore ma fatto per resistere al tempo: il biochar.

Immaginate un carbone che, invece di dissolversi in fumo, rimane nel suolo per secoli. Non è carbone da ardere, ma carbone che custodisce carbonio. Un paradosso? Forse sì. Eppure è proprio qui che la scienza ci invita a guardare più da vicino.

Un enigma nella giungla

Tutto comincia in Amazzonia. Quando i primi archeologi e pedologi iniziarono a scavare nella foresta pluviale, trovarono qualcosa di inatteso: macchie di terra scura e fertile che si distinguevano nettamente dal rosso povero degli Oxisols circostanti. Gli indigeni la chiamavano “Terra Preta do Indios”, la “terra nera degli indios”.

Com’era possibile che suoli notoriamente poverissimi e instabili, incapaci di trattenere nutrienti, ospitassero invece zone in cui le piante crescevano rigogliose?

Negli anni Duemila, studi pionieristici di Bruno Glaser e colleghi mostrarono che quelle terre nere contenevano fino a 70 volte più carbonio nero rispetto ai suoli circostanti. Non un carbonio qualsiasi, ma il prodotto della combustione incompleta di biomassa: charcoal, carbone vegetale. Non il fuoco distruttivo degli incendi, ma quello controllato dei focolari domestici, dei forni di cottura, delle pratiche agricole precolombiane.

Dalla leggenda alla scienza

La Terra Preta non era un fenomeno naturale. Era la traccia lasciata da comunità indigene che, 1500–2500 anni fa, avevano imparato a trasformare residui di cucina, legno e scarti organici in un suolo fertile e duraturo. Non slash-and-burn, la bruciatura che divora foreste e libera CO₂, ma slash-and-char: un modo per intrappolare carbonio e costruire fertilità.

Quel carbone, altamente aromatico e stabile, sopravvive nel suolo per secoli. Con il tempo, l’ossidazione ne arricchisce i bordi di gruppi carbossilici, che aumentano la capacità di trattenere nutrienti. È così che un materiale apparentemente inerte diventa uno scrigno di fertilità, capace di sostenere colture ben oltre il tempo degli indigeni che lo produssero.

Ed è da questa eredità che nasce la parola che oggi usiamo: biochar. Non più soltanto un reperto archeologico, ma una tecnologia da ripensare in chiave moderna.

Il biochar oggi

Il nome potrebbe sembrare una trovata di marketing, ma non lo è. È il termine scelto dalla comunità scientifica per indicare il materiale carbonioso ottenuto dalla pirolisi di biomasse di scarto – legno, residui agricoli, perfino sottoprodotti animali – e applicato volontariamente al suolo per migliorarne la qualità.

Perché dovremmo interessarcene?
Perché sappiamo che l’aumento della temperatura globale è dovuto alle attività umane, e abbiamo bisogno di strumenti nuovi per rallentare la corsa dei gas serra. Il biochar, se ben prodotto e ben usato, sembra offrire proprio questo:

  • intrappolare carbonio nei suoli, togliendolo dall’atmosfera;
  • migliorare la struttura dei terreni, rendendoli più fertili e meno erodibili;
  • adsorbire sostanze tossiche, ripulendo acque e suoli inquinati;
  • modificare il pH, favorendo la crescita delle piante.

Tutto questo non è teoria: sono osservazioni sperimentali che hanno acceso un entusiasmo globale. Ma… funziona sempre così?

I segreti nei pori

Il punto è che il biochar non è mai uguale a sé stesso. Dipende dalla biomassa di partenza, dalle temperature di pirolisi, dalle condizioni di produzione. Alcuni biochar sono stabili e utili; altri, invece, si degradano più in fretta o rilasciano ciò che dovrebbero trattenere.

E allora come capire quali biochar funzionano davvero?

È qui che entrano in gioco le tecniche che uso nel mio lavoro. Con la risonanza magnetica nucleare (NMR) possiamo osservare il comportamento dell’acqua confinata nei pori del biochar: come si muove, quanto resta intrappolata, quali interazioni crea con ioni e contaminanti. In pratica, possiamo ascoltare la “vita interiore” di un pezzo di carbone.

Queste informazioni ci permettono di costruire modelli più affidabili e di distinguere tra biochar efficaci e biochar illusori. È un lavoro di pazienza, ma necessario: se vogliamo usare il biochar come strumento di sostenibilità, dobbiamo capire i suoi meccanismi più profondi.

Esprit de char

Il National MagLab ha raccontato parte di questa avventura in un articolo dal titolo evocativo: Esprit de char. “Lo spirito del carbone”: un nome che rende bene l’idea. Perché il biochar non è solo un materiale tecnico, è un ponte tra passato e futuro. Un carbone antico, ma con un compito nuovo: aiutarci a riscrivere il rapporto tra l’uomo, il suolo e il clima.

E domani?

Sarà allora il biochar la chiave di un’agricoltura davvero sostenibile?
Non dobbiamo illuderci: non è una bacchetta magica. Non basterà da solo a risolvere la crisi climatica o a rigenerare i suoli impoveriti. Ma può essere uno strumento potente, se usato con intelligenza.

Forse, in fondo, l’“esprit de char” non è altro che questo: la memoria di un fuoco che, anziché consumare, ha creato. Un fuoco che ancora oggi può insegnarci a trasformare l’ombra in risorsa, il carbone in futuro.

Per approfondire:

E qualche mio vecchio post divulgativo:

Esprit de char (English)

What do a fire that doesn’t burn, a soil that becomes more fertile, and a climate we might still save have in common?
The answer lies in a dark, porous material, born from heat yet made to resist time: biochar.

Imagine a charcoal that, instead of turning into smoke, remains in the soil for centuries. Not charcoal for burning, but charcoal that locks carbon away. A paradox? Perhaps. And yet this is precisely where science invites us to look closer.

A jungle enigma

It all begins in the Amazon basin. When the first archaeologists and soil scientists dug into the rainforest, they found something unexpected: patches of dark, fertile earth standing out against the poor, reddish Oxisols all around. The locals called it “Terra Preta do Indios”, the “black earth of the Indians.”

How was it possible that soils known for being extremely poor and unstable, unable to hold nutrients, could instead host areas where plants thrived so vigorously?

In the early 2000s, pioneering studies by Bruno Glaser and colleagues revealed that these black soils contained up to 70 times more black carbon than their surroundings. Not just any carbon, but the product of the incomplete combustion of biomass: charcoal. Not the destructive fire of wild burns, but the controlled fires of domestic hearths, cooking stoves, and pre-Columbian farming practices.

From legend to science

Terra Preta was not a natural phenomenon. It was the trace left by indigenous communities who, 1,500–2,500 years ago, had learned how to turn kitchen waste, wood, and organic residues into fertile, enduring soil. Not slash-and-burn, the practice that devours forests and releases CO₂, but slash-and-char: a way to trap carbon and build fertility.

That charcoal, highly aromatic and chemically stable, survives in soil for centuries. Over time, oxidation enriches its edges with carboxylic groups, increasing its nutrient-holding capacity. In this way, an apparently inert material becomes a treasure chest of fertility, able to sustain crops long after the indigenous people who created it had disappeared.

And it is from this legacy that the word we use today was born: biochar. No longer just an archaeological curiosity, but a technology to be reimagined for modern times.

Biochar today

The name may sound like a marketing gimmick, but it isn’t. It’s the term chosen by the scientific community to define the carbon-rich material produced by the pyrolysis of waste biomass – wood, agricultural residues, even animal by-products – and deliberately applied to soil to improve its quality.

Why should we care?
Because we know that global warming is driven by human activity, and we need new tools to slow the race of greenhouse gases. Biochar, if properly produced and applied, seems to offer exactly this:

  • locking carbon into soils, keeping it out of the atmosphere;
  • improving soil structure, making it more fertile and less prone to erosion;
  • adsorbing toxic substances, helping to clean polluted soils and waters;
  • altering soil pH, favoring plant growth.

This isn’t theory: these are experimental findings that have sparked worldwide enthusiasm. But… does it always work that way?

Secrets in the pores

The truth is that biochar is never the same. It depends on the feedstock, on the pyrolysis temperature, and on the production conditions. Some biochars are stable and effective; others degrade quickly or release what they were meant to retain.

So how do we know which biochar really works?

This is where the techniques I use in my research come into play. With nuclear magnetic resonance (NMR) we can observe how water behaves inside biochar pores: how it moves, how long it remains trapped, how it interacts with ions and contaminants. In practice, we can listen to the “inner life” of a piece of charcoal.

Such information allows us to build more reliable models and to distinguish effective biochar from illusory ones. It’s painstaking work, but essential: if we want biochar to be a true sustainability tool, we must first understand its deepest mechanisms.

Esprit de char

The National MagLab told part of this story in an article with an evocative title: Esprit de char. “The spirit of charcoal”: a name that captures the essence. Because biochar is not just a technical material—it’s a bridge between past and future. An ancient charcoal with a new task: to help rewrite the relationship between humans, soils, and climate.

And tomorrow?

So, is biochar the key to truly sustainable agriculture?
We shouldn’t fool ourselves: it’s no magic wand. Biochar alone won’t solve the climate crisis or restore degraded soils. But it can be a powerful tool – if used wisely.

Perhaps, in the end, the “esprit de char” is nothing more than this: the memory of a fire that, instead of consuming, created. A fire that still today can teach us how to turn shadow into resource, charcoal into future.

Further reading:

And some of my earlier blog posts (in Italian):

 

La Sindone e la scienza: dal Medioevo alla risonanza magnetica

Ormai lo sanno anche le pietre: mi occupo di risonanza magnetica nucleare su matrici ambientali. Tradotto per i non addetti: uso la stessa tecnica che in medicina serve a vedere dentro il corpo umano, ma applicata a tutt’altro – suoli, sostanza organica naturale, piante e materiali inerti. Ripeto: non corpi umani né animali, ma sistemi ambientali.

C’è un dettaglio curioso. I medici hanno tolto l’aggettivo “nucleare” dal nome, per non spaventare i pazienti. Peccato che, senza quell’aggettivo, l’espressione “risonanza magnetica” non significhi nulla: risonanza di cosa? elettronica, fotonica, nucleare? Io, che non ho pazienti da rassicurare, preferisco chiamare le cose con il loro nome: risonanza magnetica nucleare, perché studio la materia osservando come i nuclei atomici interagiscono con la radiazione elettromagnetica a radiofrequenza.

Non voglio dilungarmi: non è questa la sede per i dettagli tecnici. Per chi fosse curioso, rimando al mio volume The Environment in a Magnet edito dalla Royal Society of Chemistry.

Tutto questo per dire che in fatto di risonanza magnetica nucleare non sono proprio uno sprovveduto. Me ne occupo dal 1992, subito dopo la laurea in Chimica con indirizzo Organico-Biologico. All’epoca iniziai a lavorare al CNR, che aveva una sede ad Arcofelice, vicino Pozzuoli, in provincia di Napoli. È lì che cominciai a usare l’NMR per studiare la relazione struttura-attività dei metaboliti vegetali: un banco di prova perfetto per capire quanto questa tecnica potesse rivelare.

Successivamente passai all’Università degli Studi di Napoli Federico II, dove estesi l’uso della risonanza magnetica nucleare non solo alla fase liquida, ma anche a quella solida e semisolida. Non più soltanto metaboliti vegetali, dunque, ma matrici molto più complesse dal punto di vista chimico: il suolo e la sostanza organica ivi contenuta.

Con il mio trasferimento all’Università di Palermo ho potuto ampliare ulteriormente le competenze in NMR: dall’uso di strumenti a campo magnetico fisso sono passato allo studio delle stesse matrici naturali con spettrometri a campo variabile. Un passo avanti che mi ha permesso di guardare i sistemi ambientali con ancora più profondità e sfumature.

Ed eccomi qui, dopo più di trent’anni di esperienza, a spiegare perché chi immagina di usare la risonanza magnetica nucleare sulla Sindone di Torino forse ha una visione un po’… fantasiosa della tecnica.

Andiamo con ordine.

La Sindone di Torino: simbolo religioso e falso storico

La Sindone

La Sindone di Torino è un lenzuolo di lino lungo circa quattro metri che reca impressa l’immagine frontale e dorsale di un uomo crocifisso. Per il mondo cattolico rappresenta una delle reliquie più importanti: secondo la tradizione, sarebbe il sudario che avvolse il corpo di Cristo dopo la crocifissione. Attorno ad essa si è sviluppato un culto popolare immenso, fatto di pellegrinaggi e ostensioni pubbliche che ne hanno consacrato il valore spirituale.

Ma che cosa ci dice la scienza su questo straordinario manufatto?

La datazione al radiocarbonio

Il dato più solido arriva dalla datazione con il radiocarbonio. Nel 1988 tre laboratori indipendenti – Oxford, Zurigo e Tucson – pubblicarono sulla rivista Nature i risultati delle loro analisi: il lino della Sindone risale a un periodo compreso fra il 1260 e il 1390 d.C., cioè in piena epoca medievale (Damon et al., 1989). La conclusione degli autori fu inequivocabile: “evidence that the linen of the Shroud is mediaeval”.

Riproduzioni sperimentali

A rafforzare questa interpretazione è intervenuto anche il lavoro del chimico Luigi Garlaschelli, che ha realizzato una riproduzione della Sindone utilizzando tecniche compatibili con l’arte medievale: applicazione di pigmenti su un rilievo, trattamenti acidi per simulare l’invecchiamento, lavaggi parziali per attenuare il colore. Il risultato, esposto in varie conferenze e mostre, mostra come un artigiano del Trecento avrebbe potuto ottenere un’immagine con molte delle caratteristiche dell’originale (Garlaschelli, 2009).

Le conferme della storia

Anche le fonti storiche convergono. Un documento recentemente portato alla luce (datato 1370) mostra che già all’epoca un vescovo locale denunciava il telo come un artefatto, fabbricato per alimentare un culto redditizio (RaiNews, 2025). Questo si aggiunge al più noto documento del 1389, in cui il vescovo di Troyes, Pierre d’Arcis, scriveva a papa Clemente VII denunciando la falsità della reliquia.

Le contro-argomentazioni sindonologiche

Naturalmente, chi sostiene l’autenticità della Sindone non è rimasto in silenzio. Le principali obiezioni riguardano:

  1. Il campione del 1988 – secondo alcuni, la zona prelevata sarebbe stata contaminata da un rammendo medievale, o comunque non rappresentativa dell’intero telo (Karapanagiotis, 2025).
  2. L’eterogeneità dei dati – alcuni statistici hanno osservato che i tre laboratori non ottennero risultati perfettamente omogenei, segnalando possibili anomalie (Karapanagiotis, 2025).
  3. Eventi successivi – l’incendio di Chambéry del 1532, o la formazione di patine microbiche, avrebbero potuto alterare la concentrazione di carbonio-14, facendo sembrare il tessuto più giovane (Karapanagiotis, 2025).

Sono ipotesi discusse ma che non hanno mai trovato prove decisive: nessuna spiegazione è riuscita a giustificare in modo convincente come un tessuto del I secolo potesse apparire medievale a tre laboratori indipendenti.

Le nuove analisi ai raggi X

Negli ultimi anni si è parlato di nuove tecniche di datazione basate sulla diffusione di raggi X ad ampio angolo (WAXS). L’idea è di valutare il grado di cristallinità della cellulosa del lino: più il tessuto è antico, maggiore è la degradazione della sua struttura cristallina. Applicata a un singolo filo della Sindone, questa metodologia ha suggerito un’età più antica di quella medievale (De Caro et al., 2022).

Tuttavia, i limiti sono evidenti: si è analizzato un solo filo, e la cristallinità della cellulosa dipende non solo dal tempo, ma anche da condizioni ambientali come umidità, calore o contatto con sostanze chimiche. Inoltre, il metodo è recente e richiede ulteriori validazioni indipendenti. In sintesi: interessante come indicatore di degrado, ma non ancora un’alternativa solida al radiocarbonio.

Una nuova frontiera? L’NMR

Accanto a tutto ciò è emersa anche la proposta di applicare la risonanza magnetica nucleare (NMR) alla Sindone (Fanti & Winkler, 1998). Alcuni autori suggeriscono che questa tecnica possa rivelare “concentrazioni atomiche” di idrogeno, carbonio o azoto nel telo, o addirittura produrre mappe tomografiche.

Nel prossimo paragrafo entrerò nel dettaglio di questa prospettiva “NMR”, analizzando perché, alla luce dell’esperienza maturata in oltre trent’anni di lavoro su queste tecniche, considero queste proposte non solo irrealistiche, ma anche profondamente fuorvianti.

I limiti della prospettiva NMR

Tra le tante proposte avanzate negli anni, c’è anche quella di usare la risonanza magnetica nucleare per studiare la Sindone. Nel lavoro di Giulio Fanti e Ulf Winkler si ipotizza di applicare tecniche NMR per “vedere” la distribuzione di atomi come idrogeno, carbonio e persino azoto sul telo, o addirittura per ottenere mappe tomografiche simili a quelle della risonanza magnetica medica. Sulla carta può sembrare affascinante, ma nella pratica questa prospettiva presenta numerosi limiti.

Nel caso dei protoni (1H), ad esempio, gran parte del segnale in un lino asciutto deriva dall’acqua residua o da componenti volatili: un parametro che può variare fino all’80% semplicemente cambiando le condizioni ambientali. Inoltre, in un solido come il lino della Sindone, l’analisi 1H-NMR non offre risoluzione: lo spettro mostra soltanto due contributi sovrapposti, un picco stretto e intenso dovuto alle zone cristalline della cellulosa e una larga campana sottostante, tipica delle frazioni amorfe. È chiaro, quindi, che non solo è arduo quantificare i protoni, ma è del tutto irrealistico pensare di usarli per una datazione del tessuto.

Per quanto riguarda l’analisi al carbonio-13 (13C), ci sono diversi punti da sottolineare. La tecnica più usata è la CPMAS 13C-NMR: in questo caso una piccola quantità di campione, dell’ordine dei milligrammi, viene inserita in un porta-campioni invisibile all’NMR, posto nel campo magnetico secondo una geometria precisa, e il carbonio viene “visto” sfruttando l’abbondanza dei protoni. Si tratta però di una tecnica qualitativa: non consente una vera quantificazione del nucleo osservato. Inoltre, richiede tempi di misura molto lunghi, con costi elevati e il rischio concreto di non ottenere informazioni davvero utili.

L’alternativa sarebbe la DPMAS 13C-NMR. Qui, a differenza della CPMAS, non ci si appoggia ai protoni e quindi bisogna fare affidamento solo sull’abbondanza naturale del 13C, circa l’1%: troppo bassa. Di conseguenza i tempi macchina si allungano ulteriormente, con dispendio sia di tempo sia economico. E in più la tecnica è priva di risoluzione: i segnali dei diversi nuclei si sovrappongono in un unico inviluppo indistinguibile, rendendo impossibile perfino la stima del rapporto fra cellulosa cristallina e amorfa.

Quanto all’azoto-14 (14N), il nucleo è quadrupolare e produce linee larghissime e difficilmente interpretabili: in pratica, misure affidabili non sono realistiche.

Nel lavoro di Fanti e Winkler, ci sono poi anche problemi di coerenza interna. Nel testo, ad esempio, si ipotizzano tempi di rilassamento e acquisizione non compatibili con i valori sperimentali reali, e si propongono scenari come la “tomografia NMR dell’intero telo” che, per un materiale rigido e povero di mobilità come il lino secco, sono semplicemente impraticabili: i tempi di decadimento del segnale sono troppo brevi perché si possa ricostruire un’immagine come in risonanza magnetica medica.

Infine, il lavoro suggerisce di estendere le misure addirittura a mappature di radioattività con contatori Geiger o a esperimenti di irraggiamento con neutroni, ipotizzando collegamenti con la formazione dell’immagine. Si tratta di congetture prive di fondamento sperimentale, più vicine a un esercizio di fantasia che a un protocollo scientifico realistico.

In sintesi, Fanti e Winkler hanno portato il linguaggio della NMR nel dibattito sulla Sindone, ma le applicazioni che propongono si scontrano con limiti tecnici insormontabili e interpretazioni sbagliate.

L’NMR è uno strumento potentissimo per lo studio di suoli, sostanza organica e sistemi complessi, ma applicarlo alla Sindone nei termini proposti non ha basi scientifiche solide: rischia anzi di trasformare una tecnica seria in un’arma retorica al servizio di ipotesi precostituite.

Conclusioni

Alla fine dei conti, la Sindone di Torino resta ciò che la scienza ha già dimostrato da tempo: un manufatto medievale. Lo dice la datazione al radiocarbonio pubblicata su Nature; lo confermano le riproduzioni sperimentali di Luigi Garlaschelli e i documenti storici del Trecento che la denunciavano come artefatto devozionale; lo ribadiscono i limiti delle nuove tecniche “alternative” che, per quanto presentate come rivoluzionarie, non hanno mai scalfito la solidità del verdetto del 1988. Le contro-argomentazioni dei sindonologi — campioni non rappresentativi, rammendi invisibili, incendi o contaminazioni miracolose — sono ipotesi suggestive, ma prive di prove concrete e incapaci di spiegare perché tre laboratori indipendenti abbiano ottenuto lo stesso responso: Medioevo. Le proposte più recenti, come l’uso dei raggi X o addirittura della risonanza magnetica nucleare, non fanno che spostare il problema, avanzando idee tecnicamente fragili e spesso concettualmente errate.

La Sindone rimane dunque un oggetto straordinario, ma non perché testimoni la resurrezione di Cristo: straordinaria è la sua forza simbolica, straordinaria è la devozione che suscita, straordinaria è la capacità che ha avuto per secoli di alimentare fede, immaginazione e perfino business. Ma sul piano scientifico la questione è chiusa. Continuare a spacciarla per “mistero insoluto” significa ignorare le evidenze e trasformare la ricerca in propaganda. E questo, più che un atto di fede, è un insulto all’intelligenza.

Quando il rischio svanisce, cresce la paura: giudizio, percezione e vaccini

Nel mio articolo Dal Voltaren al vaccino: perché temiamo ciò che ci salva e ignoriamo ciò che ci nuoce mi sono chiesto come mai la sicurezza dei vaccini venga percepita come dubbia, quando invece le evidenze scientifiche mostrano l’opposto.

Un indizio ci arriva da un curioso fenomeno psicologico, studiato qualche anno fa da un gruppo di ricercatori di Harvard e pubblicato su Science: il prevalence-induced concept change, o, per dirla in breve, la tendenza ad ampliare i confini di un concetto man mano che il problema, cui il concetto si riferiva, diventa sempre meno visibile.

Gli autori dello studio – condotto attraverso sette esperimenti su centinaia di volontari – hanno utilizzato compiti molto diversi, dai più semplici ai più complessi. In uno di questi, ad esempio, hanno mostrato ai partecipanti migliaia di puntini colorati che variavano lungo un continuum dal viola al blu e hanno chiesto, test dopo test, di stabilire se ciascun puntino fosse blu oppure no. Al diminuire del numero di puntini blu, i soggetti cominciavano a essere più inclusivi nella definizione: anche puntini che in precedenza avrebbero classificato come viola cominciavano a essere etichettati come blu.

Lo stesso schema si è ripetuto in altri contesti. Per esempio, la valutazione delle espressioni facciali tendeva ad ampliare la definizione di minacciosità quando il numero di volti realmente minacciosi diminuiva. In altre parole, i partecipanti finivano per giudicare come “minacciose” anche espressioni neutre.

Lo stesso si è osservato quando ai volontari è stato chiesto di valutare l’eticità di proposte di ricerca: quando quelle eticamente discutibili diventavano sempre meno numerose, i volontari finivano per giudicare “non etiche” perfino proposte del tutto innocue.

Insomma, al calare della frequenza del problema reale, la mente dei volontari spostava i confini della definizione, includendo dentro la categoria situazioni che in precedenza ne sarebbero rimaste fuori.

È facile capire perché questo meccanismo, utile in altri contesti evolutivi – ad esempio nel riconoscere possibili predatori a partire da indizi minimi, nello scartare cibi anche solo vagamente simili a quelli velenosi o nell’individuare segnali di ostilità nei rapporti sociali – oggi possa giocarci brutti scherzi. Applicato ai vaccini, diventa quasi lampante. Più le malattie infettive diventano rare grazie all’immunizzazione, più tendiamo a ingigantire i rischi, anche minimi, dei vaccini stessi. Eppure, di morbillo si può morire: ancora oggi nei paesi dove la copertura vaccinale è insufficiente si registrano decessi. Il vaiolo, invece, è stato eradicato proprio grazie alla vaccinazione di massa: per secoli ha seminato terrore e morte, oggi non fa più paura solo perché non esiste più nella nostra esperienza quotidiana. Lo stesso vale per malattie come la poliomielite, che può lasciare paralisi permanenti, o la difterite, che ostruisce le vie respiratorie: patologie che i vaccini hanno reso quasi invisibili in gran parte del mondo, al punto che molti non le percepiscono più come minacce reali.

In questo vuoto di percezione, ogni piccolo segnale post-vaccinazione viene sovradimensionato. Un dolore al braccio o una febbriciattola diventano indizi di pericolo grave. Episodi rarissimi finiscono in prima pagina e assumono un peso sproporzionato rispetto all’enorme beneficio collettivo. La percezione si deforma: non vediamo più il quadro generale – la scomparsa o il contenimento di malattie mortali – ma inseguiamo il dettaglio marginale.

E qui entra in gioco la disinformazione. Basta prendere un evento raro, magari un caso clinico eccezionale, e presentarlo come se fosse frequente. L’effetto è immediato: chi legge o ascolta ha l’impressione che i vaccini siano pieni di insidie, anche se i dati mostrano l’esatto contrario. Anzi, paradossalmente la loro stessa sicurezza – dimostrata da miliardi di dosi somministrate senza conseguenze gravi – alimenta la nostra disponibilità a credere alle paure: siccome le malattie non le vediamo più, ci concentriamo sul resto.

La disinformazione, però, non è mai neutrale. C’è sempre qualcuno che ha interesse a diffonderla o, quantomeno, a cavalcarla. Cui prodest? Chi ci guadagna? A volte sono gruppi organizzati che vendono prodotti alternativi, dalle cure miracolose agli integratori “rinforzanti” da assumere al posto dei vaccini. Altre volte sono influencer e canali che cercano visibilità, like, condivisioni: la paura è un potente amplificatore di traffico. E non mancano attori politici che, agitando lo spettro di un presunto complotto, riescono a costruire consenso e identità contro il “sistema”.

Il risultato è che un successo straordinario della scienza – i vaccini che hanno ridotto poliomielite, difterite, morbillo e tante altre infezioni – rischia di apparire, nella percezione comune, come una minaccia anziché come una protezione. È l’ennesima dimostrazione che i dati, da soli, non bastano: servono anche strumenti culturali per difendersi dalla manipolazione del giudizio.

E allora, la prossima volta che qualcuno ci racconta un aneddoto allarmistico, proviamo a fermarci un istante e chiederci: sto giudicando i dati o sto cedendo a un’illusione della percezione?
Perché non sempre ciò che vediamo riflette la realtà. Spesso riflette i tranelli della nostra mente.

Ed è proprio su questi tranelli che i movimenti no-vax costruiscono la loro narrazione: ingigantiscono casi marginali, ignorano le prove scientifiche e alimentano paure che non hanno alcun fondamento. Ma i dati parlano chiaro: i vaccini salvano milioni di vite ogni anno, hanno debellato il vaiolo, ridotto la poliomielite e reso rare malattie che per secoli hanno mietuto vittime. Rifiutarli non è un atto di libertà: è un atto di incoscienza che mette a rischio non solo chi li rifiuta, ma anche chi non può vaccinarsi.

La vera libertà non è cedere a una menzogna rassicurante. La vera libertà è scegliere sulla base delle evidenze, senza farsi manipolare da chi, per interesse o ideologia, lucra sulla paura degli altri.

Dal Voltaren al vaccino: perché temiamo ciò che ci salva e ignoriamo ciò che ci nuoce

Uno dei cavalli di battaglia degli antivaccinisti, soprattutto durante la pandemia di Covid, è stato: Non sappiamo cosa ci iniettano. Una frase che sembra prudente, ma che in realtà nasconde il vuoto più assoluto. In rete, e purtroppo anche in certi palchi mediatici, si sono lette e ascoltate fandonie indegne: vaccini pieni di grafene, di materiale “fetale”, di microchip. Panzane. Bufale. Balle cosmiche spacciate per verità scomode.

Il punto è che la percezione del rischio, quando si parla di vaccini, viene distorta fino al ridicolo. Gli stessi che si indignano davanti a una fiala di vaccino non si fanno problemi ad abusare di Voltaren per un mal di schiena, di Tachipirina per un raffreddore o di Aspirina a stomaco vuoto. Farmaci che, se presi male o in dosi eccessive, hanno effetti collaterali ben documentati e tutt’altro che lievi. Ma nessuno apre gruppi Telegram per denunciare il “complotto della Tachipirina”.

E allora torniamo alle basi. La differenza tra pericolo e rischio.
Il pericolo è una proprietà intrinseca di una sostanza: la candeggina, per esempio, è pericolosa. Ma il rischio dipende dall’uso: se non la bevi, se non la respiri, la candeggina non ti ammazza. Lo stesso vale per i farmaci. Aspirina e Tachipirina hanno pericoli reali, ma li consideriamo a basso rischio perché li usiamo con buon senso.

Con i vaccini si è creata la tempesta perfetta: un farmaco nuovo, un’emergenza sanitaria mondiale e un esercito di disinformatori pronti a manipolare la paura. Eppure, i dati clinici erano chiari già nel 2021: i vaccini anti-Covid erano molto più sicuri di tanti farmaci da banco. I rischi di complicazioni gravi erano rarissimi, infinitamente inferiori rispetto a quelli legati alla malattia. Ma invece di guardare i numeri, ci si è lasciati spaventare dai fantasmi.

C’è chi liquida la pandemia come una “farsa”, chi parla di “censura” e di “virostar” in televisione. È il classico copione: invece di discutere sui dati, si attacca chi li porta. Roberto Burioni e altri virologi sono stati accusati di essere “ospiti fissi” senza contraddittorio. Ma davvero serve un contraddittorio tra chi studia i virus da decenni e chi diffonde complotti sui microchip nei vaccini? Sarebbe come chiedere di contrapporre un astrologo a un astronomo quando si parla di orbite planetarie.

La realtà è che i dati c’erano, e chiunque poteva consultarli: studi clinici, report di farmacovigilanza, pubblicazioni scientifiche. Non erano nascosti – erano ignorati. La vera censura è quella che gli antivaccinisti applicano a se stessi e ai loro seguaci: censura dei numeri, censura dei fatti, censura del pensiero critico.

Il risultato? Una percezione capovolta: farmaci familiari diventano “innocui per definizione”, mentre vaccini che hanno salvato milioni di vite vengono descritti come “veleni sperimentali”. Non è prudenza, è ignoranza travestita da saggezza.

Chiariamo una volta per tutte: i vaccini non sono perfetti, ma nessun farmaco lo è. La differenza è che i vaccini non curano soltanto: prevengono, riducono i contagi, salvano intere comunità. Attaccarli con menzogne non è opinione, è irresponsabilità sociale.

In fondo, la chimica e la farmacologia ci dicono una cosa semplice: nessuna sostanza è innocua, nemmeno l’acqua. È il contesto, la dose, l’uso che fanno la differenza. Non capirlo – o, peggio, fingere di non capirlo per ideologia – significa giocare con la salute propria e quella altrui.

Il vero pericolo, oggi, non sono i vaccini. Sono gli antivaccinisti.

Alochimica o Chelichimica? La scienza quotidiana dietro gli aloni delle magliette

Cari lettori vicini e lontani,

vi siete mai chiesti perché si formano gli aloni gialli sotto le ascelle delle maglie chiare? È tutta questione di chimica.

Oltre alla normale igiene personale – uso di acqua e sapone – facciamo molto ricorso a quelli che chiamiamo deodoranti ascellari. In realtà, molti di essi sono deodoranti nel senso che contengono profumi che servono a coprire i cattivi odori che produciamo dopo una giornata intensa. Tuttavia, la maggior parte dei prodotti in commercio contiene anche sostanze chimiche in grado di ridurre la produzione di sudore. In altre parole, sono veri e propri antitraspiranti.

I miei amici biologi e medici mi perdonino se uso un linguaggio un po’ semplificato: il mio obiettivo qui non è fare un trattato, ma spiegare in modo chiaro ciò che accade sotto le nostre ascelle.

Il sudore: un condizionatore naturale

Innanzitutto. diciamo che il sudore ha un ruolo fisiologico molto importante. Per capire meglio, proviamo con un esempio semplice: avete mai bagnato le mani con alcol etilico in estate? Ricorderete la sensazione di fresco che si avverte subito dopo. Perché succede?

L’evaporazione di un liquido – cioè, il passaggio dalla fase liquida a quella gassosa – è un processo che richiede energia. In termini fisici, il sistema assorbe calore dall’ambiente circostante, ovvero la pelle su cui abbiamo messo l’alcol etilico: ecco perché, dopo applicazione di alcol, abbiamo una sensazione di freschezza.

Il sudore funziona allo stesso modo. È composto principalmente da acqua, che evaporando sulla nostra pelle porta via calore e ci aiuta a regolare la temperatura corporea. A questo si aggiungono sali (soprattutto cloruro di sodio), piccole quantità di proteine, lipidi e altre molecole prodotte dal metabolismo.

Da solo, il sudore non ha un odore particolarmente sgradevole. Quell’odore tipico che associamo alle “ascelle sudate” nasce in realtà dall’azione dei batteri che vivono normalmente sulla nostra pelle: essi degradano alcune delle sostanze organiche contenute nel sudore, producendo composti maleodoranti.

Il ruolo dei deodoranti e degli antitraspiranti

Ed eccoci ai deodoranti e agli antitraspiranti. Molti prodotti contengono sali di alluminio (come il cloruro o il cloridrato di alluminio), che riducono la traspirazione formando una sorta di tappo temporaneo nei dotti sudoripari. In questo modo restiamo “asciutti” più a lungo, ma si innescano anche conseguenze meno gradite per i nostri vestiti. Gli aloni gialli, infatti, non derivano semplicemente dal sudore, bensì da una vera e propria orchestra di reazioni chimiche che coinvolgono diversi attori: i sali di alluminio presenti negli antitraspiranti interagiscono con le proteine e i metaboliti azotati del sudore, generando complessi stabili dalle sfumature giallo-brune che si fissano nelle fibre del cotone. Una parte dell’ingiallimento ricorda, in scala ridotta, le reazioni di Maillard, le stesse che fanno dorare pane e biscotti: qui entrano in gioco gli amminoacidi del sudore e i carboidrati della cellulosa del tessuto, catalizzati dal calore corporeo e dalla presenza di metalli. Anche i lipidi e gli acidi grassi secreti dalle ghiandole apocrine danno il loro contributo, andando incontro a processi di ossidazione che producono composti colorati, simili a quelli che rendono irrancidito un olio da cucina. Infine, i residui organici dei deodoranti stessi – fragranze, tensioattivi, polimeri – possono degradarsi e ossidarsi, consolidando l’alone. È, in definitiva, una piccola “reazione chimica da guardaroba”, in cui si intrecciano almeno quattro sistemi: complessi metallo-proteici, reazioni zuccheri-proteine, ossidazioni lipidiche e trasformazioni dei composti organici residui.

Dall’alone al buco: la lenta agonia del cotone

C’è poi un’altra conseguenza meno evidente ma altrettanto fastidiosa: con il tempo le fibre di cellulosa del tessuto, sottoposte a sudore e residui di deodorante, tendono a irrigidirsi e a diventare fragili. Anche qui la chimica ha un ruolo chiave. I sali di alluminio si comportano come veri e propri agenti reticolanti: creano legami incrociati tra le catene della cellulosa, irrigidendo la trama del tessuto. A questo si aggiunge l’effetto dei prodotti di ossidazione del sudore e dei lipidi, che modificano la struttura superficiale delle fibre, rendendole meno elastiche e più inclini a rompersi sotto stress meccanico. È per questo che, oltre agli aloni gialli, le magliette “storiche” finiscono spesso per bucarsi proprio nella zona delle ascelle: le fibre non cedono più in modo elastico, ma si spezzano come se fossero diventate fragili.

Alochimica o chelichimica?

Traendo spunto dall’intervista impossibile a Herr Goethe, potremmo battezzare questo intreccio di reazioni quotidiane con un nome nuovo: Alochimica, la chimica degli aloni, che ci accompagna tanto nel cielo quanto nell’armadio. Il termine deriva dal greco ἅλως, “alone luminoso”, riferito agli astri. In realtà, a voler essere più precisi, dovremmo guardare a κηλίς, che significa “macchia”: da qui il possibile neologismo Chelichimica. In italiano, però, Alochimica suona più evocativo e musicale, mentre Chelichimica è forse più corretto dal punto di vista etimologico sebbene meno immediato. A voi la scelta: quale vi piace di più?

Come prevenire gli aloni (o almeno ridurli)

Alcuni semplici accorgimenti possono limitare il problema:

Conclusione

Dietro un alone giallo c’è molta più chimica di quanto immaginiamo. È la stessa chimica che ci permette di sudare e sopravvivere al caldo, che regola l’equilibrio del nostro corpo e ci difende dallo stress termico. Ma è anche quella che, una volta trasferita sui tessuti insieme ai deodoranti, avvia una catena di reazioni che finisce per lasciare un segno visibile e, a volte, indelebile. Così una semplice maglietta bianca diventa una piccola lavagna su cui si scrivono storie di evaporazione, ossidazione, complessi metallici e fibre irrigidite.

Ecco allora che possiamo parlare, con un pizzico di ironia, di una vera e propria chimica degli aloni domestica: qualcuno la chiamerebbe Alochimica, dal greco ἅλως, “alone luminoso”; altri preferirebbero Chelichimica, da κηλίς, “macchia”. Due nomi diversi per lo stesso intreccio di reazioni quotidiane, che non si manifesta solo nel cielo quando guardiamo il sole o la luna, ma anche nel nostro armadio, tra i vestiti di tutti i giorni. Una scienza silenziosa che ci accompagna ovunque e che, a saperla leggere, trasforma persino un alone giallo sotto l’ascella in un piccolo racconto di meraviglia chimica.

“Acqua che squilli, acqua che brilli, dacci l’ossigeno senza rovelli” ovvero: perché l’acqua ricca di ossigeno è una bufala

Lo ammetto: come poeta non valgo molto. Niente a che vedere con Gabriele D’Annunzio, che in pochi versi seppe rendere l’acqua una creatura viva, brillante, sempre in movimento:

Acqua di monte,
acqua di fonte,
acqua piovana,
acqua sovrana,
acqua che odo,
acqua che lodo,
acqua che squilli,
acqua che brilli,
acqua che canti e piangi,
acqua che ridi e muggi.
Tu sei la vita
e sempre sempre fuggi.

(“Acqua” di G. D’Annunzio)

Io, invece, mi fermo a un modesto gioco di rime:

“Acqua che squilli, acqua che brilli,
dacci l’ossigeno senza rovelli.”

Ma se io non sono un poeta, nel campo della chimica c’è chi riesce a fare ancora peggio di me con le parole – e soprattutto con i numeri. Nonostante la mia attività divulgativa (o forse proprio a causa di essa), mi capita ancora di imbattermi nei suggerimenti di Facebook che pubblicizzano la cosiddetta “acqua arricchita di ossigeno”, presentata come un toccasana universale.

Ora, tralasciando l’iperbole pubblicitaria, proviamo a capire: a cosa servirebbe tutta questa abbondanza di ossigeno disciolto nell’acqua.

L’ossigeno disciolto e la vita acquatica

Da un punto di vista ambientale, la presenza di ossigeno disciolto in acqua è fondamentale. I pesci, i crostacei e la maggior parte degli organismi acquatici hanno bisogno di ossigeno per vivere, proprio come noi terrestri. La differenza è che loro lo ricavano dall’acqua grazie alle branchie, mentre noi lo ricaviamo dall’aria grazie ai polmoni.

Quando un pesce respira, fa passare l’acqua attraverso sottilissime membrane branchiali: da un lato c’è l’acqua con l’ossigeno disciolto, dall’altro il sangue povero di ossigeno. Per semplice diffusione, l’ossigeno passa nelle cellule del pesce (Figura 1).

Figura 1. Meccanismo di respirazione di un pesce: l’acqua con ossigeno disciolto attraversa le branchie e, per diffusione, l’ossigeno passa nel sangue povero di O₂.

Per questo motivo, i chimici quando valutano la qualità di un’acqua non guardano solo alla sua purezza, ma anche a due parametri legati all’ossigeno:

  • il BOD (Biochemical Oxygen Demand), che indica quanta parte dell’ossigeno disciolto viene consumata dai microrganismi per decomporre la sostanza organica;
  • il COD (Chemical Oxygen Demand), che misura quanta parte dell’ossigeno è necessaria per ossidare la sostanza organica, indipendentemente dai microrganismi.

Più alti sono BOD e COD, meno ossigeno resta a disposizione degli organismi acquatici. Insomma, per un pesce l’ossigeno disciolto è questione di vita o di morte.

E per noi terrestri?

Qui arriva il punto dolente. Noi abbiamo bisogno di ossigeno come gli organismi acquatici, ma senza branchie e con un fluido diverso: i nostri polmoni catturano l’ossigeno dall’aria, lo legano all’emoglobina e lo trasportano in tutto il corpo (Figura 2). Se ci immergessimo nell’acqua tentando di respirare come un pesce, non estrarremmo neppure una molecola di ossigeno perché semplicemente non abbiamo le branchie.

Figura 2. Meccanismo della respirazione polmonare: l’ossigeno viene inspirato, catturato dai polmoni, legato all’emoglobina nei globuli rossi e trasportato in tutto il corpo.

In altre parole, l’ossigeno disciolto nell’acqua che beviamo non ci serve a nulla.

Eppure, le aziende che vendono “acqua ricca di ossigeno” promettono ogni genere di beneficio: più energia, digestione facilitata, migliore resistenza fisica, addirittura un gusto esaltato delle pietanze. Sembra quasi di leggere il bugiardino di un olio di serpente moderno.

La realtà è molto più banale: quando beviamo, l’acqua raggiunge lo stomaco e l’intestino, non i polmoni. Da lì non può passare ossigeno nel sangue: l’assorbimento avviene solo attraverso l’apparato respiratorio. Se vogliamo ossigenare i tessuti, l’unico modo resta respirare.

Quanta aria può davvero entrare nell’acqua?

La chimica ci offre uno strumento molto semplice per rispondere: la legge di Henry, secondo la quale la quantità di gas che si scioglie in un liquido dipende dalla pressione parziale del gas stesso e dalla temperatura.

Tradotto:

  • più alta è la pressione, più gas si può sciogliere;
  • più bassa è la temperatura, maggiore è la solubilità;
  • la presenza di altri soluti (come i sali) riduce la quantità di gas che può sciogliersi.

Per dare un numero concreto: a 25 °C e alla normale pressione atmosferica, la quantità massima di ossigeno che si può sciogliere in acqua pura è circa 8–9 milligrammi per litro. Anche spremendo al massimo le condizioni di pressione e temperatura, non si arriva certo a quantità “miracolose”. Eppure, non di rado, si trovano in rete percentuali di ossigeno disciolto così esagerate da sembrare uscite da un fumetto, ben oltre il 100%: numeri che la chimica smentisce senza appello.

Inoltre, una volta che apriamo una bottiglia di acqua “ossigenata” e la riportiamo alle condizioni di pressione e temperatura ambientali, l’ossigeno in eccesso tende a liberarsi, esattamente come accade con le bollicine di una bibita gassata. Ciò che resta, in definitiva, è una comunissima acqua potabile.

Conclusione: acqua arricchita o arricchita di marketing?

Possiamo anche saturare un litro d’acqua con più ossigeno del normale, ma quando la beviamo il nostro corpo non ne ricava alcun vantaggio: non abbiamo branchie e non possiamo estrarre ossigeno dall’acqua come i pesci.

Queste bevande, quindi, non sono altro che acqua — buona e potabile, certo — ma identica a quella del rubinetto o delle bottiglie del supermercato, con l’unica differenza che costano di più.

In sintesi: l’ossigeno per vivere continuiamo a prenderlo dall’aria. Per l’idratazione basta la normale acqua. Per il resto, fidiamoci dei nostri polmoni: sono molto più efficienti di qualsiasi “acqua ricca di ossigeno”.

Il fascino segreto dei complotti: tra mitologia e realtà

Chiunque navighi un po’ sui social sa che prima o poi finirà per imbattersi in una teoria del complotto. Le scie chimiche, il 5G, i vaccini, società segrete che tirerebbero i fili del mondo: racconti affascinanti che spesso viaggiano più veloci delle notizie verificate. A volte fanno sorridere, altre volte mettono i brividi. Ma il punto interessante è un altro: perché sembrano così attraenti? E perché, nonostante viviamo nell’epoca della massima disponibilità di informazioni, hanno tanto successo?

Che cos’è una teoria del complotto

Una teoria del complotto non è semplicemente un sospetto o un dubbio legittimo. È un racconto strutturato, che propone una spiegazione alternativa di eventi complessi attribuendone la responsabilità a un gruppo ristretto e potente che agirebbe nell’ombra. In sé, l’idea di complotto non è assurda: la storia è piena di trame segrete e accordi illeciti che hanno avuto un impatto reale. Basti pensare al Watergate negli Stati Uniti o a Tangentopoli in Italia, episodi che hanno mostrato come politici e imprenditori possano effettivamente cospirare per i propri interessi.

La differenza fondamentale tra un complotto reale e una teoria complottista sta nelle prove. Nel primo caso disponiamo di documenti, testimonianze, indagini giornalistiche e processi che permettono di ricostruire i fatti. Nel secondo, invece, le “prove” sono spesso vaghe: interpretazioni arbitrarie o coincidenze cucite insieme in un’unica trama.

Come si è visto, nella nostra lingua il termine complotto viene usato in entrambi i sensi, generando ambiguità. Una distinzione più chiara sarebbe parlare di cospirazione quando ci riferiamo a eventi storici reali e documentati, e riservare l’espressione teoria del complotto ai racconti speculativi privi di fondamento.

Indipendentemente dal lessico scelto, resta il fatto che il fascino delle teorie complottiste non nasce dalla loro solidità logica, ma dalla loro capacità di trasformare frammenti sparsi in storie suggestive e coinvolgenti.

Psicologia dei complotti: perché ci crediamo

Molti studiosi hanno mostrato come le teorie del complotto facciano leva su meccanismi profondi della nostra mente. Uno dei più radicati è la tendenza a riconoscere schemi anche dove non ci sono: è ciò che lo psicologo Michael Shermer ha chiamato patternicity. Collegare eventi casuali in una trama coerente ci dà l’impressione di capire meglio il mondo, anche quando in realtà stiamo solo costruendo connessioni inesistenti.

A questo si aggiunge il cosiddetto confirmation bias, il pregiudizio di conferma: una volta che abbiamo un’idea in testa, siamo portati a cercare solo le informazioni che la confermano, scartando quelle che la contraddicono. È un meccanismo che funziona inconsciamente e che rende molto difficile cambiare opinione. E non riguarda solo le persone comuni: anche scienziati illustri vi sono caduti. Linus Pauling, due volte premio Nobel, rimase convinto per decenni che la vitamina C fosse una sorta di rimedio universale, nonostante le evidenze contrarie. Luc Montagnier, scopritore del virus HIV, ha sposato in tarda carriera teorie prive di fondamento come la “memoria dell’acqua”. Perfino James Watson, co-scopritore del DNA, ha difeso posizioni discutibili sull’intelligenza e la genetica. Sono esempi che mostrano come il fascino delle proprie idee possa resistere ai dati più solidi.

Non bisogna poi dimenticare un altro aspetto fondamentale: le teorie del complotto rispondono a un bisogno psicologico di controllo. Eventi grandi e imprevedibili – come una pandemia o una crisi economica – possono generare ansia e senso di impotenza. Pensare che ci sia qualcuno “dietro le quinte” che orchestra tutto può sembrare paradossalmente più rassicurante che accettare la realtà caotica e complessa. Infine, c’è il fascino della narrazione: un complotto è, in fondo, una storia. Ha i suoi eroi, i suoi nemici, i suoi colpi di scena. E spesso, dal punto di vista narrativo, è molto più attraente della verità semplice e disordinata.

Quando sapere poco sembra sapere tanto

Un altro ingrediente che contribuisce al successo dei complotti è quello che gli psicologi David Dunning e Justin Kruger hanno descritto ormai più di vent’anni fa: il cosiddetto effetto Dunning-Kruger. Si tratta della tendenza, molto diffusa, delle persone con competenze limitate a sopravvalutare le proprie conoscenze. Chi conosce poco un argomento non ha gli strumenti per valutare la propria ignoranza e finisce per sentirsi molto più competente di quanto sia.

Sui social media questo fenomeno è evidente: chi non ha una formazione scientifica solida può mostrarsi estremamente sicuro di “aver capito” meccanismi complessi che, in realtà, studiosi con anni di esperienza trattano con cautela. È la paradossale sicurezza di chi sa poco, contrapposta al dubbio metodico di chi sa di più.

Accanto a questo, esiste un problema culturale più ampio: il cosiddetto analfabetismo di ritorno. Non significa non saper leggere o scrivere, ma non essere in grado di comprendere testi complessi, grafici, numeri, concetti logici. È un fenomeno documentato anche nei Paesi sviluppati: molte persone diplomate o laureate hanno difficoltà a interpretare correttamente un articolo scientifico o un’informazione statistica. Questo rende più facile affidarsi a slogan semplici, a video emozionali o a frasi ad effetto che non richiedono uno sforzo di analisi.

Quando la sovrastima di sé si unisce alla scarsa comprensione dei contenuti complessi, il terreno è fertile per i complotti. Una spiegazione semplice, anche se sbagliata, risulta più convincente di una realtà intricata che richiede studio e pazienza per essere compresa.

Il megafono dei social media

I social media non hanno inventato i complotti, ma li hanno resi virali come mai prima d’ora. Gli algoritmi che regolano la visibilità dei contenuti tendono a premiare ciò che suscita emozioni forti: indignazione, paura, rabbia. E poche cose funzionano meglio di una buona teoria del complotto.

Così, una voce marginale può crescere rapidamente fino a diventare un fenomeno di massa. Le comunità online che si formano intorno a queste narrazioni funzionano come camere dell’eco: chi ne fa parte trova continuamente conferme, rafforzando la propria convinzione e allontanandosi progressivamente da fonti alternative. L’effetto è quello di una polarizzazione crescente, dove chi prova a introdurre dubbi o dati correttivi viene percepito come un nemico o un ingenuo “complice del sistema”.

Quando il complotto diventa pericoloso

Le teorie del complotto non sono soltanto curiosità folkloristiche della rete: possono avere conseguenze molto concrete e spesso gravi. Un esempio evidente lo abbiamo vissuto durante la pandemia di COVID-19: la diffusione di narrazioni false sui vaccini o sull’origine del virus ha alimentato paure irrazionali, rallentato le campagne di prevenzione e, in alcuni casi, messo a rischio la salute pubblica. Ma non si tratta solo di medicina.

I complotti possono minare la fiducia nelle istituzioni democratiche, spingere le persone a rifiutare dati scientifici fondamentali – come quelli sul cambiamento climatico – e perfino fomentare conflitti sociali. Non mancano esempi in cui comunità online complottiste hanno alimentato forme di odio, radicalizzazione e violenza. In fondo, ogni complotto funziona un po’ come una lente distorta: divide il mondo in “noi” e “loro”, i pochi illuminati contro i tanti manipolati, creando una frattura che si allarga nella società reale.

La pericolosità sociale delle teorie del complotto sta proprio qui: non solo diffondono disinformazione, ma indeboliscono il tessuto di fiducia reciproca su cui si reggono le comunità. Il movimento QAnon, ad esempio, ha eroso la fiducia nelle istituzioni democratiche fino a culminare nell’assalto al Campidoglio; le false narrazioni sul cambiamento climatico hanno rallentato le politiche di mitigazione globale; durante l’epidemia di Ebola in Africa occidentale, i complotti sulla presunta origine artificiale del virus portarono a diffidenza e ostilità verso le squadre mediche. Senza fiducia, diventa molto più difficile collaborare, prendere decisioni condivise, affrontare sfide collettive.

Un problema epistemologico: critica o sfiducia?

A questo punto, il discorso si sposta su un piano più profondo: quello epistemologico, cioè del modo in cui costruiamo e valutiamo la conoscenza. Qui il pensiero di Evandro Agazzi, filosofo della scienza che ha riflettuto molto sul rapporto tra razionalità e verità, può essere illuminante. Agazzi distingue tra razionalità critica e sfiducia generalizzata.

La razionalità critica è l’atteggiamento che dovrebbe guidare ogni scienziato: dubitare, verificare, controllare le fonti. È un esercizio sano, indispensabile, che permette di correggere errori e migliorare le nostre conoscenze. La sfiducia generalizzata, invece, è un atteggiamento diverso: non è un dubbio metodico, ma un rifiuto sistematico di qualunque autorità o dato ufficiale. È l’idea che tutto ciò che viene dalle istituzioni, dagli esperti, dai ricercatori sia per definizione falso o manipolato.

La differenza è sottile, ma decisiva. La scienza vive della prima, mentre le teorie complottiste prosperano sulla seconda. In altre parole, non è lo spirito critico a generare complotti, ma la sua caricatura: una sfiducia cieca che porta a credere solo a ciò che si adatta al proprio pregiudizio.

Conclusione: la verità è meno spettacolare, ma più solida

Ridicolizzare chi crede ai complotti è una tentazione comprensibile, ma spesso controproducente. Le persone finiscono per sentirsi attaccate e si rifugiano ancora di più nelle proprie convinzioni. È più utile capire i meccanismi che portano a credere in certe narrazioni e proporre alternative: una buona educazione al pensiero critico, la capacità di distinguere tra scetticismo sano e sfiducia totale, la diffusione di una cultura scientifica accessibile ma rigorosa.

La verità, ammettiamolo, non avrà mai il fascino di un grande intrigo segreto: non promette trame lineari né colpi di scena spettacolari. È frammentaria, complessa, a volte persino noiosa. Ma ha un vantaggio che nessun complotto inventato può vantare: resiste al tempo. L’ombra seducente dei complotti svanisce alla luce dei fatti, e alla lunga, è sempre quella luce a illuminare la strada.

Speciazione culturale: Europa e Stati Uniti a confronto

È da tanto tempo che mi interrogo sulle enormi differenze culturali che esistono tra gli Stati Uniti e l’Europa. Gli USA sono sempre stati l’emblema della realizzazione dei sogni più audaci. Io stesso ho una parte della mia famiglia dislocata in diversi stati di quel paese: persone che sono emigrate per inseguire i propri sogni e realizzare una vita migliore rispetto a quella che avrebbero avuto in Italia. A questo aggiungiamo pure il fatto che gli USA hanno contribuito notevolmente alla liberazione del nostro Paese dal nazi-fascismo, lasciando un segno profondo e positivo nella nostra storia collettiva.

Eppure, proprio questo contrasto tra l’immagine luminosa dell’America dei sogni e alcune sue ombre mi ha sempre colpito. Pur riconoscendo la vitalità e l’influenza americana, non ho mai potuto ignorare una contraddizione: come può un Paese che mantiene la pena di morte proporsi come esempio di libertà e democrazia? Una domanda che diventa ancora più urgente se pensiamo alla qualità — talvolta pirandelliana — della sua classe politica attuale.

Ma c’è un altro aspetto che rende gli Stati Uniti culturalmente distanti dall’Europa: la forte coscienza religiosa che attraversa la società americana. Secondo il Pew Research Center (2025), più del 60% degli adulti si definisce cristiano, quasi la metà prega quotidianamente e un terzo frequenta regolarmente i servizi religiosi. Oltre l’80% dichiara di credere in Dio o in una forza spirituale, e circa due terzi affermano che la religione ha un ruolo importante nella propria vita. Numeri che mostrano come la religione, pur in un contesto di crescente pluralismo e presenza di “non affiliati”, rimanga un pilastro dell’identità nazionale e della vita pubblica.

È proprio da qui che parte la mia riflessione: come spiegare una divergenza così marcata tra due rami dello stesso ceppo culturale occidentale, Europa e Stati Uniti? Una divergenza che, a ben vedere, somiglia molto a un processo di speciazione culturale.

Nota a margine:

Non sono un sociologo né un filosofo. Questo articolo non pretende quindi rigore accademico in quei campi: è piuttosto una riflessione personale che nasce dal mio sguardo di scienziato applicato a un terreno diverso dal solito.

Un’analogia evolutiva per capire la divergenza religiosa

In biologia evolutiva, quando una popolazione viene separata da una barriera naturale, inizia spesso un processo detto speciazione allopatrica. Isolate in ambienti diversi, le popolazioni non condividono più le stesse pressioni selettive e, col tempo, accumulano differenze genetiche e comportamentali.

Un esempio classico riguarda le lucertole mediterranee (Podarcis siculus). Studi condotti su popolazioni introdotte artificialmente in piccole isole dell’Adriatico e del Tirreno hanno mostrato cambiamenti sorprendenti in poche decine di generazioni. Alcuni gruppi hanno sviluppato crani più robusti e mascelle più larghe, adattamenti che permettono di sfruttare risorse alimentari diverse, come piante e semi in aggiunta agli insetti. In parallelo, è comparsa una maggiore lunghezza dell’intestino, necessaria per digerire materiale vegetale più fibroso. Anche la colorazione della pelle è cambiata, diventando talvolta più scura o con disegni differenti, per mimetizzarsi meglio nei nuovi ambienti (Figura 1). Persino i comportamenti sociali hanno subito modifiche: in alcune popolazioni si è osservata una minore aggressività territoriale, probabilmente favorita dalla necessità di condividere risorse limitate.

Stessa origine, dunque, ma adattamenti diversi: la spinta selettiva di ambienti distinti ha prodotto fenotipi riconoscibilmente differenti, pur restando nello stesso genere.

Questa immagine si presta bene a descrivere — in senso metaforico — la divergenza culturale tra Europa e Stati Uniti, in particolare nel rapporto tra religione e vita pubblica.

Figura 1. Confronto morfologico tra popolazioni di Podarcis siculus. A sinistra, la popolazione originaria, con testa più slanciata e dieta prevalentemente insettivora; a destra, la popolazione insulare divergente, con cranio più robusto, mascelle potenti e adattamenti digestivi che consentono una dieta più ricca di materiale vegetale. Immagine generata con l’ausilio di ChatGPT.

Radici comuni

Europa e Stati Uniti condividono un patrimonio culturale di partenza che può essere visto come il terreno comune da cui sono germogliate due piante destinate a crescere in direzioni diverse. Alla base vi è la tradizione giudaico-cristiana, che per secoli ha fornito il linguaggio morale e simbolico con cui interpretare il mondo. A questo si aggiungono le grandi eredità giuridiche: da un lato il diritto romano, con le sue strutture codificate che hanno dato stabilità e ordine alle società europee, dall’altro il diritto anglosassone, fondato più sulla prassi e sul precedente che sulla norma scritta, ma capace di influenzare profondamente la nascente America. Infine, non si può dimenticare l’Illuminismo europeo, che con la sua enfasi sulla libertà, la razionalità e la fiducia nel progresso ha fornito l’impalcatura intellettuale di quella che chiamiamo modernità.

Su queste basi comuni, Europa e Stati Uniti hanno costruito la loro civiltà. Alexis de Tocqueville, osservatore attento della giovane democrazia americana, aveva già colto nel XIX secolo un aspetto sorprendente: negli Stati Uniti la religione non si contrapponeva alla libertà, ma la sosteneva. La fede, lungi dall’essere vista come un ostacolo, era parte integrante della vita pubblica, un collante che dava senso e coesione alle comunità. In Europa, invece, la stessa radice religiosa si intrecciava spesso con i poteri monarchici e con istituzioni secolari, generando conflitti e suscitando movimenti di contestazione. Così, pur partendo dallo stesso ceppo culturale, i due continenti hanno cominciato a prendere strade diverse, guidati da ambienti storici e politici che avrebbero portato a esiti divergenti.

L’“habitat” europeo: secolarizzazione

In Europa, per molti secoli, la religione non è stata solo una questione di fede personale ma una vera e propria istituzione politica. Papi, vescovi e chiese nazionali hanno avuto un ruolo determinante non solo nell’orientare la vita spirituale, ma anche nel decidere le sorti di regni e imperi. Basti pensare all’alleanza tra trono e altare: i sovrani traevano legittimità dalle benedizioni ecclesiastiche, mentre le chiese godevano di privilegi e potere grazie alla protezione dei monarchi.

Questa vicinanza al potere secolare, però, ha avuto un effetto collaterale importante: quando le istituzioni religiose si sono mostrate troppo oppressive o conservatrici, sono diventate il bersaglio diretto delle contestazioni. La Riforma protestante del Cinquecento, la Rivoluzione francese con la sua spinta anticlericale, il Risorgimento italiano con la lotta al potere temporale del papato: tutti momenti in cui la religione istituzionalizzata è stata percepita come un ostacolo al cambiamento.

Secondo il sociologo Peter Berger e altri teorici della secolarizzazione, questo processo si è intensificato con la modernità. Con l’avanzare delle rivoluzioni industriali e sociali, lo Stato ha progressivamente assorbito molte delle funzioni che un tempo erano affidate alle chiese: l’educazione dei giovani, l’assistenza ai poveri, la cura dei malati. Ciò che un tempo era prerogativa religiosa è diventato un compito dello Stato moderno e, più tardi, dello Stato sociale.

Il risultato è che, in gran parte dell’Europa occidentale, la religione ha perso centralità pubblica. Non è scomparsa, ma si è ritirata sempre di più nella sfera privata, diventando per molti individui una scelta personale, senza più un ruolo decisivo nella vita politica e civile. In alcuni Paesi, come la Francia, questa separazione è stata addirittura sancita come principio fondante: la laïcité non solo separa lo Stato dalla religione, ma diffida dell’ingerenza del religioso nello spazio pubblico.

In altre parole, l’habitat europeo ha favorito un processo di secolarizzazione profondo: la religione resta come radice culturale e tradizione, ma la sua influenza quotidiana sulla vita politica e sociale si è progressivamente attenuata.

L’“habitat” americano: pluralismo religioso

Negli Stati Uniti il contesto era profondamente diverso da quello europeo. Molte delle colonie furono fondate da gruppi di dissidenti religiosi in fuga dalle persecuzioni del Vecchio Mondo. Per questi coloni la religione non era un apparato di potere che controllava le coscienze, ma la ragione stessa della loro ricerca di libertà. Questo tratto originario rimase impresso a lungo nella mentalità americana: la fede come esperienza di emancipazione, non come vincolo.

La Costituzione, con il Primo Emendamento, proibì esplicitamente l’istituzione di una religione di Stato. Questa scelta non indebolì la fede, anzi: permise a ciascuna comunità di vivere la propria religiosità senza interferenze governative, creando un terreno fertile per la nascita di un pluralismo religioso senza precedenti. In America non c’era una chiesa nazionale, ma decine, poi centinaia di chiese e denominazioni, tutte in competizione fra loro per attirare fedeli.

Il sociologo Max Weber sottolineò come l’etica protestante, con il suo richiamo al lavoro, alla sobrietà e alla responsabilità individuale, avesse alimentato lo spirito del capitalismo. Negli Stati Uniti questa connessione si manifestò con particolare intensità: il successo economico non era visto solo come un traguardo terreno, ma anche come segno di benedizione divina.

Questa vitalità è stata spiegata, in tempi più recenti, con la cosiddetta teoria del “mercato religioso” proposta da Rodney Stark: la competizione fra chiese funziona come un motore che mantiene viva la religione. Ogni comunità deve offrire qualcosa – un senso di appartenenza, servizi di sostegno, attività culturali e caritative – per convincere le persone a farne parte. In questo modo, le chiese americane sono diventate non solo luoghi di culto, ma veri centri di socialità, di solidarietà e persino di mobilitazione politica. Un esempio famoso è quello delle Chiese battiste afroamericane, che hanno avuto un ruolo decisivo nel movimento per i diritti civili guidato da Martin Luther King.

A questa dimensione comunitaria si aggiunge un altro elemento: la religione si è intrecciata con il mito fondativo della nazione. L’idea del manifest destiny, la convinzione che il popolo americano avesse una missione speciale da compiere, quasi un disegno provvidenziale, ha trasformato la fede in un elemento di legittimazione patriottica. Essere religiosi, in America, ha significato per lungo tempo non solo credere in Dio, ma anche sentirsi parte integrante del destino nazionale.

Così, mentre in Europa la religione perdeva influenza pubblica, negli Stati Uniti la fede diventava parte della vita civile e politica, contribuendo a forgiare un’identità collettiva che ancora oggi resta profondamente segnata dal riferimento religioso.

Divergenze oltre la religione: giustizia e punizione

Le differenze tra Europa e Stati Uniti non si fermano al rapporto con la religione: emergono anche in altri campi fondamentali della vita collettiva. Uno degli ambiti più significativi è quello della giustizia penale.

Negli Stati Uniti, il sistema giudiziario conserva una forte impronta punitiva. Le pene sono spesso pensate in termini di deterrenza e vendetta sociale: l’idea è che chi ha commesso un crimine debba “pagare” in modo esemplare, così da scoraggiare altri a seguire la stessa strada. È in questo contesto che si spiega la persistenza della pena di morte in diversi Stati della federazione, una pratica che in Europa è ormai vista come inaccettabile. La carcerazione di massa, con pene molto lunghe e spesso inflessibili, riflette la stessa mentalità.

In Europa – e in Italia in particolare – prevale invece un approccio diverso, che affonda le radici nella tradizione giuridica e umanistica del continente. Le pene non vengono pensate soltanto come retribuzione o vendetta, ma soprattutto come strumenti di recupero e reinserimento del reo nella società. La Costituzione italiana, all’articolo 27, è molto chiara: le pene devono tendere alla rieducazione del condannato. È un principio che, almeno nelle intenzioni, sposta l’attenzione dalla punizione alla possibilità di cambiare, di ricostruire un percorso di vita.

Questa differenza riflette due mentalità culturali distinte: da un lato un approccio più pragmatico e spesso implacabile, dall’altro una visione che si richiama a valori di umanesimo e di fiducia nel cambiamento dell’individuo. Due modi diversi di intendere la giustizia, nati da radici comuni ma plasmati da storie, società e sensibilità culturali differenti.

Le radici storiche: la frontiera americana

Per capire da dove nasca questa diversa concezione della giustizia, bisogna guardare alle origini della società americana. I coloni che lasciarono l’Europa si trovarono immersi in un ambiente percepito come selvaggio e ostile, privo delle istituzioni consolidate del Vecchio Continente. La sopravvivenza dipendeva dall’autorganizzazione delle comunità e dalla capacità di difendere le risorse con fermezza. In questo contesto, la legge non era tanto uno strumento di recupero, quanto un mezzo immediato per mantenere l’ordine e scoraggiare i trasgressori.

Lo storico Frederick Jackson Turner, con la sua celebre Frontier Thesis, ha descritto la frontiera americana come il laboratorio in cui si è forgiata l’identità nazionale: un confine mobile, sempre da conquistare, dove individualismo, pragmatismo e uso della forza diventavano virtù necessarie. Col tempo, questa esperienza ha lasciato un’impronta culturale duratura: l’idea che la giustizia debba essere severa, esemplare, capace di garantire sicurezza prima ancora che rieducazione. Non è un caso che ancora oggi il linguaggio politico statunitense evochi con forza il motto law and order.

In termini evolutivi, si potrebbe dire che la “frontiera” abbia agito come una barriera ecologica: lo stesso patrimonio culturale europeo, trapiantato in un nuovo habitat, ha dovuto adattarsi a condizioni radicalmente diverse. Così, come accade alle popolazioni animali separate da un ostacolo geografico, anche qui i tratti originari hanno preso strade divergenti: da una parte, in Europa, l’orientamento verso la rieducazione e il recupero; dall’altra, in America, una giustizia temprata dal bisogno di sopravvivere in un mondo percepito come incerto e pericoloso.

Religione e giustizia: due volti della stessa divergenza

Se osserviamo insieme il ruolo della religione e quello della giustizia, emerge con chiarezza come entrambi riflettano la stessa logica di adattamento agli ambienti originari. In Europa, dove le istituzioni erano antiche, stratificate e spesso intrecciate con il potere politico, la religione ha finito per secolarizzarsi e la giustizia per assumere un volto rieducativo, più attento all’individuo che alla punizione. Negli Stati Uniti, al contrario, la condizione della frontiera ha richiesto comunità coese, capaci di trovare forza e identità nella religione, e leggi dure che garantissero l’ordine in un contesto incerto.

Religione e giustizia, dunque, non sono ambiti separati, ma due espressioni dello stesso processo di divergenza culturale. Come in natura popolazioni della stessa specie, poste in habitat diversi, sviluppano tratti distinti per sopravvivere, così i due rami del ceppo occidentale hanno maturato risposte differenti: in Europa l’indebolimento dell’autorità religiosa e la fiducia nel recupero del reo, in America la vitalità delle comunità di fede e un sistema penale improntato alla severità. Due adattamenti diversi, nati da un’origine comune ma selezionati da ambienti culturali opposti.

Divergenze accumulate

Nel corso dei decenni, Europa e Stati Uniti hanno seguito traiettorie culturali sempre più distinte, proprio come popolazioni isolate che, pur partendo dallo stesso ceppo, si adattano in modi diversi. Oggi, in Europa molti percepiscono la religione come una scelta privata, che ha perso parte della sua influenza pubblica e politica. Le politiche secolari, l’emergere di una sfera laica e il calo della partecipazione religiosa hanno ridisegnato il ruolo della fede nella vita civile.

I numeri confermano questa trasformazione. In base ai dati Eurobarometer, circa il 64% degli europei si identifica come cristiano, ma una parte significativa – tra il 17% e il 27%, a seconda dei Paesi – si dichiara non religiosa o agnostica. In Italia, ad esempio, il 74% dei cittadini crede in un qualche Dio, mentre il 6% esplicitamente nega l’esistenza di una forza spirituale.

Negli Stati Uniti, invece, la religione continua a svolgere un ruolo di grande visibilità pubblica. Circa il 62% degli adulti si definisce cristiano, con un 29% che si descrive come «non affiliato» (agnostico, ateo o “niente in particolare”). Le pratiche religiose sono inoltre più radicate: circa il 44% delle persone prega quotidianamente e il 33% partecipa mensilmente ai riti religiosi. Questo divario si osserva anche nell’intensità della spiritualità: negli USA una forte maggioranza crede in un’anima, in un anteriore all’esistenza e in una forza divina oltre il tangibile.

In sintesi, mentre in gran parte dell’Europa la religione tende a essere vissuta in modo più simbolico, culturale o rituale – spesso relegata alla sfera privata – negli Stati Uniti continua a rappresentare un ingrediente centrale dell’identità nazionale, della politica, del senso civico. È una distinzione che riflette quella “speciazione culturale” di cui parliamo: due rami evolutivi dello stesso albero, plasmati da ambienti storici diversi, che hanno prodotto adattamenti profondi e duraturi.

Una speciazione incompleta

Nonostante le differenze accumulate nei secoli, Europa e Stati Uniti non possono essere considerati due mondi del tutto separati. Entrambi restano parte dello stesso “genoma culturale occidentale”, fatto di valori condivisi, scambi continui e una rete fitta di influenze reciproche. La scienza, ad esempio, parla una lingua comune su entrambe le sponde dell’Atlantico: università, laboratori e centri di ricerca collaborano costantemente, dando vita a scoperte che appartengono a un patrimonio globale. Lo stesso si può dire per la tecnologia, per il diritto internazionale e persino per la cultura popolare: cinema, musica, letteratura e moda circolano senza confini, creando un immaginario collettivo in cui è difficile distinguere ciò che è nato a Los Angeles da ciò che è stato elaborato a Berlino o a Parigi.

Eppure, dentro questo fondo comune, la divergenza sul ruolo pubblico della religione resta marcata. In Europa il processo di secolarizzazione ha portato le istituzioni a dichiararsi neutrali, quando non apertamente diffidenti verso ogni ingerenza del religioso nella sfera politica. Negli Stati Uniti, invece, la religione continua a presentarsi come una forza vitale e pluralista: non un ostacolo, ma un elemento che alimenta identità, comunità e perfino legittimazione politica. Si tratta, in un certo senso, di una speciazione incompleta: due rami dello stesso albero che, pur riconoscendosi affini e dialogando costantemente, hanno ormai sviluppato tratti distintivi difficilmente reversibili.

Conclusione

L’Atlantico, più che un oceano, ha agito come una barriera evolutiva. Dalle stesse radici culturali sono nate due traiettorie distinte: da un lato un’Europa che ha progressivamente secolarizzato le proprie istituzioni, relegando la religione a fatto privato; dall’altro un’America in cui la fede è rimasta vitale, competitiva e parte integrante della sfera pubblica.

La metafora evolutiva ci aiuta a capire che queste differenze non sono il frutto di superiorità o arretratezza, ma di ambienti diversi che hanno selezionato tratti diversi. Come accade alle specie animali, che pur condividendo un antenato comune sviluppano adattamenti peculiari in risposta al proprio habitat, così Europa e Stati Uniti hanno maturato risposte divergenti alle sfide della modernità.

Eppure, nonostante queste distanze, i due mondi non sono estranei l’uno all’altro. La scienza, la tecnologia, l’economia globale, la cultura pop e i sistemi politici continuano a intrecciarsi in mille modi. Si può dire che Europa e America appartengano ancora allo stesso ecosistema, anche se i loro fenotipi culturali sono ormai chiaramente distinti.

In definitiva, due rami dello stesso albero hanno imparato a vivere in mondi separati, ma restano legati da una radice comune. Capire questa “speciazione incompleta” non significa scegliere quale modello sia migliore, ma riconoscere la ricchezza della diversità culturale e imparare a leggerla come il risultato di storie, ambienti e adattamenti differenti. È forse proprio in questa pluralità di percorsi che risiede la forza dell’Occidente: la capacità di restare una famiglia, pur nella differenza delle sue voci. C’è chi ammira la vitalità americana: io, personalmente, preferisco di gran lunga l’Europa.

Riferimenti essenziali

Share