I cambiamenti climatici? Sì, siamo noi i responsabili.

Vi siete mai trovati di fronte a un negazionista climatico? Io sì!

C’è chi dice che i cambiamenti climatici non esistono, perché “oggi piove” o “ieri faceva freddo”. A questi ho già risposto nei primi due articoli della serie, parlando del riscaldamento globale e dei suoi effetti locali – temporali compresi – e del grande rimescolamento che avviene negli oceani.

Ma poi ci sono quelli che ammettono sì, il clima sta cambiando, però non è colpa nostra. “È il Sole!”, “Sono i vulcani!”, “È sempre successo!”.

Ecco, è a loro che è dedicato questo articolo.

Perché sì, il clima è sempre cambiato: durante le ere glaciali e le fasi interglaciali, le grandi estinzioni, le migrazioni dei continenti, ma mai così, e mai così in fretta.

La temperatura media globale è aumentata di oltre un grado in poco più di un secolo. La concentrazione di CO2 nell’atmosfera ha superato le 420 parti per milione, un valore che non si era mai visto negli ultimi 800.000 anni e probabilmente nemmeno negli ultimi tre milioni.

E questo non lo dicono gli opinionisti, ma le carote di ghiaccio estratte dall’Antartide e dalla Groenlandia, dove ogni bolla d’aria intrappolata è una macchina del tempo (Staffelbach et al., 1991; Berends et al., 2021; Bauska, 2024).

La traccia dell’uomo

Quando osserviamo il passato del clima, vediamo che le sue variazioni sono state guidate da forzanti naturali: cicli orbitali (i cosiddetti cicli di Milanković), variazioni dell’attività solare, grandi eruzioni vulcaniche. Questi meccanismi hanno regolato per millenni l’alternarsi di periodi glaciali e interglaciali. Tuttavia, nessuna di queste spiegazioni è sufficiente a giustificare l’aumento repentino e marcato della temperatura media globale registrato negli ultimi 150 anni.

Solo includendo nei modelli climatici le forzanti antropiche – in particolare le emissioni di gas serra derivanti dalla combustione di combustibili fossili, la deforestazione su larga scala, l’allevamento intensivo e l’uso massiccio di fertilizzanti – è possibile riprodurre fedelmente l’andamento osservato del riscaldamento globale (Stott et al., 2000; Meehl et al., 2004; Lee et al., 2016; Abatzoglou et al., 2018; Schlunegger et al., 2019; He et al., 2023; Tjiputra et al., 2023; Abera et al., 2024; Gong et al. 2024).

Questa evidenza è stata raccolta e consolidata da decenni di ricerca, culminando nella sintesi fornita dall’Intergovernmental Panel on Climate Change (IPCC) nel suo Sesto Rapporto di Valutazione (AR6, 2021), dove si legge:

“It is unequivocal that human influence has warmed the atmosphere, ocean and land.”

È la prima volta che l’IPCC utilizza il termine “inequivocabile” per descrivere l’influenza umana sul sistema climatico. Questo non è frutto di una singola analisi o di un’interpretazione soggettiva, ma il risultato di milioni di osservazioni, migliaia di simulazioni indipendenti e centinaia di studi scientifici pubblicati su riviste peer-reviewed. Un risultato convergente, robusto e statisticamente solido, ottenuto da comunità scientifiche di tutto il mondo.

In altre parole, senza introdurre l’uomo nelle equazioni, il riscaldamento osservato non si spiega.

La firma fossile

Anche la chimica ci aiuta a riconoscere con chiarezza il responsabile. Il carbonio che proviene dai combustibili fossili ha una composizione isotopica distinta rispetto a quello attivamente scambiato tra atmosfera, biosfera e oceani. In particolare, il rapporto tra gli isotopi stabili del carbonio (13C/12C) è un indicatore chiave: i combustibili fossili, derivati dalla sostanza organica vegetale antica, sono naturalmente poveri in 13C. Quando bruciamo carbone, petrolio o gas naturale, questo carbonio “leggero” si riversa nell’atmosfera, abbassando il δ13C atmosferico in modo misurabile (Keeling et al., 1979; Francey et al., 1999).

Questo segnale isotopico rappresenta una vera e propria firma chimica dell’origine fossile della CO2 in eccesso. È come se la Terra ci stesse restituendo lo scontrino della nostra attività industriale.

Un’ulteriore conferma arriva dal monitoraggio del radiocarbonio (14C): essendo un isotopo radioattivo con un’emivita di circa 5.700 anni, è completamente assente nei combustibili fossili, che hanno milioni di anni. L’immissione massiccia di CO2 fossile diluisce il contenuto di 14C nell’atmosfera, un fenomeno noto come Suess effect (Suess, 1955; Graven et al., 2012).

Ma la CO2 non è l’unico gas climalterante in aumento. A questo si aggiungono due gas serra minori ma molto più potenti per unità di massa: il metano (CH4) e il protossido di azoto (N2O). Il metano è rilasciato da fonti naturali, ma in misura crescente anche da allevamenti intensivi, risaie e attività estrattive (Kirschke et al., 2013), mentre il protossido di azoto deriva principalmente dall’uso agricolo di fertilizzanti azotati (Syakila & Kroeze, 2011). Entrambi i gas contribuiscono in modo sostanziale al riscaldamento globale, con un potere climalterante rispettivamente 28–34 volte (CH4) e circa 265 volte (N2O) superiore a quello della CO2 su scala centennale (IPCC AR6, 2021).

La loro crescita, documentata in registrazioni atmosferiche e bolle d’aria nei ghiacci, segue l’espansione delle attività agricole e industriali umane, non eventi naturali. Anche qui, la firma è inequivocabile.

Gli alibi non reggono

C’è chi punta il dito contro i vulcani, sostenendo che siano loro a rilasciare enormi quantità di CO₂. Ma questa affermazione è smentita dai dati: le emissioni vulcaniche annue di anidride carbonica sono stimate intorno ai 0,26 gigatonnellate, contro le oltre 36 gigatonnellate prodotte ogni anno dalle attività umane (Andres et al., 2012; Burton et al., 2013). In altre parole, le emissioni antropiche superano quelle vulcaniche di almeno 100 volte. I vulcani, inoltre, spesso hanno effetti raffreddanti temporanei sul clima, a causa degli aerosol solforici che riflettono la luce solare (come accadde dopo l’eruzione del Pinatubo nel 1991; Soden et al., 2002).

Altri tirano in ballo il Sole. Ma le osservazioni satellitari dal 1978 in poi mostrano che l’irraggiamento solare totale (TSI) è rimasto sostanzialmente stabile o ha addirittura subito una lieve diminuzione. Se il Sole fosse il responsabile del riscaldamento, ci aspetteremmo un riscaldamento uniforme in tutta l’atmosfera. Invece, ciò che si osserva è un riscaldamento netto nella troposfera e un raffreddamento nella stratosfera — una firma tipica dell’effetto serra (Santer et al., 2013).

Altri ancora evocano vaghi “cicli naturali”, ma senza mai specificare quali. I cicli oceanici come El Niño o la PDO (Pacific Decadal Oscillation) possono modulare il clima a livello regionale e su scala interannuale o decadale, ma non spiegano la tendenza globale e persistente all’aumento delle temperature. Sono fluttuazioni attorno a una curva che, negli ultimi decenni, ha una pendenza chiaramente positiva.

La verità è che ogni singolo grande ente scientifico mondiale — dalla NASA alla NOAA, dal Met Office britannico fino al Centro Europeo Copernicus, e naturalmente l’IPCC — concorda su questo punto:

la causa principale del riscaldamento globale osservato dal 1850 a oggi è l’attività umana.

Non è tutta colpa nostra?

Certo, i sistemi climatici sono complessi. Una componente naturale è sempre presente.
Ma i modelli climatici sono in grado di isolare le diverse forzanti: senza introdurre le emissioni antropiche, non si riesce a riprodurre l’aumento delle temperature globali osservato nel XX e XXI secolo (Weart, 2009; IPCC AR5, 2013; Rosenzweig & Neofotis, 2013; White, 2025).
Senza l’uomo, questo riscaldamento non ci sarebbe stato. E senza l’uomo, non sarà possibile fermarlo.

Una responsabilità storica

Siamo la prima generazione a vedere, misurare e comprendere gli effetti del cambiamento climatico su scala planetaria. Ma siamo anche — con ogni probabilità — l’ultima che ha ancora tempo per intervenire e limitare i danni più gravi.
Non parliamo di proiezioni astratte o scenari lontani: le ondate di calore, gli incendi fuori scala, la fusione dei ghiacci, le migrazioni forzate per siccità o inondazioni sono già realtà, e sono il frutto diretto di decenni di emissioni accumulate.

A causare il cambiamento climatico è stata l’attività dell’uomo moderno, non l’uomo in quanto specie.
Abbiamo costruito un modello economico basato sull’uso massiccio di combustibili fossili, sull’espansione urbana, sull’agricoltura intensiva, sull’estrazione incessante di risorse. Questo sistema ci ha dato energia, mobilità, benessere. Ma ha anche rotto l’equilibrio termico del pianeta.

Il clima sta cambiando per colpa nostra. Ma proprio per questo, possiamo ancora cambiarlo noi.

Non basta più ridurre “un po’” le emissioni o piantare qualche albero. Serve una trasformazione sistemica:

  • Decarbonizzare i trasporti, l’energia e l’industria, puntando su fonti rinnovabili come l’eolico e il solare, ma senza pregiudizi ideologici nei confronti del nucleare, che – come ho già discusso nell’articolo L’atomo della pace – resta una delle poche fonti capaci di fornire energia a basse emissioni su larga scala.
  • rivedere le pratiche agricole e alimentari, riducendo l’impatto ambientale della produzione primaria attraverso un uso più razionale di risorse come acqua, fertilizzanti e suolo, e promuovendo sistemi colturali e zootecnici improntati alla sostenibilità. L’agricoltura integrata, che prevede un equilibrio tra coltivazioni e allevamenti, può contribuire a mantenere la fertilità dei suoli, ridurre le emissioni climalteranti e garantire una produzione alimentare efficiente e resiliente. Anche la lotta agli sprechi resta fondamentale lungo tutta la filiera.
  • proteggere e ripristinare gli ecosistemi naturali, perché foreste, zone umide e suoli ricchi di sostanza organica svolgono un ruolo chiave come serbatoi di carbonio. Intervenire su scala paesaggistica significa rafforzare la capacità del pianeta di tamponare gli effetti del riscaldamento globale, rallentando i feedback più pericolosi.
  • adattare città e territori agli eventi estremi già in corso, ripensando la gestione del rischio, l’urbanizzazione selvaggia e l’impermeabilizzazione del suolo. L’aumento delle temperature e la frequenza di fenomeni meteorologici estremi impongono infrastrutture più resilienti, spazi verdi urbani, reti idriche e sistemi di allerta progettati per il clima che verrà – non per quello che avevamo.

E accanto alle scelte politiche e industriali, anche le azioni individuali contano: ridurre gli sprechi, consumare meno e meglio, informarsi, partecipare, votare con consapevolezza.

Non è una colpa da espiare.
Non serve sentirsi inadeguati o sopraffatti.
È una responsabilità storica che possiamo ancora scegliere di assumerci.
Perché, se il problema è stato causato dall’uomo, la soluzione può venire solo da noi.

Il grande mescolamento: il ruolo vitale degli oceani e le conseguenze del riscaldamento globale

Per capire davvero cosa significhi “riscaldamento globale”, dobbiamo prima capire come funziona il sistema che, da sempre, modera il clima della Terra: gli oceani. Sono loro, infatti, il gigantesco ingranaggio nascosto che regola la distribuzione del calore, l’equilibrio dell’umidità e la circolazione dell’energia termica sul nostro pianeta.

Le acque oceaniche non stanno mai ferme. Si muovono in superficie, spinte dai venti; si muovono in profondità, guidate da variazioni di temperatura e salinità. In questo continuo rimescolamento – silenzioso, ma potentissimo – si nasconde il segreto della nostra stabilità climatica. Ogni corrente trasporta calore dai tropici verso i poli e viceversa, mitiga le temperature, distribuisce nutrienti e sostiene la vita marina.

È un equilibrio delicato, raffinato, essenziale. E proprio per questo vulnerabile.

Se le acque si muovono meno, se non si mescolano più come dovrebbero, l’intero sistema comincia a rallentare, a scompensarsi. Il clima si fa più estremo, le piogge più irregolari, le stagioni meno distinguibili.

Ecco perché non possiamo davvero comprendere il cambiamento climatico senza prima esplorare i meccanismi che governano il movimento delle acque nei grandi corpi idrici: oceani, mari, fiumi, laghi.

A partire da qui, cercherò di spiegare – con l’aiuto della fisica e della chimica – come funzionano i movimenti orizzontali e verticali delle acque e perché sono così importanti per la regolazione del clima. Solo dopo, potremo affrontare il nodo centrale: cosa succede quando, a causa dell’aumento delle temperature globali, questi meccanismi si inceppano.

Le grandi correnti: il vento comanda

Partiamo dalla superficie. Le acque degli oceani sono spinte dai venti, ma non in modo casuale. Intorno all’equatore, ad esempio, gli Alisei soffiano da est verso ovest e trascinano con sé le acque superficiali. Alle latitudini medie (tra 30° e 60°), i venti occidentali spingono invece le correnti verso est.

Quando queste correnti incontrano i continenti, vengono deviate. Ed è qui che entra in gioco la forza di Coriolis: un effetto legato alla rotazione terrestre che curva i flussi d’acqua verso destra nell’emisfero nord e verso sinistra in quello sud. Il risultato? Enormi vortici oceanici che formano veri e propri “nastri trasportatori” d’acqua calda e fredda.

Uno degli esempi più noti è la Corrente del Golfo, che trasporta acque tropicali lungo la costa orientale del Nord America fino all’Europa occidentale, regalando inverni miti a paesi come il Regno Unito e la Norvegia.

Come illustrato in Figura 1, le acque superficiali degli oceani (fino a circa 100 metri di profondità) si muovono orizzontalmente, spinte soprattutto dai venti. La presenza dei continenti ne modifica il percorso, generando ampie correnti che si piegano e si avvolgono in vortici permanenti, visibili in tutti i principali bacini oceanici.

Figura 1. Rappresentazione delle principali correnti oceaniche superficiali. A causa della presenza dei continenti, le correnti deviano dal loro percorso originale, generando grandi vortici oceanici. Immagine scaricata liberamente da: https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Le correnti profonde: il ruolo del sale e della temperatura

Ma c’è un altro motore, più lento, silenzioso e profondo: il rimescolamento verticale. È un processo meno visibile rispetto alle correnti superficiali, ma non meno importante. In alcune regioni del pianeta, come le zone tropicali aride o le aree polari, l’acqua in superficie subisce trasformazioni che ne modificano profondamente la densità.

Nelle aree calde, per esempio, l’evaporazione intensa concentra i sali nell’acqua residua. Più sale significa maggiore densità: e un’acqua più densa tende naturalmente ad affondare verso gli strati profondi dell’oceano.
Al contrario, in altre zone l’acqua può essere diluita da piogge abbondanti o dallo scioglimento dei ghiacci, diventando più dolce e meno densa, e quindi destinata a risalire.

Anche la temperatura gioca un ruolo cruciale. Quando l’acqua marina si raffredda intensamente – come accade ai poli – tende a ghiacciarsi. Durante il congelamento, però, il ghiaccio espelle i sali: ciò che resta intorno ai blocchi di ghiaccio è un’acqua estremamente salina e fredda. Questo liquido denso sprofonda verso il fondo oceanico, innescando così un flusso verticale che alimenta la circolazione delle acque a grandi profondità.

Questo meccanismo prende il nome di circolazione termoalina: un termine che unisce l’effetto della temperatura (“termo”) a quello del sale (“alina”, dal greco halos). È grazie a questa lenta ma continua danza tra acque fredde, salate e profonde, e acque più calde e superficiali, che l’oceano riesce a rimescolarsi in profondità, mantenendo in equilibrio il trasporto di calore, nutrienti e anidride carbonica tra gli strati più esterni e quelli abissali.

Il grande nastro trasportatore globale

Combinando i movimenti orizzontali delle acque – spinti dai venti – con quelli verticali – governati da differenze di temperatura e salinità – si ottiene un colossale circuito planetario che i climatologi chiamano Global Conveyor Belt, ovvero nastro trasportatore oceanico globale.

È un sistema mastodontico, profondo e lentissimo. Le acque che oggi affondano nel Nord Atlantico, gelide e ricche di sale, possono impiegare fino a mille anni per completare il loro viaggio nei fondali oceanici e riaffiorare in superficie dall’altra parte del mondo. Una corrente profonda che scorre a pochi centimetri al secondo, eppure fondamentale per la vita sul pianeta.

Quello che si viene a creare è un ciclo continuo: le correnti calde e superficiali (come la Corrente del Golfo) trasportano calore dai tropici verso i poli; lì, l’acqua si raffredda e sprofonda, diventando corrente fredda e profonda che scivola silenziosamente nei meandri degli oceani, fino a riemergere in zone tropicali o subtropicali, dove riprende il viaggio in superficie.
Questo meccanismo globale è illustrato nella Figura 2.

Figura 2. Rappresentazione semplificata della circolazione termoalina, nota anche come Global Conveyor Belt. Le correnti calde e superficiali (in rosso) scorrono verso le regioni polari, dove l’acqua raffreddata e più salina sprofonda, originando correnti fredde profonde (in blu) che si muovono attraverso gli oceani fino a riemergere nelle regioni tropicali, completando il ciclo. Immagine liberamente disponibile su https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Quando il nastro si inceppa

Tutto questo sistema – perfetto, lento, ma vitale – può essere compromesso. Il riscaldamento globale sta alterando proprio quei meccanismi che regolano la circolazione termoalina, interferendo con la densità delle acque superficiali nelle zone chiave del pianeta.

Nelle regioni dove si formano le acque profonde, come il Nord Atlantico, il processo dipende dalla capacità dell’acqua superficiale di diventare abbastanza densa da affondare. Ma con l’aumento delle temperature globali, entrano in gioco due fattori destabilizzanti:

  • lo scioglimento dei ghiacci artici immette enormi quantità di acqua dolce nei mari;
  • l’intensificarsi delle precipitazioni diluisce ulteriormente le acque superficiali.

Il risultato? L’acqua resta più dolce, più calda, e quindi meno densa. Non affonda più come dovrebbe. E se non affonda, il motore si spegne.

Questo porta a un fenomeno ben noto in oceanografia: la stratificazione delle acque. Gli strati superficiali diventano sempre più stabili, separati da quelli profondi da un gradiente di densità così marcato da impedire ogni rimescolamento. È come se l’oceano fosse “bloccato a strati”, con uno strato leggero e caldo che galleggia sopra uno freddo e denso, ma senza più scambi attivi tra i due (Figura 3).

Le conseguenze sono profonde:

  • Il nastro trasportatore globale rallenta o si indebolisce, fino al rischio – non solo teorico – di un blocco parziale o totale.
  • Il calore non viene più redistribuito: i tropici si surriscaldano, le regioni temperate (come l’Europa nord-occidentale) rischiano un paradossale raffreddamento.
  • L’acqua profonda non riceve più ossigeno né nutrienti, danneggiando la vita marina.
  • In superficie, mancano i nutrienti che sostengono il plancton: cala la produttività biologica degli oceani.
  • E soprattutto: l’oceano assorbe meno anidride carbonica per due motivi. Da un lato, l’aumento della temperatura riduce la solubilità della CO₂ in acqua; dall’altro, la stratificazione blocca il rimescolamento, impedendo il trasporto della CO₂ in profondità. Il risultato è che più CO₂ resta nell’atmosfera, accelerando ulteriormente il riscaldamento globale.

È una spirale pericolosa, un meccanismo di retroazione in cui l’effetto rafforza la causa: più caldo → più stratificazione → meno rimescolamento → meno assorbimento di CO₂ → ancora più caldo.
Un classico cane che si morde la coda, ma su scala planetaria.

Figura 3. Meccanismo della stratificazione degli oceani. Il riscaldamento globale, lo scioglimento dei ghiacci e l’aumento delle precipitazioni rendono l’acqua superficiale più calda e dolce, quindi meno densa. Questo riduce il rimescolamento verticale con gli strati profondi, limitando lo scambio di calore, nutrienti e la capacità dell’oceano di assorbire CO₂.

Conclusioni

Gli oceani non sono solo grandi riserve d’acqua: sono ingranaggi dinamici e complessi che regolano il clima terrestre, trasportano calore, rimescolano nutrienti e assorbono anidride carbonica. La loro capacità di farlo dipende dal delicato equilibrio tra venti, salinità e temperatura. Quando questo equilibrio si spezza — a causa dell’aumento delle temperature globali — il sistema si inceppa: le acque si stratificano, il rimescolamento si blocca, la circolazione rallenta.

Le conseguenze, anche se lente a manifestarsi, sono profonde: clima più estremo, ecosistemi marini impoveriti e maggiore accumulo di CO₂ in atmosfera. È una crisi silenziosa, ma già in atto.
Per capire e affrontare il cambiamento climatico, non basta guardare al cielo: dobbiamo guardare al mare, e comprendere come funziona — e come sta cambiando — il grande mescolamento degli oceani.

Questo articolo è parte di un percorso dedicato al riscaldamento climatico.
Nel primo appuntamento ci siamo chiesti perché, in un mondo sempre più caldo, possano verificarsi fenomeni estremi come piogge torrenziali e temporali improvvisi (leggi qui).
Oggi abbiamo esplorato il ruolo nascosto ma fondamentale degli oceani nella regolazione del clima.

Nel prossimo articolo parleremo invece di come l’attività umana stia alterando questi equilibri, e perché il riscaldamento globale non può più essere considerato un semplice fenomeno naturale.

 

Caldo globale, temporali locali: l’apparente paradosso

Introduzione

Negli ultimi anni, gli eventi meteorologici estremi sono diventati sempre più frequenti, sia in Italia che nel resto del mondo.
Una mappa interattiva dell’ISPRA, consultabile online, mostra chiaramente dove questi eventi si sono verificati in Italia tra il 2020 e il 2024. Si osservano piogge torrenziali, grandinate eccezionali, ondate di calore anomale e prolungate. Tutti segnali di un sistema climatico sempre più instabile.

Come conseguenza di queste anomalie, è sempre più comune imbattersi – soprattutto sui social – in discussioni o thread in cui si afferma che fenomeni come le alluvioni, seguite da bruschi cali di temperatura, smentirebbero l’esistenza del riscaldamento globale.
Una frase ricorrente è:

“Altro che riscaldamento globale: ieri grandinava e oggi ci sono 18 gradi!”

Chi vive in zone come Palermo – dove, negli ultimi anni, si sono registrati picchi termici estremi e livelli di umidità superiori all’80%, anche in pieno giorno – tende invece a riconoscere, in modo molto concreto, la realtà del cambiamento climatico.

“Orpo… che caldo. Veramente stiamo andando verso qualcosa che non abbiamo mai vissuto.”

Ma come si concilia tutto questo?

Come può il riscaldamento globale provocare temporali violenti, grandinate e persino abbassamenti improvvisi della temperatura?

Dobbiamo innanzitutto ricordare che la logica scientifica è controintuitiva. Non possiamo applicare al metodo scientifico la logica che usiamo tutti i giorni per collegare ciò che vediamo con ciò che pensiamo sia vero: la realtà fisica spesso sorprende e non si lascia interpretare con impressioni o sensazioni.

Sulla base di queste premesse, chiediamoci cosa accade sulla superficie terrestre quando la temperatura aumenta di un solo grado Celsius. Un grado può sembrare poco. Se tocchiamo una pentola a 70 °C proviamo lo stesso bruciore che a 71 °C. E non distinguiamo tra il freddo di 0 °C e quello di -1 °C.

Ma il pianeta non è il nostro palmo, né il nostro naso.

Nel sistema Terra, un solo grado può fare una differenza gigantesca: significa più energia, più evaporazione, più acqua nell’atmosfera. E più acqua nell’aria significa, potenzialmente, più pioggia, più violenza, più squilibrio.

Per capire quanto sia concreta questa affermazione, facciamo un semplice calcolo: stimiamo quanta acqua in più evapora dagli oceani quando la loro temperatura superficiale sale di un solo grado come, per esempio, da 25 °C a 26 °C.

Effetti della temperatura sull’equilibrio H2Oliquido = H2Ovapore

Per semplicità, consideriamo solo una porzione di oceano estesa per 100 milioni di metri quadrati (pari a 100 km²) e limitiamoci al primo metro d’aria immediatamente sovrastante. Vogliamo capire quanta acqua in più finisce nell’aria subito sopra l’oceano quando la sua temperatura sale di un solo grado, da 25 °C a 26 °C.

  1. L’equazione di Antoine

Per stimare la pressione di vapore dell’acqua alle due temperature, usiamo la formula empirica di Antoine, valida tra 1 e 100 °C:

log₁₀(P) = A − B / (C + T)

dove:

  • P è la pressione di vapore in mmHg,
  • T è la temperatura in gradi Celsius,
  • A, B, C sono coefficienti specifici per ciascuna sostanza (ad esempio, acqua, etanolo, acetone…) e validi solo entro certi intervalli di temperatura. Nel caso specifico dell’acqua: A = 8.07131; B = 1730.63; C = 233.426 (valori specifici per l’acqua in questo intervallo). Il riferimento per i valori numerici di A, B e C è qui.

Convertiamo poi la pressione in Pascal (1 mmHg = 133.322 Pa).

  1. I risultati

Applicando i valori:

  • a 25 °C si ottiene P ≈ 23.76 mmHg, cioè circa 3158 Pa;
  • a 26 °C si ottiene P ≈ 25.13 mmHg, cioè circa 3351 Pa.
  1. Calcolo della densità del vapore

Convertiamo ora la pressione parziale in densità di vapore acqueo (ρ), usando l’equazione dei gas ideali:

ρ = (P × M) / (R × T)

dove:

  • P è la pressione in pascal,
  • M è la massa molare dell’acqua (18.015 g/mol),
  • R è la costante dei gas (8.314 J/mol·K),
  • T è la temperatura assoluta in Kelvin.

Calcolando:

  • a 25 °C (298.15 K) si ottiene ρ ≈ 0.02295 kg/m³;
  • a 26 °C (299.15 K) si ottiene ρ ≈ 0.02431 kg/m³.
  1. L’aumento netto di vapore

La differenza di densità è:

0.02431 − 0.02295 = 0.00136 kg/m³

Moltiplichiamo per il volume d’aria (100 000 000 m³):

0.00136 × 100 000 000 = 136.000 kg

In altre parole, un aumento di temperatura di 1 °C (da 25 a 26 °C) genera 136 tonnellate di vapore in più, solo su una superficie di 100 km² e solo nello strato d’aria immediatamente sopra l’oceano.

E se fosse tutto l’Atlantico?

Se estendiamo il calcolo all’intera superficie dell’Oceano Atlantico – circa 116 milioni di km² – otteniamo:

157 800 000 000 kg, ovvero 158 milioni di tonnellate di vapore acqueo in più.

E questo, lo ripeto, solo nello strato d’aria immediatamente sopra la superficie, per un singolo grado in più.

Ma quei numeri non restano sulla carta. Entrano in circolo nell’atmosfera, e da lì comincia il loro impatto reale.

Dall’oceano alla pioggia: il viaggio del vapore

Ma cosa succede a tutta quest’acqua una volta entrata in atmosfera?

Viene trasportata dalle correnti. Quando incontra masse d’aria più fredde, condensa formando nubi e poi pioggia. Se la quantità di vapore è anomala, lo saranno anche le precipitazioni: brevi, violente, improvvise.

Inoltre, il vapore acqueo è attivo nell’infrarosso: è un gas serra molto più potente della CO₂, anche se molto più effimero. In climatologia si parla di feedback positivo: l’aumento della temperatura fa evaporare più acqua → il vapore trattiene più calore → aumenta ancora la temperatura → e così via.

Quella pioggia non è “contro” il riscaldamento: è il riscaldamento

Piogge torrenziali, grandinate e cali locali della temperatura non smentiscono il riscaldamento globale. Al contrario, ne sono una conseguenza. Il sistema Terra si scalda in media, ma localmente può produrre raffreddamenti temporanei proprio in risposta a squilibri energetici più ampi.

Conclusioni

Il calcolo che ho presentato è, ovviamente, una semplificazione. Non tiene conto del vento, della turbolenza, della salinità, né della reale dinamica verticale dell’atmosfera. Non pretende di descrivere con esattezza tutto ciò che accade nell’interazione tra oceano e cielo. Ma ha un obiettivo chiaro: rendere visibile, con i numeri, una verità che l’intuizione fatica a cogliere.

Perché la logica scientifica non coincide con il senso comune.

Come ho già scritto, nel nostro vissuto quotidiano, un solo grado in più non è nulla. Non percepiamo differenze tra 0 °C e -1 °C, tra 70 °C e 71 °C. Ma il sistema Terra non funziona secondo ciò che sentiamo sulla pelle: funziona secondo leggi fisiche. E in fisica, un solo grado può significare miliardi di tonnellate d’acqua in più nell’atmosfera. Significa più energia, più instabilità, più violenza meteorologica.

Paradossalmente, quello che percepiamo come una smentita del riscaldamento globale – la grandine, il temporale, il crollo improvviso delle temperature – ne è invece una manifestazione diretta.

Il clima risponde con intensità e disordine proprio perché è fuori equilibrio. E lo è, in parte, per colpa di quell’apparente “piccolo” grado in più.

La scienza ci dà gli strumenti per misurare, per capire, per anticipare.

Sta a noi scegliere se vogliamo continuare a confondere il temporale con una tregua, o iniziare a leggere in quelle piogge il segnale di un sistema che sta cambiando – e lo sta facendo sotto i nostri occhi.

Quella pioggia che ti ha fatto dire “ma quale riscaldamento globale?” è esattamente il motivo per cui dovremmo iniziare a preoccuparci.

Tricochimica: un viaggio tra bellezza, scienza e indagini

Introduzione

Che cosa possono raccontarci i nostri capelli? Molto più di quanto immaginiamo. Non sono soltanto un segno di identità o di stile personale, ma vere e proprie architetture biologiche capaci di custodire informazioni preziose: sulla nostra salute, sulle sostanze a cui siamo stati esposti e persino sulle tracce lasciate da trattamenti cosmetici.

È proprio per raccontare questa dimensione scientifica, spesso trascurata, che voglio parlare di tricochimica: uno studio chimico del capello in tutti i suoi aspetti, dall’estetica alla tossicologia e fino all’analisi forense.

Il termine tricochimica non è nuovo: è stato proposto già anni fa dal collega Lucio Campanella, che lo ha usato per descrivere la chimica applicata ai capelli. Riprendo volentieri questo nome, perché lo trovo perfetto per raccontare – in modo serio ma accessibile – i tanti aspetti che uniscono bellezza, scienza e indagini.

La chimica, infatti, non è una disciplina astratta. È uno strumento concreto per capire fenomeni quotidiani. Capire come funzionano le tinture, le permanenti o i trattamenti liscianti significa comprendere reazioni chimiche precise. Allo stesso modo, analizzare i capelli per individuare droghe o metalli pesanti richiede metodiche chimico-analitiche raffinate, fondamentali in medicina legale e nelle indagini forensi.

In questo articolo proverò a esplorare questo campo affascinante e multidisciplinare. Vedremo come sono fatti i capelli, quali trasformazioni chimiche possono subire e come la chimica ci aiuta a leggerne la storia. Un viaggio che unisce bellezza e scienza, con uno sguardo attento anche alle implicazioni sociali ed etiche di queste conoscenze.

Il significato evoluzionistico dei capelli

Per affrontare la chimica dei capelli in modo completo è utile partire da una domanda più profonda: perché l’essere umano ha ancora i capelli sulla testa? A differenza della maggior parte dei mammiferi, che conservano un pelame diffuso sul corpo, la nostra specie si caratterizza per una pelle glabra salvo alcune aree strategiche, come il cuoio capelluto.

Le ipotesi evolutive più accreditate interpretano i capelli come una reliquia evolutiva che ha progressivamente perso molte delle funzioni originarie di isolamento termico. Tuttavia, la loro conservazione sul cranio potrebbe aver offerto vantaggi adattativi. Un ruolo plausibile è la protezione dal surriscaldamento diretto, agendo da schermo contro la radiazione solare intensa, specialmente in climi aperti e soleggiati. Allo stesso tempo, il cuoio capelluto riccamente vascolarizzato favorisce la dispersione di calore in eccesso. La distribuzione e la densità dei capelli umani sono quindi il risultato di una pressione selettiva che ha equilibrato protezione e termoregolazione.

Inoltre, il capello ha mantenuto importanti valenze sociali e sessuali. Il colore, la forma e la consistenza dei capelli variano tra individui e popolazioni, diventando segnali di riconoscimento, età, salute e persino desiderabilità sessuale. Queste caratteristiche hanno stimolato la selezione sessuale e culturale, contribuendo a fare del capello un elemento centrale dell’identità personale.

A conferma della sua rilevanza evolutiva, studi recenti hanno identificato correlazioni genetiche di fine scala con la morfologia del capello, evidenziando la selezione naturale e la divergenza adattativa in diverse popolazioni umane.

Comprendere queste dimensioni evolutive non è solo una curiosità: ci ricorda che la chimica del capello studia un tessuto vivo di storia biologica e culturale. Anche la tricochimica si deve confrontare con questa eredità evolutiva, che plasma le caratteristiche fisiche e chimiche della fibra capillare così come le funzioni sociali che ancora oggi attribuiamo ai nostri capelli.

Nascita e crescita del capello: la biologia del follicolo pilifero

Per comprendere davvero la chimica del capello – la tricochimica – è fondamentale partire dalla sua biologia. Il capello non è soltanto la fibra che vediamo spuntare dalla cute, ma il risultato di un processo di crescita complesso che avviene all’interno del follicolo pilifero, una struttura specializzata immersa nella pelle.

Il follicolo pilifero è una piccola tasca di epitelio che avvolge la parte viva del capello e ne dirige la formazione. Al suo interno si trova la papilla dermica, ricca di vasi sanguigni, che fornisce nutrienti, ossigeno e, non meno importante, trasporta farmaci e metalli pesanti che possono incorporarsi nella fibra in formazione. È proprio grazie a questa connessione vascolare che il capello diventa un archivio biologico capace di registrare, nel tempo, esposizioni a sostanze esterne.

Tradizionalmente, il ciclo di vita del capello si suddivide in tre fasi principali:

Anagen: fase di crescita attiva, che può durare anni. In questa fase le cellule della matrice germinativa si moltiplicano rapidamente e si cheratinizzano progressivamente, formando il fusto del capello che emerge dalla cute. È qui che avviene l’incorporazione più stabile di sostanze esogene, rendendo questa fase cruciale per l’analisi tossicologica.

Catagen: breve fase di regressione (2–3 settimane) in cui l’attività proliferativa si arresta e il follicolo si contrae.

Telogen: fase di riposo (2–6 mesi) al termine della quale il capello smette di crescere e rimane “in attesa” prima di essere espulso.

Vale la pena segnalare che la letteratura più recente tende a riconoscere anche una quarta fase, detta exogen, che descrive in modo più specifico il distacco vero e proprio e la caduta del capello ormai morto dal follicolo. Questa distinzione, pur non essendo sempre adottata in modo uniforme, riflette un approccio più moderno e dettagliato alla biologia del ciclo pilifero.

Un altro aspetto importante del follicolo è la presenza di strutture di supporto come la guaina epiteliale interna, che avvolge la fibra nelle sue prime fasi di formazione. In questa guaina si esprime la trichohyalin (in italiano la tradurrei come tricoialina), una proteina ricca di glutammina che svolge un ruolo cruciale nel conferire resistenza meccanica e nell’ordinare la cheratinizzazione delle cellule. Questa proteina agisce come una sorta di “impalcatura molecolare”, indispensabile per ottenere la struttura finale della fibra capillare.

Capire la biologia del follicolo è dunque essenziale per spiegare non solo la struttura del capello che osserviamo a occhio nudo, ma anche la sua capacità di registrare esposizioni chimiche durante la crescita. Solo conoscendo questo processo si possono comprendere appieno sia la chimica cosmetica (che deve penetrare e modificare la fibra), sia le analisi tossicologiche (che leggono la storia di queste incorporazioni).

Struttura e composizione del capello

Un capello non è un semplice “filo” uniforme: è un materiale biologico complesso, progettato per resistere, proteggere e comunicare caratteristiche individuali come colore, forma e lucentezza.

Architettura della fibra: cuticola, corteccia e midollo

Il capello è costituito da tre parti principali (Figura 1). All’esterno si trova la cuticola, formata da cellule appiattite e sovrapposte a tegola, che proteggono gli strati interni e conferiscono lucentezza grazie alla loro disposizione ordinata. Subito sotto si trova la corteccia, la parte più voluminosa, composta da fibre di cheratina organizzate in macrofibrille e pigmenti melanici che determinano il colore. Qui si stabiliscono i legami chimici (come i ponti disolfuro) che influenzano la forma del capello. Al centro si trova il midollo, una regione meno definita e spesso discontinua nei capelli più fini, che contribuisce all’isolamento termico e alla rigidità.

Figura 1. Struttura schematica di un capello umano.

Composizione chimica: membrana interna, cheratina, lipidi e acqua

A livello chimico, la fibra capillare è un materiale stratificato e sofisticato. La componente principale è la cheratina, una proteina fibrosa costituita da filamenti polipeptidici ricchi di cisteina, che si organizzano in strutture a coiled-coil di tipo α-elica. Queste eliche si associano in filamenti intermedi, che a loro volta formano macro-fibrille, dando alla corteccia un’architettura gerarchica e resistente.  Studi recenti di diffrazione a raggi X hanno confermato questa architettura gerarchica, evidenziando distanze caratteristiche tra filamenti intermedi (90, 45 e 27 Å) che si mantengono costanti in individui con tipi di capelli diversi.

Tra le cellule della corteccia e della cuticola si interpone il Cell Membrane Complex (CMC), una struttura lipidica e proteica laminare che funge da collante idrofobo, regolando la coesione cellulare e la permeabilità all’acqua e alle sostanze chimiche. Esperimenti di microdiffrazione hanno dimostrato che il CMC è sensibile all’umidità, mostrando rigonfiamento al contatto con l’acqua: un aspetto che spiega la sua importanza nei trattamenti cosmetici e nella penetrazione di agenti idrosolubili.

La cuticola, oltre alla funzione protettiva, contiene lamelle ben stratificate che includono β-cheratina, distinta dall’α-cheratina della corteccia, conferendole maggiore compattezza e impermeabilità. Inoltre, la composizione chimica complessiva del capello include lipidi liberi (circa 1-9%), acqua (10-15% circa in condizioni normali), minerali come magnesio, zinco, ferro e rame, oltre a tracce di aminoacidi e vitamine. Questa miscela complessa fornisce al capello proprietà di robustezza, elasticità e resistenza agli stress ambientali, anche se può essere danneggiata in modo irreversibile da trattamenti cosmetici aggressivi, calore e radiazioni UV.

Le proprietà fisiche e cosmetiche del capello dipendono infine dai legami chimici che ne stabilizzano la struttura. I legami a idrogeno sono deboli ma numerosi, si rompono e si riformano facilmente con umidità o calore, ed è grazie a loro che si ottiene l’effetto temporaneo della piega (phon, piastra). Per approfondire la natura e la forza di questi legami nell’acqua e nelle soluzioni, è possibile leggere due articoli che ho scritto sul blog: qui e qui. I legami salini, di tipo ionico, dipendono dall’interazione tra cariche opposte presenti sulle catene laterali degli amminoacidi e sono sensibili al pH. I legami disolfuro, molto più forti, uniscono in modo stabile le catene di cheratina grazie ai ponti tra residui di cisteina e sono i bersagli principali dei trattamenti chimici come permanenti o lisciature.

Conoscere questa struttura complessa è fondamentale per capire come e perché i capelli reagiscono ai trattamenti cosmetici, all’umidità ambientale o ai processi analitici usati in tossicologia e scienze forensi. È il primo passo del nostro viaggio nella tricochimica.

Ulteriori approfondimenti sono disponibili anche qui.

La chimica cosmetica del capello

La chimica cosmetica applicata ai capelli è un settore complesso e affascinante che si occupa di trasformare la fibra capillare attraverso reazioni controllate, con l’obiettivo di modificare colore, forma e aspetto. Uno degli esempi più noti è la colorazione permanente, che si basa su un processo di ossidazione ben studiato. In questo caso si usano due componenti principali: un agente alcalino (come l’ammoniaca o la etanolammina) e un ossidante (generalmente perossido di idrogeno o acqua ossigenata). Il composto alcalino serve ad aprire le squame della cuticola, permettendo al perossido e ai precursori del colore (come la p-fenilendiammina) di penetrare nella corteccia. Lì, il perossido ossida i precursori in intermedi reattivi che, legandosi a opportuni “couplers” (come il resorcinolo), formano grandi molecole di colorante intrafibra, responsabili della tonalità stabile e duratura. Questo processo, come ricorda anche la letteratura recente, è pressoché invariato da oltre un secolo, ma rimane il più efficace per coprire i capelli bianchi e schiarire tonalità naturali. La Figura 2 mostra le strutture chimiche di alcune molecole usate per il trattamento di colorazione permanente.

Figura 2. Molecole usate nei processi di colorazione permanente dei capelli.

I trattamenti per permanenti e lisciature chimiche agiscono invece modificando i legami disolfuro tra le catene di cheratina all’interno della corteccia. Nelle permanenti tradizionali si usa un riducente (come l’acido tioglicolico, Figura 3) per rompere questi ponti, consentendo di avvolgere i capelli su bigodini e fissare la nuova forma. Successivamente si applica un ossidante (solitamente ancora perossido di idrogeno) per riformare i legami disolfuro nella configurazione desiderata. Anche le lisciature chimiche sfruttano lo stesso principio, ma con tecniche e formulazioni diverse per spezzare i ponti disolfuro e fissare una fibra capillare più lineare. Questi processi, pur efficaci, indeboliscono la struttura del capello e ne aumentano la porosità, con conseguenze estetiche e meccaniche rilevanti.

Figura 3. Struttura dell’acido tioglicolico.

Un capitolo delicato è quello dei trattamenti liscianti con formaldeide (Figura 4) o con rilascio di formaldeide, molto discussi per i potenziali rischi per la salute. Il cosiddetto “Brazilian Blowout” e trattamenti simili usano formaldeide (o precursori che la rilasciano a caldo) per creare ponti metilenici tra le catene di cheratina, bloccandole in configurazioni lisce. Tuttavia, l’esposizione ai vapori di formaldeide è un noto rischio cancerogeno e può causare irritazioni acute e sensibilizzazioni. Per questo motivo, normative come quelle dell’Unione Europea vietano o limitano severamente l’uso di formaldeide libera o rilasciata oltre soglie minime, imponendo test e dichiarazioni specifiche sui cosmetici (riferimenti qui, qui e qui).

Figura 4. Struttura della formaldeide.

La cosmetica dei capelli si muove così su un crinale tecnico e normativo importante: da un lato c’è la ricerca di prodotti sempre più efficaci e personalizzati, dall’altro la crescente attenzione alla sicurezza dell’utilizzatore e del professionista. Negli ultimi anni, inoltre, si osserva un forte interesse per alternative più delicate e sostenibili, come colorazioni a basso contenuto di ammoniaca o a base di derivati naturali, e trattamenti liscianti privi di formaldeide, che sfruttano polimeri cationici o derivati di aminoacidi per un effetto condizionante e disciplinante meno aggressivo (riferimenti qui e qui).

L’analisi tossicologica del capello

L’analisi tossicologica del capello è una tecnica consolidata e molto apprezzata in ambito clinico e forense, grazie alla capacità unica di registrare l’esposizione a droghe o metalli pesanti su una scala temporale estesa. A differenza di sangue e urina, che rilevano l’assunzione di sostanze solo per pochi giorni, il capello funziona come un archivio biologico che conserva tracce di esposizione per settimane o mesi, a seconda della lunghezza del campione. Questa proprietà lo rende particolarmente utile per ricostruire storie di abuso cronico, monitorare la terapia sostitutiva, verificare la compliance in percorsi di disintossicazione o per valutazioni legali, come l’idoneità alla guida o l’affidamento dei minori.

I farmaci e i metalli pesanti si depositano nel capello principalmente durante la fase di crescita (anagen), grazie alla circolazione sanguigna che porta le molecole fino al follicolo, la piccola struttura immersa nella cute dove le cellule del capello si formano, si moltiplicano e si cheratinizzano. Una volta incorporate nella matrice di cheratina in formazione, queste sostanze restano stabilmente legate alla struttura del fusto, resistendo alla degradazione per lungo tempo. Altri percorsi di incorporazione includono il sebo, il sudore e in misura minore l’assorbimento ambientale. Tuttavia, i moderni protocolli di lavaggio e decontaminazione riducono il rischio di contaminazione esterna falsamente positiva.

Dal punto di vista analitico, l’analisi tossicologica del capello richiede tecniche di estrazione sofisticate. La fibra capillare, costituita per il 65–95% da cheratina, oltre che da lipidi, acqua e pigmenti, deve essere digerita o frammentata in modo controllato per liberare i composti target senza degradarli. Tra le tecniche più comuni di preparazione ci sono l’idrolisi acida o enzimatica, l’estrazione in solventi organici e la digestione assistita da ultrasuoni. Dopo l’estrazione, le sostanze vengono analizzate con metodi ad alta sensibilità e specificità come la spettrometria di massa accoppiata alla gascromatografia (GC–MS) o alla cromatografia liquida (LC–MS). Queste metodiche consentono di rilevare quantitativi nell’ordine dei picogrammi di numerosi farmaci e metaboliti, inclusi oppiacei, cocaina, cannabis, amfetamine e benzodiazepine, così come metalli pesanti analizzabili via spettroscopia di assorbimento atomico (AAS).

Uno dei principali vantaggi dell’analisi sul capello è la sua “finestra temporale estesa”: ogni centimetro di lunghezza corrisponde approssimativamente a un mese di crescita, permettendo di segmentare il campione per ricostruire una cronologia dettagliata delle esposizioni. Tuttavia, esistono anche limiti e criticità. Trattamenti cosmetici aggressivi come tinture, decolorazioni o permanenti possono ridurre la concentrazione di sostanze depositate o alterarne la distribuzione, rendendo più difficile l’interpretazione. Anche la variabilità individuale (colore, contenuto di melanina, porosità) può influenzare l’assorbimento dei farmaci, rendendo complessa la traduzione quantitativa dei dati in dosi assunte.

Nonostante queste sfide, l’analisi tossicologica del capello rappresenta uno strumento fondamentale in ambito forense e clinico per la sua capacità di documentare l’esposizione remota a sostanze psicoattive o tossiche, offrendo informazioni preziose che integrano e completano quelle ricavabili da sangue o urina.

Conclusioni, prospettive e sfide future

La tricochimica si propone come un campo di studio davvero interdisciplinare, capace di unire la conoscenza chimica della fibra capillare con esigenze estetiche, implicazioni tossicologiche e applicazioni forensi. Comprendere la composizione, la struttura e le trasformazioni chimiche dei capelli significa poter progettare trattamenti cosmetici più efficaci e sicuri, interpretare correttamente le analisi tossicologiche e persino ricostruire storie di consumo di sostanze o dinamiche criminali.

Tra le sfide principali spicca la necessità di una maggiore standardizzazione delle analisi tossicologiche: solventi, protocolli di estrazione, metodi di decontaminazione e tecniche strumentali richiedono armonizzazione per garantire risultati confrontabili e robusti. Anche i trattamenti cosmetici pongono questioni complesse: mentre il mercato cerca prodotti sempre più performanti e personalizzati, resta fondamentale valutarne l’efficacia in relazione alla salute del capello e della persona, evitando ingredienti aggressivi o potenzialmente dannosi.

Il futuro della tricochimica si muove verso un’integrazione sempre più stretta tra cosmetica e tossicologia: l’obiettivo è sviluppare prodotti “smart” e sicuri, capaci di interagire con la fibra capillare in modo controllato, rispettandone la biologia e la chimica. In questo senso, la ricerca multidisciplinare – che unisce chimica organica, biochimica, tossicologia analitica e scienza dei materiali – sarà essenziale per innovare e rispondere alle nuove esigenze di consumatori, professionisti e legislatori.

La tricochimica non è dunque un semplice esercizio accademico: è una disciplina viva e applicata, che tocca la nostra quotidianità, dalla cura estetica all’identità personale, dalla salute alla sicurezza pubblica. Riconoscerne l’importanza e investire nella sua evoluzione significa contribuire a un approccio più consapevole, informato e sostenibile al mondo dei capelli.

Dialogo sopra i due massimi sistemi di cura, nel quale si discorre delle virtù mirabili dell’omeopatia e dell’arte medica fondata su prove

Personaggi:

  • Simplicio, difensore fervente dell’omeopatia e delle medicine alternative.
  • Salviati, filosofo naturalista e uomo di scienza.
  • Sagredo, gentiluomo curioso e attento, che modera il discorso.

[Scena: in una loggia, i tre siedono a discorrere. Il sole volge al tramonto.]

Sagredo: Vi prego, signori miei, di proseguire quella disputa che già stamani cominciaste, acciocché io possa intendere meglio la ragione del contendere.

Salviati: Con piacere. Discorrevamo dell’arte medica, e in specie di quella setta che si vanta di guarire con nulla, chiamata omeopatia.

Simplicio: Vi prego di non schernirla, ché molti l’usano con profitto.

Salviati: Profitto spirituale, forse. Giacché altro effetto io non trovo se non quello che ogni placebo ben somministrato produce.

Simplicio: Eppure vi sono testimonianze infinite di chi fu sanato!

Salviati: Testimonianze infinite vi sono anche di chi ha veduto spiriti, eppure niuno spirito fu mai sezionato né posto in provetta.

Sagredo: Io comprendo che voi, Salviati, chiedete esperimento?

Salviati: E metodo. Che si faccia prova, in doppio cieco, con numero sufficiente, con analisi statistica e rigore.

Simplicio: Ah! Ma la scienza moderna non può comprendere i sottili influssi, le energie informate dall’acqua!

Salviati: Voi dite energie informate? Io non vedo che acqua distillata.

Simplicio: È perché non sapete veder oltre la materia!

Salviati: Se il “vedere oltre” vuol dir fingere, vi cedo volentieri il primato.

Sagredo: Oibò, vi prego di moderarvi!

Salviati: Sagredo, vedi che io sono pacato. Sol domando che, se effetto vi sia, si misuri; e se nulla si misura, si taccia.

Simplicio: Ma la medicina convenzionale ha effetti collaterali!

Salviati: E l’omeopatia ne ha così pochi che si contano sulle dita d’una mano amputata.

Sagredo: Questa è mordace!

Salviati: Mordace, ma vera.

Simplicio: Voi ridete, Salviati, ma ignorate che l’acqua possiede memoria!

Salviati: Memoria? Avete visto forse un quaderno in cui ella scriva?

Simplicio: Non di tal fatta! È memoria sottile, quantica! L’acqua si informa della sostanza e ne mantiene l’energia!

Salviati: Oh meraviglia. E quando la bollite, la memoria resta?

Simplicio: Non siate volgare. Vi son regole per non turbarla.

Salviati: Dunque non lavate i panni con acqua calda, ché potreste dimenticare la formula del sapone?

Sagredo: Orsù, Salviati, non lo provocate oltre!

Simplicio: In verità vi dico che scienziati illustri confermano la memoria dell’acqua!

Salviati: Quali? Quelli che stampano riviste in cui essi stessi son revisori?

Simplicio: Voi siete cieco alla Nuova Scienza Energetica!

Salviati: Mi chiamo uomo di prove. Mostratemi la differenza tra due fiale di pura acqua, una “informatizzata” e l’altra no.

Simplicio: Non avete gli strumenti adeguati!

Salviati: Né voi l’effetto.

Simplicio: Vi è però l’acqua C.G.E.!

Sagredo: Che novità è questa?

Simplicio: È acqua trattata con Codice Galattico Energetico!

Salviati: Galattico? Mi par termine assai vasto.

Simplicio: Appunto, abbraccia l’Universo. Si carica di frequenze armoniche inviate da Maestri Cosmo-spirituali!

Salviati: Mi fate intendere che l’acqua, già dotata di memoria, ora riceve telegrammi celesti?

Simplicio: Così è! E guarisce ogni male, dall’ansia alla calvizie.

Salviati: Oimè. Sagredo, non so se io debba replicare o piangere.

Sagredo: Ma questa acqua C.G.E. si vende?

Simplicio: Certamente, ed è ben cara! Ma non pensate al vile denaro: pensate alla salute!

Salviati: Non dubito che a costar molto sembri più mirabile.

Simplicio: Voi rimanete ottuso perché vi manca la fede!

Salviati: Io credo nella ragione. E in un bicchiere d’acqua fresca, purché non informatizzata.

Sagredo: Salviati, diteci in breve che cosa dunque vorreste?

Salviati: Semplice: che ogni rimedio si provi con metodo, che si misuri l’effetto, che si distingua la speranza dal risultato.

Simplicio: Che aridità di spirito!

Salviati: Che chiarezza di pensiero.

Sagredo: Bene, bene… Ma ditemi ora di quest’altra vostra invenzione. Ho sentito bisbigliare di un caffè omeopatico fatto con la vostra Acqua C.G.E.

Simplicio: Ah! Finalmente tocco un tema in cui l’arte mia brilla.

Salviati: Non dubito. Brilla come una lucciola in bottiglia vuota.

Simplicio: Vi spiego. Si prende l’Acqua C.G.E., già potentemente informata del Codice Galattico Energetico, e la si sottopone a energizzazione ulteriore con la firma vibrazionale del caffè.

Sagredo: Firma vibrazionale?

Simplicio: Sì! Basta avvicinare la tazzina di vero caffè alla bottiglia d’acqua. Le onde sottili trasmettono l’informazione aromatica e stimolante.

Salviati: Dunque non serve versarlo nell’acqua?

Simplicio: Che volgarità! Versare? No! Si comunica per risonanza quantica.

Salviati: E questa vostra pozione… stimola davvero?

Simplicio: Più del caffè stesso! È un caffè omeopatico di altissima potenza!

Salviati: Sicché con meno caffè si ottiene più effetto?

Simplicio: Esattamente. Con diluizioni di 30C, cioè una parte di caffè in un oceano, si ottiene energia infinita.

Sagredo: E quale è l’effetto sul bevitore?

Simplicio: Tiene svegli in eterno!

Salviati: In eterno?

Simplicio: Sì! Mai più sonno, mai più stanchezza. Il bevitore si eleva a stato di veglia permanente!

Salviati: Una condanna piuttosto che una cura.

Simplicio: Per voi scettici è sempre tutto negativo.

Salviati: Mi permetto di notare che chi non dorme impazzisce.

Simplicio: Ecco, siete schiavo della vostra scienza materialista. Noi, invece, vogliamo liberarci dal sonno imposto dalle convenzioni terrestri!

Salviati: Convenzioni? È fisiologia.

Simplicio: Schiavitù biologica.

Sagredo: Ma ditemi, il vostro caffè omeopatico ha sapore?

Simplicio: Solo per chi ha l’anima raffinata.

Salviati: E chi non lo sente?

Simplicio: Non è pronto.

Salviati: Ah, dunque il fallimento del rimedio è colpa del paziente.

Simplicio: Ora mi oltraggiate!

Salviati: No, vi studio come fenomeno curioso.

Sagredo: Insomma, lasciatemi capire. Prendete acqua C.G.E., la avvicinate a un caffè vero, la diluite fino a non aver più nulla, e la vendete come elisir di veglia eterna?

Simplicio: Esattamente. Ed è pur certificato dal Gran Collegio Omeopatico Cosmico!

Salviati: Dubito assai dell’accreditamento.

Sagredo: E il prezzo?

Simplicio: Accessibilissimo: solo cento ducati la boccetta.

Salviati: Rapina con garbo.

Simplicio: Innovazione, Salviati. Voi non comprendete il futuro.

Salviati: Se il futuro è questo, mi ritiro nel passato.

Sagredo: Signori miei, basta per oggi. Mi sento confuso. Devo bere un caffè… ma uno vero.

Salviati: Vi accompagno.

Simplicio: Ebbene, rimanete schiavi della caffeina grezza! Io avanzo con l’Acqua C.G.E. verso l’eternità vigile!

[Sipario]

 

Glifosato e cancro: nuovo studio, molti titoli… pochi fatti

di Enrico Bucci & Pellegrino Conte

Se c’è una cosa che la scienza dovrebbe insegnarci, è che non tutti gli studi hanno la stessa valenza e importanza. Alcuni sono ben progettati, trasparenti e ci aiutano a capire meglio il mondo; altri, invece, presentano fragilità nelle premesse, nel metodo o nell’interpretazione dei dati.

L’ultimo studio pubblicato nel 2025 su Environmental Health da un gruppo di ricerca dell’Istituto Ramazzini ha fatto molto discutere, sostenendo che anche dosi di glifosato ritenute sicure possano aumentare il rischio di tumori nei ratti. Da qui è nato il timore che, se aumenta la possibilità di avere tumori nei ratti, anche l’essere umano possa correre lo stesso rischio. Tuttavia, un’analisi attenta rivela numerosi limiti sull’effettiva rilevanza dei risultati.

Vediamo perché.

Dosi scelte e perché non sono realistiche

Lo studio ha previsto tre dosi di glifosato somministrate ai ratti:

  • 0.5 mg/kg al giorno (l’ADI, ovvero la dose giornaliera accettabile in Europa)
  • 5 mg/kg al giorno (10 volte l’ADI)
  • 50 mg/kg al giorno (NOAEL, che corrisponde alla dose massima senza effetti osservati).

A prima vista, trovare effetti anche alla dose più bassa potrebbe sembrare preoccupante. Ma c’è un dettaglio importante: l’ADI non è una soglia tossicologica, ma un limite iper-cautelativo. Come viene calcolata?

  1. Si prende la dose più alta che non ha causato effetti negli animali (es. 50 mg/kg).
  2. Si divide per 100: 10 per la variabilità interspecie (topo vs uomo) e 10 per la variabilità intraspecie (uomo vs uomo).
  3. Si ottiene l’ADI (0.5 mg/kg).

Quindi, se uno studio trova effetti giusto all’ADI, non è un fallimento del sistema: è la conferma che il sistema di sicurezza funziona.

E nella vita reale? L’EFSA ha stimato che l’esposizione reale della popolazione è centinaia di volte inferiore all’ADI. Per raggiungere 0.5 mg/kg, un adulto di 70 kg dovrebbe mangiare 10 kg di soia OGM al giorno, tutti i giorni. E anche gli agricoltori professionisti non si avvicinano a quei livelli.

Discrepanze tra dosi dichiarate e dosi realmente usate

Come si può facilmente immaginare, il lavoro che stiamo valutando non è passato inosservato. La comunità scientifica si è subito attivata per verificare se quanto riportato fosse attendibile, e questo è un aspetto cruciale. In un contesto saturo di informazioni, dove distinguere il falso dal vero o dal verosimile è sempre più difficile, avere dei riferimenti affidabili per valutare la solidità di uno studio è fondamentale. Dimostra anche che la scienza non resta chiusa in una torre d’avorio: controlla, discute e, se necessario, corregge.

Un’analisi particolarmente accurata pubblicata su PubPeer  ha evidenziato come gli autori dello studio mirassero a somministrare ai ratti tre livelli “target” di esposizione giornaliera al glifosato, corrispondenti, come già indicato nel paragrafo precedente, all’ADI europea di 0,5 mg per chilo di peso corporeo, a 5 mg/kg e infine al NOAEL di 50 mg/kg, calibrando la concentrazione del principio attivo nell’acqua da bere sulla base di un consumo medio di 40 mL e di un peso medio di 400 g. Tuttavia, nei grafici relativi al peso e al consumo d’acqua, visibili già a partire dalla quinta settimana di vita, si nota chiaramente che i ratti più giovani, ancora ben al di sotto dei 400 g, continuano a bere quantità di acqua vicine a quelle stimate per gli adulti. Questo significa che, anziché ricevere esattamente i dosaggi “target”, i cuccioli assumono in realtà molto più glifosato, spesso oltre il doppio di quanto previsto per l’ADI, proprio nel momento in cui la loro vulnerabilità ai possibili effetti tossici è maggiore.

Colpisce poi il fatto che i pannelli che riportano l’effettiva assunzione giornaliera di glifosato inizino soltanto alla tredicesima settimana, escludendo dalla visualizzazione le prime dieci settimane successive allo svezzamento, quando il sovradosaggio è più pronunciato. In questo modo il lettore non ha modo di rendersi conto di quanto i ratti più giovani abbiano effettivamente superato i livelli di riferimento, né di valutare eventuali conseguenze sulla salute in questa fase critica dello sviluppo.

La mancanza di qualsiasi discussione nel testo centrale su questa esposizione eccessiva nei cuccioli rappresenta una lacuna significativa, perché proprio nei primi mesi di vita gli organismi mostrano una sensibilità maggiore a sostanze tossiche. Sarebbe stato opportuno non soltanto estendere i grafici dell’assunzione fin dalla quinta settimana, ma anche accompagnarli con un’analisi dedicata a quei dati, per capire se fenomeni di tossicità precoce possano essere correlati proprio al superamento dei dosaggi prefissati. In assenza di questa trasparenza, resta un interrogativo aperto sul reale profilo di sicurezza del glifosato nei soggetti in accrescimento.

Statistiche creative: quando un “aumento significativo” è solo rumore

Uno dei problemi più comuni negli studi tossicologici è quando si prendono in considerazione troppi parametri. In queste circostanze, prima o poi, qualcosa risulterà “statisticamente significativo”… ma per puro caso.

Lo studio ha esaminato tumori in:

  • fegato
  • pelle
  • tiroide
  • sistema nervoso
  • reni
  • mammelle
  • ovaie
  • pancreas
  • ghiandole surrenali
  • milza
  • osso
  • vescica

Statisticamente parlando, più confronti si fanno, più aumenta il rischio di falsi positivi: è il noto problema dei confronti multipli. E in questo caso non è stata applicata nessuna correzione (come Bonferroni o FDR), nonostante le decine di test effettuati.

Per esempio:

  • Un solo caso di carcinoma follicolare tiroideo (1,96%) viene presentato come “aumento significativo”, nonostante un’incidenza storica dello 0,09%.
  • Leucemie rarissime (0 casi nei controlli) diventano improvvisamente “frequenti” se appaiono in uno o due animali.

E proprio perché si lavora con numeri minuscoli (gruppi da 51 ratti), anche un singolo caso in più può far sembrare enorme un effetto che in realtà è solo rumore statistico.

Non a caso, un commentatore su PubPeer ha fatto notare che, nella versione pubblicata rispetto al preprint è stato aggiunto un caso di leucemia monocitica in un ratto femmina trattato con 50 mg/kg/die, assente nella versione preprint. Nessuna spiegazione è stata data per questo cambiamento. Ma in gruppi così piccoli, un solo caso in più può bastare a far emergere o sparire un “aumento significativo”. E la mancanza di trasparenza su come sia stato deciso questo aggiornamento rende ancora più difficile fidarsi delle conclusioni.

Statistiche fragili: come un’analisi più corretta fa crollare i risultati

Gli autori dello studio dicono di aver usato il test di Cochrane-Armitage per verificare se aumentando le dosi di glifosato aumentasse anche il numero di tumori nei ratti: insomma, per valutare se esistesse un trend “dose-risposta” significativo.

Fin qui, tutto regolare. Ma leggendo le osservazioni pubblicate su PubPeer emerge un problema serio: gli autori hanno usato la versione asintotica del test, che diventa poco affidabile quando si analizzano eventi rari – come accade quasi sempre negli studi di cancerogenicità a lungo termine, dove molti tumori osservati sono davvero pochi.

Chi ha commentato ha quindi rifatto i calcoli usando la versione esatta del test (disponibile grazie al software del DKFZ) e il risultato è stato sorprendente: i p-value, che nello studio originale erano inferiori a 0.05 (e quindi dichiarati “significativi”), sono saliti ben oltre 0.25, diventando del tutto non significativi.

In pratica: gli stessi dati, analizzati in modo più corretto, perdono completamente la significatività statistica.

E questo non è un dettaglio secondario: lo stesso errore potrebbe riguardare anche altre analisi statistiche e tabelle pubblicate, mettendo seriamente in discussione la solidità complessiva delle conclusioni dello studio.

Glifosato puro vs formulazioni commerciali: un confronto incompleto

Lo studio testa anche due erbicidi commerciali (Roundup Bioflow e RangerPro), sostenendo che siano più tossici del glifosato puro. Ma:

È un po’ come dire:

“La vodka è tossica!”
Senza specificare se il problema è l’alcol o l’acqua in essa contenuta.

Trasparenza e potenziali conflitti d’interesse

Gli autori dello studio dichiarano esplicitamente di non avere conflitti di interesse. Tuttavia, come segnalato su PubPeer, emergono diverse criticità. L’Istituto Ramazzini che ha condotto la ricerca riceve fondi da organizzazioni e soggetti che hanno preso pubblicamente posizione contro l’uso del glifosato. Tra questi finanziatori troviamo:

  1. la Heartland Health Research Alliance, già criticata da diverse fonti per sostenere ricerche orientate contro i pesticidi;
  2. l’Institute for Preventive Health, fondato da Henry Rowlands, che è anche l’ideatore della certificazione “Glyphosate Residue Free”;
  3. Coop Reno, una cooperativa italiana che promuove attivamente la riduzione dei pesticidi nei propri prodotti;
  4. Coopfond, che ha dichiarato pubblicamente il proprio sostegno alla ricerca contro il glifosato.

Tutti questi elementi non sono banali, perché vanno in direzione opposta alla dichiarazione “no competing interests” fornita dagli autori.

Dichiarare questi legami non significa necessariamente che i risultati siano falsati, ma consente ai lettori di valutare meglio la possibile influenza dei finanziatori.

IARC, hazard e risk: una distinzione fondamentale

Lo studio si richiama alla classificazione dello IARC, che nel 2015 ha definito il glifosato “probabile cancerogeno” (Gruppo 2A). Ma attenzione: l’IARC valuta l’hazard, non il rischio.

  • Hazard: “Il glifosato può causare il cancro in certe condizioni ideali”.
  • Risk: “Il glifosato causa il cancro nelle condizioni reali di esposizione?”

Lo IARC ha incluso nel gruppo 2A anche:

  • la carne rossa,
  • il lavoro da parrucchiere,
  • il turno di notte.

Le principali agenzie che valutano il rischio reale non hanno trovato evidenze sufficienti per considerare il glifosato cancerogeno:

Agenzia Conclusione Anno
EFSA (UE) Non cancerogeno 2023
EPA (USA) Non cancerogeno 2020
JMPR (FAO/OMS) Non cancerogeno 2016
IARC Probabile cancerogeno 2015

Conclusione: il glifosato non è innocente, ma nemmeno un mostro

Il nuovo studio del 2025 mostra che, se si cercano abbastanza tumori rari in tanti tessuti, qualcosa prima o poi emerge. Ma:

  • Le dosi utilizzate sono lontanissime dalla realtà umana, e persino più alte del previsto nei ratti giovani;
  • I risultati sono fragili, non replicati, e statisticamente poco robusti;
  • I meccanismi di azione non sono spiegati;
  • La trasparenza sui dati e sui conflitti di interesse è carente;
  • Le conclusioni si basano su metodi statistici che vanno messi in discussione.

Non si tratta di negazionismo scientifico ma di scetticismo informato, che è il cuore del metodo scientifico. Sebbene questo studio sollevi questioni interessanti, trarre conclusioni definitive su un legame causale tra glifosato e cancro basandosi su dati così fragili e dosi irrealistiche è prematuro. La scienza richiede prove solide, replicabili e trasparenti.

Per questo, le agenzie regolatorie continuano a considerare il glifosato sicuro se usato nei limiti stabiliti. Restiamo aperti a nuove evidenze, ma diffidiamo dei titoli allarmistici che spesso accompagnano studi con così tante ombre.

EDIT

A dimostrazione del fatto che il metodo scientifico si basa sull’autocorrezione, sia Enrico Bucci che io desideriamo ringraziare l’Ing. Dario Passafiume per essersi accorto di un errore che abbiamo commesso nell’interpretare i dati di PubPeer. La sostanza non cambia: cambiano solo i valori assoluti dei numeri che avevamo preso in considerazione. Il testo che abbiamo rieditato per effetto dell’errore di cui ci siamo accorti grazie all’ingegnere è il seguente:

Un’analisi particolarmente accurata pubblicata su PubPeer ha evidenziato una discrepanza rilevante: le figure riportate nello studio non si riferiscono alle dosi dichiarate (quelle indicate nel primo paragrafo), ma a dosi circa dieci volte superiori. In pratica, mentre gli autori affermano di aver usato 0.5, 5 e 50 mg/kg/die, i grafici mostrano dati ottenuti con 5, 50 e 500 mg/kg/die. Si tratta – come già evidenziato – di concentrazioni del tutto inconcepibili nella vita reale dove per arrivare all’assunzione di soli 0.5 mg/kg/die bisogna ingurgitare circa 70 kg di soia OGM al giorno, tutti i giorni.

Mentos e Coca Cola… una fontana di scienza!

Se almeno una volta nella vita hai visto il famoso esperimento in cui delle caramelle Mentos vengono fatte cadere in una bottiglia di Coca Cola (o, più spesso, Diet Coke), conosci già il risultato: una fontana impazzita di schiuma che può superare i tre metri d’altezza (v. il filmato qui sotto).

Ma cosa succede davvero? È solo una semplice reazione fisica? C’entra la chimica? Perché proprio le Mentos? E perché la Diet Coke funziona meglio della Coca normale?

Negli ultimi anni, diversi ricercatori si sono cimentati nello studio scientifico di questo fenomeno, spesso usato come dimostrazione educativa nelle scuole e nei laboratori divulgativi. E ciò che è emerso è una storia sorprendentemente ricca di fisica, chimica, e perfino di gastronomia molecolare.

La nucleazione: come nasce un cambiamento

La parola “nucleazione” descrive il momento in cui, all’interno di un sistema fisico, comincia a svilupparsi una nuova fase. È un concetto fondamentale per comprendere fenomeni come la formazione di gocce in una nube, la cristallizzazione di un solido, o – nel nostro caso – la comparsa di bolle in un liquido soprassaturo di gas.

Secondo la teoria classica della nucleazione, perché si formi una nuova fase (come una bolla di gas in un liquido), è necessario superare una barriera energetica. Questa barriera nasce dal fatto che generare una bolla comporta un costo in termini di energia superficiale (ovvero, bisogna spendere energia per “deformare” i legami a idrogeno che, nel caso dell’acqua, tengono unite le diverse molecole), anche se si guadagna energia liberando il gas.

Il sistema deve dunque “pagare un prezzo iniziale” per creare una bolla sufficientemente grande: questa è la cosiddetta “bolla critica”. Una volta che si supera quella dimensione critica, la formazione della nuova fase (cioè, la crescita della bolla) diventa spontanea e inarrestabile.

Tuttavia, nel mondo reale, è raro che le bolle si formino spontaneamente all’interno del liquido: nella maggior parte dei casi, servono delle “scorciatoie energetiche”. È qui che entra in gioco la nucleazione eterogenea.

Nucleazione eterogenea: quando le superfici danno una spinta

Nel mondo reale, è raro che una nuova fase si formi spontaneamente all’interno del liquido (nucleazione omogenea), perché la probabilità che si verifichi una fluttuazione sufficientemente grande da superare la barriera energetica è molto bassa. Nella maggior parte dei casi, il sistema trova delle “scorciatoie energetiche” grazie alla presenza di superfici, impurità o irregolarità: è quello che si chiama nucleazione eterogenea.

Le superfici ruvide, porose o idrofobe possono abbassare la barriera energetica necessaria per innescare la formazione di una bolla. Per esempio, un piccolo graffio sul vetro, un granello di polvere o una microscopica cavità possono ospitare delle minuscole sacche d’aria che fungono da “embrioni” di bolla. In questi punti, la CO2 disciolta trova un ambiente favorevole per iniziare la transizione verso la fase gassosa, superando più facilmente la soglia critica.

Anche la geometria ha un ruolo: cavità coniche o fessure strette possono concentrare le forze e rendere ancora più facile la nucleazione. In pratica, il sistema approfitta di qualsiasi imperfezione per risparmiare energia nel passaggio di fase.

Il caso delle Mentos: nucleatori perfetti

L’esperimento della fontana di Diet Coke e Mentos è un esempio spettacolare (e rumoroso) di nucleazione eterogenea. Quando le Mentos vengono lasciate cadere nella bottiglia, la loro superficie – irregolare, porosa e ricoperta da uno strato zuccherino solubile – offre migliaia di siti di nucleazione. Ogni microscopica cavità è in grado di ospitare una piccola sacca di gas o di innescare la formazione di una bolla (Figura 1). In più, le Mentos cadono rapidamente fino al fondo della bottiglia, generando nucleazione non solo in superficie, ma in profondità, dove la pressione idrostatica è maggiore. Questo favorisce un rilascio ancora più esplosivo del gas disciolto.

Il risultato? Una vera e propria “valanga di bolle” che si spingono a vicenda verso l’alto, trascinando con sé la soda e formando il famoso geyser, che può raggiungere anche 5 o 6 metri d’altezza.

Figura 1. Nucleazione eterogenea di una bolla su una superficie solida. Le molecole d’acqua a contatto con una superficie solida interagiscono con essa, formando legami che disturbano la rete di legami a idrogeno tra le molecole d’acqua stesse. Questo indebolimento locale della coesione interna rende la zona prossima alla superficie più favorevole all’accumulo di gas disciolto, come la CO2. Il gas si concentra in microcavità o irregolarità della superficie, gonfiando piccole sacche d’acqua. Quando queste sacche superano una dimensione critica, la tensione interna diventa sufficiente a vincere le forze di adesione, e la bolla si stacca dalla superficie, iniziando a crescere liberamente nel liquido. Questo meccanismo, noto come nucleazione eterogenea, è alla base di molti fenomeni naturali e tecnici, incluso l’effetto geyser osservato nel celebre esperimento con Diet Coke e Mentos.

Non è una reazione chimica, ma…

Uno dei miti più diffusi, e da sfatare, è che il famoso effetto geyser della Diet Coke con le Mentos sia il risultato di una reazione chimica tra gli ingredienti delle due sostanze. In realtà, non avviene alcuna trasformazione chimica tra i componenti: non si formano nuovi composti, non ci sono scambi di elettroni né rottura o formazione di legami chimici. Il fenomeno è invece di natura puramente fisica, legato al rilascio improvviso e violento del gas disciolto (CO2) dalla soluzione liquida.

La Coca Cola (e in particolare la Diet Coke) è una soluzione sovrassatura di anidride carbonica, mantenuta tale grazie alla pressione all’interno della bottiglia sigillata. Quando la bottiglia viene aperta, la pressione cala, e il sistema non è più in equilibrio: il gas tende a uscire lentamente. Ma se si introducono le Mentos – che, come abbiamo visto, forniscono una miriade di siti di nucleazione – la CO2 trova una “scappatoia rapida” per tornare allo stato gassoso, formando in pochi istanti una quantità enorme di bolle.

Pur non trattandosi di una reazione chimica nel senso stretto, il rilascio della CO2 provoca alcune conseguenze misurabili dal punto di vista chimico. Una di queste è il cambiamento di pH: la Coca Cola è fortemente acida (pH ≈ 3) perché contiene acido fosforico ma anche CO2 disciolta, che in acqua dà luogo alla formazione di acido carbonico (H2CO3). Quando il gas fuoriesce rapidamente, l’equilibrio viene spostato, l’acido carbonico si dissocia meno, e il pH del liquido aumenta leggermente, diventando meno acido.

Questa variazione, anche se modesta, è stata misurata sperimentalmente in laboratorio, ed è coerente con l’interpretazione fisico-chimica del fenomeno.

In sintesi, si tratta di una transizione di fase accelerata (da gas disciolto a gas libero), facilitata da superfici ruvide: un classico esempio di fisica applicata alla vita quotidiana, più che di chimica reattiva.

Diet Coke meglio della Coca normale?

Sì, e il motivo non è solo la diversa composizione calorica, ma anche l’effetto fisico degli edulcoranti artificiali contenuti nella Diet Coke, in particolare aspartame e benzoato di potassio. Queste sostanze, pur non reagendo chimicamente con le Mentos, abbassano la tensione superficiale della soluzione, facilitando la formazione di bolle e rendendo il rilascio del gas CO2 più efficiente e spettacolare.

La tensione superficiale è una proprietà del liquido che tende a “resistere” alla formazione di nuove superfici – come quelle di una bolla d’aria. Se questa tensione si riduce, il sistema è più “disponibile” a formare molte piccole bolle, anziché poche grandi. E più bolle significa più superficie totale, quindi più spazio attraverso cui il gas può uscire rapidamente.

Anche altri additivi – acido citrico, aromi naturali (come citral e linalolo, Figura 2) e perfino zuccheri – influenzano il comportamento delle bolle. In particolare, molti di questi composti inibiscono la coalescenza, cioè, impediscono che le bolle si fondano tra loro per formare bolle più grandi. Questo porta a una schiuma fatta di bolle piccole, stabili e molto numerose, che massimizzano il rilascio di CO2 e quindi l’altezza della fontana.

Figura 2. Strutture chimiche di alcuni composti aromatici naturali presenti nelle bevande analcoliche. Il citral è una miscela di due isomeri geometrici: trans-citrale (geraniale) e cis-citrale (nerale), entrambi aldeidi con catena coniugata e intensa nota di limone. Il linalolo è un alcol terpenico aciclico, con due doppi legami e un gruppo ossidrilico (–OH), noto per il suo profumo floreale. Questi composti non partecipano a reazioni chimiche durante l’esperimento Diet Coke–Mentos, ma agiscono sul comportamento fisico del sistema, favorendo la formazione di schiuma fine e persistente e contribuendo all’altezza del geyser grazie alla inibizione della coalescenza delle bolle.

E che dire dei dolcificanti classici, come il saccarosio (lo zucchero da cucina)? A differenza dell’aspartame, il saccarosio non abbassa la tensione superficiale, anzi la aumenta leggermente. Tuttavia, anch’esso contribuisce a stabilizzare le bolle, soprattutto se combinato con altri soluti come acidi organici o sali. Questo spiega perché le bevande zuccherate (come la Coca Cola “classica”) producano comunque geyser abbastanza alti, ma meno impressionanti rispetto alle versioni “diet”.

Esperimenti controllati hanno mostrato che la Diet Coke produce le fontane più alte, seguita dalle bevande zuccherate e, in fondo, dall’acqua frizzante (che contiene solo CO2 e acqua): segno evidente che la presenza e la natura dei soluti giocano un ruolo chiave, anche in assenza di reazioni chimiche.

E se uso altre cose al posto delle Mentos?

La fontana di Coca Cola può essere innescata anche da altri materiali: gessetti, sabbia, sale grosso, zucchero, caramelle dure o persino stimolazioni meccaniche come gli ultrasuoni. Qualsiasi sostanza o perturbazione capace di introdurre nel liquido dei siti di nucleazione può innescare il rilascio del gas. Tuttavia, tra tutte le opzioni testate, le Mentos restano il materiale più efficace, producendo fontane più alte, più rapide e più spettacolari.

Questo successo si deve a una combinazione di caratteristiche fisiche uniche:

  1. Superficie molto rugosa e porosa
    Le Mentos hanno una superficie irregolare, visibile chiaramente al microscopio elettronico (SEM), con migliaia di microcavità che fungono da siti di nucleazione eterogenea. Più rugosità significa più bolle che si formano contemporaneamente, e quindi maggiore pressione generata in tempi brevissimi.
  2. Densità e forma ottimali
    Le caramelle sono sufficientemente dense e lisce all’esterno da cadere velocemente sul fondo della bottiglia, senza fluttuare. Questo è cruciale: la nucleazione avviene lungo tutta la colonna di liquido, non solo in superficie, e la pressione idrostatica più alta in basso aiuta la formazione più vigorosa di bolle. In confronto, materiali più leggeri (come il sale fino o la sabbia) galleggiano o si disperdono più lentamente, riducendo l’effetto.
  3. Rivestimento zuccherino solubile
    Il rivestimento esterno delle Mentos, a base di zuccheri e gomma arabica, si dissolve rapidamente, liberando nuovi siti di nucleazione man mano che la caramella si bagna. Inoltre, alcuni componenti del rivestimento (come emulsionanti e tensioattivi) favoriscono la schiuma e inibiscono la coalescenza delle bolle, contribuendo alla formazione di un getto più sottile e stabile

Un esperimento che insegna molto (e sporca parecchio)

Dietro quella che a prima vista sembra una semplice (e divertentissima) esplosione di schiuma, si nasconde una miniera di concetti scientifici: termodinamica, cinetica, tensione superficiale, solubilità dei gas, equilibrio chimico, pressione, nucleazione omogenea ed eterogenea. Un’intera unità didattica condensata in pochi secondi di spettacolo.

Ed è proprio questo il suo punto di forza: l’esperimento della fontana di Diet Coke e Mentos è perfetto per essere proposto nelle scuole, sia del primo grado (scuola media) che del secondo grado (licei, istituti tecnici e professionali), senza bisogno di strumenti di laboratorio complessi o costosi. Bastano:

  • qualche bottiglia di Coca Cola o altra bibita gassata,
  • delle Mentos (o altri oggetti solidi rugosi da confrontare: gessetti, zucchero, sabbia…),
  • una penna, un quaderno e un buon occhio per osservare e registrare cosa succede,
  • e, immancabili, canovacci, secchi, stracci e un po’ di detersivo per sistemare l’aula (o il cortile) dopo il disastro creativo!

Non solo: questo tipo di attività permette di lavorare in modalità laboratoriale attiva, stimolando l’osservazione, la formulazione di ipotesi, la progettazione sperimentale, la misura, l’analisi dei dati, la comunicazione scientifica. In altre parole: il metodo scientifico in azione, alla portata di tutti.

Insomma, la fontana di Diet Coke e Mentos non è solo un video virale da YouTube: è un fenomeno scientificamente ricchissimo, capace di affascinare e coinvolgere studenti e insegnanti. Provatelo (con le dovute precauzioni)… e preparatevi a fare il pieno di chimica!

Riferimenti

Baur & al. (2006) The Ultrasonic Soda Fountain: A Dramatic Demonstration of Gas Solubility in Aqueous Solutions. J. Chem. Educ. 83(4), 577. https://doi.org/10.1021/ed083p577.

Coffey (2008) Diet Coke and Mentos: What is really behind this physical reaction? Am. J. Phys. 76, 551. http://dx.doi.org/10.1119/1.2888546.

Eichler & al. (2007) Mentos and the Scientific Method: A Sweet Combination. J. Chem. Educ. 84(7), 1120. https://doi.org/10.1021/ed084p1120.

Kuntzleman & al. (2017) New Demonstrations and New Insights on the Mechanism of the Candy-Cola Soda Geyser. J. Chem. Educ. 94, 569−576. https://doi.org/10.1021/acs.jchemed.6b00862.

Maris (2006) Introduction to the physics of nucleation. C. R. Physique 7, 946–958. https://doi.org/10.1016/j.crhy.2006.10.019.

Sims & Kuntzleman (2016) Kinetic Explorations of the Candy−Cola Soda Geyser. J. Chem. Educ. 93, 1809−1813. https://pubs.acs.org/doi/10.1021/acs.jchemed.6b00263.

…e per i docenti della scuola secondaria di primo e secondo grado, ecco una scheda laboratorio pronta all’uso, per trasformare questa esplosione di schiuma in un’attività scientifica coinvolgente.

Scheda laboratorio – Un geyser di CO2 tra scienza e divertimento

🧪 Esperimento: La fontana di Diet Coke e Mentos

🎯 Obiettivi didattici

  • Osservare e descrivere fenomeni di nucleazione eterogenea
  • Comprendere il concetto di tensione superficiale e solubilità dei gas
  • Riconoscere la differenza tra fenomeni fisici e chimici
  • Introdurre il metodo scientifico: osservazione, ipotesi, verifica, confronto dati
  • Stimolare il pensiero critico e il lavoro di gruppo

🧰 Materiali

Quantità Materiale
1–2 Bottiglie da 1.5 o 2 L di Coca Cola/Diet Coke
1 confezione Mentos (preferibilmente menta)
facoltativi Zucchero, sabbia, gessetti, sale grosso, caramelle dure
1 Contenitore/sottovaso/catino (per contenere la fontana)
✔️ Carta, penne o tablet per prendere appunti
✔️ Canovacci, stracci, secchio, detersivo

📌 Procedura base (semplificata)

  1. Posizionare la bottiglia su un piano all’aperto o in un contenitore.
  2. Preparare il sistema di rilascio rapido delle Mentos (ad esempio con un cartoncino a scivolo o un tubo).
  3. Far cadere rapidamente 1–3 Mentos nella bottiglia aperta.
  4. Osservare il fenomeno: altezza, durata, forma della fontana, eventuale schiuma residua.
  5. Ripetere con altri materiali (gesso, sabbia, sale…) e confrontare l’effetto.
  6. Annotare le osservazioni. Stimolare ipotesi: perché cambiano i risultati?

📚 Spunti teorici (modulabili per il grado scolastico)

  • Fisica: pressione interna, energia potenziale, accelerazione del liquido
  • Chimica fisica: tensione superficiale, solubilità dei gas, acido carbonico e variazione di pH
  • Chimica generale: differenza tra cambiamento fisico e chimico
  • Scienza dei materiali: effetto della rugosità e della forma dei solidi sulla nucleazione
  • Metodo scientifico: osservazione, variabili, confronto controllato

🧠 Domande guida per la discussione

  • Cosa accade quando inseriamo le Mentos nella bibita?
  • Che differenza c’è tra Coca Cola normale e Diet Coke?
  • Perché altri materiali (es. sale o sabbia) funzionano diversamente?
  • È una reazione chimica o un fenomeno fisico?
  • Come potremmo misurare e confrontare le fontane? (es. altezza, tempo, schiuma)

📏 Varianti possibili

  • Cambiare la temperatura della bibita (fredda vs ambiente)
  • Provare con acqua frizzante o altre bevande gassate
  • Usare un righello o griglia per stimare l’altezza
  • Fare video al rallentatore e analizzare la dinamica
  • Includere una prova con ultrasuoni (se si dispone di un pulitore a ultrasuoni)

🚸 Note di sicurezza

  • L’esperimento è sicuro, ma va fatto in ambienti controllati o all’aperto
  • Tenere gli occhi lontani dal getto (meglio osservare di lato)
  • Prevedere pulizia immediata di superfici scivolose o appiccicose
Share