Clima e pseudoscienza: anatomia di una discussione

Qualche giorno fa ho pubblicato il terzo e, speravo, ultimo articolo di un reportage sui cambiamenti climatici. In questo articolo, intitolato I cambiamenti climatici? Sì, siamo noi i responsabili, ho discusso delle prove oggettive – corredate da riferimenti puntuali – che hanno portato l’intera comunità scientifica alla conclusione che i responsabili di quanto sta accadendo attualmente sulla superficie terrestre, ovvero l’aumento delle temperature globali e la conseguente alterazione degli ecosistemi, siamo noi esseri umani.

In quel testo ho cercato di mostrare, in modo accessibile ma rigoroso, perché la tesi dell’origine antropica dell’attuale riscaldamento globale non sia più un’ipotesi, ma una conclusione supportata da una mole imponente di dati.

Ho parlato del ruolo dei gas serra, in particolare della CO₂ prodotta dalla combustione di combustibili fossili, la cui impronta isotopica è ben riconoscibile in atmosfera. Ho discusso anche delle fonti indipendenti che confermano il trend in atto – dalle carote glaciali agli anelli degli alberi, dai sedimenti oceanici alle misurazioni satellitari – e delle ragioni per cui né l’attività solare né le eruzioni vulcaniche possono spiegare ciò che osserviamo oggi.

Infine, ho evidenziato come la rapidità del riscaldamento attuale – oltre un grado in appena un secolo – sia senza precedenti nella storia recente del pianeta, e come l’intero corpo scientifico internazionale, sintetizzato nei report dell’IPCC, abbia ormai raggiunto un consenso solido e ben documentato su questo punto.

Non è necessario riproporre qui tutti i riferimenti bibliografici: si trovano nell’articolo appena riassunto (qui il link).

Eppure, eccomi di nuovo a scrivere sull’apporto antropico all’effetto serra. Non per aggiungere nuove evidenze, ma per riflettere sul modo estremamente fallace – e sempre più diffuso – di ragionare dei negazionisti del cambiamento climatico. Non si tratta, in questo caso, di negazionisti tout court: anche loro, ormai, devono riconoscere l’evidenza dell’aumento delle temperature globali. Si tratta piuttosto dei negazionisti dell’origine antropica, coloro che rifiutano di accettare che la causa principale del riscaldamento sia l’attività umana.

In un gruppo Facebook che aiuto a gestire – Bufale e dintorni gruppo – sono comparsi i primi commenti al mio post con cui pubblicizzavo l’articolo (potete farvene un’idea a questo link).
Poiché si tratta di un gruppo privato – quindi i post non sono visibili pubblicamente – e considerando che non tutti hanno un account Facebook attivo, riporto di seguito gli screenshot della discussione.

La Figura 1 riporta la condivisione dalla mia pagina Facebook “Rino Conte”.

Figura 1. Screenshot relativo alla condivisione del mio articolo sull’effetto antropico nei cambiamenti climatici. Questo thread ha dato la stura a una discussione con un negazionista di tale effetto.

La Figura 2 riporta (spero in modo leggibile, altrimenti è necessario da parte dei volenterosi scaricare l’immagine ed effettuarne uno zoom) la discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

Figura 2. Discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

E proprio mentre sto scrivendo questo articolo la discussione continua (Figura 3).

Figura 3. Proseguimento della discussione mentre scrivo questo articolo.

Come si evince dagli screenshot, il tutto ha inizio dall’inserimento di un link a un articolo giornalistico in cui si riporta un filmato che mostra il comportamento di certi ghiacciai negli ultimi 800 000 anni. Questo filmato è tratto da un lavoro scientifico dal titolo “Modelling last glacial cycle ice dynamics in the Alps” pubblicato nel 2018 sulla rivista The Cryosphere della European Geoscience Union, associazione per la quale anche io ho organizzato in passato dei miniconvegni nell’ambito delle attività congressuali più generali che si fanno ogni anno a Vienna in Austria (per esempio, uno è qui).

Chi ha condiviso questo studio nella discussione lo ha fatto con l’intento – più o meno esplicito – di suggerire che, dal momento che i ghiacciai alpini si sono espansi e ritirati ciclicamente nel passato, il cambiamento climatico attuale potrebbe essere semplicemente parte di una lunga variabilità naturale. È un’inferenza del tutto errata, che nasce da un fraintendimento delle finalità e dei contenuti del lavoro scientifico citato.

Infatti, lo studio in questione (Seguinot et al., 2018) non parla di cambiamenti climatici attuali né tantomeno ne discute le cause. Si tratta di un lavoro di modellizzazione numerica della dinamica glaciale delle Alpi durante l’ultimo ciclo glaciale (da 120.000 a 0 anni fa), che ha lo scopo di testare la coerenza tra ricostruzioni geologiche e simulazioni del comportamento dei ghiacciai su scala millenaria. Non c’è nel testo alcuna analisi delle cause del riscaldamento moderno, né alcun confronto con l’evoluzione recente del clima terrestre.

Quello che il mio interlocutore ha fatto è un tipico esempio di bias di conferma: ha estrapolato da un articolo tecnico una conclusione che non c’è, perché questa coincide con la propria convinzione preesistente. È un meccanismo comune tra i cosiddetti “negazionisti soft” – persone che, pur riconoscendo che il clima sta cambiando, rifiutano l’idea che l’essere umano ne sia il principale responsabile.

La dinamica della discussione su Facebook lo conferma: ogni volta che si porta un dato, una misura, una ricostruzione paleoclimatica, l’interlocutore non contesta la validità della fonte, ma sposta il piano, relativizza, introduce “dubbi” storici o filosofici. E infine si rifugia nel mito del “Galileo solitario”, come se ogni minoranza fosse destinata a diventare verità solo perché è minoranza. Ma Galileo non aveva ragione perché era solo: aveva ragione perché aveva i dati e un metodo.

Ecco il punto: il problema non è tanto avere un’opinione diversa, quanto non saper distinguere tra opinione personale e conoscenza scientifica. E non è un caso che questo tipo di retorica si ritrovi spesso in altri ambiti della disinformazione scientifica: chi si sente “eretico” rispetto al sapere ufficiale tende a sopravvalutare le proprie intuizioni e a sottovalutare il lavoro, faticoso e rigoroso, di chi fa scienza sul serio.

Discutere con chi rifiuta le conclusioni della scienza può essere faticoso, ma è anche necessario. Non per convincere chi ha già deciso di non ascoltare, ma per fornire strumenti a chi legge in silenzio, a chi cerca chiarezza in mezzo al rumore. La scienza non ha bisogno di essere difesa come un dogma: si difende da sé, con i dati, con la trasparenza dei metodi, con la disponibilità al confronto critico. Ma proprio per questo va protetta dalle distorsioni, dalle semplificazioni, e soprattutto dal relativismo delle opinioni travestite da verità.
Il cambiamento climatico attuale è un fenomeno reale, misurabile e in larga parte causato dalle attività umane. Continuare a negarlo non è esercizio di pensiero critico, ma una forma di resistenza ideologica che rischia di ritardare l’unica cosa che oggi dovremmo fare: affrontare il problema con serietà, competenza e senso di responsabilità.

EDIT

Mentre mi accingevo a pubblicare questo articolo, il mio interlocutore ha pubblicato un’ultima risposta che ho deciso di riportare integralmente per completezza. Qui sotto trovate anche la mia replica con cui ho deciso di concludere la discussione pubblica.

Interlocutore:

Pellegrino

  1. Lei stesso parla di “stime solide”; che sono appunto stime, non misurazioni dirette.
  2. “Sappiamo perché”, è un’altra forzatura. In realtà abbiamo delle interpretazioni plausibili per molte di esse, ma ciò non equivale a una certezza assoluta. Anche nelle osservazioni attuali, ci si imbatte in anomalie impreviste, tipo l’impatto dello scioglimento del permafrost, temperature previste che poi non si sono verificate… E parliamo di osservazioni dirette; figuriamoci sulle “stime” di fenomeni non osservati direttamente. Per non parlare dell’infinito dibattito su quanto influiscano o meno le macchie solari…

Stesso discorso sul fatto che le oscillazioni in passato non avvenissero in decenni, trascurando che non possiamo sapere se gli strumenti che abbiamo a disposizione siano davvero affidabili con tale precisione. Mancando l’osservazione diretta, non possiamo verificarlo.

Dire che “potrebbero esserci state” significa semplicemente dire che il modello generale è ancora soddisfatto; per dimostrare l’anomalia bisogna dimostrare che davvero non ci siano precedenti. È un discorso di presunzione d’innocenza: per dare la colpa all’uomo bisogna dimostrarla; il “ragionevole dubbio” è a favore dell’imputato. Foss’anche solo per mancanza di prove.

  1. Il moto dei pianeti era noto da sempre (“planities” significa appunto “errante”), ma lui (anzi, Copernico) fornì solo un modello di calcolo semplificato. Infatti, a dirla tutta, il sole non è affatto al centro dell’universo ma si muove pure lui… In questo ha ragione l’insegnante del prof. Barbero che diceva che il card. Bellarmino era più moderno di Galileo.
  2. A “negazionista” si potrebbe contrapporre “fideista”, ovvero uno che sposa senz’altro ciò che dice la maggioranza stigmatizzando il dubbio. Ma io continio a ricordare che la stessa comunità scientifica oggi certa del riscaldamento globale appena quarant’anni fa era ugualmente certa dell’imminenza di un’era glaciale. Un cambio di rotta di 180 gradi in meno di mezzo secolo, e si dovrebbe prendere per oro colato anche l’attribuzione di responsabilità? Anche a fronte di numerose previsioni rivelatesi poi errate?
  3. Su un punto, concordo senz’altro: sulla separazione netta tra dissertazione scientifica e azione concreta (e non potrei dire diversamente, dato che come ho già detto opero nella Protezione Civile).

Il punto certo è che vi sia in atto un cambiamento climatico che attualmente va verso un aumento delle temperature, che il problema è serio e che la cosa va affrontata. Ridurre il più possibile (e possibilmente azzerare) l’impatto antropico non ha controindicazioni, e quindi va benissimo farlo; e infatti ne sono da sempre un convinto sostenitore.

A mio modesto parere, non servirà a granché, perché se Madre Natura ha deciso che è tempo di un nuovo Eocene, Eocene sarà; che ci piaccia o no.

Quindi, oltre ad azzerare le emissioni, miglioriamo l’efficienza dei condizionatori, perché ne avremo comunque bisogno. Tutto qui.

Io:
grazie per aver chiarito ulteriormente il suo punto di vista. Le rispondo un’ultima volta, per chi ci legge e non per la soddisfazione di “avere l’ultima parola”, che non mi interessa.

Sì, le proxy sono stime, ma sono stime calibrate, validate e incrociate da molte fonti indipendenti. Nessun climatologo confonde una proxy con una misura diretta, ma la scienza lavora ogni giorno per rendere sempre più affidabili quelle stime. E il fatto che convergano tutte sul medesimo trend dà forza alla ricostruzione. Questo è il normale funzionamento della scienza, non una debolezza.

Nessuno pretende certezze assolute, né le scienze naturali le promettono. Lei invece sembra richiedere una prova “oltre ogni dubbio”, come se fossimo in un’aula di tribunale. Ma la scienza si basa sulla probabilità, sul peso delle evidenze, sulla capacità predittiva dei modelli. Oggi, la quantità di prove che puntano all’origine antropica del riscaldamento è così ampia da rendere l’ipotesi alternativa – quella esclusivamente naturale – altamente improbabile. Ed è su questo che si fondano le politiche, non sull’attesa della perfezione epistemologica.

Il paragone con Galileo e Bellarmino è affascinante ma fuori luogo. Galileo non aveva solo un modello “più semplice”: aveva anche l’evidenza delle fasi di Venere e delle lune di Giove. Il suo valore non sta nel ribellarsi alla maggioranza, ma nell’aver offerto dati e osservazioni migliori. Lei invece continua a proporre “dubbi” senza portare nessun dato nuovo, solo generalizzazioni.

La comunità scientifica non era “certa” dell’era glaciale negli anni ’70. Questa è una leggenda urbana, smentita dai dati storici: all’epoca la maggior parte degli articoli già indicava un riscaldamento, non un raffreddamento. Se guarda i paper dell’epoca, lo vede chiaramente.

Quanto agli errori previsionali: il fatto che un modello venga corretto o raffinato è normale in ogni scienza. Non è un fallimento, è progresso. Non confondiamo fallibilità con inattendibilità.

Mi fa piacere leggere che riconosce l’urgenza del problema e sostiene l’azione per ridurre le emissioni. Su questo ci troviamo d’accordo. Tuttavia, dire “tanto non servirà a nulla” è una rinuncia mascherata da fatalismo. La scienza climatica non dice che siamo condannati, ma che abbiamo una finestra temporale per ridurre gli impatti futuri. La differenza tra +1,5 °C e +4 °C non è affatto irrilevante. E anche se non possiamo evitare ogni effetto, possiamo evitare quelli peggiori. Questa è responsabilità, non fideismo.

Chiudo qui il mio intervento, perché i fatti, i dati e il consenso scientifico sono pubblici e verificabili. Il resto è opinione personale – legittima – ma non equiparabile alla conoscenza prodotta dalla scienza.

Nota finale: ho riportato per esteso questo scambio non per dare visibilità a una posizione pseudoscientifica, ma per mostrare, in modo documentato, come ragiona chi nega l’origine antropica del cambiamento climatico, e perché queste argomentazioni non reggano al vaglio della scienza.

Il grande mescolamento: il ruolo vitale degli oceani e le conseguenze del riscaldamento globale

Per capire davvero cosa significhi “riscaldamento globale”, dobbiamo prima capire come funziona il sistema che, da sempre, modera il clima della Terra: gli oceani. Sono loro, infatti, il gigantesco ingranaggio nascosto che regola la distribuzione del calore, l’equilibrio dell’umidità e la circolazione dell’energia termica sul nostro pianeta.

Le acque oceaniche non stanno mai ferme. Si muovono in superficie, spinte dai venti; si muovono in profondità, guidate da variazioni di temperatura e salinità. In questo continuo rimescolamento – silenzioso, ma potentissimo – si nasconde il segreto della nostra stabilità climatica. Ogni corrente trasporta calore dai tropici verso i poli e viceversa, mitiga le temperature, distribuisce nutrienti e sostiene la vita marina.

È un equilibrio delicato, raffinato, essenziale. E proprio per questo vulnerabile.

Se le acque si muovono meno, se non si mescolano più come dovrebbero, l’intero sistema comincia a rallentare, a scompensarsi. Il clima si fa più estremo, le piogge più irregolari, le stagioni meno distinguibili.

Ecco perché non possiamo davvero comprendere il cambiamento climatico senza prima esplorare i meccanismi che governano il movimento delle acque nei grandi corpi idrici: oceani, mari, fiumi, laghi.

A partire da qui, cercherò di spiegare – con l’aiuto della fisica e della chimica – come funzionano i movimenti orizzontali e verticali delle acque e perché sono così importanti per la regolazione del clima. Solo dopo, potremo affrontare il nodo centrale: cosa succede quando, a causa dell’aumento delle temperature globali, questi meccanismi si inceppano.

Le grandi correnti: il vento comanda

Partiamo dalla superficie. Le acque degli oceani sono spinte dai venti, ma non in modo casuale. Intorno all’equatore, ad esempio, gli Alisei soffiano da est verso ovest e trascinano con sé le acque superficiali. Alle latitudini medie (tra 30° e 60°), i venti occidentali spingono invece le correnti verso est.

Quando queste correnti incontrano i continenti, vengono deviate. Ed è qui che entra in gioco la forza di Coriolis: un effetto legato alla rotazione terrestre che curva i flussi d’acqua verso destra nell’emisfero nord e verso sinistra in quello sud. Il risultato? Enormi vortici oceanici che formano veri e propri “nastri trasportatori” d’acqua calda e fredda.

Uno degli esempi più noti è la Corrente del Golfo, che trasporta acque tropicali lungo la costa orientale del Nord America fino all’Europa occidentale, regalando inverni miti a paesi come il Regno Unito e la Norvegia.

Come illustrato in Figura 1, le acque superficiali degli oceani (fino a circa 100 metri di profondità) si muovono orizzontalmente, spinte soprattutto dai venti. La presenza dei continenti ne modifica il percorso, generando ampie correnti che si piegano e si avvolgono in vortici permanenti, visibili in tutti i principali bacini oceanici.

Figura 1. Rappresentazione delle principali correnti oceaniche superficiali. A causa della presenza dei continenti, le correnti deviano dal loro percorso originale, generando grandi vortici oceanici. Immagine scaricata liberamente da: https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Le correnti profonde: il ruolo del sale e della temperatura

Ma c’è un altro motore, più lento, silenzioso e profondo: il rimescolamento verticale. È un processo meno visibile rispetto alle correnti superficiali, ma non meno importante. In alcune regioni del pianeta, come le zone tropicali aride o le aree polari, l’acqua in superficie subisce trasformazioni che ne modificano profondamente la densità.

Nelle aree calde, per esempio, l’evaporazione intensa concentra i sali nell’acqua residua. Più sale significa maggiore densità: e un’acqua più densa tende naturalmente ad affondare verso gli strati profondi dell’oceano.
Al contrario, in altre zone l’acqua può essere diluita da piogge abbondanti o dallo scioglimento dei ghiacci, diventando più dolce e meno densa, e quindi destinata a risalire.

Anche la temperatura gioca un ruolo cruciale. Quando l’acqua marina si raffredda intensamente – come accade ai poli – tende a ghiacciarsi. Durante il congelamento, però, il ghiaccio espelle i sali: ciò che resta intorno ai blocchi di ghiaccio è un’acqua estremamente salina e fredda. Questo liquido denso sprofonda verso il fondo oceanico, innescando così un flusso verticale che alimenta la circolazione delle acque a grandi profondità.

Questo meccanismo prende il nome di circolazione termoalina: un termine che unisce l’effetto della temperatura (“termo”) a quello del sale (“alina”, dal greco halos). È grazie a questa lenta ma continua danza tra acque fredde, salate e profonde, e acque più calde e superficiali, che l’oceano riesce a rimescolarsi in profondità, mantenendo in equilibrio il trasporto di calore, nutrienti e anidride carbonica tra gli strati più esterni e quelli abissali.

Il grande nastro trasportatore globale

Combinando i movimenti orizzontali delle acque – spinti dai venti – con quelli verticali – governati da differenze di temperatura e salinità – si ottiene un colossale circuito planetario che i climatologi chiamano Global Conveyor Belt, ovvero nastro trasportatore oceanico globale.

È un sistema mastodontico, profondo e lentissimo. Le acque che oggi affondano nel Nord Atlantico, gelide e ricche di sale, possono impiegare fino a mille anni per completare il loro viaggio nei fondali oceanici e riaffiorare in superficie dall’altra parte del mondo. Una corrente profonda che scorre a pochi centimetri al secondo, eppure fondamentale per la vita sul pianeta.

Quello che si viene a creare è un ciclo continuo: le correnti calde e superficiali (come la Corrente del Golfo) trasportano calore dai tropici verso i poli; lì, l’acqua si raffredda e sprofonda, diventando corrente fredda e profonda che scivola silenziosamente nei meandri degli oceani, fino a riemergere in zone tropicali o subtropicali, dove riprende il viaggio in superficie.
Questo meccanismo globale è illustrato nella Figura 2.

Figura 2. Rappresentazione semplificata della circolazione termoalina, nota anche come Global Conveyor Belt. Le correnti calde e superficiali (in rosso) scorrono verso le regioni polari, dove l’acqua raffreddata e più salina sprofonda, originando correnti fredde profonde (in blu) che si muovono attraverso gli oceani fino a riemergere nelle regioni tropicali, completando il ciclo. Immagine liberamente disponibile su https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Quando il nastro si inceppa

Tutto questo sistema – perfetto, lento, ma vitale – può essere compromesso. Il riscaldamento globale sta alterando proprio quei meccanismi che regolano la circolazione termoalina, interferendo con la densità delle acque superficiali nelle zone chiave del pianeta.

Nelle regioni dove si formano le acque profonde, come il Nord Atlantico, il processo dipende dalla capacità dell’acqua superficiale di diventare abbastanza densa da affondare. Ma con l’aumento delle temperature globali, entrano in gioco due fattori destabilizzanti:

  • lo scioglimento dei ghiacci artici immette enormi quantità di acqua dolce nei mari;
  • l’intensificarsi delle precipitazioni diluisce ulteriormente le acque superficiali.

Il risultato? L’acqua resta più dolce, più calda, e quindi meno densa. Non affonda più come dovrebbe. E se non affonda, il motore si spegne.

Questo porta a un fenomeno ben noto in oceanografia: la stratificazione delle acque. Gli strati superficiali diventano sempre più stabili, separati da quelli profondi da un gradiente di densità così marcato da impedire ogni rimescolamento. È come se l’oceano fosse “bloccato a strati”, con uno strato leggero e caldo che galleggia sopra uno freddo e denso, ma senza più scambi attivi tra i due (Figura 3).

Le conseguenze sono profonde:

  • Il nastro trasportatore globale rallenta o si indebolisce, fino al rischio – non solo teorico – di un blocco parziale o totale.
  • Il calore non viene più redistribuito: i tropici si surriscaldano, le regioni temperate (come l’Europa nord-occidentale) rischiano un paradossale raffreddamento.
  • L’acqua profonda non riceve più ossigeno né nutrienti, danneggiando la vita marina.
  • In superficie, mancano i nutrienti che sostengono il plancton: cala la produttività biologica degli oceani.
  • E soprattutto: l’oceano assorbe meno anidride carbonica per due motivi. Da un lato, l’aumento della temperatura riduce la solubilità della CO₂ in acqua; dall’altro, la stratificazione blocca il rimescolamento, impedendo il trasporto della CO₂ in profondità. Il risultato è che più CO₂ resta nell’atmosfera, accelerando ulteriormente il riscaldamento globale.

È una spirale pericolosa, un meccanismo di retroazione in cui l’effetto rafforza la causa: più caldo → più stratificazione → meno rimescolamento → meno assorbimento di CO₂ → ancora più caldo.
Un classico cane che si morde la coda, ma su scala planetaria.

Figura 3. Meccanismo della stratificazione degli oceani. Il riscaldamento globale, lo scioglimento dei ghiacci e l’aumento delle precipitazioni rendono l’acqua superficiale più calda e dolce, quindi meno densa. Questo riduce il rimescolamento verticale con gli strati profondi, limitando lo scambio di calore, nutrienti e la capacità dell’oceano di assorbire CO₂.

Conclusioni

Gli oceani non sono solo grandi riserve d’acqua: sono ingranaggi dinamici e complessi che regolano il clima terrestre, trasportano calore, rimescolano nutrienti e assorbono anidride carbonica. La loro capacità di farlo dipende dal delicato equilibrio tra venti, salinità e temperatura. Quando questo equilibrio si spezza — a causa dell’aumento delle temperature globali — il sistema si inceppa: le acque si stratificano, il rimescolamento si blocca, la circolazione rallenta.

Le conseguenze, anche se lente a manifestarsi, sono profonde: clima più estremo, ecosistemi marini impoveriti e maggiore accumulo di CO₂ in atmosfera. È una crisi silenziosa, ma già in atto.
Per capire e affrontare il cambiamento climatico, non basta guardare al cielo: dobbiamo guardare al mare, e comprendere come funziona — e come sta cambiando — il grande mescolamento degli oceani.

Questo articolo è parte di un percorso dedicato al riscaldamento climatico.
Nel primo appuntamento ci siamo chiesti perché, in un mondo sempre più caldo, possano verificarsi fenomeni estremi come piogge torrenziali e temporali improvvisi (leggi qui).
Oggi abbiamo esplorato il ruolo nascosto ma fondamentale degli oceani nella regolazione del clima.

Nel prossimo articolo parleremo invece di come l’attività umana stia alterando questi equilibri, e perché il riscaldamento globale non può più essere considerato un semplice fenomeno naturale.

 

Caldo globale, temporali locali: l’apparente paradosso

Introduzione

Negli ultimi anni, gli eventi meteorologici estremi sono diventati sempre più frequenti, sia in Italia che nel resto del mondo.
Una mappa interattiva dell’ISPRA, consultabile online, mostra chiaramente dove questi eventi si sono verificati in Italia tra il 2020 e il 2024. Si osservano piogge torrenziali, grandinate eccezionali, ondate di calore anomale e prolungate. Tutti segnali di un sistema climatico sempre più instabile.

Come conseguenza di queste anomalie, è sempre più comune imbattersi – soprattutto sui social – in discussioni o thread in cui si afferma che fenomeni come le alluvioni, seguite da bruschi cali di temperatura, smentirebbero l’esistenza del riscaldamento globale.
Una frase ricorrente è:

“Altro che riscaldamento globale: ieri grandinava e oggi ci sono 18 gradi!”

Chi vive in zone come Palermo – dove, negli ultimi anni, si sono registrati picchi termici estremi e livelli di umidità superiori all’80%, anche in pieno giorno – tende invece a riconoscere, in modo molto concreto, la realtà del cambiamento climatico.

“Orpo… che caldo. Veramente stiamo andando verso qualcosa che non abbiamo mai vissuto.”

Ma come si concilia tutto questo?

Come può il riscaldamento globale provocare temporali violenti, grandinate e persino abbassamenti improvvisi della temperatura?

Dobbiamo innanzitutto ricordare che la logica scientifica è controintuitiva. Non possiamo applicare al metodo scientifico la logica che usiamo tutti i giorni per collegare ciò che vediamo con ciò che pensiamo sia vero: la realtà fisica spesso sorprende e non si lascia interpretare con impressioni o sensazioni.

Sulla base di queste premesse, chiediamoci cosa accade sulla superficie terrestre quando la temperatura aumenta di un solo grado Celsius. Un grado può sembrare poco. Se tocchiamo una pentola a 70 °C proviamo lo stesso bruciore che a 71 °C. E non distinguiamo tra il freddo di 0 °C e quello di -1 °C.

Ma il pianeta non è il nostro palmo, né il nostro naso.

Nel sistema Terra, un solo grado può fare una differenza gigantesca: significa più energia, più evaporazione, più acqua nell’atmosfera. E più acqua nell’aria significa, potenzialmente, più pioggia, più violenza, più squilibrio.

Per capire quanto sia concreta questa affermazione, facciamo un semplice calcolo: stimiamo quanta acqua in più evapora dagli oceani quando la loro temperatura superficiale sale di un solo grado come, per esempio, da 25 °C a 26 °C.

Effetti della temperatura sull’equilibrio H2Oliquido = H2Ovapore

Per semplicità, consideriamo solo una porzione di oceano estesa per 100 milioni di metri quadrati (pari a 100 km²) e limitiamoci al primo metro d’aria immediatamente sovrastante. Vogliamo capire quanta acqua in più finisce nell’aria subito sopra l’oceano quando la sua temperatura sale di un solo grado, da 25 °C a 26 °C.

  1. L’equazione di Antoine

Per stimare la pressione di vapore dell’acqua alle due temperature, usiamo la formula empirica di Antoine, valida tra 1 e 100 °C:

log₁₀(P) = A − B / (C + T)

dove:

  • P è la pressione di vapore in mmHg,
  • T è la temperatura in gradi Celsius,
  • A, B, C sono coefficienti specifici per ciascuna sostanza (ad esempio, acqua, etanolo, acetone…) e validi solo entro certi intervalli di temperatura. Nel caso specifico dell’acqua: A = 8.07131; B = 1730.63; C = 233.426 (valori specifici per l’acqua in questo intervallo). Il riferimento per i valori numerici di A, B e C è qui.

Convertiamo poi la pressione in Pascal (1 mmHg = 133.322 Pa).

  1. I risultati

Applicando i valori:

  • a 25 °C si ottiene P ≈ 23.76 mmHg, cioè circa 3158 Pa;
  • a 26 °C si ottiene P ≈ 25.13 mmHg, cioè circa 3351 Pa.
  1. Calcolo della densità del vapore

Convertiamo ora la pressione parziale in densità di vapore acqueo (ρ), usando l’equazione dei gas ideali:

ρ = (P × M) / (R × T)

dove:

  • P è la pressione in pascal,
  • M è la massa molare dell’acqua (18.015 g/mol),
  • R è la costante dei gas (8.314 J/mol·K),
  • T è la temperatura assoluta in Kelvin.

Calcolando:

  • a 25 °C (298.15 K) si ottiene ρ ≈ 0.02295 kg/m³;
  • a 26 °C (299.15 K) si ottiene ρ ≈ 0.02431 kg/m³.
  1. L’aumento netto di vapore

La differenza di densità è:

0.02431 − 0.02295 = 0.00136 kg/m³

Moltiplichiamo per il volume d’aria (100 000 000 m³):

0.00136 × 100 000 000 = 136.000 kg

In altre parole, un aumento di temperatura di 1 °C (da 25 a 26 °C) genera 136 tonnellate di vapore in più, solo su una superficie di 100 km² e solo nello strato d’aria immediatamente sopra l’oceano.

E se fosse tutto l’Atlantico?

Se estendiamo il calcolo all’intera superficie dell’Oceano Atlantico – circa 116 milioni di km² – otteniamo:

157 800 000 000 kg, ovvero 158 milioni di tonnellate di vapore acqueo in più.

E questo, lo ripeto, solo nello strato d’aria immediatamente sopra la superficie, per un singolo grado in più.

Ma quei numeri non restano sulla carta. Entrano in circolo nell’atmosfera, e da lì comincia il loro impatto reale.

Dall’oceano alla pioggia: il viaggio del vapore

Ma cosa succede a tutta quest’acqua una volta entrata in atmosfera?

Viene trasportata dalle correnti. Quando incontra masse d’aria più fredde, condensa formando nubi e poi pioggia. Se la quantità di vapore è anomala, lo saranno anche le precipitazioni: brevi, violente, improvvise.

Inoltre, il vapore acqueo è attivo nell’infrarosso: è un gas serra molto più potente della CO₂, anche se molto più effimero. In climatologia si parla di feedback positivo: l’aumento della temperatura fa evaporare più acqua → il vapore trattiene più calore → aumenta ancora la temperatura → e così via.

Quella pioggia non è “contro” il riscaldamento: è il riscaldamento

Piogge torrenziali, grandinate e cali locali della temperatura non smentiscono il riscaldamento globale. Al contrario, ne sono una conseguenza. Il sistema Terra si scalda in media, ma localmente può produrre raffreddamenti temporanei proprio in risposta a squilibri energetici più ampi.

Conclusioni

Il calcolo che ho presentato è, ovviamente, una semplificazione. Non tiene conto del vento, della turbolenza, della salinità, né della reale dinamica verticale dell’atmosfera. Non pretende di descrivere con esattezza tutto ciò che accade nell’interazione tra oceano e cielo. Ma ha un obiettivo chiaro: rendere visibile, con i numeri, una verità che l’intuizione fatica a cogliere.

Perché la logica scientifica non coincide con il senso comune.

Come ho già scritto, nel nostro vissuto quotidiano, un solo grado in più non è nulla. Non percepiamo differenze tra 0 °C e -1 °C, tra 70 °C e 71 °C. Ma il sistema Terra non funziona secondo ciò che sentiamo sulla pelle: funziona secondo leggi fisiche. E in fisica, un solo grado può significare miliardi di tonnellate d’acqua in più nell’atmosfera. Significa più energia, più instabilità, più violenza meteorologica.

Paradossalmente, quello che percepiamo come una smentita del riscaldamento globale – la grandine, il temporale, il crollo improvviso delle temperature – ne è invece una manifestazione diretta.

Il clima risponde con intensità e disordine proprio perché è fuori equilibrio. E lo è, in parte, per colpa di quell’apparente “piccolo” grado in più.

La scienza ci dà gli strumenti per misurare, per capire, per anticipare.

Sta a noi scegliere se vogliamo continuare a confondere il temporale con una tregua, o iniziare a leggere in quelle piogge il segnale di un sistema che sta cambiando – e lo sta facendo sotto i nostri occhi.

Quella pioggia che ti ha fatto dire “ma quale riscaldamento globale?” è esattamente il motivo per cui dovremmo iniziare a preoccuparci.

Glifosato e cancro: nuovo studio, molti titoli… pochi fatti

di Enrico Bucci & Pellegrino Conte

Se c’è una cosa che la scienza dovrebbe insegnarci, è che non tutti gli studi hanno la stessa valenza e importanza. Alcuni sono ben progettati, trasparenti e ci aiutano a capire meglio il mondo; altri, invece, presentano fragilità nelle premesse, nel metodo o nell’interpretazione dei dati.

L’ultimo studio pubblicato nel 2025 su Environmental Health da un gruppo di ricerca dell’Istituto Ramazzini ha fatto molto discutere, sostenendo che anche dosi di glifosato ritenute sicure possano aumentare il rischio di tumori nei ratti. Da qui è nato il timore che, se aumenta la possibilità di avere tumori nei ratti, anche l’essere umano possa correre lo stesso rischio. Tuttavia, un’analisi attenta rivela numerosi limiti sull’effettiva rilevanza dei risultati.

Vediamo perché.

Dosi scelte e perché non sono realistiche

Lo studio ha previsto tre dosi di glifosato somministrate ai ratti:

  • 0.5 mg/kg al giorno (l’ADI, ovvero la dose giornaliera accettabile in Europa)
  • 5 mg/kg al giorno (10 volte l’ADI)
  • 50 mg/kg al giorno (NOAEL, che corrisponde alla dose massima senza effetti osservati).

A prima vista, trovare effetti anche alla dose più bassa potrebbe sembrare preoccupante. Ma c’è un dettaglio importante: l’ADI non è una soglia tossicologica, ma un limite iper-cautelativo. Come viene calcolata?

  1. Si prende la dose più alta che non ha causato effetti negli animali (es. 50 mg/kg).
  2. Si divide per 100: 10 per la variabilità interspecie (topo vs uomo) e 10 per la variabilità intraspecie (uomo vs uomo).
  3. Si ottiene l’ADI (0.5 mg/kg).

Quindi, se uno studio trova effetti giusto all’ADI, non è un fallimento del sistema: è la conferma che il sistema di sicurezza funziona.

E nella vita reale? L’EFSA ha stimato che l’esposizione reale della popolazione è centinaia di volte inferiore all’ADI. Per raggiungere 0.5 mg/kg, un adulto di 70 kg dovrebbe mangiare 10 kg di soia OGM al giorno, tutti i giorni. E anche gli agricoltori professionisti non si avvicinano a quei livelli.

Discrepanze tra dosi dichiarate e dosi realmente usate

Come si può facilmente immaginare, il lavoro che stiamo valutando non è passato inosservato. La comunità scientifica si è subito attivata per verificare se quanto riportato fosse attendibile, e questo è un aspetto cruciale. In un contesto saturo di informazioni, dove distinguere il falso dal vero o dal verosimile è sempre più difficile, avere dei riferimenti affidabili per valutare la solidità di uno studio è fondamentale. Dimostra anche che la scienza non resta chiusa in una torre d’avorio: controlla, discute e, se necessario, corregge.

Un’analisi particolarmente accurata pubblicata su PubPeer  ha evidenziato come gli autori dello studio mirassero a somministrare ai ratti tre livelli “target” di esposizione giornaliera al glifosato, corrispondenti, come già indicato nel paragrafo precedente, all’ADI europea di 0,5 mg per chilo di peso corporeo, a 5 mg/kg e infine al NOAEL di 50 mg/kg, calibrando la concentrazione del principio attivo nell’acqua da bere sulla base di un consumo medio di 40 mL e di un peso medio di 400 g. Tuttavia, nei grafici relativi al peso e al consumo d’acqua, visibili già a partire dalla quinta settimana di vita, si nota chiaramente che i ratti più giovani, ancora ben al di sotto dei 400 g, continuano a bere quantità di acqua vicine a quelle stimate per gli adulti. Questo significa che, anziché ricevere esattamente i dosaggi “target”, i cuccioli assumono in realtà molto più glifosato, spesso oltre il doppio di quanto previsto per l’ADI, proprio nel momento in cui la loro vulnerabilità ai possibili effetti tossici è maggiore.

Colpisce poi il fatto che i pannelli che riportano l’effettiva assunzione giornaliera di glifosato inizino soltanto alla tredicesima settimana, escludendo dalla visualizzazione le prime dieci settimane successive allo svezzamento, quando il sovradosaggio è più pronunciato. In questo modo il lettore non ha modo di rendersi conto di quanto i ratti più giovani abbiano effettivamente superato i livelli di riferimento, né di valutare eventuali conseguenze sulla salute in questa fase critica dello sviluppo.

La mancanza di qualsiasi discussione nel testo centrale su questa esposizione eccessiva nei cuccioli rappresenta una lacuna significativa, perché proprio nei primi mesi di vita gli organismi mostrano una sensibilità maggiore a sostanze tossiche. Sarebbe stato opportuno non soltanto estendere i grafici dell’assunzione fin dalla quinta settimana, ma anche accompagnarli con un’analisi dedicata a quei dati, per capire se fenomeni di tossicità precoce possano essere correlati proprio al superamento dei dosaggi prefissati. In assenza di questa trasparenza, resta un interrogativo aperto sul reale profilo di sicurezza del glifosato nei soggetti in accrescimento.

Statistiche creative: quando un “aumento significativo” è solo rumore

Uno dei problemi più comuni negli studi tossicologici è quando si prendono in considerazione troppi parametri. In queste circostanze, prima o poi, qualcosa risulterà “statisticamente significativo”… ma per puro caso.

Lo studio ha esaminato tumori in:

  • fegato
  • pelle
  • tiroide
  • sistema nervoso
  • reni
  • mammelle
  • ovaie
  • pancreas
  • ghiandole surrenali
  • milza
  • osso
  • vescica

Statisticamente parlando, più confronti si fanno, più aumenta il rischio di falsi positivi: è il noto problema dei confronti multipli. E in questo caso non è stata applicata nessuna correzione (come Bonferroni o FDR), nonostante le decine di test effettuati.

Per esempio:

  • Un solo caso di carcinoma follicolare tiroideo (1,96%) viene presentato come “aumento significativo”, nonostante un’incidenza storica dello 0,09%.
  • Leucemie rarissime (0 casi nei controlli) diventano improvvisamente “frequenti” se appaiono in uno o due animali.

E proprio perché si lavora con numeri minuscoli (gruppi da 51 ratti), anche un singolo caso in più può far sembrare enorme un effetto che in realtà è solo rumore statistico.

Non a caso, un commentatore su PubPeer ha fatto notare che, nella versione pubblicata rispetto al preprint è stato aggiunto un caso di leucemia monocitica in un ratto femmina trattato con 50 mg/kg/die, assente nella versione preprint. Nessuna spiegazione è stata data per questo cambiamento. Ma in gruppi così piccoli, un solo caso in più può bastare a far emergere o sparire un “aumento significativo”. E la mancanza di trasparenza su come sia stato deciso questo aggiornamento rende ancora più difficile fidarsi delle conclusioni.

Statistiche fragili: come un’analisi più corretta fa crollare i risultati

Gli autori dello studio dicono di aver usato il test di Cochrane-Armitage per verificare se aumentando le dosi di glifosato aumentasse anche il numero di tumori nei ratti: insomma, per valutare se esistesse un trend “dose-risposta” significativo.

Fin qui, tutto regolare. Ma leggendo le osservazioni pubblicate su PubPeer emerge un problema serio: gli autori hanno usato la versione asintotica del test, che diventa poco affidabile quando si analizzano eventi rari – come accade quasi sempre negli studi di cancerogenicità a lungo termine, dove molti tumori osservati sono davvero pochi.

Chi ha commentato ha quindi rifatto i calcoli usando la versione esatta del test (disponibile grazie al software del DKFZ) e il risultato è stato sorprendente: i p-value, che nello studio originale erano inferiori a 0.05 (e quindi dichiarati “significativi”), sono saliti ben oltre 0.25, diventando del tutto non significativi.

In pratica: gli stessi dati, analizzati in modo più corretto, perdono completamente la significatività statistica.

E questo non è un dettaglio secondario: lo stesso errore potrebbe riguardare anche altre analisi statistiche e tabelle pubblicate, mettendo seriamente in discussione la solidità complessiva delle conclusioni dello studio.

Glifosato puro vs formulazioni commerciali: un confronto incompleto

Lo studio testa anche due erbicidi commerciali (Roundup Bioflow e RangerPro), sostenendo che siano più tossici del glifosato puro. Ma:

È un po’ come dire:

“La vodka è tossica!”
Senza specificare se il problema è l’alcol o l’acqua in essa contenuta.

Trasparenza e potenziali conflitti d’interesse

Gli autori dello studio dichiarano esplicitamente di non avere conflitti di interesse. Tuttavia, come segnalato su PubPeer, emergono diverse criticità. L’Istituto Ramazzini che ha condotto la ricerca riceve fondi da organizzazioni e soggetti che hanno preso pubblicamente posizione contro l’uso del glifosato. Tra questi finanziatori troviamo:

  1. la Heartland Health Research Alliance, già criticata da diverse fonti per sostenere ricerche orientate contro i pesticidi;
  2. l’Institute for Preventive Health, fondato da Henry Rowlands, che è anche l’ideatore della certificazione “Glyphosate Residue Free”;
  3. Coop Reno, una cooperativa italiana che promuove attivamente la riduzione dei pesticidi nei propri prodotti;
  4. Coopfond, che ha dichiarato pubblicamente il proprio sostegno alla ricerca contro il glifosato.

Tutti questi elementi non sono banali, perché vanno in direzione opposta alla dichiarazione “no competing interests” fornita dagli autori.

Dichiarare questi legami non significa necessariamente che i risultati siano falsati, ma consente ai lettori di valutare meglio la possibile influenza dei finanziatori.

IARC, hazard e risk: una distinzione fondamentale

Lo studio si richiama alla classificazione dello IARC, che nel 2015 ha definito il glifosato “probabile cancerogeno” (Gruppo 2A). Ma attenzione: l’IARC valuta l’hazard, non il rischio.

  • Hazard: “Il glifosato può causare il cancro in certe condizioni ideali”.
  • Risk: “Il glifosato causa il cancro nelle condizioni reali di esposizione?”

Lo IARC ha incluso nel gruppo 2A anche:

  • la carne rossa,
  • il lavoro da parrucchiere,
  • il turno di notte.

Le principali agenzie che valutano il rischio reale non hanno trovato evidenze sufficienti per considerare il glifosato cancerogeno:

Agenzia Conclusione Anno
EFSA (UE) Non cancerogeno 2023
EPA (USA) Non cancerogeno 2020
JMPR (FAO/OMS) Non cancerogeno 2016
IARC Probabile cancerogeno 2015

Conclusione: il glifosato non è innocente, ma nemmeno un mostro

Il nuovo studio del 2025 mostra che, se si cercano abbastanza tumori rari in tanti tessuti, qualcosa prima o poi emerge. Ma:

  • Le dosi utilizzate sono lontanissime dalla realtà umana, e persino più alte del previsto nei ratti giovani;
  • I risultati sono fragili, non replicati, e statisticamente poco robusti;
  • I meccanismi di azione non sono spiegati;
  • La trasparenza sui dati e sui conflitti di interesse è carente;
  • Le conclusioni si basano su metodi statistici che vanno messi in discussione.

Non si tratta di negazionismo scientifico ma di scetticismo informato, che è il cuore del metodo scientifico. Sebbene questo studio sollevi questioni interessanti, trarre conclusioni definitive su un legame causale tra glifosato e cancro basandosi su dati così fragili e dosi irrealistiche è prematuro. La scienza richiede prove solide, replicabili e trasparenti.

Per questo, le agenzie regolatorie continuano a considerare il glifosato sicuro se usato nei limiti stabiliti. Restiamo aperti a nuove evidenze, ma diffidiamo dei titoli allarmistici che spesso accompagnano studi con così tante ombre.

EDIT

A dimostrazione del fatto che il metodo scientifico si basa sull’autocorrezione, sia Enrico Bucci che io desideriamo ringraziare l’Ing. Dario Passafiume per essersi accorto di un errore che abbiamo commesso nell’interpretare i dati di PubPeer. La sostanza non cambia: cambiano solo i valori assoluti dei numeri che avevamo preso in considerazione. Il testo che abbiamo rieditato per effetto dell’errore di cui ci siamo accorti grazie all’ingegnere è il seguente:

Un’analisi particolarmente accurata pubblicata su PubPeer ha evidenziato una discrepanza rilevante: le figure riportate nello studio non si riferiscono alle dosi dichiarate (quelle indicate nel primo paragrafo), ma a dosi circa dieci volte superiori. In pratica, mentre gli autori affermano di aver usato 0.5, 5 e 50 mg/kg/die, i grafici mostrano dati ottenuti con 5, 50 e 500 mg/kg/die. Si tratta – come già evidenziato – di concentrazioni del tutto inconcepibili nella vita reale dove per arrivare all’assunzione di soli 0.5 mg/kg/die bisogna ingurgitare circa 70 kg di soia OGM al giorno, tutti i giorni.

Mentos e Coca Cola… una fontana di scienza!

Se almeno una volta nella vita hai visto il famoso esperimento in cui delle caramelle Mentos vengono fatte cadere in una bottiglia di Coca Cola (o, più spesso, Diet Coke), conosci già il risultato: una fontana impazzita di schiuma che può superare i tre metri d’altezza (v. il filmato qui sotto).

Ma cosa succede davvero? È solo una semplice reazione fisica? C’entra la chimica? Perché proprio le Mentos? E perché la Diet Coke funziona meglio della Coca normale?

Negli ultimi anni, diversi ricercatori si sono cimentati nello studio scientifico di questo fenomeno, spesso usato come dimostrazione educativa nelle scuole e nei laboratori divulgativi. E ciò che è emerso è una storia sorprendentemente ricca di fisica, chimica, e perfino di gastronomia molecolare.

La nucleazione: come nasce un cambiamento

La parola “nucleazione” descrive il momento in cui, all’interno di un sistema fisico, comincia a svilupparsi una nuova fase. È un concetto fondamentale per comprendere fenomeni come la formazione di gocce in una nube, la cristallizzazione di un solido, o – nel nostro caso – la comparsa di bolle in un liquido soprassaturo di gas.

Secondo la teoria classica della nucleazione, perché si formi una nuova fase (come una bolla di gas in un liquido), è necessario superare una barriera energetica. Questa barriera nasce dal fatto che generare una bolla comporta un costo in termini di energia superficiale (ovvero, bisogna spendere energia per “deformare” i legami a idrogeno che, nel caso dell’acqua, tengono unite le diverse molecole), anche se si guadagna energia liberando il gas.

Il sistema deve dunque “pagare un prezzo iniziale” per creare una bolla sufficientemente grande: questa è la cosiddetta “bolla critica”. Una volta che si supera quella dimensione critica, la formazione della nuova fase (cioè, la crescita della bolla) diventa spontanea e inarrestabile.

Tuttavia, nel mondo reale, è raro che le bolle si formino spontaneamente all’interno del liquido: nella maggior parte dei casi, servono delle “scorciatoie energetiche”. È qui che entra in gioco la nucleazione eterogenea.

Nucleazione eterogenea: quando le superfici danno una spinta

Nel mondo reale, è raro che una nuova fase si formi spontaneamente all’interno del liquido (nucleazione omogenea), perché la probabilità che si verifichi una fluttuazione sufficientemente grande da superare la barriera energetica è molto bassa. Nella maggior parte dei casi, il sistema trova delle “scorciatoie energetiche” grazie alla presenza di superfici, impurità o irregolarità: è quello che si chiama nucleazione eterogenea.

Le superfici ruvide, porose o idrofobe possono abbassare la barriera energetica necessaria per innescare la formazione di una bolla. Per esempio, un piccolo graffio sul vetro, un granello di polvere o una microscopica cavità possono ospitare delle minuscole sacche d’aria che fungono da “embrioni” di bolla. In questi punti, la CO2 disciolta trova un ambiente favorevole per iniziare la transizione verso la fase gassosa, superando più facilmente la soglia critica.

Anche la geometria ha un ruolo: cavità coniche o fessure strette possono concentrare le forze e rendere ancora più facile la nucleazione. In pratica, il sistema approfitta di qualsiasi imperfezione per risparmiare energia nel passaggio di fase.

Il caso delle Mentos: nucleatori perfetti

L’esperimento della fontana di Diet Coke e Mentos è un esempio spettacolare (e rumoroso) di nucleazione eterogenea. Quando le Mentos vengono lasciate cadere nella bottiglia, la loro superficie – irregolare, porosa e ricoperta da uno strato zuccherino solubile – offre migliaia di siti di nucleazione. Ogni microscopica cavità è in grado di ospitare una piccola sacca di gas o di innescare la formazione di una bolla (Figura 1). In più, le Mentos cadono rapidamente fino al fondo della bottiglia, generando nucleazione non solo in superficie, ma in profondità, dove la pressione idrostatica è maggiore. Questo favorisce un rilascio ancora più esplosivo del gas disciolto.

Il risultato? Una vera e propria “valanga di bolle” che si spingono a vicenda verso l’alto, trascinando con sé la soda e formando il famoso geyser, che può raggiungere anche 5 o 6 metri d’altezza.

Figura 1. Nucleazione eterogenea di una bolla su una superficie solida. Le molecole d’acqua a contatto con una superficie solida interagiscono con essa, formando legami che disturbano la rete di legami a idrogeno tra le molecole d’acqua stesse. Questo indebolimento locale della coesione interna rende la zona prossima alla superficie più favorevole all’accumulo di gas disciolto, come la CO2. Il gas si concentra in microcavità o irregolarità della superficie, gonfiando piccole sacche d’acqua. Quando queste sacche superano una dimensione critica, la tensione interna diventa sufficiente a vincere le forze di adesione, e la bolla si stacca dalla superficie, iniziando a crescere liberamente nel liquido. Questo meccanismo, noto come nucleazione eterogenea, è alla base di molti fenomeni naturali e tecnici, incluso l’effetto geyser osservato nel celebre esperimento con Diet Coke e Mentos.

Non è una reazione chimica, ma…

Uno dei miti più diffusi, e da sfatare, è che il famoso effetto geyser della Diet Coke con le Mentos sia il risultato di una reazione chimica tra gli ingredienti delle due sostanze. In realtà, non avviene alcuna trasformazione chimica tra i componenti: non si formano nuovi composti, non ci sono scambi di elettroni né rottura o formazione di legami chimici. Il fenomeno è invece di natura puramente fisica, legato al rilascio improvviso e violento del gas disciolto (CO2) dalla soluzione liquida.

La Coca Cola (e in particolare la Diet Coke) è una soluzione sovrassatura di anidride carbonica, mantenuta tale grazie alla pressione all’interno della bottiglia sigillata. Quando la bottiglia viene aperta, la pressione cala, e il sistema non è più in equilibrio: il gas tende a uscire lentamente. Ma se si introducono le Mentos – che, come abbiamo visto, forniscono una miriade di siti di nucleazione – la CO2 trova una “scappatoia rapida” per tornare allo stato gassoso, formando in pochi istanti una quantità enorme di bolle.

Pur non trattandosi di una reazione chimica nel senso stretto, il rilascio della CO2 provoca alcune conseguenze misurabili dal punto di vista chimico. Una di queste è il cambiamento di pH: la Coca Cola è fortemente acida (pH ≈ 3) perché contiene acido fosforico ma anche CO2 disciolta, che in acqua dà luogo alla formazione di acido carbonico (H2CO3). Quando il gas fuoriesce rapidamente, l’equilibrio viene spostato, l’acido carbonico si dissocia meno, e il pH del liquido aumenta leggermente, diventando meno acido.

Questa variazione, anche se modesta, è stata misurata sperimentalmente in laboratorio, ed è coerente con l’interpretazione fisico-chimica del fenomeno.

In sintesi, si tratta di una transizione di fase accelerata (da gas disciolto a gas libero), facilitata da superfici ruvide: un classico esempio di fisica applicata alla vita quotidiana, più che di chimica reattiva.

Diet Coke meglio della Coca normale?

Sì, e il motivo non è solo la diversa composizione calorica, ma anche l’effetto fisico degli edulcoranti artificiali contenuti nella Diet Coke, in particolare aspartame e benzoato di potassio. Queste sostanze, pur non reagendo chimicamente con le Mentos, abbassano la tensione superficiale della soluzione, facilitando la formazione di bolle e rendendo il rilascio del gas CO2 più efficiente e spettacolare.

La tensione superficiale è una proprietà del liquido che tende a “resistere” alla formazione di nuove superfici – come quelle di una bolla d’aria. Se questa tensione si riduce, il sistema è più “disponibile” a formare molte piccole bolle, anziché poche grandi. E più bolle significa più superficie totale, quindi più spazio attraverso cui il gas può uscire rapidamente.

Anche altri additivi – acido citrico, aromi naturali (come citral e linalolo, Figura 2) e perfino zuccheri – influenzano il comportamento delle bolle. In particolare, molti di questi composti inibiscono la coalescenza, cioè, impediscono che le bolle si fondano tra loro per formare bolle più grandi. Questo porta a una schiuma fatta di bolle piccole, stabili e molto numerose, che massimizzano il rilascio di CO2 e quindi l’altezza della fontana.

Figura 2. Strutture chimiche di alcuni composti aromatici naturali presenti nelle bevande analcoliche. Il citral è una miscela di due isomeri geometrici: trans-citrale (geraniale) e cis-citrale (nerale), entrambi aldeidi con catena coniugata e intensa nota di limone. Il linalolo è un alcol terpenico aciclico, con due doppi legami e un gruppo ossidrilico (–OH), noto per il suo profumo floreale. Questi composti non partecipano a reazioni chimiche durante l’esperimento Diet Coke–Mentos, ma agiscono sul comportamento fisico del sistema, favorendo la formazione di schiuma fine e persistente e contribuendo all’altezza del geyser grazie alla inibizione della coalescenza delle bolle.

E che dire dei dolcificanti classici, come il saccarosio (lo zucchero da cucina)? A differenza dell’aspartame, il saccarosio non abbassa la tensione superficiale, anzi la aumenta leggermente. Tuttavia, anch’esso contribuisce a stabilizzare le bolle, soprattutto se combinato con altri soluti come acidi organici o sali. Questo spiega perché le bevande zuccherate (come la Coca Cola “classica”) producano comunque geyser abbastanza alti, ma meno impressionanti rispetto alle versioni “diet”.

Esperimenti controllati hanno mostrato che la Diet Coke produce le fontane più alte, seguita dalle bevande zuccherate e, in fondo, dall’acqua frizzante (che contiene solo CO2 e acqua): segno evidente che la presenza e la natura dei soluti giocano un ruolo chiave, anche in assenza di reazioni chimiche.

E se uso altre cose al posto delle Mentos?

La fontana di Coca Cola può essere innescata anche da altri materiali: gessetti, sabbia, sale grosso, zucchero, caramelle dure o persino stimolazioni meccaniche come gli ultrasuoni. Qualsiasi sostanza o perturbazione capace di introdurre nel liquido dei siti di nucleazione può innescare il rilascio del gas. Tuttavia, tra tutte le opzioni testate, le Mentos restano il materiale più efficace, producendo fontane più alte, più rapide e più spettacolari.

Questo successo si deve a una combinazione di caratteristiche fisiche uniche:

  1. Superficie molto rugosa e porosa
    Le Mentos hanno una superficie irregolare, visibile chiaramente al microscopio elettronico (SEM), con migliaia di microcavità che fungono da siti di nucleazione eterogenea. Più rugosità significa più bolle che si formano contemporaneamente, e quindi maggiore pressione generata in tempi brevissimi.
  2. Densità e forma ottimali
    Le caramelle sono sufficientemente dense e lisce all’esterno da cadere velocemente sul fondo della bottiglia, senza fluttuare. Questo è cruciale: la nucleazione avviene lungo tutta la colonna di liquido, non solo in superficie, e la pressione idrostatica più alta in basso aiuta la formazione più vigorosa di bolle. In confronto, materiali più leggeri (come il sale fino o la sabbia) galleggiano o si disperdono più lentamente, riducendo l’effetto.
  3. Rivestimento zuccherino solubile
    Il rivestimento esterno delle Mentos, a base di zuccheri e gomma arabica, si dissolve rapidamente, liberando nuovi siti di nucleazione man mano che la caramella si bagna. Inoltre, alcuni componenti del rivestimento (come emulsionanti e tensioattivi) favoriscono la schiuma e inibiscono la coalescenza delle bolle, contribuendo alla formazione di un getto più sottile e stabile

Un esperimento che insegna molto (e sporca parecchio)

Dietro quella che a prima vista sembra una semplice (e divertentissima) esplosione di schiuma, si nasconde una miniera di concetti scientifici: termodinamica, cinetica, tensione superficiale, solubilità dei gas, equilibrio chimico, pressione, nucleazione omogenea ed eterogenea. Un’intera unità didattica condensata in pochi secondi di spettacolo.

Ed è proprio questo il suo punto di forza: l’esperimento della fontana di Diet Coke e Mentos è perfetto per essere proposto nelle scuole, sia del primo grado (scuola media) che del secondo grado (licei, istituti tecnici e professionali), senza bisogno di strumenti di laboratorio complessi o costosi. Bastano:

  • qualche bottiglia di Coca Cola o altra bibita gassata,
  • delle Mentos (o altri oggetti solidi rugosi da confrontare: gessetti, zucchero, sabbia…),
  • una penna, un quaderno e un buon occhio per osservare e registrare cosa succede,
  • e, immancabili, canovacci, secchi, stracci e un po’ di detersivo per sistemare l’aula (o il cortile) dopo il disastro creativo!

Non solo: questo tipo di attività permette di lavorare in modalità laboratoriale attiva, stimolando l’osservazione, la formulazione di ipotesi, la progettazione sperimentale, la misura, l’analisi dei dati, la comunicazione scientifica. In altre parole: il metodo scientifico in azione, alla portata di tutti.

Insomma, la fontana di Diet Coke e Mentos non è solo un video virale da YouTube: è un fenomeno scientificamente ricchissimo, capace di affascinare e coinvolgere studenti e insegnanti. Provatelo (con le dovute precauzioni)… e preparatevi a fare il pieno di chimica!

Riferimenti

Baur & al. (2006) The Ultrasonic Soda Fountain: A Dramatic Demonstration of Gas Solubility in Aqueous Solutions. J. Chem. Educ. 83(4), 577. https://doi.org/10.1021/ed083p577.

Coffey (2008) Diet Coke and Mentos: What is really behind this physical reaction? Am. J. Phys. 76, 551. http://dx.doi.org/10.1119/1.2888546.

Eichler & al. (2007) Mentos and the Scientific Method: A Sweet Combination. J. Chem. Educ. 84(7), 1120. https://doi.org/10.1021/ed084p1120.

Kuntzleman & al. (2017) New Demonstrations and New Insights on the Mechanism of the Candy-Cola Soda Geyser. J. Chem. Educ. 94, 569−576. https://doi.org/10.1021/acs.jchemed.6b00862.

Maris (2006) Introduction to the physics of nucleation. C. R. Physique 7, 946–958. https://doi.org/10.1016/j.crhy.2006.10.019.

Sims & Kuntzleman (2016) Kinetic Explorations of the Candy−Cola Soda Geyser. J. Chem. Educ. 93, 1809−1813. https://pubs.acs.org/doi/10.1021/acs.jchemed.6b00263.

…e per i docenti della scuola secondaria di primo e secondo grado, ecco una scheda laboratorio pronta all’uso, per trasformare questa esplosione di schiuma in un’attività scientifica coinvolgente.

Scheda laboratorio – Un geyser di CO2 tra scienza e divertimento

? Esperimento: La fontana di Diet Coke e Mentos

? Obiettivi didattici

  • Osservare e descrivere fenomeni di nucleazione eterogenea
  • Comprendere il concetto di tensione superficiale e solubilità dei gas
  • Riconoscere la differenza tra fenomeni fisici e chimici
  • Introdurre il metodo scientifico: osservazione, ipotesi, verifica, confronto dati
  • Stimolare il pensiero critico e il lavoro di gruppo

? Materiali

Quantità Materiale
1–2 Bottiglie da 1.5 o 2 L di Coca Cola/Diet Coke
1 confezione Mentos (preferibilmente menta)
facoltativi Zucchero, sabbia, gessetti, sale grosso, caramelle dure
1 Contenitore/sottovaso/catino (per contenere la fontana)
✔️ Carta, penne o tablet per prendere appunti
✔️ Canovacci, stracci, secchio, detersivo

? Procedura base (semplificata)

  1. Posizionare la bottiglia su un piano all’aperto o in un contenitore.
  2. Preparare il sistema di rilascio rapido delle Mentos (ad esempio con un cartoncino a scivolo o un tubo).
  3. Far cadere rapidamente 1–3 Mentos nella bottiglia aperta.
  4. Osservare il fenomeno: altezza, durata, forma della fontana, eventuale schiuma residua.
  5. Ripetere con altri materiali (gesso, sabbia, sale…) e confrontare l’effetto.
  6. Annotare le osservazioni. Stimolare ipotesi: perché cambiano i risultati?

? Spunti teorici (modulabili per il grado scolastico)

  • Fisica: pressione interna, energia potenziale, accelerazione del liquido
  • Chimica fisica: tensione superficiale, solubilità dei gas, acido carbonico e variazione di pH
  • Chimica generale: differenza tra cambiamento fisico e chimico
  • Scienza dei materiali: effetto della rugosità e della forma dei solidi sulla nucleazione
  • Metodo scientifico: osservazione, variabili, confronto controllato

? Domande guida per la discussione

  • Cosa accade quando inseriamo le Mentos nella bibita?
  • Che differenza c’è tra Coca Cola normale e Diet Coke?
  • Perché altri materiali (es. sale o sabbia) funzionano diversamente?
  • È una reazione chimica o un fenomeno fisico?
  • Come potremmo misurare e confrontare le fontane? (es. altezza, tempo, schiuma)

? Varianti possibili

  • Cambiare la temperatura della bibita (fredda vs ambiente)
  • Provare con acqua frizzante o altre bevande gassate
  • Usare un righello o griglia per stimare l’altezza
  • Fare video al rallentatore e analizzare la dinamica
  • Includere una prova con ultrasuoni (se si dispone di un pulitore a ultrasuoni)

? Note di sicurezza

  • L’esperimento è sicuro, ma va fatto in ambienti controllati o all’aperto
  • Tenere gli occhi lontani dal getto (meglio osservare di lato)
  • Prevedere pulizia immediata di superfici scivolose o appiccicose

Microplastiche, lavastoviglie e fake news: come orientarsi tra dati e paure

Già in un mio precedente articolo avevo affrontato il tema delle microplastiche, cercando di distinguere tra rischi reali, ipotesi ancora in fase di studio e allarmismi infondati. Se volete rinfrescarvi la memoria o approfondire meglio il quadro generale, potete leggerlo qui:
? Microplastiche: i rischi che conosciamo, le sorprese che non ti aspetti

In questa sede voglio, invece, portare alla vostra attenzione il pericolo della divulgazione basata sull’allarmismo.

33 milioni di micro- e nanoplastiche? Cosa c’è davvero dietro le notizie virali

Negli ultimi giorni si è diffusa online una notizia allarmante: le lavastoviglie sarebbero una fonte importante di microplastiche, con milioni di particelle rilasciate ad ogni ciclo di lavaggio. Su siti come HDBlog (vedi screenshot qui sotto) si parla addirittura di 33 milioni di nanoplastiche generate da un solo ciclo di lavaggio, dipingendo un quadro piuttosto drammatico per l’ambiente domestico e urbano.

Immagine presa dal sito HDBlog

Tuttavia, analizzando con attenzione lo studio scientifico originale su cui si basa questa notizia, emergono diversi aspetti importanti e ben diversi da quelli riportati in modo semplicistico e sensazionalistico da molti siti di “pseudo divulgazione”.

Innanzitutto, lo studio mostra che sì, le lavastoviglie rilasciano micro- e nanoplastiche, ma la quantità è estremamente bassa: meno di 6 milligrammi di plastica all’anno per persona, cioè meno del peso di un chicco di riso. Paragonare questo dato numerico alla dichiarazione di milioni di particelle è fuorviante, perché il numero di particelle non dice nulla sulla massa o sull’impatto reale, che rimane trascurabile su base individuale.

Inoltre, la tipologia di plastica e la dimensione delle particelle variano in base al tipo di articolo lavato (polietilene, polipropilene, nylon, ecc.), e i materiali più “vecchi” o usurati rilasciano più frammenti. Lo studio suggerisce quindi che sia importante approfondire come l’invecchiamento della plastica influisca sulla generazione di microplastiche, cosa che non viene mai menzionata nei titoli allarmistici.

Dal punto di vista ambientale, sebbene i sistemi di trattamento delle acque reflue trattengano circa il 95% delle microplastiche, la quantità complessiva globale rilasciata nell’ambiente sta crescendo con l’aumento dell’uso della plastica. Tuttavia, le lavastoviglie domestiche rappresentano solo una piccola fonte rispetto ad altre.

Un articolo più attendibile e chiaro sull’argomento, che riporta fedelmente i risultati della ricerca, è quello di Phys.org, sito scientifico noto per l’accuratezza e la qualità della divulgazione. Vi consiglio di leggere anche lì per avere un quadro completo e serio della situazione.

Come riconoscere le fake news ambientali?

Molto spesso mi chiedono: “Se non sono esperto, come faccio a capire se una notizia è attendibile”? La risposta non è semplice, ma c’è una regola d’oro: non fermatevi mai alla prima fonte che conferma ciò che già pensate o che alimenta le vostre paure o convinzioni. Spesso chi cerca notizie sensazionalistiche cade nel cosiddetto cherry picking, ovvero sceglie solo quei dati o informazioni che supportano la propria idea, ignorando tutto il resto. Questo atteggiamento è comune a chi si sente “rivoluzionario” o “antisistema”, ma in realtà non ha le competenze scientifiche per comprendere a fondo la questione.

Per evitare di cadere in queste trappole, è fondamentale confrontare le informazioni con fonti diverse e affidabili, preferendo siti di divulgazione scientifica consolidata, che spiegano dati, metodi e limiti delle ricerche. Ma come riconoscere un sito davvero affidabile? Ecco alcuni indicatori:

  • Chiarezza e trasparenza delle fonti: i siti seri riportano sempre riferimenti precisi agli studi scientifici originali o a istituti riconosciuti, spesso con link diretti alle pubblicazioni o informazioni sugli autori.

  • Presentazione equilibrata dei dati: non si limitano a enfatizzare solo risultati sensazionalistici, ma spiegano anche i limiti delle ricerche e le diverse interpretazioni possibili.

  • Assenza di titoli esagerati o clickbait: i titoli sono informativi, senza allarmismi o esagerazioni mirate solo a catturare l’attenzione.

  • Autori qualificati e trasparenza: i contenuti sono scritti o revisionati da esperti o giornalisti scientifici con esperienza e il sito fornisce informazioni su chi li produce.

  • Aggiornamenti regolari e dialogo con i lettori: i siti affidabili aggiornano le informazioni con nuovi studi, correggono eventuali errori e talvolta rispondono alle domande o ai commenti.

  • Scopo divulgativo ed educativo: l’obiettivo è informare e spiegare con rigore, non vendere prodotti o promuovere agende ideologiche.

Le testate generaliste o i siti di pseudo divulgazione spesso puntano più al click facile e all’effetto emotivo che a un’informazione rigorosa e bilanciata. Il risultato è un circolo vizioso di paure ingiustificate, confusione e disinformazione, che non aiuta né il pubblico né la causa ambientale che vogliamo davvero sostenere.

Conclusioni

La lotta all’inquinamento da plastica passa innanzitutto dal controllo e dalla prevenzione all’origine, riducendo l’uso di plastica, migliorando il riciclo e introducendo filtri efficaci nelle apparecchiature domestiche come lavatrici e lavastoviglie. Non facciamoci ingannare da titoli e numeri sensazionalistici: l’informazione corretta è il primo passo per agire con consapevolezza.

L’atomo della pace: This is the dawning of the Age of Aquarius

“L’energia liberata dall’atomo non sarà più impiegata per la distruzione, ma per il bene dell’umanità.” Con queste parole, nel 1953, il presidente degli Stati Uniti Dwight D. Eisenhower lanciava al mondo il programma Atoms for Peace, in un celebre discorso all’Assemblea Generale delle Nazioni Unite. Era il tentativo, ambizioso e visionario, di trasformare il simbolo stesso della guerra in una promessa di progresso, usando le tecnologie nucleari non per armare le nazioni, ma per alimentare ospedali, centrali elettriche e laboratori scientifici.

Settant’anni dopo, quella visione resta più attuale che mai. In un pianeta che affronta crisi ambientali sempre più gravi e una domanda crescente di energia, l’atomo torna a farsi sentire: non come spettro del passato, ma come possibile chiave per un futuro più sostenibile.

Eppure, mentre la scienza offre strumenti per usare l’energia nucleare a beneficio della società, c’è ancora chi preferisce impiegarla per rafforzare equilibri di potere instabili, costruendo arsenali atomici in grado di distruggere il pianeta che abitiamo. Una scelta anacronistica, fondata su interessi politici miopi e incapaci di cogliere il potenziale positivo di una delle scoperte più straordinarie del Novecento.

Nel dibattito sulla transizione energetica, l’energia nucleare torna oggi al centro dell’attenzione. Di fronte all’urgenza climatica e alla crescente domanda globale di energia, le tecnologie nucleari civili si presentano come una delle soluzioni più promettenti per garantire una produzione elettrica stabile, sicura e a basse emissioni di carbonio.

Nonostante il peso simbolico lasciato da eventi come Chernobyl e Fukushima, i dati raccolti in decenni di esercizio mostrano che il nucleare civile è, per unità di energia prodotta, una delle fonti più sicure e pulite disponibili. Le nuove tecnologie oggi in sviluppo, come i reattori modulari di piccola taglia (SMR) e i reattori di IV generazione, puntano a migliorare ulteriormente la sicurezza, l’efficienza del combustibile e la gestione dei rifiuti. Alcuni progetti prevedono sistemi di sicurezza passiva, in grado di spegnere il reattore in caso di emergenza senza intervento umano né alimentazione elettrica esterna. Altri lavorano su cicli del combustibile chiusi, per ridurre drasticamente la quantità di scorie radioattive a lunga vita.

Parallelamente, progetti come ITER e numerose iniziative private stanno esplorando la strada della fusione nucleare, l’unica tecnologia in grado di imitare il funzionamento del Sole: energia virtualmente illimitata, senza il rischio di fusione del nocciolo e con rifiuti di gran lunga meno problematici rispetto alla fissione.

La chimica ambientale resta al cuore di queste sfide: dalla separazione degli attinidi alla progettazione di materiali resistenti, dalla speciazione degli isotopi radioattivi alla modellazione del loro comportamento nel suolo e nelle acque sotterranee. Capire come gli elementi si muovono, decadono, si adsorbono o si fissano in forma solida non è solo un esercizio accademico: è una condizione necessaria per progettare impianti più sicuri, prevedere il comportamento delle scorie e gestire correttamente il rischio.

Tuttavia, un ostacolo importante resta la percezione pubblica del rischio. L’energia nucleare continua a suscitare paure profonde, spesso basate su eventi eccezionali e su una comunicazione scientifica carente. Colmare questo divario tra realtà tecnica e immaginario collettivo è una responsabilità etica, oltre che culturale.

I radionuclidi non sono pericolosi per natura. Lo diventano solo quando vengono gestiti con superficialità, trascuratezza o opacità. Gli stessi elementi che in passato hanno provocato danni enormi se impiegati in modo irresponsabile, oggi ci permettono di curare malattie, studiare il passato, comprendere il clima e produrre energia pulita.

Abbiamo ereditato l’età dell’atomo come simbolo di potere e minaccia, ma possiamo ancora trasformarla in qualcos’altro. Forse è il momento di farla coincidere, almeno in parte, con quella età dell’Acquario cantata negli anni ’60: un’epoca immaginata di pace, di fiducia nella scienza, di armonia tra progresso e umanità.

Non si tratta di utopia, ma di responsabilità. Perché l’atomo, da solo, non porta né salvezza né rovina. È la mano che lo guida, e la visione che lo orienta, a determinarne il destino.

Sta a noi decidere se vivere nella paura del passato o costruire, con consapevolezza, un futuro possibile e migliore.

Parabrezza puliti e insetti scomparsi: ma davvero davvero?

Nel 2020, durante la pandemia, pubblicai una breve nota sul cosiddetto “windscreen phenomenon“. Per chi volesse rileggerla, ecco il link:

Sugli insetti e sui parabrezza – www.pellegrinoconte.com

Negli ultimi anni, questa teoria ha continuato a circolare. L’idea che il numero di insetti stia diminuendo drasticamente perché i parabrezza delle auto si sporcano meno rispetto al passato è oggi più attendibile di quanto non lo fosse cinque anni fa?

Osservazioni aneddotiche vs. evidenze scientifiche

È importante distinguere tra osservazioni personali e dati scientifici. Il fatto che oggi i parabrezza sembrino più puliti non costituisce una prova concreta del declino globale degli insetti. Le variabili in gioco sono molteplici: cambiamenti nei modelli di traffico, aerodinamica delle auto moderne, variazioni climatiche locali e stagionali, per citarne alcune.

Studi recenti sul declino degli insetti

Diversi studi scientifici hanno documentato un effettivo declino delle popolazioni di insetti:

Il problema del “windscreen phenomenon” come indicatore

Utilizzare il numero di insetti sul parabrezza come misura del declino globale presenta diverse problematiche:

  • Variabilità delle condizioni di guida: percorsi, velocità, condizioni climatiche e tipologie di veicoli influenzano significativamente il numero di insetti che colpiscono il parabrezza.
  • Effetti di bordo e distribuzione degli insetti: le strade creano discontinuità nel paesaggio, influenzando la distribuzione degli insetti e rendendo difficile generalizzare le osservazioni.
  • Bias di campionamento: le osservazioni sono spesso limitate a determinate aree e periodi, non rappresentando accuratamente la situazione globale.

Conclusione

Come scrivevo già nel 2020, anche oggi è necessario ribadire che, sebbene il declino degli insetti sia un fenomeno reale ed allarmante, le conclusioni devono basarsi su studi scientifici solidi, non su impressioni personali. Il “windscreen phenomenon” può forse stimolare la curiosità o fornire uno spunto iniziale, ma non rappresenta in alcun modo una prova scientifica.

L’aneddotica non è probante e il “lo dicono tutti” non è – né sarà mai – un metodo scientificamente valido.

Come disse un celebre divulgatore: la scienza non si fa per alzata di mano.

La democrazia scientifica non funziona come quella politica: non tutte le opinioni hanno lo stesso peso. E, a ben vedere, nemmeno in politica tutte le opinioni sono uguali – quelle che negano i diritti fondamentali dell’uomo non possono e non devono essere considerate accettabili.

In ambito scientifico, il confronto è possibile solo tra persone con un background adeguato, perché solo così si può parlare la stessa lingua: quella del metodo.

Chimica e intelligenza artificiale: un’alleanza per il futuro della scienza

Avrete sicuramente notato che oggi l’intelligenza artificiale (AI) sta diventando una presenza sempre più costante nelle nostre vite. Sono tantissimi gli ambiti in cui l’AI riesce a sostituire con successo l’essere umano. Si potrebbe dire che questa rivoluzione sia iniziata molto tempo fa, con i primi robot che hanno cominciato a svolgere compiti ripetitivi al posto dell’uomo, come nelle catene di montaggio o, più drammaticamente, nei contesti bellici, dove i droni sono diventati strumenti chiave per ridurre il numero di vittime umane.

Negli ultimi anni, lo sviluppo vertiginoso delle reti neurali artificiali ha portato alla nascita di veri e propri “cervelli digitali” che, presto, anche se non sappiamo quanto presto, potrebbero avvicinarsi, per certi aspetti, alle capacità del cervello umano.

Nel frattempo, però, l’intelligenza artificiale già funziona alla grande ed è sempre più presente in numerosi settori, tra cui la chimica, che rappresenta uno dei campi più promettenti.

All’inizio può sembrare curioso accostare molecole, reazioni chimiche e leggi della fisica a concetti come algoritmi e reti neurali. Eppure, l’unione di questi mondi sta rivoluzionando il modo in cui facciamo ricerca, progettiamo nuovi materiali, affrontiamo le sfide ambientali e persino come insegniamo la scienza.

Ma cosa significa, concretamente, applicare l’intelligenza artificiale alla chimica?

Scoprire nuove molecole (senza provare tutto in laboratorio)

Uno degli ambiti in cui l’intelligenza artificiale si è rivelata più utile è la scoperta di nuovi composti chimici. Fino a qualche tempo fa, per trovare una molecola utile, un farmaco, un catalizzatore, un materiale con proprietà particolari, bisognava fare molti tentativi sperimentali, spesso lunghi e costosi.

Negli ultimi decenni, la chimica computazionale ha cercato di alleggerire questo carico, permettendo ai ricercatori di simulare al computer il comportamento di molecole, reazioni e materiali. Tuttavia, anche le simulazioni più avanzate richiedono molto tempo di calcolo e competenze specialistiche, oltre ad avere dei limiti nella scala e nella complessità dei sistemi che si possono trattare.

Qui entra in gioco l’intelligenza artificiale: grazie a modelli di machine learning sempre più raffinati, è possibile prevedere rapidamente il comportamento di una molecola, come la sua stabilità, la reattività, o la capacità di legarsi a un bersaglio biologico, semplicemente a partire dalla sua struttura. Questi algoritmi apprendono da enormi quantità di dati sperimentali e teorici e sono in grado di fare previsioni accurate anche su molecole mai testate prima.

In altre parole, l’AI sta cominciando a superare i limiti della chimica computazionale tradizionale, offrendo strumenti più rapidi, scalabili e spesso più efficaci nel guidare la ricerca. Invece di provare tutto in laboratorio (o simulare tutto al computer), oggi possiamo usare modelli predittivi per concentrare gli sforzi solo sulle ipotesi più promettenti.

Cosa vuol dire “machine learning”?

Il machine learning, o apprendimento automatico, è una branca dell’intelligenza artificiale che permette a un computer di imparare dai dati. Invece di essere programmato con regole rigide, un algoritmo di machine learning analizza una grande quantità di esempi e impara da solo a riconoscere schemi, fare previsioni o prendere decisioni.

È un po’ come insegnare a un bambino a distinguere un cane da un gatto: non gli spieghi la definizione precisa, ma gli mostri tante immagini finché impara da solo a riconoscerli.

Nel caso della chimica, l’algoritmo può “guardare” migliaia di molecole e imparare, per esempio, quali caratteristiche rendono una sostanza più solubile, reattiva o stabile.

Simulare ciò che non possiamo osservare

In molti casi, la chimica richiede di capire cosa succede a livello atomico o molecolare, dove gli esperimenti diretti sono difficili, costosi o addirittura impossibili. Ad esempio, osservare in tempo reale la rottura di un legame chimico o l’interazione tra una superficie metallica e un gas può essere tecnicamente molto complicato.

Qui entrano in gioco la chimica computazionale e, sempre di più, l’intelligenza artificiale. I metodi classici di simulazione, come la density functional theory (DFT) o le dinamiche molecolari, permettono di studiare reazioni e proprietà microscopiche con una certa precisione, ma sono spesso limitati dalla potenza di calcolo e dal tempo necessario per ottenere risultati.

L’AI può affiancare o persino sostituire questi metodi in molti casi, offrendo simulazioni molto più rapide. Gli algoritmi, addestrati su grandi insiemi di dati teorici o sperimentali, riescono a prevedere energie di legame, geometrie molecolari, traiettorie di reazione e persino comportamenti collettivi di materiali complessi, con un livello di precisione sorprendente.

Questo approccio è particolarmente utile nella chimica dei materiali, nella catalisi e nella chimica ambientale, dove le condizioni reali sono dinamiche e complesse, e spesso è necessario esplorare molte variabili contemporaneamente (temperatura, pressione, pH, concentrazione, ecc.).

In sintesi, grazie all’AI, oggi possiamo “vedere” l’invisibile e testare ipotesi teoriche in modo veloce e mirato, risparmiando tempo, denaro e risorse. La simulazione assistita dall’intelligenza artificiale sta diventando una delle strategie più promettenti per affrontare problemi scientifici troppo complessi per essere risolti con i soli strumenti tradizionali.

Insegnare (e imparare) la chimica in modo nuovo

Anche il mondo dell’istruzione sta vivendo una trasformazione grazie all’intelligenza artificiale. La didattica della chimica, spesso considerata una delle materie più “dure” per studenti e studentesse, può oggi diventare più coinvolgente, personalizzata ed efficace proprio grazie all’uso di strumenti basati su AI.

Uno dei vantaggi principali è la possibilità di adattare il percorso di apprendimento alle esigenze del singolo studente. Grazie a sistemi intelligenti che analizzano le risposte e i progressi individuali, è possibile proporre esercizi mirati, spiegazioni alternative o materiali supplementari in base al livello di comprensione. Questo approccio personalizzato può aiutare chi è in difficoltà a colmare lacune e, allo stesso tempo, stimolare chi è più avanti ad approfondire.

L’AI può anche contribuire a rendere la chimica più visiva e interattiva. Alcune piattaforme, ad esempio, usano modelli predittivi per generare visualizzazioni 3D di molecole, reazioni chimiche o strutture cristalline, rendendo più intuitivi concetti spesso astratti. In più, i chatbot educativi (come quelli alimentati da modelli linguistici) possono rispondere a domande in tempo reale, spiegare termini complessi in modo semplice o simulare piccoli esperimenti virtuali.

Un’altra frontiera interessante è quella della valutazione automatica e intelligente: sistemi di AI possono correggere esercizi, test e report di laboratorio, offrendo feedback tempestivo e accurato. Questo libera tempo per l’insegnante, che può concentrarsi sulla guida e sul supporto più qualitativo.

Infine, l’intelligenza artificiale può aiutare anche chi insegna: suggerendo materiali didattici aggiornati, creando quiz su misura per ogni lezione, o analizzando l’andamento della classe per identificare i concetti che vanno ripresi o approfonditi.

In sintesi, l’AI non sostituisce il docente o il laboratorio, ma li potenzia, offrendo nuovi strumenti per rendere l’insegnamento della chimica più accessibile, efficace e stimolante.

Una rivoluzione che non sostituisce il chimico

Di fronte a questi progressi, è naturale chiedersi: quale sarà allora il ruolo del chimico nel futuro? La risposta è semplice: sarà sempre più centrale, ma in modo diverso.

L’intelligenza artificiale è uno strumento potente, ma resta pur sempre uno strumento. Può accelerare le ricerche, suggerire ipotesi, esplorare combinazioni complesse o evidenziare correlazioni nascoste. Ma non può, da sola, sostituire la competenza critica, l’intuizione, l’esperienza e la creatività che solo un/una chimico/a formato/a può offrire.

Un errore molto comune, oggi, è considerare l’AI come una sorta di enciclopedia moderna, da cui si possano estrarre risposte esatte, univoche, perfette. Ma la chimica non funziona così e neppure l’intelligenza artificiale. Entrambe si muovono su terreni complessi, fatti di ipotesi, interpretazioni, modelli e approssimazioni. Pretendere dall’AI risposte definitive senza saper valutare, filtrare o indirizzare i risultati è un rischio.

Proprio come un bambino brillante, l’AI va educata e guidata. Ha bisogno di esempi buoni, di dati corretti, di domande ben formulate.

E, soprattutto, ha bisogno di essere “letta” da occhi esperti, capaci di interpretare e contestualizzare quello che produce.

In chimica, come nella scienza in generale, la conoscenza non è mai solo questione di calcoli o statistiche: è anche, e soprattutto, comprensione profonda dei fenomeni.

Quindi, piuttosto che temere l’arrivo dell’intelligenza artificiale, dobbiamo imparare a collaborarci con intelligenza.

Il chimico del futuro non sarà un tecnico che esegue, ma un regista che sa orchestrare strumenti nuovi per rispondere a domande sempre più complesse. Ed è proprio questa, forse, la sfida più stimolante dei nostri tempi.

Riferimenti

Aldossary & al. (2024) In silico chemical experiments in the Age of AI: From quantum chemistry to machine learning and back. ChemRxiv. 2024; Doi: 10.26434/chemrxiv-2024-1v269. Disponibile al link: https://chemrxiv.org/engage/chemrxiv/article-details/65cdf1309138d231612baac8.

Anjaneyulu & al. (2024) Revolution of Artificial Intelligence in Computational Chemistry Breakthroughs. Chemistry Africa 7, 3443–3459. https://doi.org/10.1007/s42250-024-00976-5.

Blonder & Feldman-Maggor (2024) AI for chemistry teaching: responsible AI and ethical considerations. Chemistry Teacher International 6(4), 385–395. https://doi.org/10.1515/cti-2024-0014.

Dral (2024) AI in computational chemistry through the lens of a decade-long journey. Chemical Communications. 60, 3240-3258. https://doi.org/10.1039/D4CC00010B.

Dral, Bowman, Liu, Maseras (editors) (2024) Artificial intelligence in computational chemistry (special issue). Disponibile al link: https://www.sciencedirect.com/special-issue/105PZW0WJF7.

Kovner & Berkeley (2024) ‘AI-at-scale’ method accelerates atomistic simulations for scientists. Disponibile al link: https://techxplore.com/news/2024-12-ai-scale-method-atomistic-simulations.html.

Kovner & Berkeley (2025) Computational chemistry unlocked: A record-breaking dataset to train AI models has launched. Disponibile al link: https://phys.org/news/2025-05-chemistry-dataset-ai.html.

Nongnuch & al. (2021) Best practices in machine learning for chemistry. Nature Chemistry 13, 505–508. https://doi.org/10.1038/s41557-021-00716-z.

Yuriev & al. (2024) The Dawn of Generative Artificial Intelligence in Chemistry Education. Journal of Chemical Education 101, 2957-2929. https://doi.org/10.1021/acs.jchemed.4c00836.

Udourioh & al. (2025) Artificial Intelligence-Driven Innovations in Chemistry Education: Transforming Teaching and Learning Practices. In: Handbook on Artificial Intelligence and Quality Higher Education. Volume 1 (pp.379-388). Publisher: Sterling Publishers, Slough UK and Delhi, India. Disponibile al link: https://www.researchgate.net/publication/388675124_Artificial_Intelligence-Driven_Innovations_in_Chemistry_Education_Transforming_Teaching_and_Learning_Practices.

Zhang & al. (2025) Artificial intelligence for catalyst design and synthesis. Matter 8, 102138. https://doi.org/10.1016/j.matt.2025.102138.

Il formaggio non ha più segreti

Il titolo di questo articoletto è un po’ eccessivo, ma non l’ho scelto io. Si tratta del titolo apparso sulla rivista “Formaggi e Consumi” per una intervista all’Ing. Gianni Ferrante della Stelar che parla degli ultimi sviluppi della rilassometria NMR a ciclo di campo per le analisi dei prodotti lattiero-caseari. Si tratta di un progetto ambizioso in cui è coinvolta anche l’Università degli Studi di Palermo nelle figure dei Professori Paolo Lo Meo, Delia Chillura-Martino del Dipartimento STEBICEF, del Prof. Luciano Cinquanta e me del Dipartimento SAAF. L’articolo lo trovate a questo link, oppure cliccando sull’immagine qui sotto.

Fonte dell’immagine di copertina

Share