Le interviste impossibili: incontriamo Michael Faraday

Lasciata Parigi, dove ho avuto l’onore di dialogare con Antoine Lavoisier, faccio rotta verso l’Inghilterra. È il 1831 — almeno, così mi piace pensare — e la bruma londinese avvolge i sobborghi di Newington Butts. Qui, in una piccola casa modesta, mi attende Michael Faraday: chimico, fisico, autodidatta, uomo dalla curiosità inesauribile. Dai suoi esperimenti nascono concetti e scoperte che hanno plasmato la chimico-fisica moderna: l’elettromagnetismo, le leggi dell’elettrolisi, l’introduzione di termini come “anodo” e “catodo”, e quell’inimitabile ciclo di lezioni che raccolse in The Chemical History of a Candle. Un uomo che, pur privo di studi matematici formali, ha saputo leggere nel linguaggio segreto della natura e tradurlo in esperimenti chiari e affascinanti.

— Buongiorno, Professor Faraday. Sono onorato che lei abbia voluto incontrarmi.
— Buongiorno a lei, e benvenuto a Londra. Sono lieto di parlare con chi mostra curiosità per la scienza, perché la curiosità è la fiamma che accende ogni scoperta.

— Professor Faraday, il suo nome è legato a scoperte epocali in campi diversi. Partiamo dall’elettrochimica: come nacquero le sue famose leggi dell’elettrolisi?
— Tutto è cominciato facendo esperimenti, con tanta pazienza e un po’ di ostinazione. L’elettrolisi, per dirla semplice, è quando si fa passare corrente elettrica in un liquido — come una soluzione salina — e agli elettrodi avvengono reazioni chimiche: si formano gas, si depositano metalli, o si liberano altre sostanze. Mi resi conto che la quantità di sostanza prodotta non era mai a caso: più elettricità facevo passare, più materia ottenevo. Questo è il cuore della mia prima legge. Poi, cambiando sostanza — oro, rame, idrogeno, ossigeno… — vidi che, se facevo passare sempre la stessa “dose” di elettricità, ottenevo quantità diverse di materiale, ma sempre in proporzione a un valore caratteristico di quella sostanza, il cosiddetto “peso equivalente”. In fondo, quelle regole erano già lì, scritte nella natura: io ho solo avuto la pazienza di osservarle e metterle nero su bianco.

— Questo è quanto hanno affermato, tra le righe, anche il Professor Boyle e Monsieur Lavoisier che, immagino, lei conosca.
— Eccome se li conosco! Boyle, con il suo modo rigoroso di sperimentare, ha aperto la strada a tutti noi: era convinto che le leggi della natura fossero lì da scoprire, non da inventare. E Lavoisier… be’, lui ha saputo dare un ordine e un linguaggio alla chimica. Ha dimostrato che nulla si crea e nulla si distrugge, e che il compito dello scienziato è trovare il filo che lega ogni trasformazione. Io ho solo continuato quel lavoro, seguendo il filo della corrente elettrica.

— Quindi, lei ha seguito le orme di monsieur Lavoisier, dimostrando in modo indipendente che aveva ragione.
— Direi piuttosto che ho camminato su un sentiero che lui aveva già tracciato, ma guardando dettagli che, ai suoi tempi, erano nascosti. Lavoisier aveva ragione nel dire che la materia si conserva e che le reazioni seguono leggi precise. Io ho potuto vedere quelle stesse leggi in azione nei processi elettrici, e mostrarne il funzionamento quantitativo. In un certo senso, la mia elettrochimica è stata la prova sperimentale di un’idea che lui aveva reso universale.

— E come ha detto monsieur Lavoisier, la scienza è un gioco corale…
— …esattamente. Non c’è un singolo musicista che possa suonare tutta la sinfonia da solo. Ognuno aggiunge una nota, un tema, un’armonia. Boyle ha messo le fondamenta del metodo sperimentale, Lavoisier ha dato ordine e linguaggio alla chimica, e io ho avuto la fortuna di inserirvi l’elettricità come nuova voce. La scienza avanza così: un’idea ispira un’altra, un esperimento ne provoca cento nuovi. È un lavoro che attraversa generazioni, senza gelosie — o almeno, così dovrebbe essere.

— E in questo coro, lei ha introdotto un tema che ha cambiato per sempre la fisica: l’induzione elettromagnetica.
— Fu una delle mie scoperte più care. E nacque da una domanda molto semplice: se una corrente elettrica può generare un campo magnetico, come aveva mostrato Oersted, non sarà possibile anche il contrario? Mi misi al banco di lavoro con fili di rame, bobine, magneti e molta pazienza. Scoprii che muovendo un magnete vicino a un circuito, o variando il campo magnetico che lo attraversa, in quel circuito compare una corrente. Una corrente “indotta”. Non serviva contatto diretto: il cambiamento del campo era sufficiente.

— Un principio che oggi è alla base dei generatori e dei trasformatori elettrici…
— All’epoca non pensavo certo alle centrali elettriche: vedevo solo un nuovo modo in cui natura e movimento dialogano. Ma la bellezza della scienza è che ciò che nasce da curiosità pura, un giorno, può cambiare il mondo.

— Questa è l’idea della ricerca di base, un tipo di ricerca che, come avrà sicuramente saputo, oggi viene ritenuta inutile. Oggi, nella stesura dei progetti per ottenere finanziamenti, occorre anche descrivere i risultati attesi e le possibili applicazioni…
— Ah, capisco. Ma vede, la ricerca di base è come seminare in un terreno fertile: non si può sempre sapere in anticipo quale frutto crescerà, né quando. Se nel 1831 mi avessero chiesto quali applicazioni pratiche avrei tratto dall’induzione elettromagnetica, avrei potuto solo dire: “Ancora non lo so, ma è un fenomeno reale e va compreso”. Eppure, da quella curiosità oggi nascono la produzione e la distribuzione dell’elettricità. La scienza che cerca soltanto risultati immediati rischia di accontentarsi di frutti già noti, rinunciando a scoprire nuove specie di alberi.

— Bellissimo ciò che ha detto… la scienza che cerca soltanto risultati immediati rischia di accontentarsi di frutti già noti, rinunciando a scoprire nuove specie di alberi.
— E glielo posso raccontare con un piccolo episodio personale. Quando iniziai a parlare dei miei esperimenti sull’elettricità, alcuni colleghi mi chiesero: “Ma a cosa serve tutto questo? Cosa produrrà di utile?” Io risposi semplicemente: “Non lo so ancora… ma quando lo scoprirò, sarà più utile di qualsiasi risposta affrettata”. Ridono ancora, quando lo racconto, perché nessuno allora poteva immaginare che quei giochi con fili e magneti un giorno avrebbero illuminato case, fabbriche e città intere. La curiosità pura è stata il mio unico motore. Non ho mai pensato che l’utilità pratica dovesse precedere la comprensione; credo fermamente che le leggi della natura si rivelino meglio a chi le osserva con meraviglia e senza fretta.

— È davvero straordinario come la curiosità pura abbia portato a scoperte così rivoluzionarie… eppure, lei non si è fermato all’elettricità: ha anche esplorato la luce.
— Sì, e anche qui è stata la stessa curiosità a guidarmi. Nel 1845, mentre studiavo l’influenza dei campi magnetici sulla materia, mi venne in mente di verificare se la luce potesse essere influenzata da un campo magnetico. Preparai un esperimento semplice: un raggio di luce che passava attraverso una sostanza trasparente immersa in un campo magnetico. Con grande stupore, notai che il piano di polarizzazione della luce ruotava leggermente.

— Questo è ciò che oggi chiamiamo effetto Faraday
— È il primo esempio noto di interazione tra luce e magnetismo, e dimostrò che la luce e il magnetismo non sono fenomeni separati, ma legati da un principio comune. All’epoca non conoscevo l’equazione di Maxwell — che sarebbe arrivata solo qualche decennio dopo — ma intuivo che elettricità, magnetismo e luce fossero fili di uno stesso tessuto. Il mio compito era solo tirare uno di quei fili per vedere come vibrava l’intero intreccio.

— Professor Faraday, lei ha dimostrato di saper fare scoperte enormi senza una formazione matematica formale. Come ci è riuscito?
— Non ho mai considerato la matematica un ostacolo insormontabile, ma uno strumento che, se necessario, avrei potuto imparare. La mia forza era nel laboratorio, nell’osservazione meticolosa, nell’immaginare esperimenti semplici che potessero dare risposte chiare. Credevo — e credo ancora — che il pensiero sperimentale sia universale: se la natura ti mostra un fenomeno, puoi comprenderlo anche senza formule complesse, purché tu abbia pazienza, rigore e umiltà.

— A proposito di umiltà, lei ha spesso rifiutato titoli e onori…
— Sì, perché il vero riconoscimento per uno scienziato non è una medaglia, ma vedere che le sue scoperte entrano a far parte della vita di tutti. Ho sempre pensato che la scienza debba restare al servizio dell’uomo, non dell’ego dello scienziato.

— …che non è esattamente quello che accade oggi, quando molti di noi — me compreso — provano un certo piacere a stare sotto i riflettori. E glielo confesso: quando lo dico ai colleghi, vengo anche preso per pazzo.
— Forse perché oggi la visibilità non porta solo applausi, ma anche finanziamenti. E questi, lo so bene, possono arrivare da ogni direzione, compresa quella di chi vende illusioni ben confezionate: omeopatia, biodinamica e altre amenità. Ai miei tempi, la fama non apriva così facilmente le casse di mecenati o aziende; e comunque, il rischio di piegare la scienza a interessi di parte era sempre in agguato. Il punto è ricordare che il palcoscenico passa, mentre la verità scientifica resta — e che oggi, troppo spesso, la dignità e l’autorevolezza scientifica vengono barattate per un piatto di lenticchie.

— Professor Faraday, molti la ricordano anche per le sue celebri Christmas Lectures alla Royal Institution. Come nacque l’idea de La storia chimica di una candela?
— Ogni anno, a Natale, tenevo delle lezioni per i ragazzi. Volevo offrire loro un’esperienza che fosse insieme semplice e affascinante. Scelsi la candela perché è un oggetto comune, familiare a tutti, ma dietro la sua fiamma si nasconde un mondo di fenomeni fisici e chimici.

— Qual era il suo obiettivo nel parlare di una cosa così quotidiana?
— Dimostrare che la scienza non è confinata nei laboratori: è dappertutto. Una candela, accendendosi, mette in scena combustione, convezione, cambiamenti di stato, reazioni chimiche complesse. Volevo che i giovani capissero che anche un gesto banale può essere una porta verso grandi scoperte.

— Qual è il primo segreto che una candela rivela?
— Che la fiamma non è materia, ma energia in azione. La cera, riscaldata, diventa liquida, poi gassosa; il gas brucia liberando calore e luce. È un ciclo continuo di trasformazioni: solido, liquido, gas, e di nuovo energia.

— Lei parlava spesso di osservare prima di spiegare. Come lo applicò in queste lezioni?
Invitavo i ragazzi a guardare: il colore della fiamma, il fumo che si sprigiona quando si spegne la candela, la forma della goccia di cera che si scioglie. Solo dopo passavamo a spiegare il perché di ciò che avevano visto. La curiosità nasce dall’osservazione diretta.

— In fondo, è un po’ la stessa filosofia della sua ricerca…
Sia che studi l’elettromagnetismo, sia che guardi una candela, l’approccio è lo stesso: osservare con attenzione, porre domande, non dare nulla per scontato.

— Cosa pensa che La chimica di una candela possa insegnare ancora oggi?
— Che la scienza è nelle mani di chi sa guardare. Non importa se il laboratorio è una stanza piena di strumenti o il tavolo di cucina: ciò che conta è la capacità di meravigliarsi e di cercare risposte.

— Sa che queste sue parole potrebbero essere usate oggi, nella mia epoca, da complottisti di ogni risma? Gente che si riempie la bocca di “pensiero indipendente”, “Galilei era uno contro tutti” e così via cantando…
— Oh, conosco bene il rischio. Ma vede, c’è una differenza sostanziale: il vero pensiero indipendente nasce dallo studio rigoroso e dall’osservazione onesta della realtà; quello dei complottisti nasce spesso dal rifiuto pregiudiziale delle prove. Galilei non era “uno contro tutti” perché amava contraddire: era uno che portava dati, misure, esperimenti ripetibili. Se oggi qualcuno brandisce il suo nome per giustificare opinioni infondate, sta confondendo la curiosità con l’arroganza e il metodo scientifico con la chiacchiera da taverna. E guardi che lo stesso vale per una candela. Posso raccontare che la fiamma è alimentata da minuscole fate luminose che ballano nell’aria: suona poetico, e qualcuno potrebbe pure crederci. Ma basta un semplice esperimento per dimostrare che la luce e il calore vengono dalla combustione di vapori di cera. La scienza non è negare la fantasia — è verificarla.

— Professor Faraday, se dovesse riassumere in poche parole il senso del suo lavoro, cosa direbbe?
— Direi che ho passato la vita a inseguire scintille: alcune erano letterali, altre metaforiche. Ma ogni scintilla, se seguita con attenzione, può accendere una fiamma di conoscenza.

Mentre lascio la sua casa, il cielo di Londra è ancora avvolto nella bruma, ma nella mia mente resta accesa una piccola luce: quella di una candela che, sotto lo sguardo paziente di Michael Faraday, si trasforma da semplice oggetto quotidiano in una lezione eterna di curiosità, rigore e meraviglia.

Mi avvio verso il prossimo appuntamento impossibile. Lì, tra fili di rame e campi invisibili, scopriremo che la scienza può unire fenomeni che sembravano mondi separati, guidata dalla stessa curiosità che accende una fiamma e illumina una mente.

Note Bibliografiche

W.H. Brock (2016) The History of Chemistry. A Very Short Introduction. Oxford University Press

L.  Cerruti (2019) Bella e potente. La chimica dagli inizi del Novecento ai giorni nostri. Editori Riuniti

Michael Faraday (1845) Experimental Researches in Electricity. Philosophical Transactions of the Royal Society

Michael Faraday (1866) Storia Chimica di una candela. Editori della Biblioteca Utile

T.H. Levere (2001) Transforming Matter. A History of Chemistry from Alchemy to the Buckyball. Johns Hopkins University Press

Maggio, R. Zingales (2023) Appunti di un Corso di Storia della Chimica.Edises

Le interviste impossibili: incontriamo Antoine Lavoisier

Dopo aver lasciato il Professor Boyle, mi reco a Parigi, in una primavera inoltrata di un anno qualsiasi della seconda metà del Settecento. Entro in un salone elegante, illuminato da candelabri e impreziosito da cristalli, dove incontro un uomo in giacca di velluto che sembra appena uscito da un dipinto di David. Nonostante la data sul calendario, lui è qui per noi: Antoine-Laurent de Lavoisier, padre della chimica moderna. Sorriso cortese, sguardo analitico. E, sì, la testa è ancora al suo posto.

— Buon pomeriggio, Monsieur Lavoisier, grazie per aver acconsentito a questa intervista impossibile. Sono appena stato dal Professor Boyle, che lei sicuramente conosce.
— Come potrei non conoscerlo? Il signor Boyle ha dato alla chimica fondamenta solide, anche se il suo flogisto… pardon, le sue idee sull’aria avrebbero avuto bisogno di una piccola revisione. Ma, senza il suo lavoro, il mio sarebbe stato molto più difficile.

— Monsieur Lavoisier, partiamo dalla domanda che tutti si fanno: è vero che ha “inventato” la chimica moderna?
— “Inventare” è un termine troppo presuntuoso, e la scienza non è mai opera di un uomo solo. Diciamo che ho messo un po’ d’ordine in un mestiere che, all’epoca, era un bazar di nomi pittoreschi, teorie fumose e descrizioni poetiche ma imprecise. Molti parlavano di “aria infuocata”, “terra fissa”, “spiriti”, senza una base quantitativa solida. Io ho cercato di sostituire questa confusione con misure accurate, esperimenti ripetibili e una nomenclatura chiara. Ho avuto la fortuna di vivere in un’epoca in cui il metodo sperimentale stava finalmente scalzando il dogma, e in cui la matematica poteva sposare il fornello: bilance accanto agli alambicchi, calcoli accanto alle osservazioni. È così che la chimica è uscita dalla bottega dell’alchimista per entrare nel laboratorio dello scienziato.

 E così è nata la famosa Legge di conservazione della massa.
— Esatto. Nulla si crea, nulla si distrugge, tutto si trasforma. È una verità semplice a dirsi, ma non scontata da dimostrare. All’epoca molti credevano ancora che durante una combustione o una reazione chimica qualcosa “sparisse” o “nascesse” dal nulla. Io ho mostrato, bilancia alla mano, che la somma delle masse dei reagenti è sempre uguale a quella dei prodotti, anche se il calore o i gas davano l’illusione del contrario. Era un principio tanto fondamentale quanto rivoluzionario, perché significava che la chimica, per essere scienza, doveva basarsi su misure precise e verificabili. E poi, si sa, una buona legge scientifica è come un buon aforisma: resta impressa nella memoria, ma deve poggiare su dati solidi per non diventare solo una frase ad effetto.

— Ci racconta della riforma della nomenclatura chimica?
— Oh, quella è stata la mia vera rivoluzione, e forse l’eredità più duratura del mio lavoro. Dare nomi logici e universali alle sostanze non è una questione di pignoleria, ma di sopravvivenza per la scienza: se non ci capiamo tra noi, non possiamo progredire. Prima di noi, ogni sostanza aveva un’infinità di nomi locali, legati alle tradizioni o alle fantasie di chi li usava: lo stesso composto poteva essere chiamato “vetriolo di Marte” in un laboratorio, “fior di ferro” in un altro e “sale verde” altrove. Per capire una reazione, bisognava prima tradurre il linguaggio dell’autore — e non sempre era possibile. Con Guyton de Morveau, Berthollet e Fourcroy abbiamo ideato un sistema basato sulla composizione chimica, in cui il nome descriveva la sostanza e non la sua storia folcloristica. È stato come passare da un dialetto confuso a una lingua comune: all’improvviso, la chimica parlava la stessa lingua da Parigi a Londra, da Berlino a Stoccolma.

— E l’ossigeno?
— Ah, il mio “bambino prediletto”! Ho dimostrato che era lui, e non qualche misteriosa sostanza immaginaria, il responsabile della combustione e della respirazione. Prima di me, molti chimici erano affezionati alla teoria del flogisto: un’entità invisibile che si sarebbe liberata durante la combustione. Era una spiegazione comoda, ma non resisteva alla prova della bilancia e dell’esperimento. Studiando i gas di Priestley e di Scheele, compresi che quella “aria particolarmente pura” non era un curiosità da collezione, ma un elemento fondamentale per sostenere la vita e il fuoco. Non tutti furono felici di sentirselo dire: cambiare paradigma è sempre doloroso, specie quando si devono abbandonare idee in cui si è investita la carriera. Ma la chimica non è un’arte di compromesso: segue le prove, non le abitudini. E l’ossigeno, con i suoi comportamenti, era una prova vivente… o, se preferisce, respirante.

— E cosa mi dice dell’azoto?
— Lo chiamai azote, “senza vita”, perché questo gas non sosteneva né la combustione né la respirazione: un’aria inerte, capace di spegnere il fuoco e soffocare gli animali. Era un nome descrittivo, figlio del mio approccio alla nomenclatura. In Inghilterra, però, preferirono chiamarlo nitrogen, “generatore di nitrati”, per via della sua presenza nei salnitri. Non mi offendo per la differenza: i nomi cambiano con le lingue e le tradizioni, ma l’importante è che tutti sappiano di cosa si sta parlando. Certo, a volte questa varietà linguistica genera confusione… ma non più di quanto non faccia la politica.

— A proposito di politica e vita pubblica, lei era anche un funzionario delle tasse. Non esattamente il lavoro più amato dal popolo…
— Vero, e non ha certo contribuito alla mia popolarità durante la Rivoluzione. Ma non ero un esattore medievale con il forcone alla porta: ero un membro della Ferme générale, un’istituzione privata che raccoglieva le imposte per conto dello Stato, e mi impegnavo soprattutto nella riforma del sistema fiscale. Sapevo bene che un’imposta mal congegnata soffoca l’economia, e che un’amministrazione corrotta soffoca la fiducia. Una parte di quelle entrate, peraltro, finiva a sostenere attività scientifiche: laboratori, strumenti, ricerche. La chimica costa, e senza risorse non si può fare. Certo, in tempi di turbolenza politica, essere associato alla riscossione delle tasse era come indossare un bersaglio sulla schiena… e il resto della mia storia dimostra quanto il bersaglio fosse ben visibile.

— Infatti, poi arrivò il 1794…
— Sì, il processo. In tre ore fui condannato a morte. Non era un’udienza, era un atto politico. Un mio collega pronunciò quella frase passata alla storia: “La Repubblica non ha bisogno di scienziati”. Peccato che invece ne avesse un disperato bisogno, allora come oggi. La ghigliottina non è mai stata un buon laboratorio, e nemmeno il sospetto ideologico, il pregiudizio o la paura del pensiero critico. Vedo che in certi Paesi, ancora oggi, si smantellano istituzioni scientifiche, si sostituiscono esperti con fedelissimi politici, si ignorano dati scomodi in nome di un’ideologia o di un calcolo elettorale. Cambiano i metodi — oggi non è più la lama di una ghigliottina, ma decreti, nomine pilotate, tagli di fondi — ma il principio è lo stesso: eliminare la scienza quando contraddice il potere. E così si condanna la società intera, perché senza conoscenza si resta in balìa dell’ignoranza e delle illusioni.

— Se potesse vedere la chimica di oggi, cosa direbbe?
— Che è meravigliosa e spaventosa al tempo stesso. Mai nella storia dell’umanità la conoscenza chimica ha avuto un potenziale così vasto: potete progettare farmaci su misura per salvare vite, creare materiali avanzatissimi, catturare l’energia del sole e del vento, ripulire acque e suoli inquinati. Allo stesso tempo, avete la capacità di alterare interi ecosistemi, accumulare sostanze tossiche che non scompaiono per secoli, e produrre armi in grado di annientare città in pochi secondi. La chimica è un linguaggio universale che la natura comprende, ma non fa sconti: ogni reazione ha conseguenze. Il problema non è la chimica in sé — che è neutrale — ma le scelte politiche, economiche e morali di chi la impiega. Una formula sulla carta è innocente; la sua applicazione, invece, può essere una benedizione o una condanna.

— E a chi inquina, cosa direbbe?
— Direi che la mia legge vale ancora: la massa non sparisce. Quello che immettete nell’ambiente, sotto forma di fumi, scorie o sostanze tossiche, non si dissolve per magia: resta, si trasforma, si accumula. I metalli pesanti finiscono nei sedimenti e nelle catene alimentari, la plastica si frantuma in particelle che respiriamo e ingeriamo, i gas serra restano intrappolati nell’atmosfera per decenni. Prima o poi, tutto vi torna indietro — nell’aria che respirate, nell’acqua che bevete, nel cibo che mangiate. In chimica, come nella vita, il bilancio deve tornare: potete rinviare il conto, ma non potete cancellarlo. La natura è un contabile inflessibile, e non concede condoni.

— Grazie Monsieur Lavoisier. È stato un onore averla potuta incontrare
L’onore è stato mio, monsieur. Ricordate: la scienza è un’opera collettiva, non il monumento di un solo uomo. Difendetela sempre perché, quando la scienza tace, la superstizione e l’arbitrio parlano più forte. E ora… il mio tempo è finito, ma le mie leggi restano.

Mi stringe la mano, elegante come quando è arrivato. E sparisce, lasciandomi la sensazione che la sua testa, oggi, servirebbe ancora.

Mi avvio verso il prossimo appuntamento impossibile. Lì, tra la fiamma tremolante di una candela, scopriremo che la luce può illuminare molto più della stanza in cui arde.

Note Bibliografiche

W.H. Brock (2016) The History of Chemistry. A Very Short Introduction. Oxford University Press

L. Cerruti (2019) Bella e potente. La chimica dagli inizi del Novecento ai giorni nostri. Editori Riuniti

Antoine-Laurent Lavoisier (2020) Memorie scientifiche. Metodo e linguaggio della nuova chimica. A cura di Ferdinando Abbri. Edizioni Theoria

T.H. Levere (2001) Transforming Matter. A History of Chemistry from Alchemy to the Buckyball. Johns Hopkins University Press

Maggio, R. Zingales (2023) Appunti di un Corso di Storia della Chimica.Edises

Le interviste impossibili: incontriamo Robert Boyle

Come i miei quattro lettori sanno, sono un appassionato di chimica. Ne ho fatto la mia professione, unendo la passione per la ricerca – il mio giocattolo preferito, con cui smonto la realtà, ne indago i segreti e poi la rimonto – a quella per la didattica che, nel tempo, mi ha rivelato un lato inatteso: la voglia di rendere “digeribili” agli studenti concetti chimici anche molto complessi.

C’è poi un’altra passione: la storia della chimica. Sono convinto che solo conoscendo ciò che è accaduto in passato si possa capire come e perché una disciplina si sia sviluppata in una direzione piuttosto che in un’altra.

Da queste premesse nasce questa rubrica dal titolo: Le interviste impossibili. Si tratta una serie di incontri – ovviamente immaginari – con grandi scienziati del passato, principalmente chimici, con i quali intavolerò discussioni che potranno spaziare dalla scienza alla politica, dall’etica ad altre questioni che il dialogo potrà far emergere. Saranno conversazioni interamente frutto della mia immaginazione, ispirate alla filosofia scientifica e al pensiero della persona intervistata.

E per cominciare, chi meglio di Robert Boyle? Un uomo che, nel 1661, con Il chimico scettico, ha segnato la nascita della chimica moderna, abbandonando le nebbie dell’alchimia per abbracciare la luce della sperimentazione. Sarà lui il primo ospite di questa serie, e vi assicuro che, nonostante i suoi 400 anni portati con una certa eleganza, ha ancora parecchie cose da dire.

_______________________

Buongiorno, professor Boyle.
— Buongiorno a lei, signore. Mi perdoni se non mi alzo: questa pompa pneumatica è un po’ capricciosa e non vorrei perdere il vuoto proprio adesso.
— Vedo che la tratta con grande cura.
— Cura? Direi venerazione. È stata la mia chiave per scardinare vecchie idee. Con essa ho mostrato che l’aria non è un concetto filosofico, ma una sostanza reale, con peso, volume, pressione. Ai miei tempi, molti pensavano che la natura fosse governata da qualità misteriose, imponderabili. Io ho voluto misurare, pesare, verificare.

— E questo cambiò la chimica?
— Cambiò il modo di guardare alla materia. Prima si parlava di “aria”, “fuoco”, “acqua” e “terra” come entità quasi mistiche. Io ho voluto trattarle come sostanze concrete. Senza questa svolta, dubito che la chimica avrebbe potuto diventare lo strumento potente – e pericoloso – che è oggi.

— Pericoloso?
— Oh, sì. Ai miei tempi, il pericolo era limitato dal ritmo lento della ricerca: poche persone, pochi strumenti, pochi esperimenti. Oggi vedo una velocità inaudita: sintetizzate composti che non esistono in natura e li disperdete nell’ambiente prima ancora di comprenderne a fondo le conseguenze. Pensate alla plastica: una meraviglia della chimica moderna, ma anche un nuovo sistema chimico, onnipresente nei mari e nei corpi degli animali. Noi scienziati dobbiamo ricordare che ogni “creazione” lascia un’impronta.

— Quindi anche nel XVII secolo si poteva parlare di impatto ambientale?
— Certo, ma in forme diverse. I metallurgi avvelenavano i fiumi con le scorie, nelle città si bruciava carbone liberando fumi tossici. Noi non usavamo la parola “inquinamento”, ma ne sentivamo gli effetti: miniere abbandonate, aria irrespirabile nelle botteghe, malattie croniche tra i lavoratori. Solo che nessuno collegava questi effetti alle cause chimiche: mancava il concetto stesso di “responsabilità scientifica verso l’ambiente”.
— E come ci si è arrivati?
— È stato un percorso lento, nato dall’osservazione e dall’accumulo di prove. Con l’Ottocento e la rivoluzione industriale, l’aumento di fumi e scorie divenne innegabile; nel Novecento, con la chimica capace di produrre composti mai visti in natura, si cominciò a capire che ogni reazione ha conseguenze non solo in laboratorio, ma anche nei fiumi, nei campi e nei corpi. Gli esempi non mancano: le piogge acide dovute alle emissioni industriali, il DDT che si accumulava nelle catene alimentari, il buco nello strato di ozono causato dai clorofluorocarburi. Fu allora che l’umanità iniziò a capire che l’ambiente non era un contenitore infinito, ma un sistema delicato, capace di spezzarsi sotto il peso delle nostre stesse invenzioni. Oggi chiamate questo approccio “valutazione dell’impatto ambientale”: è la naturale estensione del metodo scientifico. Osservare, misurare e trarre conclusioni, ma applicato non solo all’esperimento, bensì alle sue conseguenze sul mondo reale. E, cosa ancora più importante, farlo prima di introdurre su larga scala una nuova sostanza o tecnologia. Tanto che in molti Paesi questo esame preventivo è diventato un obbligo di legge: un modo per ricordare che la prudenza non è un freno al progresso, ma la sua assicurazione.

— Come vede il rapporto tra scienza e politica oggi?
— Non troppo diverso da allora: la politica ama la scienza quando porta vantaggi immediati, ma la ignora – o la ostacola – quando chiede pazienza e prudenza. Ai miei tempi, un re o un mecenate finanziava un esperimento se prometteva ricchezza o prestigio; oggi, un governo o un’azienda lo finanziano se promette profitto o consenso. La differenza è che oggi gli effetti sono globali, non locali.

— E anche la scienza stessa è cambiata.
— Oh, sì. Mi avete parlato di questa massima: publish or perish, pubblica o scompari. Ai miei tempi pubblicare era un atto ponderato, spesso il lavoro di una vita. Ora vedo un’esplosione di articoli, ma molti sono come bolle di sapone: luccicanti per un attimo, poi svaniscono. Alcuni dicono poco o niente, altri celano errori gravi, e vi sono perfino casi di falsità intenzionali. Mi avete raccontato di un certo Jan Hendrik Schön, che riempì riviste prestigiose di risultati entusiasmanti sui transistor molecolari… peccato che fossero artefatti. Grafici identici per esperimenti diversi, dati “cancellati” per mancanza di spazio…
— E la comunità scientifica?
— Ha fatto ciò che doveva: ha verificato, smascherato e ritirato quegli studi. Ma il danno d’immagine resta: basta un imbroglione per far credere a molti che tutta la scienza sia marcia.

— E non è solo un problema di chi scrive articoli. Anche chi siede nei comitati scientifici ha responsabilità enormi.
— Certamente. Mettere in un comitato tecnico persone che rifiutano le basi stesse della disciplina che dovrebbero consigliare è come nominare un astrologo direttore di un osservatorio astronomico, o un alchimista a capo di un laboratorio chimico. Ai miei tempi, la Royal Society aveva un motto: Nullius in verba, “non fidarti della parola di nessuno”. Oggi dovreste aggiungere: “ma fidati dei dati”.
— E invece?
— Invece vedo che talvolta si preferisce dare spazio a voci che piacciono al pubblico, o che creano polemica, piuttosto che a quelle fondate sulla prova. È un cortocircuito pericoloso: si confonde il dibattito scientifico, che nasce dall’evidenza, con l’opinione personale, che nasce dal pregiudizio.

— Torniamo un attimo al suo Chimico scettico: il suo invito era a dubitare, a verificare.
— Sì. Lo scetticismo è la virtù cardinale dello scienziato. Senza di esso, si scivola nell’illusione. Oggi, a quanto vedo, convivono scoperte straordinarie e credenze assurde: si creano vaccini in pochi mesi e allo stesso tempo si vendono boccette di acqua “miracolosa” che pretendono di curare tutto.
— Omeopatia.
— Già. La chiamerei “chimica dell’assenza”: meno sostanza c’è, più miracoli si promettono. È un concetto che mi lascia perplesso: ho passato la vita a misurare e qui si celebra ciò che non si può misurare.

— Se potesse dare un consiglio agli scienziati di oggi?
— Non dimenticate che ogni molecola che “create” entrerà in qualche ciclo della natura. E ricordatevi che la scienza non è una collezione di verità scolpite nella pietra, ma un cantiere aperto, dove ogni scoperta deve essere messa alla prova, anche – e soprattutto – quando sembra troppo bella per essere vera.

— Ultima domanda, professore: se le offrissi un bicchiere di acqua “omeopatica” per la salute?
— (Sorride) Lo accetterei… ma solo se avessi sete.

_______________________

Saluto il professor Boyle e mi avvio verso il prossimo appuntamento impossibile. Il mio interlocutore, ghigliottinato nel 1794, aveva una convinzione incrollabile: nulla si crea, nulla si distrugge. Ma, come scopriremo presto, non tutto si conserva…

Note Bibliografiche

R. Boyle (ed. 2013) The skeptical chymist. Dover Publications

W.H. Brock (2016) The History of Chemistry. A Very Short Introduction. Oxford University Press

L. Cerruti (2019) Bella e potente. La chimica dagli inizi del Novecento ai giorni nostri. Editori Riuniti

T.H. Levere (2001) Transforming Matter. A History of Chemistry from Alchemy to the Buckyball. Johns Hopkins University Press

A. Maggio, R. Zingales (2023) Appunti di un Corso di Storia della Chimica. Edises

 

Nomine e cortocircuiti: quando l’antiscienza entra nei comitati scientifici

È di queste ore la notizia che il ministro della salute, Orazio Schillaci, ha nominato nel Gruppo Tecnico Consultivo Nazionale sulle Vaccinazioni (NITAG) due tecnici, Paolo Bellavite ed Eugenio Serravalle, dalle posizioni, in più occasioni espresse pubblicamente, in contrasto con quanto riportato nella letteratura scientifica più accreditata (quest’ultima può essere rappresentata dagli articoli riportati qui, qui, qui e qui).

Che cos’è il NITAG?

Dal sito del Ministero della Salute apprendiamo che: Il NITAG è un Organo indipendente col compito di supportare, dietro specifica richiesta e su problematiche specifiche, il Ministero della Salute nella formulazione di raccomandazioni “evidence-based” sulle questioni relative alle vaccinazioni e alle politiche vaccinali, raccogliendo, analizzando e valutando prove scientifiche.

In altre parole, si tratta di un comitato scientifico che, sulla base di prove scientifiche inoppugnabili, consente al Ministero della Salute e, quindi, al Governo di prendere decisioni importantissime in merito a problematiche relative alla salute pubblica.

Chi è Paolo Bellavite

Bellavite è un medico che fino a qualche anno fa ha ricoperto il ruolo di Professore Associato in Patologia Generale presso l’Università di Verona. Le sue posizioni in merito ai vaccini sono riportate sia in interviste che nei libri che ha scritto e pubblicato. In particolare, egli dice di non essere contrario ai vaccini in quanto tali, ma critica duramente quella che definisce una “ideologia vaccinista”. A suo avviso, la narrazione dominante che presenta i vaccini come soluzione unica e infallibile si configura come un dogma che soffoca il dibattito scientifico e il pensiero critico. “Non ha nulla a che fare con la scienza”, ha affermato in un’intervista, parlando di un clima in cui “l’odio vaccinale è la tomba della medicina”.

Autore del libro “Vaccini sì, obblighi no”, Bellavite contesta soprattutto l’obbligatorietà della vaccinazione, sostenendo che il consenso informato debba restare alla base di ogni trattamento sanitario. Il professore ha anche espresso dubbi sull’efficacia a lungo termine dei vaccini anti-Covid e sulla loro capacità di limitare la diffusione del virus, ricordando che “i vaccinati possono infettarsi e trasmettere il virus, a volte anche più dei non vaccinati”.

Dal punto di vista immunologico, Bellavite mette in guardia contro le possibili conseguenze di una stimolazione eccessiva del sistema immunitario attraverso dosi ripetute. E sull’aspetto etico sottolinea: “Siamo ancora nella fase sperimentale. Ha ragione chi ha paura”.

Naturalmente, egli è anche un forte sostenitore della pratica omeopatica. Infatti, Paolo Bellavite sostiene che l’omeopatia non sia una moda passeggera, ma l’espressione di un profondo cambiamento culturale e scientifico che mette in discussione i limiti dell’attuale paradigma medico meccanicistico e molecolare. Questo approccio tradizionale, pur avendo ottenuto importanti risultati, non ha saputo affrontare efficacemente la complessità biologica e clinica, spesso riducendo la medicina a una frammentazione iperspecialistica. L’omeopatia, al contrario, propone una visione sistemica del paziente, centrata sull’individualità, sulla totalità dei sintomi e sulla stimolazione dei processi endogeni di guarigione, concetti che si allineano con la scienza della complessità. Bellavite rivendica per l’omeopatia una dignità scientifica, sostenendo che essa possa essere studiata con metodi sperimentali avanzati e integrata razionalmente nella medicina moderna. Si oppone con forza a ciò che definisce una campagna denigratoria nei confronti dell’omeopatia da parte dei media e di alcuni esponenti del mondo accademico, accusandoli di diffondere affermazioni false senza consentire un contraddittorio serio e competente. Pur riconoscendo il valore di farmaci convenzionali e vaccini in determinate circostanze, Bellavite li considera soluzioni alternative da adottare solo dopo aver tentato approcci più naturali e fisiologici, come omeopatia, fitoterapia, agopuntura, corretta alimentazione e igiene. In questa visione, l’omeopatia non è solo una medicina possibile, ma una medicina vera e prioritaria, da contrapporre a un uso troppo disinvolto e sintomatico della farmacologia convenzionale.

Chi è Eugenio Serravalle

Serravalle è laureato in Medicina e Chirurgia e specializzato in Pediatria Preventiva, Puericultura e Patologia Neonatale. Egli ha più volte preso posizione contro la vaccinazione di massa dei bambini, soprattutto in relazione al Covid-19. Secondo lui, l’infezione da SARS-CoV-2 non rappresenta un’emergenza sanitaria tra i più piccoli e i potenziali rischi della vaccinazione superano i benefici. “Tutti gli studi scientifici affermano che non vi è alcuna emergenza Covid tra i bambini”, ha dichiarato in un’intervista.

Serravalle contesta anche l’efficacia dei vaccini nel prevenire il contagio, soprattutto con l’avvento delle varianti come Omicron. Secondo la sua analisi, in alcuni casi i vaccinati si infettano più dei non vaccinati e l’immunità acquisita naturalmente sarebbe più duratura. Per questo, a suo dire, non sussistono i presupposti per raggiungere l’immunità di gregge né per giustificare obblighi o pressioni vaccinali.

Oltre ad essere un medico, Eugenio Serravalle risulta diplomato in Omeopatia Classica presso la Scuola Omeopatica di Livorno e svolge attività didattica come professore presso l’Accademia di Omeopatia Classica Hahnemanniana di Firenze.

Come Bellavite, quindi, anche Serravalle è un forte sostenitore dell’omeopatia.

In un articolo intitolato “Il Dr. Eugenio Serravalle risponde a Maurizio Crozza sull’Omeopatia”, Serravalle replica alle battute ironiche del comico Crozza sostenendo con fermezza l’efficacia e la correttezza della pratica omeopatica. Scrive:

“Abbiamo una regolare laurea in medicina… e se abbiamo adottato la terapia omeopatica è perché, evidentemente, ne abbiamo sperimentato l’efficacia.”

“Non si può essere venditori di fumo quando si curano pazienti… e tra questi pazienti sono numerosi i bambini e gli animali che non sono influenzabili dall’effetto placebo.”

Con questa risposta, Serravalle rigetta la critica secondo cui l’omeopatia sarebbe solo “fumo” o priva di efficacia, affermando invece di aver osservato personalmente risultati tangibili, anche in soggetti difficilmente influenzabili da placebo.

Quando i conti non tornano

A leggere le dichiarazioni dei due nominati, si potrebbe pensare di essere davanti a voci “fuori dal coro” che invitano alla cautela. Ma basta andare oltre la superficie per capire che non si tratta di sano scetticismo scientifico: siamo, piuttosto, di fronte a posizioni che, alla luce delle evidenze scientifiche disponibili, risultano in contrasto con il consenso della comunità scientifica. Ed è qui che inizia il vero problema.

Il punto centrale è che un organismo tecnico chiamato a esprimere pareri qualificati in materia di salute pubblica deve basarsi su conoscenze aggiornate e scientificamente inoppugnabili. Non può diventare il ricettacolo di discussioni inutili fatte in nome di una presunta “pluralità di opinioni”. Il concetto di democrazia politica è completamente diverso  – e molto lontano – da quello di democrazia scientifica. In una democrazia politica è legittimo avere opinioni diverse su come affrontare un problema di gestione della res publica. In ambito tecnico-scientifico, invece, un’opinione non qualificata non ha lo stesso peso di quella di chi possiede competenze specifiche e fondate sull’evidenza.

Ecco perché, per esempio, ci fu la levata di scudi del mondo accademico agrario quando si paventò l’ingresso di esponenti della biodinamica in tavoli tecnici per l’assegnazione di fondi all’agricoltura.

A mio avviso, il Ministro ha preso decisioni discutibili, in nome di una pluralità di opinioni che, in ambito scientifico, non ha alcun senso. Sta ora tentando di mettere delle pezze a questa scelta, dimenticando che anche lui è un medico e ha responsabilità che vanno ben oltre la sua funzione politica.

Se mai un responsabile istituzionale si trovasse nella condizione di dover cedere a compromessi, la scelta più coerente con la difesa della scienza sarebbe quella di rassegnare le dimissioni. Servirebbe, come nel caso della biodinamica, una sollevazione compatta del mondo scientifico e medico. Nel frattempo, nel mio piccolo, continuo a far sentire la mia voce e auspico che tutti gli organismi professionali – dagli ordini alle società scientifiche – facciano sentire la loro, in difesa della medicina basata sulle prove e della salute pubblica.

Il cortocircuito dell’antiscienza

Le posizioni di Paolo Bellavite ed Eugenio Serravalle non sono semplicemente “opinioni alternative” in un dibattito tra pari. Non si tratta di ricercatori che presentano dati nuovi, pronti a essere vagliati e discussi dalla comunità scientifica: qui non c’è nessun dato nuovo. C’è, piuttosto, un riciclo di tesi contestate e smentite dalla letteratura scientifica, che riaffiorano come vecchie erbacce tra le crepe del discorso pubblico.

Con l’omeopatia il copione lo conosciamo bene: una pratica nata oltre due secoli fa, costruita su concetti come “similia similibus curentur” e “dinamizzazione”, mai dimostrati in modo riproducibile. Nei miei articoli – dalla presunta memoria dell’acqua (link) alle più recenti fantasie agronomiche (link) – ho mostrato come la letteratura scientifica di qualità non abbia mai trovato un effetto dell’omeopatia superiore al placebo. Chi la difende, spesso, non lo fa su basi sperimentali, ma su convinzioni personali, esperienze aneddotiche o richiami a un presunto “cambiamento di paradigma” che non trova riscontro in alcun dato.

Sul fronte dei vaccini, il meccanismo è simile: si selezionano singoli studi, si estrapolano dati fuori contesto, si enfatizzano le incertezze inevitabili di ogni processo scientifico per far passare l’idea che “non sappiamo abbastanza” o che “i rischi superano i benefici”. Nei miei pezzi – da antivaccinisti ed immunità di gregge a vaccini e corretta informazione scientifica – ho spiegato come l’evidenza accumulata su milioni di dosi mostri una riduzione netta di ospedalizzazioni e decessi.

Quando Bellavite parla di “fase sperimentale” per i vaccini anti-Covid, non sta facendo un’osservazione prudente: formula un’affermazione che non trova riscontro nei dati scientifici, perché quei vaccini hanno completato tutte le fasi di sperimentazione necessarie per l’autorizzazione. Quando Serravalle afferma che “i vaccinati si infettano più dei non vaccinati”, non menziona i dati che mostrano come, pur con una protezione dall’infezione che diminuisce nel tempo, la vaccinazione resti una barriera fondamentale contro le forme patologiche gravi e le loro complicanze.

La contraddizione diventa lampante quando entrambi propongono l’omeopatia come alternativa o complemento “prioritario” alla farmacologia. Il mandato del NITAG è basato sull’evidence-based medicine, e l’omeopatia non rientra in alcuna linea guida internazionale sul trattamento o la prevenzione di malattie infettive. È paragonabile, per incoerenza, a nominare un negazionista del cambiamento climatico in un comitato per la transizione ecologica: il risultato è solo quello di minare la credibilità dell’organo stesso.

Il problema, però, non è solo tecnico. È culturale. Dare spazio istituzionale a posizioni non supportate da dati scientifici significa legittimare un messaggio pericoloso: che le evidenze scientifiche siano opinioni e che la sanità pubblica possa essere guidata da convinzioni personali. È il cortocircuito dell’antiscienza: quando la politica apre la porta a teorie già confutate, la fiducia nelle istituzioni si sgretola e i cittadini restano più esposti a bufale e disinformazione. Come ho scritto altrove  – qui e qui – quando la pseudoscienza entra dalla porta principale, la salute pubblica rischia di uscire dalla finestra.

Quando l’impossibile è solo improbabile: la cosmochimica ci insegna a essere umili

Recentemente Nature Communications ha pubblicato un articolo che ha fatto il giro del web: la scoperta di una molecola ritenuta “impossibile” secondo la chimica classica. Si tratta del methanetetrol, con formula C(OH)₄, cioè un atomo di carbonio legato a quattro gruppi ossidrilici. Se avete familiarità con la chimica organica, vi sarà già scattato un campanello d’allarme.

Un carbonio, quattro ossidrili

In chimica organica, anche due gruppi -OH sullo stesso carbonio (dioli germinali) sono instabili: tendono a disidratarsi spontaneamente, formando un carbonile più stabile. Con quattro ossidrili, il carbonio è sottoposto a forte repulsione elettronica e alta reattività: la molecola è intrinsecamente instabile nelle condizioni terrestri.

Ma lo spazio è tutta un’altra storia

L’esperimento condotto da Joshua H. Marks e colleghi ha simulato condizioni interstellari:

  • temperatura di circa 10 K (~ –263 °C);
  • pressione ultra-bassa (10⁻¹⁰ atm);
  • esposizione a radiazione energetica, simile a quella dei raggi cosmici.

In queste condizioni la molecola non riceve abbastanza energia per reagire o disidratarsi. Resta quindi “congelata” in uno stato metastabile, come se fosse bloccata nel tempo.

Instabile ≠ impossibile

Il methanetetrol non è “impossibile”: è semplicemente troppo instabile per durare a lungo alle condizioni ambientali della Terra. Ma nel vuoto cosmico, dove le collisioni tra molecole sono rarissime e la temperatura è prossima allo zero assoluto, anche le molecole più reattive possono esistere per tempi lunghissimi.

Un esempio quotidiano: l’acqua sovraraffreddata

Un buon esempio di metastabilità è l’acqua sovraraffreddata: se si raffredda dell’acqua molto pura lentamente e senza disturbarla, può restare liquida anche sotto gli 0 °C. Basta però un urto o l’aggiunta di un cristallo di ghiaccio perché si congeli all’istante, liberando calore.

Il methanetetrol nello spazio si comporta allo stesso modo: esiste in uno stato “delicato”, che può durare milioni di anni solo finché non interviene qualcosa a modificarlo.

Un’eredità cosmica

È importante ricordare che le molecole presenti oggi sulla Terra — comprese quelle che hanno contribuito all’origine della vita — sono in parte eredi di queste molecole “cosmiche”. Nei primi miliardi di anni, comete, meteoriti e polveri interstellari hanno portato sulla Terra materiali formatisi in ambienti estremi, spesso metastabili.

Queste molecole, una volta inglobate nel giovane pianeta, si sono trasformate: alcune sono sopravvissute, altre si sono degradate, altre ancora hanno reagito dando origine a sistemi sempre più complessi. La chimica della vita, in questo senso, è figlia della chimica dello spazio, anche se si è evoluta in condizioni molto diverse.

Anche la Terra ha i suoi estremi

Non dobbiamo però pensare che condizioni “impossibili” esistano solo nello spazio. Anche sulla Terra troviamo ambienti estremi in cui si manifestano forme di chimica — e persino di biologia — del tutto inattese.

  • Nelle saline di Trapani, ad esempio, vivono microrganismi capaci di resistere a concentrazioni di sale che ucciderebbero qualsiasi cellula “normale”.
  • Nei pressi delle bocche vulcaniche sottomarine, dove temperature e pressioni sono altissime, esistono comunità microbiche che metabolizzano zolfo e metalli.
  • In ambienti acidi, alcalini, radioattivi o privi di ossigeno, prosperano organismi estremofili che mettono in crisi i nostri criteri su cosa è “compatibile con la vita”.

Anche qui la natura ci insegna che la stabilità è relativa: ciò che sembra impossibile in una condizione può essere perfettamente normale in un’altra.

Uno sguardo all’origine della complessità

L’interesse principale di questa scoperta non è nella molecola in sé, ma nei meccanismi di formazione. L’esperimento ha mostrato che partendo da semplici ghiacci di CO₂ e H₂O si possono generare:

I calcoli teorici confermano che, se c’è sufficiente CO₂ nello spazio, il methanetetrol potrebbe già esistere là fuori — congelato nei ghiacci cosmici, in attesa di una nuova reazione.

Conclusione

La chimica nello spazio non viola le regole: le applica in modo diverso. Il methanetetrol ci ricorda che non possiamo giudicare la plausibilità di una molecola solo dalle condizioni terrestri. E ci insegna una lezione ancora più importante:
la chimica, come la vita, nasce dove trova spazio per esistere — anche se quel luogo è a 10 Kelvin, nel vuoto cosmico o in una salina siciliana.

I cambiamenti climatici? Sì, siamo noi i responsabili.

Vi siete mai trovati di fronte a un negazionista climatico? Io sì!

C’è chi dice che i cambiamenti climatici non esistono, perché “oggi piove” o “ieri faceva freddo”. A questi ho già risposto nei primi due articoli della serie, parlando del riscaldamento globale e dei suoi effetti locali – temporali compresi – e del grande rimescolamento che avviene negli oceani.

Ma poi ci sono quelli che ammettono sì, il clima sta cambiando, però non è colpa nostra. “È il Sole!”, “Sono i vulcani!”, “È sempre successo!”.

Ecco, è a loro che è dedicato questo articolo.

Perché sì, il clima è sempre cambiato: durante le ere glaciali e le fasi interglaciali, le grandi estinzioni, le migrazioni dei continenti, ma mai così, e mai così in fretta.

La temperatura media globale è aumentata di oltre un grado in poco più di un secolo. La concentrazione di CO2 nell’atmosfera ha superato le 420 parti per milione, un valore che non si era mai visto negli ultimi 800.000 anni e probabilmente nemmeno negli ultimi tre milioni.

E questo non lo dicono gli opinionisti, ma le carote di ghiaccio estratte dall’Antartide e dalla Groenlandia, dove ogni bolla d’aria intrappolata è una macchina del tempo (Staffelbach et al., 1991; Berends et al., 2021; Bauska, 2024).

La traccia dell’uomo

Quando osserviamo il passato del clima, vediamo che le sue variazioni sono state guidate da forzanti naturali: cicli orbitali (i cosiddetti cicli di Milanković), variazioni dell’attività solare, grandi eruzioni vulcaniche. Questi meccanismi hanno regolato per millenni l’alternarsi di periodi glaciali e interglaciali. Tuttavia, nessuna di queste spiegazioni è sufficiente a giustificare l’aumento repentino e marcato della temperatura media globale registrato negli ultimi 150 anni.

Solo includendo nei modelli climatici le forzanti antropiche – in particolare le emissioni di gas serra derivanti dalla combustione di combustibili fossili, la deforestazione su larga scala, l’allevamento intensivo e l’uso massiccio di fertilizzanti – è possibile riprodurre fedelmente l’andamento osservato del riscaldamento globale (Stott et al., 2000; Meehl et al., 2004; Lee et al., 2016; Abatzoglou et al., 2018; Schlunegger et al., 2019; He et al., 2023; Tjiputra et al., 2023; Abera et al., 2024; Gong et al. 2024).

Questa evidenza è stata raccolta e consolidata da decenni di ricerca, culminando nella sintesi fornita dall’Intergovernmental Panel on Climate Change (IPCC) nel suo Sesto Rapporto di Valutazione (AR6, 2021), dove si legge:

“It is unequivocal that human influence has warmed the atmosphere, ocean and land.”

È la prima volta che l’IPCC utilizza il termine “inequivocabile” per descrivere l’influenza umana sul sistema climatico. Questo non è frutto di una singola analisi o di un’interpretazione soggettiva, ma il risultato di milioni di osservazioni, migliaia di simulazioni indipendenti e centinaia di studi scientifici pubblicati su riviste peer-reviewed. Un risultato convergente, robusto e statisticamente solido, ottenuto da comunità scientifiche di tutto il mondo.

In altre parole, senza introdurre l’uomo nelle equazioni, il riscaldamento osservato non si spiega.

La firma fossile

Anche la chimica ci aiuta a riconoscere con chiarezza il responsabile. Il carbonio che proviene dai combustibili fossili ha una composizione isotopica distinta rispetto a quello attivamente scambiato tra atmosfera, biosfera e oceani. In particolare, il rapporto tra gli isotopi stabili del carbonio (13C/12C) è un indicatore chiave: i combustibili fossili, derivati dalla sostanza organica vegetale antica, sono naturalmente poveri in 13C. Quando bruciamo carbone, petrolio o gas naturale, questo carbonio “leggero” si riversa nell’atmosfera, abbassando il δ13C atmosferico in modo misurabile (Keeling et al., 1979; Francey et al., 1999).

Questo segnale isotopico rappresenta una vera e propria firma chimica dell’origine fossile della CO2 in eccesso. È come se la Terra ci stesse restituendo lo scontrino della nostra attività industriale.

Un’ulteriore conferma arriva dal monitoraggio del radiocarbonio (14C): essendo un isotopo radioattivo con un’emivita di circa 5.700 anni, è completamente assente nei combustibili fossili, che hanno milioni di anni. L’immissione massiccia di CO2 fossile diluisce il contenuto di 14C nell’atmosfera, un fenomeno noto come Suess effect (Suess, 1955; Graven et al., 2012).

Ma la CO2 non è l’unico gas climalterante in aumento. A questo si aggiungono due gas serra minori ma molto più potenti per unità di massa: il metano (CH4) e il protossido di azoto (N2O). Il metano è rilasciato da fonti naturali, ma in misura crescente anche da allevamenti intensivi, risaie e attività estrattive (Kirschke et al., 2013), mentre il protossido di azoto deriva principalmente dall’uso agricolo di fertilizzanti azotati (Syakila & Kroeze, 2011). Entrambi i gas contribuiscono in modo sostanziale al riscaldamento globale, con un potere climalterante rispettivamente 28–34 volte (CH4) e circa 265 volte (N2O) superiore a quello della CO2 su scala centennale (IPCC AR6, 2021).

La loro crescita, documentata in registrazioni atmosferiche e bolle d’aria nei ghiacci, segue l’espansione delle attività agricole e industriali umane, non eventi naturali. Anche qui, la firma è inequivocabile.

Gli alibi non reggono

C’è chi punta il dito contro i vulcani, sostenendo che siano loro a rilasciare enormi quantità di CO₂. Ma questa affermazione è smentita dai dati: le emissioni vulcaniche annue di anidride carbonica sono stimate intorno ai 0,26 gigatonnellate, contro le oltre 36 gigatonnellate prodotte ogni anno dalle attività umane (Andres et al., 2012; Burton et al., 2013). In altre parole, le emissioni antropiche superano quelle vulcaniche di almeno 100 volte. I vulcani, inoltre, spesso hanno effetti raffreddanti temporanei sul clima, a causa degli aerosol solforici che riflettono la luce solare (come accadde dopo l’eruzione del Pinatubo nel 1991; Soden et al., 2002).

Altri tirano in ballo il Sole. Ma le osservazioni satellitari dal 1978 in poi mostrano che l’irraggiamento solare totale (TSI) è rimasto sostanzialmente stabile o ha addirittura subito una lieve diminuzione. Se il Sole fosse il responsabile del riscaldamento, ci aspetteremmo un riscaldamento uniforme in tutta l’atmosfera. Invece, ciò che si osserva è un riscaldamento netto nella troposfera e un raffreddamento nella stratosfera — una firma tipica dell’effetto serra (Santer et al., 2013).

Altri ancora evocano vaghi “cicli naturali”, ma senza mai specificare quali. I cicli oceanici come El Niño o la PDO (Pacific Decadal Oscillation) possono modulare il clima a livello regionale e su scala interannuale o decadale, ma non spiegano la tendenza globale e persistente all’aumento delle temperature. Sono fluttuazioni attorno a una curva che, negli ultimi decenni, ha una pendenza chiaramente positiva.

La verità è che ogni singolo grande ente scientifico mondiale — dalla NASA alla NOAA, dal Met Office britannico fino al Centro Europeo Copernicus, e naturalmente l’IPCC — concorda su questo punto:

la causa principale del riscaldamento globale osservato dal 1850 a oggi è l’attività umana.

Non è tutta colpa nostra?

Certo, i sistemi climatici sono complessi. Una componente naturale è sempre presente.
Ma i modelli climatici sono in grado di isolare le diverse forzanti: senza introdurre le emissioni antropiche, non si riesce a riprodurre l’aumento delle temperature globali osservato nel XX e XXI secolo (Weart, 2009; IPCC AR5, 2013; Rosenzweig & Neofotis, 2013; White, 2025).
Senza l’uomo, questo riscaldamento non ci sarebbe stato. E senza l’uomo, non sarà possibile fermarlo.

Una responsabilità storica

Siamo la prima generazione a vedere, misurare e comprendere gli effetti del cambiamento climatico su scala planetaria. Ma siamo anche — con ogni probabilità — l’ultima che ha ancora tempo per intervenire e limitare i danni più gravi.
Non parliamo di proiezioni astratte o scenari lontani: le ondate di calore, gli incendi fuori scala, la fusione dei ghiacci, le migrazioni forzate per siccità o inondazioni sono già realtà, e sono il frutto diretto di decenni di emissioni accumulate.

A causare il cambiamento climatico è stata l’attività dell’uomo moderno, non l’uomo in quanto specie.
Abbiamo costruito un modello economico basato sull’uso massiccio di combustibili fossili, sull’espansione urbana, sull’agricoltura intensiva, sull’estrazione incessante di risorse. Questo sistema ci ha dato energia, mobilità, benessere. Ma ha anche rotto l’equilibrio termico del pianeta.

Il clima sta cambiando per colpa nostra. Ma proprio per questo, possiamo ancora cambiarlo noi.

Non basta più ridurre “un po’” le emissioni o piantare qualche albero. Serve una trasformazione sistemica:

  • Decarbonizzare i trasporti, l’energia e l’industria, puntando su fonti rinnovabili come l’eolico e il solare, ma senza pregiudizi ideologici nei confronti del nucleare, che – come ho già discusso nell’articolo L’atomo della pace – resta una delle poche fonti capaci di fornire energia a basse emissioni su larga scala.
  • rivedere le pratiche agricole e alimentari, riducendo l’impatto ambientale della produzione primaria attraverso un uso più razionale di risorse come acqua, fertilizzanti e suolo, e promuovendo sistemi colturali e zootecnici improntati alla sostenibilità. L’agricoltura integrata, che prevede un equilibrio tra coltivazioni e allevamenti, può contribuire a mantenere la fertilità dei suoli, ridurre le emissioni climalteranti e garantire una produzione alimentare efficiente e resiliente. Anche la lotta agli sprechi resta fondamentale lungo tutta la filiera.
  • proteggere e ripristinare gli ecosistemi naturali, perché foreste, zone umide e suoli ricchi di sostanza organica svolgono un ruolo chiave come serbatoi di carbonio. Intervenire su scala paesaggistica significa rafforzare la capacità del pianeta di tamponare gli effetti del riscaldamento globale, rallentando i feedback più pericolosi.
  • adattare città e territori agli eventi estremi già in corso, ripensando la gestione del rischio, l’urbanizzazione selvaggia e l’impermeabilizzazione del suolo. L’aumento delle temperature e la frequenza di fenomeni meteorologici estremi impongono infrastrutture più resilienti, spazi verdi urbani, reti idriche e sistemi di allerta progettati per il clima che verrà – non per quello che avevamo.

E accanto alle scelte politiche e industriali, anche le azioni individuali contano: ridurre gli sprechi, consumare meno e meglio, informarsi, partecipare, votare con consapevolezza.

Non è una colpa da espiare.
Non serve sentirsi inadeguati o sopraffatti.
È una responsabilità storica che possiamo ancora scegliere di assumerci.
Perché, se il problema è stato causato dall’uomo, la soluzione può venire solo da noi.

Il grande mescolamento: il ruolo vitale degli oceani e le conseguenze del riscaldamento globale

Per capire davvero cosa significhi “riscaldamento globale”, dobbiamo prima capire come funziona il sistema che, da sempre, modera il clima della Terra: gli oceani. Sono loro, infatti, il gigantesco ingranaggio nascosto che regola la distribuzione del calore, l’equilibrio dell’umidità e la circolazione dell’energia termica sul nostro pianeta.

Le acque oceaniche non stanno mai ferme. Si muovono in superficie, spinte dai venti; si muovono in profondità, guidate da variazioni di temperatura e salinità. In questo continuo rimescolamento – silenzioso, ma potentissimo – si nasconde il segreto della nostra stabilità climatica. Ogni corrente trasporta calore dai tropici verso i poli e viceversa, mitiga le temperature, distribuisce nutrienti e sostiene la vita marina.

È un equilibrio delicato, raffinato, essenziale. E proprio per questo vulnerabile.

Se le acque si muovono meno, se non si mescolano più come dovrebbero, l’intero sistema comincia a rallentare, a scompensarsi. Il clima si fa più estremo, le piogge più irregolari, le stagioni meno distinguibili.

Ecco perché non possiamo davvero comprendere il cambiamento climatico senza prima esplorare i meccanismi che governano il movimento delle acque nei grandi corpi idrici: oceani, mari, fiumi, laghi.

A partire da qui, cercherò di spiegare – con l’aiuto della fisica e della chimica – come funzionano i movimenti orizzontali e verticali delle acque e perché sono così importanti per la regolazione del clima. Solo dopo, potremo affrontare il nodo centrale: cosa succede quando, a causa dell’aumento delle temperature globali, questi meccanismi si inceppano.

Le grandi correnti: il vento comanda

Partiamo dalla superficie. Le acque degli oceani sono spinte dai venti, ma non in modo casuale. Intorno all’equatore, ad esempio, gli Alisei soffiano da est verso ovest e trascinano con sé le acque superficiali. Alle latitudini medie (tra 30° e 60°), i venti occidentali spingono invece le correnti verso est.

Quando queste correnti incontrano i continenti, vengono deviate. Ed è qui che entra in gioco la forza di Coriolis: un effetto legato alla rotazione terrestre che curva i flussi d’acqua verso destra nell’emisfero nord e verso sinistra in quello sud. Il risultato? Enormi vortici oceanici che formano veri e propri “nastri trasportatori” d’acqua calda e fredda.

Uno degli esempi più noti è la Corrente del Golfo, che trasporta acque tropicali lungo la costa orientale del Nord America fino all’Europa occidentale, regalando inverni miti a paesi come il Regno Unito e la Norvegia.

Come illustrato in Figura 1, le acque superficiali degli oceani (fino a circa 100 metri di profondità) si muovono orizzontalmente, spinte soprattutto dai venti. La presenza dei continenti ne modifica il percorso, generando ampie correnti che si piegano e si avvolgono in vortici permanenti, visibili in tutti i principali bacini oceanici.

Figura 1. Rappresentazione delle principali correnti oceaniche superficiali. A causa della presenza dei continenti, le correnti deviano dal loro percorso originale, generando grandi vortici oceanici. Immagine scaricata liberamente da: https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Le correnti profonde: il ruolo del sale e della temperatura

Ma c’è un altro motore, più lento, silenzioso e profondo: il rimescolamento verticale. È un processo meno visibile rispetto alle correnti superficiali, ma non meno importante. In alcune regioni del pianeta, come le zone tropicali aride o le aree polari, l’acqua in superficie subisce trasformazioni che ne modificano profondamente la densità.

Nelle aree calde, per esempio, l’evaporazione intensa concentra i sali nell’acqua residua. Più sale significa maggiore densità: e un’acqua più densa tende naturalmente ad affondare verso gli strati profondi dell’oceano.
Al contrario, in altre zone l’acqua può essere diluita da piogge abbondanti o dallo scioglimento dei ghiacci, diventando più dolce e meno densa, e quindi destinata a risalire.

Anche la temperatura gioca un ruolo cruciale. Quando l’acqua marina si raffredda intensamente – come accade ai poli – tende a ghiacciarsi. Durante il congelamento, però, il ghiaccio espelle i sali: ciò che resta intorno ai blocchi di ghiaccio è un’acqua estremamente salina e fredda. Questo liquido denso sprofonda verso il fondo oceanico, innescando così un flusso verticale che alimenta la circolazione delle acque a grandi profondità.

Questo meccanismo prende il nome di circolazione termoalina: un termine che unisce l’effetto della temperatura (“termo”) a quello del sale (“alina”, dal greco halos). È grazie a questa lenta ma continua danza tra acque fredde, salate e profonde, e acque più calde e superficiali, che l’oceano riesce a rimescolarsi in profondità, mantenendo in equilibrio il trasporto di calore, nutrienti e anidride carbonica tra gli strati più esterni e quelli abissali.

Il grande nastro trasportatore globale

Combinando i movimenti orizzontali delle acque – spinti dai venti – con quelli verticali – governati da differenze di temperatura e salinità – si ottiene un colossale circuito planetario che i climatologi chiamano Global Conveyor Belt, ovvero nastro trasportatore oceanico globale.

È un sistema mastodontico, profondo e lentissimo. Le acque che oggi affondano nel Nord Atlantico, gelide e ricche di sale, possono impiegare fino a mille anni per completare il loro viaggio nei fondali oceanici e riaffiorare in superficie dall’altra parte del mondo. Una corrente profonda che scorre a pochi centimetri al secondo, eppure fondamentale per la vita sul pianeta.

Quello che si viene a creare è un ciclo continuo: le correnti calde e superficiali (come la Corrente del Golfo) trasportano calore dai tropici verso i poli; lì, l’acqua si raffredda e sprofonda, diventando corrente fredda e profonda che scivola silenziosamente nei meandri degli oceani, fino a riemergere in zone tropicali o subtropicali, dove riprende il viaggio in superficie.
Questo meccanismo globale è illustrato nella Figura 2.

Figura 2. Rappresentazione semplificata della circolazione termoalina, nota anche come Global Conveyor Belt. Le correnti calde e superficiali (in rosso) scorrono verso le regioni polari, dove l’acqua raffreddata e più salina sprofonda, originando correnti fredde profonde (in blu) che si muovono attraverso gli oceani fino a riemergere nelle regioni tropicali, completando il ciclo. Immagine liberamente disponibile su https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Quando il nastro si inceppa

Tutto questo sistema – perfetto, lento, ma vitale – può essere compromesso. Il riscaldamento globale sta alterando proprio quei meccanismi che regolano la circolazione termoalina, interferendo con la densità delle acque superficiali nelle zone chiave del pianeta.

Nelle regioni dove si formano le acque profonde, come il Nord Atlantico, il processo dipende dalla capacità dell’acqua superficiale di diventare abbastanza densa da affondare. Ma con l’aumento delle temperature globali, entrano in gioco due fattori destabilizzanti:

  • lo scioglimento dei ghiacci artici immette enormi quantità di acqua dolce nei mari;
  • l’intensificarsi delle precipitazioni diluisce ulteriormente le acque superficiali.

Il risultato? L’acqua resta più dolce, più calda, e quindi meno densa. Non affonda più come dovrebbe. E se non affonda, il motore si spegne.

Questo porta a un fenomeno ben noto in oceanografia: la stratificazione delle acque. Gli strati superficiali diventano sempre più stabili, separati da quelli profondi da un gradiente di densità così marcato da impedire ogni rimescolamento. È come se l’oceano fosse “bloccato a strati”, con uno strato leggero e caldo che galleggia sopra uno freddo e denso, ma senza più scambi attivi tra i due (Figura 3).

Le conseguenze sono profonde:

  • Il nastro trasportatore globale rallenta o si indebolisce, fino al rischio – non solo teorico – di un blocco parziale o totale.
  • Il calore non viene più redistribuito: i tropici si surriscaldano, le regioni temperate (come l’Europa nord-occidentale) rischiano un paradossale raffreddamento.
  • L’acqua profonda non riceve più ossigeno né nutrienti, danneggiando la vita marina.
  • In superficie, mancano i nutrienti che sostengono il plancton: cala la produttività biologica degli oceani.
  • E soprattutto: l’oceano assorbe meno anidride carbonica per due motivi. Da un lato, l’aumento della temperatura riduce la solubilità della CO₂ in acqua; dall’altro, la stratificazione blocca il rimescolamento, impedendo il trasporto della CO₂ in profondità. Il risultato è che più CO₂ resta nell’atmosfera, accelerando ulteriormente il riscaldamento globale.

È una spirale pericolosa, un meccanismo di retroazione in cui l’effetto rafforza la causa: più caldo → più stratificazione → meno rimescolamento → meno assorbimento di CO₂ → ancora più caldo.
Un classico cane che si morde la coda, ma su scala planetaria.

Figura 3. Meccanismo della stratificazione degli oceani. Il riscaldamento globale, lo scioglimento dei ghiacci e l’aumento delle precipitazioni rendono l’acqua superficiale più calda e dolce, quindi meno densa. Questo riduce il rimescolamento verticale con gli strati profondi, limitando lo scambio di calore, nutrienti e la capacità dell’oceano di assorbire CO₂.

Conclusioni

Gli oceani non sono solo grandi riserve d’acqua: sono ingranaggi dinamici e complessi che regolano il clima terrestre, trasportano calore, rimescolano nutrienti e assorbono anidride carbonica. La loro capacità di farlo dipende dal delicato equilibrio tra venti, salinità e temperatura. Quando questo equilibrio si spezza — a causa dell’aumento delle temperature globali — il sistema si inceppa: le acque si stratificano, il rimescolamento si blocca, la circolazione rallenta.

Le conseguenze, anche se lente a manifestarsi, sono profonde: clima più estremo, ecosistemi marini impoveriti e maggiore accumulo di CO₂ in atmosfera. È una crisi silenziosa, ma già in atto.
Per capire e affrontare il cambiamento climatico, non basta guardare al cielo: dobbiamo guardare al mare, e comprendere come funziona — e come sta cambiando — il grande mescolamento degli oceani.

Questo articolo è parte di un percorso dedicato al riscaldamento climatico.
Nel primo appuntamento ci siamo chiesti perché, in un mondo sempre più caldo, possano verificarsi fenomeni estremi come piogge torrenziali e temporali improvvisi (leggi qui).
Oggi abbiamo esplorato il ruolo nascosto ma fondamentale degli oceani nella regolazione del clima.

Nel prossimo articolo parleremo invece di come l’attività umana stia alterando questi equilibri, e perché il riscaldamento globale non può più essere considerato un semplice fenomeno naturale.

 

Caldo globale, temporali locali: l’apparente paradosso

Introduzione

Negli ultimi anni, gli eventi meteorologici estremi sono diventati sempre più frequenti, sia in Italia che nel resto del mondo.
Una mappa interattiva dell’ISPRA, consultabile online, mostra chiaramente dove questi eventi si sono verificati in Italia tra il 2020 e il 2024. Si osservano piogge torrenziali, grandinate eccezionali, ondate di calore anomale e prolungate. Tutti segnali di un sistema climatico sempre più instabile.

Come conseguenza di queste anomalie, è sempre più comune imbattersi – soprattutto sui social – in discussioni o thread in cui si afferma che fenomeni come le alluvioni, seguite da bruschi cali di temperatura, smentirebbero l’esistenza del riscaldamento globale.
Una frase ricorrente è:

“Altro che riscaldamento globale: ieri grandinava e oggi ci sono 18 gradi!”

Chi vive in zone come Palermo – dove, negli ultimi anni, si sono registrati picchi termici estremi e livelli di umidità superiori all’80%, anche in pieno giorno – tende invece a riconoscere, in modo molto concreto, la realtà del cambiamento climatico.

“Orpo… che caldo. Veramente stiamo andando verso qualcosa che non abbiamo mai vissuto.”

Ma come si concilia tutto questo?

Come può il riscaldamento globale provocare temporali violenti, grandinate e persino abbassamenti improvvisi della temperatura?

Dobbiamo innanzitutto ricordare che la logica scientifica è controintuitiva. Non possiamo applicare al metodo scientifico la logica che usiamo tutti i giorni per collegare ciò che vediamo con ciò che pensiamo sia vero: la realtà fisica spesso sorprende e non si lascia interpretare con impressioni o sensazioni.

Sulla base di queste premesse, chiediamoci cosa accade sulla superficie terrestre quando la temperatura aumenta di un solo grado Celsius. Un grado può sembrare poco. Se tocchiamo una pentola a 70 °C proviamo lo stesso bruciore che a 71 °C. E non distinguiamo tra il freddo di 0 °C e quello di -1 °C.

Ma il pianeta non è il nostro palmo, né il nostro naso.

Nel sistema Terra, un solo grado può fare una differenza gigantesca: significa più energia, più evaporazione, più acqua nell’atmosfera. E più acqua nell’aria significa, potenzialmente, più pioggia, più violenza, più squilibrio.

Per capire quanto sia concreta questa affermazione, facciamo un semplice calcolo: stimiamo quanta acqua in più evapora dagli oceani quando la loro temperatura superficiale sale di un solo grado come, per esempio, da 25 °C a 26 °C.

Effetti della temperatura sull’equilibrio H2Oliquido = H2Ovapore

Per semplicità, consideriamo solo una porzione di oceano estesa per 100 milioni di metri quadrati (pari a 100 km²) e limitiamoci al primo metro d’aria immediatamente sovrastante. Vogliamo capire quanta acqua in più finisce nell’aria subito sopra l’oceano quando la sua temperatura sale di un solo grado, da 25 °C a 26 °C.

  1. L’equazione di Antoine

Per stimare la pressione di vapore dell’acqua alle due temperature, usiamo la formula empirica di Antoine, valida tra 1 e 100 °C:

log₁₀(P) = A − B / (C + T)

dove:

  • P è la pressione di vapore in mmHg,
  • T è la temperatura in gradi Celsius,
  • A, B, C sono coefficienti specifici per ciascuna sostanza (ad esempio, acqua, etanolo, acetone…) e validi solo entro certi intervalli di temperatura. Nel caso specifico dell’acqua: A = 8.07131; B = 1730.63; C = 233.426 (valori specifici per l’acqua in questo intervallo). Il riferimento per i valori numerici di A, B e C è qui.

Convertiamo poi la pressione in Pascal (1 mmHg = 133.322 Pa).

  1. I risultati

Applicando i valori:

  • a 25 °C si ottiene P ≈ 23.76 mmHg, cioè circa 3158 Pa;
  • a 26 °C si ottiene P ≈ 25.13 mmHg, cioè circa 3351 Pa.
  1. Calcolo della densità del vapore

Convertiamo ora la pressione parziale in densità di vapore acqueo (ρ), usando l’equazione dei gas ideali:

ρ = (P × M) / (R × T)

dove:

  • P è la pressione in pascal,
  • M è la massa molare dell’acqua (18.015 g/mol),
  • R è la costante dei gas (8.314 J/mol·K),
  • T è la temperatura assoluta in Kelvin.

Calcolando:

  • a 25 °C (298.15 K) si ottiene ρ ≈ 0.02295 kg/m³;
  • a 26 °C (299.15 K) si ottiene ρ ≈ 0.02431 kg/m³.
  1. L’aumento netto di vapore

La differenza di densità è:

0.02431 − 0.02295 = 0.00136 kg/m³

Moltiplichiamo per il volume d’aria (100 000 000 m³):

0.00136 × 100 000 000 = 136.000 kg

In altre parole, un aumento di temperatura di 1 °C (da 25 a 26 °C) genera 136 tonnellate di vapore in più, solo su una superficie di 100 km² e solo nello strato d’aria immediatamente sopra l’oceano.

E se fosse tutto l’Atlantico?

Se estendiamo il calcolo all’intera superficie dell’Oceano Atlantico – circa 116 milioni di km² – otteniamo:

157 800 000 000 kg, ovvero 158 milioni di tonnellate di vapore acqueo in più.

E questo, lo ripeto, solo nello strato d’aria immediatamente sopra la superficie, per un singolo grado in più.

Ma quei numeri non restano sulla carta. Entrano in circolo nell’atmosfera, e da lì comincia il loro impatto reale.

Dall’oceano alla pioggia: il viaggio del vapore

Ma cosa succede a tutta quest’acqua una volta entrata in atmosfera?

Viene trasportata dalle correnti. Quando incontra masse d’aria più fredde, condensa formando nubi e poi pioggia. Se la quantità di vapore è anomala, lo saranno anche le precipitazioni: brevi, violente, improvvise.

Inoltre, il vapore acqueo è attivo nell’infrarosso: è un gas serra molto più potente della CO₂, anche se molto più effimero. In climatologia si parla di feedback positivo: l’aumento della temperatura fa evaporare più acqua → il vapore trattiene più calore → aumenta ancora la temperatura → e così via.

Quella pioggia non è “contro” il riscaldamento: è il riscaldamento

Piogge torrenziali, grandinate e cali locali della temperatura non smentiscono il riscaldamento globale. Al contrario, ne sono una conseguenza. Il sistema Terra si scalda in media, ma localmente può produrre raffreddamenti temporanei proprio in risposta a squilibri energetici più ampi.

Conclusioni

Il calcolo che ho presentato è, ovviamente, una semplificazione. Non tiene conto del vento, della turbolenza, della salinità, né della reale dinamica verticale dell’atmosfera. Non pretende di descrivere con esattezza tutto ciò che accade nell’interazione tra oceano e cielo. Ma ha un obiettivo chiaro: rendere visibile, con i numeri, una verità che l’intuizione fatica a cogliere.

Perché la logica scientifica non coincide con il senso comune.

Come ho già scritto, nel nostro vissuto quotidiano, un solo grado in più non è nulla. Non percepiamo differenze tra 0 °C e -1 °C, tra 70 °C e 71 °C. Ma il sistema Terra non funziona secondo ciò che sentiamo sulla pelle: funziona secondo leggi fisiche. E in fisica, un solo grado può significare miliardi di tonnellate d’acqua in più nell’atmosfera. Significa più energia, più instabilità, più violenza meteorologica.

Paradossalmente, quello che percepiamo come una smentita del riscaldamento globale – la grandine, il temporale, il crollo improvviso delle temperature – ne è invece una manifestazione diretta.

Il clima risponde con intensità e disordine proprio perché è fuori equilibrio. E lo è, in parte, per colpa di quell’apparente “piccolo” grado in più.

La scienza ci dà gli strumenti per misurare, per capire, per anticipare.

Sta a noi scegliere se vogliamo continuare a confondere il temporale con una tregua, o iniziare a leggere in quelle piogge il segnale di un sistema che sta cambiando – e lo sta facendo sotto i nostri occhi.

Quella pioggia che ti ha fatto dire “ma quale riscaldamento globale?” è esattamente il motivo per cui dovremmo iniziare a preoccuparci.

Tricochimica: un viaggio tra bellezza, scienza e indagini

Introduzione

Che cosa possono raccontarci i nostri capelli? Molto più di quanto immaginiamo. Non sono soltanto un segno di identità o di stile personale, ma vere e proprie architetture biologiche capaci di custodire informazioni preziose: sulla nostra salute, sulle sostanze a cui siamo stati esposti e persino sulle tracce lasciate da trattamenti cosmetici.

È proprio per raccontare questa dimensione scientifica, spesso trascurata, che voglio parlare di tricochimica: uno studio chimico del capello in tutti i suoi aspetti, dall’estetica alla tossicologia e fino all’analisi forense.

Il termine tricochimica non è nuovo: è stato proposto già anni fa dal collega Lucio Campanella, che lo ha usato per descrivere la chimica applicata ai capelli. Riprendo volentieri questo nome, perché lo trovo perfetto per raccontare – in modo serio ma accessibile – i tanti aspetti che uniscono bellezza, scienza e indagini.

La chimica, infatti, non è una disciplina astratta. È uno strumento concreto per capire fenomeni quotidiani. Capire come funzionano le tinture, le permanenti o i trattamenti liscianti significa comprendere reazioni chimiche precise. Allo stesso modo, analizzare i capelli per individuare droghe o metalli pesanti richiede metodiche chimico-analitiche raffinate, fondamentali in medicina legale e nelle indagini forensi.

In questo articolo proverò a esplorare questo campo affascinante e multidisciplinare. Vedremo come sono fatti i capelli, quali trasformazioni chimiche possono subire e come la chimica ci aiuta a leggerne la storia. Un viaggio che unisce bellezza e scienza, con uno sguardo attento anche alle implicazioni sociali ed etiche di queste conoscenze.

Il significato evoluzionistico dei capelli

Per affrontare la chimica dei capelli in modo completo è utile partire da una domanda più profonda: perché l’essere umano ha ancora i capelli sulla testa? A differenza della maggior parte dei mammiferi, che conservano un pelame diffuso sul corpo, la nostra specie si caratterizza per una pelle glabra salvo alcune aree strategiche, come il cuoio capelluto.

Le ipotesi evolutive più accreditate interpretano i capelli come una reliquia evolutiva che ha progressivamente perso molte delle funzioni originarie di isolamento termico. Tuttavia, la loro conservazione sul cranio potrebbe aver offerto vantaggi adattativi. Un ruolo plausibile è la protezione dal surriscaldamento diretto, agendo da schermo contro la radiazione solare intensa, specialmente in climi aperti e soleggiati. Allo stesso tempo, il cuoio capelluto riccamente vascolarizzato favorisce la dispersione di calore in eccesso. La distribuzione e la densità dei capelli umani sono quindi il risultato di una pressione selettiva che ha equilibrato protezione e termoregolazione.

Inoltre, il capello ha mantenuto importanti valenze sociali e sessuali. Il colore, la forma e la consistenza dei capelli variano tra individui e popolazioni, diventando segnali di riconoscimento, età, salute e persino desiderabilità sessuale. Queste caratteristiche hanno stimolato la selezione sessuale e culturale, contribuendo a fare del capello un elemento centrale dell’identità personale.

A conferma della sua rilevanza evolutiva, studi recenti hanno identificato correlazioni genetiche di fine scala con la morfologia del capello, evidenziando la selezione naturale e la divergenza adattativa in diverse popolazioni umane.

Comprendere queste dimensioni evolutive non è solo una curiosità: ci ricorda che la chimica del capello studia un tessuto vivo di storia biologica e culturale. Anche la tricochimica si deve confrontare con questa eredità evolutiva, che plasma le caratteristiche fisiche e chimiche della fibra capillare così come le funzioni sociali che ancora oggi attribuiamo ai nostri capelli.

Nascita e crescita del capello: la biologia del follicolo pilifero

Per comprendere davvero la chimica del capello – la tricochimica – è fondamentale partire dalla sua biologia. Il capello non è soltanto la fibra che vediamo spuntare dalla cute, ma il risultato di un processo di crescita complesso che avviene all’interno del follicolo pilifero, una struttura specializzata immersa nella pelle.

Il follicolo pilifero è una piccola tasca di epitelio che avvolge la parte viva del capello e ne dirige la formazione. Al suo interno si trova la papilla dermica, ricca di vasi sanguigni, che fornisce nutrienti, ossigeno e, non meno importante, trasporta farmaci e metalli pesanti che possono incorporarsi nella fibra in formazione. È proprio grazie a questa connessione vascolare che il capello diventa un archivio biologico capace di registrare, nel tempo, esposizioni a sostanze esterne.

Tradizionalmente, il ciclo di vita del capello si suddivide in tre fasi principali:

Anagen: fase di crescita attiva, che può durare anni. In questa fase le cellule della matrice germinativa si moltiplicano rapidamente e si cheratinizzano progressivamente, formando il fusto del capello che emerge dalla cute. È qui che avviene l’incorporazione più stabile di sostanze esogene, rendendo questa fase cruciale per l’analisi tossicologica.

Catagen: breve fase di regressione (2–3 settimane) in cui l’attività proliferativa si arresta e il follicolo si contrae.

Telogen: fase di riposo (2–6 mesi) al termine della quale il capello smette di crescere e rimane “in attesa” prima di essere espulso.

Vale la pena segnalare che la letteratura più recente tende a riconoscere anche una quarta fase, detta exogen, che descrive in modo più specifico il distacco vero e proprio e la caduta del capello ormai morto dal follicolo. Questa distinzione, pur non essendo sempre adottata in modo uniforme, riflette un approccio più moderno e dettagliato alla biologia del ciclo pilifero.

Un altro aspetto importante del follicolo è la presenza di strutture di supporto come la guaina epiteliale interna, che avvolge la fibra nelle sue prime fasi di formazione. In questa guaina si esprime la trichohyalin (in italiano la tradurrei come tricoialina), una proteina ricca di glutammina che svolge un ruolo cruciale nel conferire resistenza meccanica e nell’ordinare la cheratinizzazione delle cellule. Questa proteina agisce come una sorta di “impalcatura molecolare”, indispensabile per ottenere la struttura finale della fibra capillare.

Capire la biologia del follicolo è dunque essenziale per spiegare non solo la struttura del capello che osserviamo a occhio nudo, ma anche la sua capacità di registrare esposizioni chimiche durante la crescita. Solo conoscendo questo processo si possono comprendere appieno sia la chimica cosmetica (che deve penetrare e modificare la fibra), sia le analisi tossicologiche (che leggono la storia di queste incorporazioni).

Struttura e composizione del capello

Un capello non è un semplice “filo” uniforme: è un materiale biologico complesso, progettato per resistere, proteggere e comunicare caratteristiche individuali come colore, forma e lucentezza.

Architettura della fibra: cuticola, corteccia e midollo

Il capello è costituito da tre parti principali (Figura 1). All’esterno si trova la cuticola, formata da cellule appiattite e sovrapposte a tegola, che proteggono gli strati interni e conferiscono lucentezza grazie alla loro disposizione ordinata. Subito sotto si trova la corteccia, la parte più voluminosa, composta da fibre di cheratina organizzate in macrofibrille e pigmenti melanici che determinano il colore. Qui si stabiliscono i legami chimici (come i ponti disolfuro) che influenzano la forma del capello. Al centro si trova il midollo, una regione meno definita e spesso discontinua nei capelli più fini, che contribuisce all’isolamento termico e alla rigidità.

Figura 1. Struttura schematica di un capello umano.

Composizione chimica: membrana interna, cheratina, lipidi e acqua

A livello chimico, la fibra capillare è un materiale stratificato e sofisticato. La componente principale è la cheratina, una proteina fibrosa costituita da filamenti polipeptidici ricchi di cisteina, che si organizzano in strutture a coiled-coil di tipo α-elica. Queste eliche si associano in filamenti intermedi, che a loro volta formano macro-fibrille, dando alla corteccia un’architettura gerarchica e resistente.  Studi recenti di diffrazione a raggi X hanno confermato questa architettura gerarchica, evidenziando distanze caratteristiche tra filamenti intermedi (90, 45 e 27 Å) che si mantengono costanti in individui con tipi di capelli diversi.

Tra le cellule della corteccia e della cuticola si interpone il Cell Membrane Complex (CMC), una struttura lipidica e proteica laminare che funge da collante idrofobo, regolando la coesione cellulare e la permeabilità all’acqua e alle sostanze chimiche. Esperimenti di microdiffrazione hanno dimostrato che il CMC è sensibile all’umidità, mostrando rigonfiamento al contatto con l’acqua: un aspetto che spiega la sua importanza nei trattamenti cosmetici e nella penetrazione di agenti idrosolubili.

La cuticola, oltre alla funzione protettiva, contiene lamelle ben stratificate che includono β-cheratina, distinta dall’α-cheratina della corteccia, conferendole maggiore compattezza e impermeabilità. Inoltre, la composizione chimica complessiva del capello include lipidi liberi (circa 1-9%), acqua (10-15% circa in condizioni normali), minerali come magnesio, zinco, ferro e rame, oltre a tracce di aminoacidi e vitamine. Questa miscela complessa fornisce al capello proprietà di robustezza, elasticità e resistenza agli stress ambientali, anche se può essere danneggiata in modo irreversibile da trattamenti cosmetici aggressivi, calore e radiazioni UV.

Le proprietà fisiche e cosmetiche del capello dipendono infine dai legami chimici che ne stabilizzano la struttura. I legami a idrogeno sono deboli ma numerosi, si rompono e si riformano facilmente con umidità o calore, ed è grazie a loro che si ottiene l’effetto temporaneo della piega (phon, piastra). Per approfondire la natura e la forza di questi legami nell’acqua e nelle soluzioni, è possibile leggere due articoli che ho scritto sul blog: qui e qui. I legami salini, di tipo ionico, dipendono dall’interazione tra cariche opposte presenti sulle catene laterali degli amminoacidi e sono sensibili al pH. I legami disolfuro, molto più forti, uniscono in modo stabile le catene di cheratina grazie ai ponti tra residui di cisteina e sono i bersagli principali dei trattamenti chimici come permanenti o lisciature.

Conoscere questa struttura complessa è fondamentale per capire come e perché i capelli reagiscono ai trattamenti cosmetici, all’umidità ambientale o ai processi analitici usati in tossicologia e scienze forensi. È il primo passo del nostro viaggio nella tricochimica.

Ulteriori approfondimenti sono disponibili anche qui.

La chimica cosmetica del capello

La chimica cosmetica applicata ai capelli è un settore complesso e affascinante che si occupa di trasformare la fibra capillare attraverso reazioni controllate, con l’obiettivo di modificare colore, forma e aspetto. Uno degli esempi più noti è la colorazione permanente, che si basa su un processo di ossidazione ben studiato. In questo caso si usano due componenti principali: un agente alcalino (come l’ammoniaca o la etanolammina) e un ossidante (generalmente perossido di idrogeno o acqua ossigenata). Il composto alcalino serve ad aprire le squame della cuticola, permettendo al perossido e ai precursori del colore (come la p-fenilendiammina) di penetrare nella corteccia. Lì, il perossido ossida i precursori in intermedi reattivi che, legandosi a opportuni “couplers” (come il resorcinolo), formano grandi molecole di colorante intrafibra, responsabili della tonalità stabile e duratura. Questo processo, come ricorda anche la letteratura recente, è pressoché invariato da oltre un secolo, ma rimane il più efficace per coprire i capelli bianchi e schiarire tonalità naturali. La Figura 2 mostra le strutture chimiche di alcune molecole usate per il trattamento di colorazione permanente.

Figura 2. Molecole usate nei processi di colorazione permanente dei capelli.

I trattamenti per permanenti e lisciature chimiche agiscono invece modificando i legami disolfuro tra le catene di cheratina all’interno della corteccia. Nelle permanenti tradizionali si usa un riducente (come l’acido tioglicolico, Figura 3) per rompere questi ponti, consentendo di avvolgere i capelli su bigodini e fissare la nuova forma. Successivamente si applica un ossidante (solitamente ancora perossido di idrogeno) per riformare i legami disolfuro nella configurazione desiderata. Anche le lisciature chimiche sfruttano lo stesso principio, ma con tecniche e formulazioni diverse per spezzare i ponti disolfuro e fissare una fibra capillare più lineare. Questi processi, pur efficaci, indeboliscono la struttura del capello e ne aumentano la porosità, con conseguenze estetiche e meccaniche rilevanti.

Figura 3. Struttura dell’acido tioglicolico.

Un capitolo delicato è quello dei trattamenti liscianti con formaldeide (Figura 4) o con rilascio di formaldeide, molto discussi per i potenziali rischi per la salute. Il cosiddetto “Brazilian Blowout” e trattamenti simili usano formaldeide (o precursori che la rilasciano a caldo) per creare ponti metilenici tra le catene di cheratina, bloccandole in configurazioni lisce. Tuttavia, l’esposizione ai vapori di formaldeide è un noto rischio cancerogeno e può causare irritazioni acute e sensibilizzazioni. Per questo motivo, normative come quelle dell’Unione Europea vietano o limitano severamente l’uso di formaldeide libera o rilasciata oltre soglie minime, imponendo test e dichiarazioni specifiche sui cosmetici (riferimenti qui, qui e qui).

Figura 4. Struttura della formaldeide.

La cosmetica dei capelli si muove così su un crinale tecnico e normativo importante: da un lato c’è la ricerca di prodotti sempre più efficaci e personalizzati, dall’altro la crescente attenzione alla sicurezza dell’utilizzatore e del professionista. Negli ultimi anni, inoltre, si osserva un forte interesse per alternative più delicate e sostenibili, come colorazioni a basso contenuto di ammoniaca o a base di derivati naturali, e trattamenti liscianti privi di formaldeide, che sfruttano polimeri cationici o derivati di aminoacidi per un effetto condizionante e disciplinante meno aggressivo (riferimenti qui e qui).

L’analisi tossicologica del capello

L’analisi tossicologica del capello è una tecnica consolidata e molto apprezzata in ambito clinico e forense, grazie alla capacità unica di registrare l’esposizione a droghe o metalli pesanti su una scala temporale estesa. A differenza di sangue e urina, che rilevano l’assunzione di sostanze solo per pochi giorni, il capello funziona come un archivio biologico che conserva tracce di esposizione per settimane o mesi, a seconda della lunghezza del campione. Questa proprietà lo rende particolarmente utile per ricostruire storie di abuso cronico, monitorare la terapia sostitutiva, verificare la compliance in percorsi di disintossicazione o per valutazioni legali, come l’idoneità alla guida o l’affidamento dei minori.

I farmaci e i metalli pesanti si depositano nel capello principalmente durante la fase di crescita (anagen), grazie alla circolazione sanguigna che porta le molecole fino al follicolo, la piccola struttura immersa nella cute dove le cellule del capello si formano, si moltiplicano e si cheratinizzano. Una volta incorporate nella matrice di cheratina in formazione, queste sostanze restano stabilmente legate alla struttura del fusto, resistendo alla degradazione per lungo tempo. Altri percorsi di incorporazione includono il sebo, il sudore e in misura minore l’assorbimento ambientale. Tuttavia, i moderni protocolli di lavaggio e decontaminazione riducono il rischio di contaminazione esterna falsamente positiva.

Dal punto di vista analitico, l’analisi tossicologica del capello richiede tecniche di estrazione sofisticate. La fibra capillare, costituita per il 65–95% da cheratina, oltre che da lipidi, acqua e pigmenti, deve essere digerita o frammentata in modo controllato per liberare i composti target senza degradarli. Tra le tecniche più comuni di preparazione ci sono l’idrolisi acida o enzimatica, l’estrazione in solventi organici e la digestione assistita da ultrasuoni. Dopo l’estrazione, le sostanze vengono analizzate con metodi ad alta sensibilità e specificità come la spettrometria di massa accoppiata alla gascromatografia (GC–MS) o alla cromatografia liquida (LC–MS). Queste metodiche consentono di rilevare quantitativi nell’ordine dei picogrammi di numerosi farmaci e metaboliti, inclusi oppiacei, cocaina, cannabis, amfetamine e benzodiazepine, così come metalli pesanti analizzabili via spettroscopia di assorbimento atomico (AAS).

Uno dei principali vantaggi dell’analisi sul capello è la sua “finestra temporale estesa”: ogni centimetro di lunghezza corrisponde approssimativamente a un mese di crescita, permettendo di segmentare il campione per ricostruire una cronologia dettagliata delle esposizioni. Tuttavia, esistono anche limiti e criticità. Trattamenti cosmetici aggressivi come tinture, decolorazioni o permanenti possono ridurre la concentrazione di sostanze depositate o alterarne la distribuzione, rendendo più difficile l’interpretazione. Anche la variabilità individuale (colore, contenuto di melanina, porosità) può influenzare l’assorbimento dei farmaci, rendendo complessa la traduzione quantitativa dei dati in dosi assunte.

Nonostante queste sfide, l’analisi tossicologica del capello rappresenta uno strumento fondamentale in ambito forense e clinico per la sua capacità di documentare l’esposizione remota a sostanze psicoattive o tossiche, offrendo informazioni preziose che integrano e completano quelle ricavabili da sangue o urina.

Conclusioni, prospettive e sfide future

La tricochimica si propone come un campo di studio davvero interdisciplinare, capace di unire la conoscenza chimica della fibra capillare con esigenze estetiche, implicazioni tossicologiche e applicazioni forensi. Comprendere la composizione, la struttura e le trasformazioni chimiche dei capelli significa poter progettare trattamenti cosmetici più efficaci e sicuri, interpretare correttamente le analisi tossicologiche e persino ricostruire storie di consumo di sostanze o dinamiche criminali.

Tra le sfide principali spicca la necessità di una maggiore standardizzazione delle analisi tossicologiche: solventi, protocolli di estrazione, metodi di decontaminazione e tecniche strumentali richiedono armonizzazione per garantire risultati confrontabili e robusti. Anche i trattamenti cosmetici pongono questioni complesse: mentre il mercato cerca prodotti sempre più performanti e personalizzati, resta fondamentale valutarne l’efficacia in relazione alla salute del capello e della persona, evitando ingredienti aggressivi o potenzialmente dannosi.

Il futuro della tricochimica si muove verso un’integrazione sempre più stretta tra cosmetica e tossicologia: l’obiettivo è sviluppare prodotti “smart” e sicuri, capaci di interagire con la fibra capillare in modo controllato, rispettandone la biologia e la chimica. In questo senso, la ricerca multidisciplinare – che unisce chimica organica, biochimica, tossicologia analitica e scienza dei materiali – sarà essenziale per innovare e rispondere alle nuove esigenze di consumatori, professionisti e legislatori.

La tricochimica non è dunque un semplice esercizio accademico: è una disciplina viva e applicata, che tocca la nostra quotidianità, dalla cura estetica all’identità personale, dalla salute alla sicurezza pubblica. Riconoscerne l’importanza e investire nella sua evoluzione significa contribuire a un approccio più consapevole, informato e sostenibile al mondo dei capelli.

Glifosato e cancro: nuovo studio, molti titoli… pochi fatti

di Enrico Bucci & Pellegrino Conte

Se c’è una cosa che la scienza dovrebbe insegnarci, è che non tutti gli studi hanno la stessa valenza e importanza. Alcuni sono ben progettati, trasparenti e ci aiutano a capire meglio il mondo; altri, invece, presentano fragilità nelle premesse, nel metodo o nell’interpretazione dei dati.

L’ultimo studio pubblicato nel 2025 su Environmental Health da un gruppo di ricerca dell’Istituto Ramazzini ha fatto molto discutere, sostenendo che anche dosi di glifosato ritenute sicure possano aumentare il rischio di tumori nei ratti. Da qui è nato il timore che, se aumenta la possibilità di avere tumori nei ratti, anche l’essere umano possa correre lo stesso rischio. Tuttavia, un’analisi attenta rivela numerosi limiti sull’effettiva rilevanza dei risultati.

Vediamo perché.

Dosi scelte e perché non sono realistiche

Lo studio ha previsto tre dosi di glifosato somministrate ai ratti:

  • 0.5 mg/kg al giorno (l’ADI, ovvero la dose giornaliera accettabile in Europa)
  • 5 mg/kg al giorno (10 volte l’ADI)
  • 50 mg/kg al giorno (NOAEL, che corrisponde alla dose massima senza effetti osservati).

A prima vista, trovare effetti anche alla dose più bassa potrebbe sembrare preoccupante. Ma c’è un dettaglio importante: l’ADI non è una soglia tossicologica, ma un limite iper-cautelativo. Come viene calcolata?

  1. Si prende la dose più alta che non ha causato effetti negli animali (es. 50 mg/kg).
  2. Si divide per 100: 10 per la variabilità interspecie (topo vs uomo) e 10 per la variabilità intraspecie (uomo vs uomo).
  3. Si ottiene l’ADI (0.5 mg/kg).

Quindi, se uno studio trova effetti giusto all’ADI, non è un fallimento del sistema: è la conferma che il sistema di sicurezza funziona.

E nella vita reale? L’EFSA ha stimato che l’esposizione reale della popolazione è centinaia di volte inferiore all’ADI. Per raggiungere 0.5 mg/kg, un adulto di 70 kg dovrebbe mangiare 10 kg di soia OGM al giorno, tutti i giorni. E anche gli agricoltori professionisti non si avvicinano a quei livelli.

Discrepanze tra dosi dichiarate e dosi realmente usate

Come si può facilmente immaginare, il lavoro che stiamo valutando non è passato inosservato. La comunità scientifica si è subito attivata per verificare se quanto riportato fosse attendibile, e questo è un aspetto cruciale. In un contesto saturo di informazioni, dove distinguere il falso dal vero o dal verosimile è sempre più difficile, avere dei riferimenti affidabili per valutare la solidità di uno studio è fondamentale. Dimostra anche che la scienza non resta chiusa in una torre d’avorio: controlla, discute e, se necessario, corregge.

Un’analisi particolarmente accurata pubblicata su PubPeer  ha evidenziato come gli autori dello studio mirassero a somministrare ai ratti tre livelli “target” di esposizione giornaliera al glifosato, corrispondenti, come già indicato nel paragrafo precedente, all’ADI europea di 0,5 mg per chilo di peso corporeo, a 5 mg/kg e infine al NOAEL di 50 mg/kg, calibrando la concentrazione del principio attivo nell’acqua da bere sulla base di un consumo medio di 40 mL e di un peso medio di 400 g. Tuttavia, nei grafici relativi al peso e al consumo d’acqua, visibili già a partire dalla quinta settimana di vita, si nota chiaramente che i ratti più giovani, ancora ben al di sotto dei 400 g, continuano a bere quantità di acqua vicine a quelle stimate per gli adulti. Questo significa che, anziché ricevere esattamente i dosaggi “target”, i cuccioli assumono in realtà molto più glifosato, spesso oltre il doppio di quanto previsto per l’ADI, proprio nel momento in cui la loro vulnerabilità ai possibili effetti tossici è maggiore.

Colpisce poi il fatto che i pannelli che riportano l’effettiva assunzione giornaliera di glifosato inizino soltanto alla tredicesima settimana, escludendo dalla visualizzazione le prime dieci settimane successive allo svezzamento, quando il sovradosaggio è più pronunciato. In questo modo il lettore non ha modo di rendersi conto di quanto i ratti più giovani abbiano effettivamente superato i livelli di riferimento, né di valutare eventuali conseguenze sulla salute in questa fase critica dello sviluppo.

La mancanza di qualsiasi discussione nel testo centrale su questa esposizione eccessiva nei cuccioli rappresenta una lacuna significativa, perché proprio nei primi mesi di vita gli organismi mostrano una sensibilità maggiore a sostanze tossiche. Sarebbe stato opportuno non soltanto estendere i grafici dell’assunzione fin dalla quinta settimana, ma anche accompagnarli con un’analisi dedicata a quei dati, per capire se fenomeni di tossicità precoce possano essere correlati proprio al superamento dei dosaggi prefissati. In assenza di questa trasparenza, resta un interrogativo aperto sul reale profilo di sicurezza del glifosato nei soggetti in accrescimento.

Statistiche creative: quando un “aumento significativo” è solo rumore

Uno dei problemi più comuni negli studi tossicologici è quando si prendono in considerazione troppi parametri. In queste circostanze, prima o poi, qualcosa risulterà “statisticamente significativo”… ma per puro caso.

Lo studio ha esaminato tumori in:

  • fegato
  • pelle
  • tiroide
  • sistema nervoso
  • reni
  • mammelle
  • ovaie
  • pancreas
  • ghiandole surrenali
  • milza
  • osso
  • vescica

Statisticamente parlando, più confronti si fanno, più aumenta il rischio di falsi positivi: è il noto problema dei confronti multipli. E in questo caso non è stata applicata nessuna correzione (come Bonferroni o FDR), nonostante le decine di test effettuati.

Per esempio:

  • Un solo caso di carcinoma follicolare tiroideo (1,96%) viene presentato come “aumento significativo”, nonostante un’incidenza storica dello 0,09%.
  • Leucemie rarissime (0 casi nei controlli) diventano improvvisamente “frequenti” se appaiono in uno o due animali.

E proprio perché si lavora con numeri minuscoli (gruppi da 51 ratti), anche un singolo caso in più può far sembrare enorme un effetto che in realtà è solo rumore statistico.

Non a caso, un commentatore su PubPeer ha fatto notare che, nella versione pubblicata rispetto al preprint è stato aggiunto un caso di leucemia monocitica in un ratto femmina trattato con 50 mg/kg/die, assente nella versione preprint. Nessuna spiegazione è stata data per questo cambiamento. Ma in gruppi così piccoli, un solo caso in più può bastare a far emergere o sparire un “aumento significativo”. E la mancanza di trasparenza su come sia stato deciso questo aggiornamento rende ancora più difficile fidarsi delle conclusioni.

Statistiche fragili: come un’analisi più corretta fa crollare i risultati

Gli autori dello studio dicono di aver usato il test di Cochrane-Armitage per verificare se aumentando le dosi di glifosato aumentasse anche il numero di tumori nei ratti: insomma, per valutare se esistesse un trend “dose-risposta” significativo.

Fin qui, tutto regolare. Ma leggendo le osservazioni pubblicate su PubPeer emerge un problema serio: gli autori hanno usato la versione asintotica del test, che diventa poco affidabile quando si analizzano eventi rari – come accade quasi sempre negli studi di cancerogenicità a lungo termine, dove molti tumori osservati sono davvero pochi.

Chi ha commentato ha quindi rifatto i calcoli usando la versione esatta del test (disponibile grazie al software del DKFZ) e il risultato è stato sorprendente: i p-value, che nello studio originale erano inferiori a 0.05 (e quindi dichiarati “significativi”), sono saliti ben oltre 0.25, diventando del tutto non significativi.

In pratica: gli stessi dati, analizzati in modo più corretto, perdono completamente la significatività statistica.

E questo non è un dettaglio secondario: lo stesso errore potrebbe riguardare anche altre analisi statistiche e tabelle pubblicate, mettendo seriamente in discussione la solidità complessiva delle conclusioni dello studio.

Glifosato puro vs formulazioni commerciali: un confronto incompleto

Lo studio testa anche due erbicidi commerciali (Roundup Bioflow e RangerPro), sostenendo che siano più tossici del glifosato puro. Ma:

È un po’ come dire:

“La vodka è tossica!”
Senza specificare se il problema è l’alcol o l’acqua in essa contenuta.

Trasparenza e potenziali conflitti d’interesse

Gli autori dello studio dichiarano esplicitamente di non avere conflitti di interesse. Tuttavia, come segnalato su PubPeer, emergono diverse criticità. L’Istituto Ramazzini che ha condotto la ricerca riceve fondi da organizzazioni e soggetti che hanno preso pubblicamente posizione contro l’uso del glifosato. Tra questi finanziatori troviamo:

  1. la Heartland Health Research Alliance, già criticata da diverse fonti per sostenere ricerche orientate contro i pesticidi;
  2. l’Institute for Preventive Health, fondato da Henry Rowlands, che è anche l’ideatore della certificazione “Glyphosate Residue Free”;
  3. Coop Reno, una cooperativa italiana che promuove attivamente la riduzione dei pesticidi nei propri prodotti;
  4. Coopfond, che ha dichiarato pubblicamente il proprio sostegno alla ricerca contro il glifosato.

Tutti questi elementi non sono banali, perché vanno in direzione opposta alla dichiarazione “no competing interests” fornita dagli autori.

Dichiarare questi legami non significa necessariamente che i risultati siano falsati, ma consente ai lettori di valutare meglio la possibile influenza dei finanziatori.

IARC, hazard e risk: una distinzione fondamentale

Lo studio si richiama alla classificazione dello IARC, che nel 2015 ha definito il glifosato “probabile cancerogeno” (Gruppo 2A). Ma attenzione: l’IARC valuta l’hazard, non il rischio.

  • Hazard: “Il glifosato può causare il cancro in certe condizioni ideali”.
  • Risk: “Il glifosato causa il cancro nelle condizioni reali di esposizione?”

Lo IARC ha incluso nel gruppo 2A anche:

  • la carne rossa,
  • il lavoro da parrucchiere,
  • il turno di notte.

Le principali agenzie che valutano il rischio reale non hanno trovato evidenze sufficienti per considerare il glifosato cancerogeno:

Agenzia Conclusione Anno
EFSA (UE) Non cancerogeno 2023
EPA (USA) Non cancerogeno 2020
JMPR (FAO/OMS) Non cancerogeno 2016
IARC Probabile cancerogeno 2015

Conclusione: il glifosato non è innocente, ma nemmeno un mostro

Il nuovo studio del 2025 mostra che, se si cercano abbastanza tumori rari in tanti tessuti, qualcosa prima o poi emerge. Ma:

  • Le dosi utilizzate sono lontanissime dalla realtà umana, e persino più alte del previsto nei ratti giovani;
  • I risultati sono fragili, non replicati, e statisticamente poco robusti;
  • I meccanismi di azione non sono spiegati;
  • La trasparenza sui dati e sui conflitti di interesse è carente;
  • Le conclusioni si basano su metodi statistici che vanno messi in discussione.

Non si tratta di negazionismo scientifico ma di scetticismo informato, che è il cuore del metodo scientifico. Sebbene questo studio sollevi questioni interessanti, trarre conclusioni definitive su un legame causale tra glifosato e cancro basandosi su dati così fragili e dosi irrealistiche è prematuro. La scienza richiede prove solide, replicabili e trasparenti.

Per questo, le agenzie regolatorie continuano a considerare il glifosato sicuro se usato nei limiti stabiliti. Restiamo aperti a nuove evidenze, ma diffidiamo dei titoli allarmistici che spesso accompagnano studi con così tante ombre.

EDIT

A dimostrazione del fatto che il metodo scientifico si basa sull’autocorrezione, sia Enrico Bucci che io desideriamo ringraziare l’Ing. Dario Passafiume per essersi accorto di un errore che abbiamo commesso nell’interpretare i dati di PubPeer. La sostanza non cambia: cambiano solo i valori assoluti dei numeri che avevamo preso in considerazione. Il testo che abbiamo rieditato per effetto dell’errore di cui ci siamo accorti grazie all’ingegnere è il seguente:

Un’analisi particolarmente accurata pubblicata su PubPeer ha evidenziato una discrepanza rilevante: le figure riportate nello studio non si riferiscono alle dosi dichiarate (quelle indicate nel primo paragrafo), ma a dosi circa dieci volte superiori. In pratica, mentre gli autori affermano di aver usato 0.5, 5 e 50 mg/kg/die, i grafici mostrano dati ottenuti con 5, 50 e 500 mg/kg/die. Si tratta – come già evidenziato – di concentrazioni del tutto inconcepibili nella vita reale dove per arrivare all’assunzione di soli 0.5 mg/kg/die bisogna ingurgitare circa 70 kg di soia OGM al giorno, tutti i giorni.

Share