Così parlò Bellavite: quando la retorica si traveste da scienza

Introduzione

Di recente Paolo Bellavite, professore associato presso l’Università di Verona, in pensione dal 2017 e noto per le sue posizioni critiche verso le vaccinazioni e per la promozione dell’omeopatia, ha pubblicato un post sui social (Figura 1) in cui denuncia presunte “censure” e un rifiuto del confronto scientifico da parte delle istituzioni sanitarie. Il pretesto è lo scioglimento del comitato NITAG (National Immunization Technical Advisory Group) da parte del Ministero della Salute.

Il NITAG fornisce indicazioni basate su prove per le strategie vaccinali a livello nazionale, valutando costantemente rischi e benefici in relazione a età, condizioni di salute e contesto epidemiologico. Di questo tema ho già parlato in un mio precedente articolo (Nomine e cortocircuiti: quando l’antiscienza entra nei comitati scientifici).

Al di là della cronaca, però, il post di Bellavite si rivela soprattutto un insieme di slogan e artifici retorici non supportati da evidenze scientifiche solide, costruito sui più classici argomenti cari ai critici delle vaccinazioni. Ed è proprio qui che torna utile un altro parallelismo: le stesse strategie comunicative – indipendentemente dal campo, che si tratti di vaccini o di agricoltura – le ritroviamo nell’universo della “scienza alternativa”. Ne ho dato esempio in un altro articolo, Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci.

I toni retorici possono apparire convincenti a chi non ha dimestichezza con il metodo scientifico ma non reggono alla prova dei fatti. Proviamo dunque a smontare, punto per punto, le argomentazioni dell’ex professore Paolo Bellavite.

Figura 1. Screenshot dalla pagina facebook del Dr. Bellavite.

Il mito della “censura”

Uno degli argomenti più frequenti nella retorica tipica dei critici dei vaccini è l’idea che la comunità scientifica “censuri” le voci “fuori dal coro” per paura o per difendere interessi di un qualche tipo.

Per rafforzare questa immagine, viene spesso evocata la vicenda di Ignác Semmelweis, il medico che nell’Ottocento intuì l’importanza dell’igiene delle mani per ridurre la febbre puerperale. Il paragone, però, è fuorviante. Semmelweis non fu osteggiato perché considerato “eretico” ma perché il contesto scientifico dell’epoca non disponeva ancora degli strumenti teorici e sperimentali necessari a comprendere e verificare le sue osservazioni. La teoria dei germi non era stata ancora formulata e l’idea che “qualcosa di invisibile” potesse trasmettere la malattia appariva inconcepibile. Nonostante ciò, i dati raccolti da Semmelweis erano solidi e difficilmente confutabili: nelle cliniche in cui introdusse il lavaggio delle mani la mortalità scese in maniera drastica. Quei numeri, alla lunga, hanno avuto la meglio.

Oggi, il confronto scientifico avviene tramite peer-review, conferenze specialistiche e comitati di valutazione sistematica delle evidenze (ne ho parlato qualche tempo fa in un articolo semiserio dal titolo Fortuna o bravura? osservazioni inusuali sul metodo scientifico). In definitiva, la scienza non mette a tacere: filtra. Ogni idea può essere proposta e discussa, ma per sopravvivere deve poggiare su dati riproducibili, verificabili e coerenti con l’insieme delle conoscenze disponibili. In mancanza di queste condizioni, non viene esclusa per censura, bensì perché non regge al vaglio delle prove.

Trasformare questo processo di selezione in un racconto di “persecuzione” significa confondere il metodo scientifico con un tribunale ideologico, quando in realtà è solo il meccanismo che permette alla conoscenza di avanzare.

La falsa richiesta di “prove definitive”

Un espediente retorico molto diffuso tra chi vuole mettere in discussione i vaccini è quello di pretendere “prove definitive” – come se esistesse una singola evidenza in grado di dimostrare in modo assoluto l’utilità di un vaccino. La verità è che nessuna terapia medica è vantaggiosa sempre e comunque, ma le raccomandazioni vaccinali si basano su analisi robuste e ben documentate di rapporto rischio/beneficio.
Ecco alcuni esempi concreti e supportati da fonti autorevoli:

Chiedere quindi una singola prova assoluta significa distogliere l’attenzione da un ampio corpus di evidenze solide e riproducibili, e puntare invece su un vuoto nella narrazione che non corrisponde alla realtà scientifica.

“I bambini vaccinati non sono più sani”

Alcuni insinuano che non esistano prove che i bambini vaccinati siano “più sani” o addirittura suggeriscono l’opposto. Ma qui il trucco retorico sta nella vaghezza del concetto di “salute” che può essere interpretato in molti modi.
I dati concreti parlano chiaro: i bambini vaccinati hanno un rischio nettamente ridotto di contrarre malattie infettive gravi e le evidenze epidemiologiche mostrano riduzioni significative della mortalità, delle complicanze e degli accessi ospedalieri.

Questi dati si legano strettamente al paragrafo precedente in cui si evidenziava che vaccinare i bambini – come con il caso del vaccino anti-COVID e la prevenzione del morbillo – non solo limita le infezioni specifiche, ma contribuisce a migliorare la salute complessiva della popolazione infantile.

La retorica dei “vaccini meno tossici”

Un argomento ricorrente tra chi mette in dubbio le vaccinazioni è l’appello a “vaccini meno tossici, monovalenti e senza alluminio”. In realtà, gli adiuvanti a base di alluminio – utilizzati da oltre 90 anni per potenziare la risposta immunitaria – sono presenti in quantità molto inferiori a quelle assunte quotidianamente con l’alimentazione: tra 7 e 117 mg nei primi 6 mesi di vita, a seconda dell’alimentazione, mentre un singolo vaccino ne contiene tra 0.125 e 0.85 mg. In particolare, numerosi studi e monitoraggi hanno evidenziato che, sebbene possano causare arrossamento, dolore o un piccolo nodulo nel sito di iniezione, non esistono evidenze di tossicità grave o effetti duraturi legati ai sali di alluminio. Anche la Fondazione Veronesi conferma: non c’è motivo di dubitare della sicurezza degli adiuvanti, che hanno superato con successo gli studi di sicurezza.

Va, inoltre, sottolineato che proporre vaccini monovalenti (cioè che proteggono da una sola malattia) in alternativa a quelli combinati riduce l’efficacia complessiva delle campagne vaccinali. Le formulazioni polivalenti (come l’esavalente) permettono di proteggere contemporaneamente da più malattie con meno somministrazioni, semplificando i calendari vaccinali e migliorando la copertura.

Questo si traduce in una maggiore efficienza delle campagne, minori costi logistici e un impatto complessivo più forte sulla salute pubblica. Lo confermano anche diversi studi su riviste di settore. Per esempio, un trial pubblicato su Lancet ha documentato un’efficacia del 94.9 % contro la varicella e fino al 99.5 % contro altre forme virali moderate o severe, mentre una meta-analisi del 2015 ha evidenziato che le formulazioni combinate mantengono un profilo di sicurezza e immunogenicità paragonabile, ma più efficiente rispetto alle somministrazioni separate. Infine, in un recente studio caso-controllo, il vaccino Priorix‑Tetra (MMRV) ha mostrato un’efficacia dell’88‑93 % contro la varicella dopo una sola o due dosi, e del 96 % contro le ospedalizzazioni.

Come ogni farmaco, i vaccini possono avere effetti collaterali, ma sono rari e attentamente monitorati tramite sistemi di farmacovigilanza che possono intervenire tempestivamente in caso di sospetti. Definire i vaccini “tossici” senza distinguere fra effetti lievi e transitori (come febbre o gonfiore locale) e eventi gravi, ma estremamente rari, è un artificio retorico che induce confusione. In realtà, i benefici delle vaccinazioni – prevenire malattie gravi, complicanze e morti – superano di gran lunga i rischi, grazie anche a un sistema di sicurezza ben strutturato.

Le “analisi pre-vaccinali”

Uno dei cavalli di battaglia dei critici dei vaccini è l’utilizzo di analisi pre‑vaccinali – come test genetici, tipizzazione HLA o dosaggi di anticorpi – per valutare il rischio individuale o l’immunità naturale. A prima vista può sembrare una precauzione intelligente ma in realtà è un’idea infondata e controproducente. Gli eventi avversi gravi legati alle vaccinazioni sono estremamente rari e non correlabili a marcatori genetici o immunologici conosciuti. Al momento non esistono esami in grado di prevedere in anticipo chi potrebbe sviluppare una reazione avversa significativa.

Studi su varianti genetiche e reazioni avverse da vaccino (come studi su polimorfismi MTHFR o antigeni HLA) hanno dimostrato che l’uso di questi test non è scientificamente rilevante, né affidabile per prevenire eventi avversi.
La Federazione Nazionale degli Ordini dei Medici ha ribadito con forza che:
«La richiesta di esami diagnostici da eseguire di routine prima della vaccinazione non ha alcuna giustificazione scientifica».
In altre parole, valutare il rischio da vaccinazione è responsabilità del medico curante, basata su anamnesi e valutazioni cliniche, non su test di laboratorio preliminari.

Nel suo magazine di divulgazione, la Fondazione Veronesi – attraverso l’esperto Pier Luigi Lopalco – risponde chiaramente alla domanda “Esistono test pre‑vaccinali per valutare possibili effetti collaterali?”, la risposta è netta: non esistono.

L’introduzione obbligatoria di esami prevaccinali renderebbe logisticamente impossibili le campagne, ostacolando la copertura diffusa necessaria per l’immunità di gregge. Le vaccinazioni funzionano proprio perché applicate su larga scala, creando uno scudo comunitario che riduce la circolazione dei patogeni.

L’inversione retorica: “noi siamo la vera scienza”

Un tratto distintivo della comunicazione di chi contesta le vaccinazioni è la pretesa di incarnare la “vera scienza”, accusando al tempo stesso le istituzioni di rifiutare il confronto. È un vero rovesciamento di prospettiva: si imputa alla comunità scientifica un atteggiamento dogmatico, mentre ci si propone come gli unici detentori delle “vere prove”. In pratica, si pretende di cambiare le regole del gioco scientifico, così che affermazioni prive di fondamento possano essere messe sullo stesso piano delle evidenze prodotte e validate dall’intera comunità. È come voler riscrivere le regole del Monopoli per far sì che a vincere non sia chi accumula dati e dimostrazioni, ma chi urla di più o pesca la carta giusta al momento opportuno.

La realtà è un’altra: il confronto scientifico non si svolge sui social o nei talk show, ma nelle riviste peer-reviewed, nei congressi specialistici e nei comitati di valutazione delle evidenze. Ed è in questi contesti che certe tesi non trovano spazio, non per censura, ma per una ragione molto più semplice: mancano dati solidi che le sostengano.

Conclusione: la scienza contro gli slogan

Il caso Bellavite mostra come il linguaggio della scienza possa essere piegato e trasformato in uno strumento di retorica ideologica: un lessico apparentemente tecnico usato non per chiarire ma per confondere; non per spiegare ma per insinuare dubbi e paure privi di basi reali.

I vaccini rimangono uno dei più grandi successi della medicina moderna. Hanno ridotto o eliminato malattie che per secoli hanno decimato intere popolazioni. Certo, come ogni atto medico comportano rischi, ma il rapporto rischi/benefici è da decenni valutato e aggiornato con metodi rigorosi ed è incontrovertibile: il beneficio collettivo e individuale supera enormemente i rari effetti collaterali.

In politica, come nei discorsi attraverso cui si criticano le vaccinazioni, accade spesso che a prevalere siano slogan facili e interpretazioni personali. Il dibattito si trasforma così in un’arena di opinioni precostituite, dove il volume della voce sembra contare più della solidità delle prove. Ma la scienza non funziona in questo modo: non si piega alle opinioni, non segue le mode e non obbedisce agli slogan. È un processo collettivo, autocorrettivo e guidato dai dati, che avanza proprio perché seleziona ciò che resiste alla verifica e scarta ciò che non regge all’evidenza.

Chi tenta di manipolare questo processo dimentica un punto essenziale: la verità scientifica non appartiene a chi urla più forte, ma a chi misura, dimostra e sottopone i risultati al vaglio della comunità. È questo meccanismo che, tra errori e correzioni, consente alla scienza di progredire e di migliorare la vita di tutti.

Nota a margine dell’articolo

Sono perfettamente consapevole che questo scritto non convincerà chi è già persuaso che i vaccini siano dannosi o chi si rifugia dietro un malinteso concetto di “libertà di vaccinazione”. Desidero però ricordare ai miei quattro lettori che l’Art. 32 della nostra Costituzione recita:

“La Repubblica tutela la salute come fondamentale diritto dell’individuo e interesse della collettività, e garantisce cure gratuite agli indigenti. Nessuno può essere obbligato a un determinato trattamento sanitario se non per disposizione di legge. La legge non può in nessun caso violare i limiti imposti dal rispetto della persona umana”.

La Corte Costituzionale, interpretando questo articolo, ha più volte ribadito che la salute pubblica può prevalere su quella individuale. Già con la sentenza n. 307/1990 e la n. 218/1994 ha chiarito che l’obbligo vaccinale è compatibile con la Costituzione se proporzionato e giustificato dall’interesse collettivo. La sentenza n. 282/2002, pur riguardando i trattamenti sanitari obbligatori in ambito psichiatrico, ribadisce il principio generale: un trattamento sanitario può essere imposto per legge, purché rispettoso della dignità della persona. Infine, la più recente sentenza n. 5/2018 ha confermato la piena discrezionalità del legislatore nell’introdurre obblighi vaccinali a tutela della salute pubblica.

Il mio intento non è convincere chi non vuole ascoltare, ma offrire strumenti a chi esita, a chi è spaventato. La paura è umana, comprensibile, ma non ha fondamento: i dati dimostrano che vaccinarsi significa proteggere sé stessi e, soprattutto, la comunità di cui facciamo parte. È questo il senso profondo dell’art. 32: la salute non è mai solo un fatto privato, ma un bene comune.

Le interviste impossibili: incontriamo Benjamin Franklin

Ed eccomi a volare con la fantasia nel nuovo mondo. Sono verso la fine del Settecento, e mi ritrovo in un ambiente completamente diverso dal laboratorio di Faraday. Qui tutto profuma di carta, inchiostro e… ozono. È il tipico studio settecentesco con scaffali pieni di libri, strumenti per esperimenti elettrici, penne d’oca e un calamaio ancora macchiato di lampi. Di fronte a me, un uomo dallo sguardo vivace, i capelli incorniciati da una parrucca bianca, gli occhi pieni di una curiosità che sembra non aver conosciuto stanchezza. È Benjamin Franklin.

– Dr. Franklin, grazie per avermi accolto. Come sa, sto facendo un reportage di interviste impossibili. Ho già incontrato i Professori Boyle, Lavoisier e Faraday. Immagino che lei abbia un’idea chiara del loro ruolo nello sviluppo della chimica.
– Eccome se ce l’ho! Boyle ha fatto ordine nel caos, Lavoisier ha messo la logica sopra i miti, Faraday ha liberato l’elettricità dalle catene del mistero. Io, modestamente, sono stato il più impaziente: mentre loro costruivano i palazzi della chimica, io mi divertivo a bussare alle porte della natura con un aquilone in mano. Non sarà accademico, ma ha funzionato.

– L’aquilone… ma come le è venuto in mente?
– Guardi, io non avevo un laboratorio attrezzato come i vostri scienziati moderni. Ma avevo occhi, mani e fantasia. L’aquilone era un gioco da bambini, e io lo usai come un filo teso fra cielo e terra: bastò un po’ di coraggio per trasformarlo in esperimento. In fondo la scienza è questo: prendere ciò che sembra un passatempo e scoprire che nasconde una legge dell’universo.

– Sa che oggi esperimenti del genere sarebbero liquidati come estremamente pericolosi e verosimilmente non verrebbero autorizzati?
– Ne sono certo! Se avessi chiesto un permesso ufficiale per far volare un aquilone sotto un temporale, mi avrebbero rinchiuso prima ancora di spiegare il progetto. Ma vede, la conoscenza non nasce dall’attesa di un timbro: nasce dall’osservazione e dal coraggio. Senza un po’ di rischio, non avremmo mai imparato che il fulmine e la scintilla erano fratelli.

– Cosa pensa, allora, delle normative attuali che impongono l’uso di strumenti sicuri, sia per l’ambiente che per gli umani per realizzare esperimenti?
– Penso che siano un segno di maturità. Io ho corso rischi che oggi giudico folli: la curiosità mi salvò, ma avrei potuto perderci la vita. E nessuna scoperta vale quanto una vita umana. Indiana Jones può far sorridere sullo schermo, ma nella realtà un uomo che gioca costantemente con la morte non è un eroe, è uno sciocco. La vera grandezza della scienza sta nel proteggere e migliorare la vita, non nel sacrificarla per un colpo di fortuna.

– Il parafulmine è stata una delle sue invenzioni più utili. È curioso che anche qui ci fu chi si oppose, accusandola quasi di voler interferire con la volontà divina.
– Già! Alcuni predicatori sostenevano che fermare il fulmine significasse ribellarsi a Dio. Io replicai che Dio ci aveva dato l’intelligenza proprio per proteggerci. Non vedo differenza fra un tetto che ripara dalla pioggia e un parafulmine che ripara dal fuoco celeste.

– Lei ha fatto chiarezza, molta chiarezza, nel “decodificare” i fulmini. Alla fine, lei ha capito che si trattava di fenomeni naturali legati all’elettricità. In qualche modo ha aperto un varco nella comprensione di fenomeni che venivano associati all’ira divina: una volta Zeus, poi il Dio dei cristiani.
– Esatto. E non mi pare che Dio si sia offeso perché abbiamo capito come funziona un fulmine. Se la pioggia non è più vista come il pianto degli dèi ma come il ciclo dell’acqua, nessuno si scandalizza. Io credo che l’Onnipotente ci abbia dato la ragione proprio per usarla: ignorare i fenomeni naturali in nome della paura non è fede, è superstizione. E una società che resta prigioniera della superstizione non cresce, resta in ginocchio davanti al tuono.

– Ma le sue scoperte hanno fatto comprendere che la religione interviene solo quando non riusciamo a spiegarci qualcosa. Noi abbiamo bisogno di comprendere e, se non ci riusciamo, invochiamo un dio…
– È vero: gli uomini hanno sempre chiamato “divino” ciò che non sapevano spiegare. Ogni tuono era Zeus, ogni fulmine l’ira del Cielo. Il guaio è che, a forza di scoprire, gli dèi si sono ritrovati con meno lavoro: ecco perché dico che la scienza, in fondo, li mette in pensione anticipata. Ma questo non toglie dignità alla fede: anzi, la libera dalla superstizione. Un Dio ridotto a tappabuchi della nostra ignoranza è un Dio fragile; un Dio che ci ha dato intelletto e curiosità, invece, si aspetta che li usiamo. Perché la vera bestemmia non è capire il fulmine: è restare in ginocchio davanti al tuono senza mai volerlo capire.

– La capisco, Dr. Franklin. Io però sono ateo, e non riesco a vedere Dio neppure come ipotesi di lavoro. Mi tornano in mente le parole di Margherita Hack: “Dio è un’ipotesi non necessaria”.
– Non mi scandalizza affatto. Io vivevo in un tempo in cui la religione era il linguaggio comune: negarla avrebbe significato isolarsi dal dialogo civile. Ma vede, il bello della scienza è proprio questo: non impone a nessuno la fede o l’ateismo, chiede solo la voglia di capire. Che uno veda in quell’ordine la mano di Dio, o che lo chiami semplicemente Natura, poco importa: la verità resta verità, e il fulmine non obbedisce né al prete né all’ateo.

– Dr. Franklin, lei è passato alla storia come un individuo molto versatile: scienziato, inventore, diplomatico, politico, editore. Chi è lei, in realtà?
– Sono stato tutte queste cose e, al tempo stesso, nessuna soltanto. Non ho mai sopportato le etichette: erano i problemi concreti a chiamarmi, e io rispondevo come potevo. Se serviva un esperimento, facevo lo scienziato; se serviva un accordo, il diplomatico; se serviva chiarezza, scrivevo da editore. Ironia della sorte, mi sentivo più un apprendista della Natura che un maestro, un uomo con troppi mestieri e troppe poche tasche per contenerli. Se dovessi scegliere una definizione, direi che sono stato questo: un curioso ostinato, convinto che la vera identità dell’uomo non stia nel titolo che porta, ma nella scintilla che lo spinge a capire e migliorare il mondo.

– Lei dice giustamente: “la vera identità dell’uomo non è nel titolo che porta, ma nella scintilla che lo spinge a capire e migliorare il mondo”. Allora le rivolgo la medesima domanda che ho fatto al Professor Faraday: sa che una frase del genere nella mia epoca potrebbe essere usata dai complottisti di ogni risma? Questi interpreterebbero la sua dichiarazione come uno sdoganamento dell’ignoranza.
– E allora che lo facciano pure: non sarà certo il loro gracchiare a spegnere il fulmine. Ma sia chiaro: la scintilla che muove l’uomo non è la superbia di credere alle proprie fantasie, è l’umiltà di inchinarsi davanti ai fatti. I complottisti, invece, si fermano al lampo: gridano di aver visto la luce, ma non scaldano nessuno. Non sono ribelli coraggiosi: sono pigri travestiti da profeti, che scambiano il sospetto per pensiero critico e l’ignoranza per libertà. La curiosità autentica smonta i dogmi, anche quelli comodi: chi rifiuta prove e ragione non è un cercatore di verità, è un ciarlatano che preferisce restare al buio.

– Lei non fu solo scienziato. Fu anche diplomatico a Parigi e padre fondatore degli Stati Uniti. Crede che la scienza debba sempre dialogare con la politica?
La politica senza scienza è cieca, la scienza senza politica è muta. Ma attenzione: quando un governante chiude gli occhi davanti ai fatti, non è soltanto cieco, è pericoloso. Governa con l’illusione, e l’illusione uccide più del ferro e del fuoco. Un politico che ignora la scienza è come un capitano che butta la bussola in mare e pretende di guidare la nave “a sentimento”: può anche ingannare i passeggeri per un po’, ma alla fine li porterà sugli scogli. La scienza, se resta chiusa nei laboratori, non salva nessuno; ma la politica che la calpesta condanna un popolo all’ignoranza, alla malattia e alla fame. La verità non si vota e non si compra: un virus non chiede il permesso a un ministro, il clima non attende il consenso di un parlamento. Chi governa contro la scienza governa contro la vita stessa, e questo non è solo un errore politico: è un tradimento morale.

– Negli ultimi anni, anche negli Stati Uniti che lei ha contribuito a fondare, ci sono state politiche definite “antiscientifiche”. L’amministrazione Trump, in particolare, è stata accusata di negare l’evidenza del cambiamento climatico e di ostacolare la ricerca ambientale. Come vede tutto questo?
– Con sgomento. Vede, un politico che rinnega la scienza non è solo ignorante, è colpevole. Trump tratta i fatti come se fossero merce da mercato: accettabili quando tornano comodi, rifiutati quando disturbano i suoi affari. Questo non è governo, è ciarlataneria. Negare il cambiamento climatico non ferma lo scioglimento dei ghiacci, come negare una malattia non guarisce un malato. La politica che finge di non vedere i dati condanna il proprio popolo a pagare il prezzo della menzogna. Io dico che un leader che calpesta la scienza non tradisce solo i suoi contemporanei: tradisce anche le generazioni future, perché lascia in eredità un mondo più fragile, più povero e più ingiusto.

– Quindi la negazione del cambiamento climatico le sembra un grave errore politico?
– Non è un errore: è un atto di irresponsabilità criminale. Perché negare l’evidenza non rallenta il riscaldamento globale, ma lo accelera. Un governante che finge che il problema non esista non solo inganna il suo popolo: lo espone consapevolmente a catastrofi che si potevano prevenire. E questo non è politica, è complicità con il disastro.

– Oggi un tema che divide molto l’opinione pubblica è quello dei vaccini. Alcuni li vedono come una conquista di civiltà, altri come una minaccia alla libertà personale. Lei da che parte starebbe?
– Dalla parte della ragione. La libertà individuale non è mai licenza di danneggiare gli altri. Io stesso mi sono battuto per la libertà politica e religiosa, ma non avrei mai confuso la libertà con il diritto di mettere in pericolo la comunità. Un vaccino protegge non solo chi lo riceve, ma chi gli sta accanto. Rifiutarlo senza motivo è come gettare scintille in una polveriera e chiamarlo “atto di coraggio”: non è coraggio, è incoscienza.

– E come si combatte la disinformazione che avvelena il dibattito pubblico?
– Con la stessa arma che usavo io: rendendo la verità semplice e utile. Io pubblicavo almanacchi pieni di proverbi e osservazioni quotidiane, perché sapevo che la gente non leggeva i trattati, ma capiva benissimo un consiglio chiaro. Oggi dovreste fare lo stesso: spiegare la scienza in modo diretto, farne vedere l’utilità concreta. Una bugia urlata può sedurre, ma una verità spiegata bene è inespugnabile. Chi continua a diffondere fake news non è un ribelle della verità: è un avvelenatore del pozzo comune.

– Una curiosità: se fosse vivo oggi, su cosa avrebbe lavorato?
– Avrei un laboratorio pieno di pannelli solari e aquiloni per misurare l’inquinamento atmosferico! Mi divertirei a trasformare il vento e il sole in energia pulita: perché solo un folle preferirebbe restare schiavo del carbone quando il cielo offre elettricità gratis.

– Sì, ma oggi oltre al sole e al vento abbiamo a disposizione anche il nucleare
– E allora usatelo con intelligenza. Non c’è nulla di “immorale” nell’atomo, immorale è sprecarne il potere o trasformarlo in arma. Io non ho mai avuto paura dell’elettricità: l’ho studiata, imbrigliata, resa utile. Con il nucleare dovreste fare lo stesso. Chi rifiuta l’atomo per pregiudizio è miope quanto chi lo idolatra come panacea. Se il vostro obiettivo è liberare il mondo dalla dipendenza dai combustibili fossili, non potete permettervi dogmi: ogni fonte sicura e sostenibile è un alleato. E ricordatevi che l’ignoranza uccide più di qualsiasi radiazione.

– Prima di salutarla, Dr. Franklin, una battuta finale per chi oggi lotta contro politiche antiscientifiche, magari con la sua ironia pungente.
Dite ai vostri contemporanei che gli ignoranti sono come aquiloni senza filo: volano un attimo, poi si perdono. Ma noi dobbiamo essere parafulmini: attrarre la verità e scaricarla sulla paura. Quanto a chi rifiuta i fatti, lasciatelo gridare al vento: cadrà da solo. Voi intanto costruite scuole, vaccini, energie pulite. Perché il futuro non lo fanno i ciarlatani: lo fanno i coraggiosi che hanno scelto di restare dalla parte della ragione.

E con un sorriso complice, Franklin solleva la penna e lascia un tratto di fulmine tra le righe: non un addio, ma un invito a custodire la scintilla della scienza, sempre.

E mentre il lampo si spegne sulla carta, capisco che la conoscenza non vive soltanto nei laboratori e negli strumenti, ma anche nei libri, nei versi, negli sguardi di chi cerca la verità nel cuore dell’uomo e nella natura. È lì che mi attende il mio prossimo viaggio…

Note Bibliografiche

B. Franklin (2022). Autobiography of Benjamin Franklin. Philadelphia

B. Franklin (1751). Experiments and Observations on Electricity. London: E. Cave

B. Franklin (1751). Observations Concerning the Increase of Mankind, Peopling of Countries, etc. Philadelphia

B.  Franklin (2023). Poor Richard’s Almanack. Philadelphia

 

 

Biodinamica e scienza: smontare i miti non è mai facile

Negli ultimi anni la biodinamica è tornata con forza nel dibattito pubblico, presentata come un’agricoltura “più naturale”, capace di riconnettere l’uomo con la terra attraverso antichi rituali e influssi cosmici. Ma quando si scava nei lavori scientifici che dovrebbero darle credibilità, il castello crolla.

In un precedente articolo, Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci, avevo già mostrato come l’apparente incontro tra ricerca e pratiche steineriane sia in realtà un dialogo ingannevole. Oggi raccolgo e sintetizzo delle analisi critiche di studi pubblicati su riviste scientifiche, spesso citati a sostegno della biodinamica. Il risultato è un quadro chiaro: tanta tecnologia, poca scienza, e un mare di suggestioni travestite da rigore.

Il mito del Preparato 500

Al centro della biodinamica c’è il Preparato 500, letame fermentato in corna di vacca, elevato a elisir magico. Uno studio del 2013 su Journal of Microbiology and Biotechnology ha tentato di dargli dignità scientifica. Il risultato? Una sequenza di prove deboli: assenza di controlli, attività biologiche senza legame con benefici concreti, repliche non documentate.

Gli stessi autori, del resto, offrono materiale sufficiente per smontare ogni pretesa di scientificità. Non hanno inserito veri controlli: “Different commercial samples of BD Preparation 500… were studied” (p. 645). In pratica, hanno confrontato solo diversi lotti dello stesso preparato, senza mai verificare se i risultati differissero da un letame ordinario.

Le attività enzimatiche riportate sono descritte come promettenti, ma senza legame con effetti pratici: “Preparation 500 displays high specific levels of activity… A high alkaline phosphatase activity indicates its potential” (p. 648). Potenziale, non prova.

Una volta estratto dalle corna, il Preparato viene applicato in campo dopo diluizioni omeopatiche: 200 grammi in decine di litri d’acqua per ettaro. Gli autori non si limitano a descriverne le caratteristiche microbiologiche e chimiche, ma cercano anche di giustificare questa pratica con un ragionamento per analogia: “…they will already be delivered at a 10¹⁰ M concentration… well within their expected windows of biological activity (p. 649). Ma si tratta di pura speculazione: nessuna prova sperimentale mostra che quelle diluizioni abbiano davvero un effetto.

Il linguaggio stesso tradisce l’incertezza. Ovunque compaiono formule ipotetiche: “could possibly contribute” (p. 648), “may account for the biostimulations” (p. 649), “it cannot be excluded that it might act” (p. 650). Non dimostrazioni, ma tentativi di rivestire di retorica ciò che rimane un rituale agronomico.

Qui la scienza si ferma e subentra il wishful thinking. Non c’è alcun dato che dimostri l’efficacia di quelle diluizioni: è una speculazione posticcia, un tentativo di dare un’aura scientifica a un rituale. In sostanza, la giustificazione proposta non è ricerca: è retorica. Nessun esperimento serio ha mai mostrato che spruzzare tracce infinitesimali di letame fermentato possa produrre effetti concreti su un sistema agricolo complesso.

Corna, letame e spettrometri: la scienza usata per dare lustro al mito

Nel paragrafo precedente è stato introdotto il Preparato 500, gioia degli attivisti della biodinamica. Ebbene, esso è stato analizzato mediante risonanza magnetica nucleare (NMR) e gas-cromatografia con pirolisi (pyrolysis-TMAH-GC-MS) in un lavoro pubblicato su Environmental Science and Pollution Research nel 2012. Questo studio si presenta come la “prima caratterizzazione molecolare” del Preparato 500: una vetrina tecnologica impressionante, che tuttavia poggia su fondamenta fragilissime. Una sfilata di strumenti sofisticati al servizio non della conoscenza, ma della legittimazione di un mito. Vediamo perché.

Gli autori hanno analizzato tre lotti di Preparato 500 (“three samples of horn manure… were collected from different European farms”, p. 2558). Tutto qui. Nessun confronto con compost ordinario o letame tradizionale. Senza un vero controllo, attribuire “peculiarità biodinamiche” diventa arbitrario: come distinguere l’effetto del corno interrato da quello della normale fermentazione del letame?

Le analisi rivelano componenti come lignina, carboidrati, lipidi vegetali e marcatori microbici. Gli stessi autori ammettono che “the chemical composition of HM was consistent with that of natural organic materials” (p. 2564). In altre parole, il Preparato 500 non mostra alcuna unicità sorprendente: è esattamente ciò che ci si aspetta da una biomassa organica parzialmente decomposta.

Il paper suggerisce che la presenza di frazioni labili e lignina parzialmente decomposta possa conferire al Preparato 500 una particolare bioattività: “HM was characterized by a relatively high content of labile compounds that might account for its claimed biostimulant properties” (p. 2565). Ma questa è pura congettura: nessun dato in campo supporta l’idea che tali caratteristiche abbiano effetti agronomici specifici.

Le conclusioni parlano di “a higher bioactivity with respect to mature composts” (p. 2565). Ma il solo risultato tangibile è che il Preparato 500 risulta meno stabilizzato e più ricco di composti facilmente degradabili rispetto a un compost maturo. Un’osservazione banale, trasformata in presunta “prova” di efficacia biodinamica.

In altre parole, il lavoro appena analizzato non dimostra alcuna unicità del Preparato 500. Mostra soltanto che un letame lasciato fermentare in condizioni anossiche dentro un corno ha una composizione chimica simile a quella di altri ammendanti poco maturi. L’uso di strumenti spettroscopici di alto livello serve più a conferire prestigio alla pratica biodinamica che a produrre nuova conoscenza. È un’operazione di maquillage scientifico: dati corretti, ma interpretazione piegata all’ideologia.

Strumenti sofisticati, interpretazioni esoteriche

In uno studio apparso su Chemical and Biological Technologies in Agriculture, gli autori hanno applicato tecniche avanzatissime – MRI (risonanza magnetica per immagini) per la struttura interna delle bacche e HR-MAS NMR per il metaboloma – a uve Fiano e Pallagrello trattate con il celebre Preparato 500. Dal punto di vista tecnico nulla da eccepire: “MRI and HR-MAS NMR provided detailed information on berry structure and metabolite profiles” (p. 3).

Il problema nasce subito dopo. Gli autori collegano direttamente i risultati“a significant decrease in sugars and an increase in total phenolics and antioxidant activity in biodynamically treated grapes” (p. 5) – all’applicazione del Preparato 500. Ma senza un adeguato controllo placebo questo salto logico è insostenibile: come distinguere l’effetto della “pozione biodinamica” da quello di fattori molto più concreti e plausibili come microclima, esposizione solare, variabilità del suolo o semplici disomogeneità nell’irrigazione?

Gli stessi autori ammettono che la variabilità ambientale è enorme: “soil heterogeneity and microclimatic differences strongly influenced metabolite composition” (p. 6). Eppure, attribuiscono al trattamento biodinamico differenze che potrebbero essere spiegate benissimo da questi fattori.

Ecco il nodo: la biodinamica viene trattata come variabile determinante quando, in realtà, manca la dimostrazione del nesso causale. Si confonde la correlazione con la causa, sostituendo la fatica della verifica sperimentale con il fascino della narrazione esoterica. In altre parole, strumenti scientifici tra i più potenti oggi disponibili vengono usati correttamente per produrre dati robusti, ma poi piegati a interpretazioni che appartengono più al mito che alla scienza. È come se un telescopio di ultima generazione fosse puntato verso il cielo non per studiare le galassie, ma per cercare gli influssi astrali di cui parlano gli oroscopi.

Quando i numeri non tornano

Tra i lavori più citati a sostegno della biodinamica c’è l’articolo di Zaller e Köpke pubblicato su Biology and Fertility of Soils nel 2004, che confronta letame compostato tradizionale e letame compostato con “preparati” biodinamici in un esperimento pluriennale. Sulla carta, il disegno sperimentale sembra solido: rotazioni colturali, repliche, parametri chimici e biologici del suolo.

Ma basta entrare nei dettagli per accorgersi delle crepe. Innanzitutto, gli autori parlano di quattro trattamenti, ma l’unico vero confronto rilevante – biodinamico vs tradizionale – è reso ambiguo dal fatto che manca un controllo cruciale: il letame senza alcuna applicazione (no FYM) è incluso, ma non permette di distinguere se le differenze dipendano dalle preparazioni biodinamiche o, banalmente, dalla sostanza organica. In altre parole, non è possibile stabilire se l’“effetto” sia biodinamico o semplicemente concimante.

In secondo luogo, molte delle differenze riportate sono minime, al limite della significatività statistica, e oscillano addirittura in direzioni opposte tra i diversi strati di suolo (es. la respirazione microbica più bassa con tutti i preparati a 0–10 cm, ma più alta col solo Achillea a 10–20 cm: Fig. 1). Questo non è un segnale di coerenza biologica, ma di rumore sperimentale.

E poi ci sono le rese: tabella 3 mostra chiaramente che le differenze tra preparati e non-preparati non sono mai significative. In pratica, dopo nove anni di sperimentazione, la produttività dei sistemi resta identica, indipendentemente dall’uso o meno dei preparati.

Il colpo finale arriva dall’interpretazione: gli autori ammettono che “how those very low-dose preparations can affect soil processes is still not clear” (p. 228), ma subito dopo ipotizzano meccanismi fumosi come “microbial efficiency” o “stress reduction” senza fornire prove solide. Non sorprende che l’articolo sia diventato un riferimento per i sostenitori della biodinamica: fornisce grafici, tabelle e un lessico tecnico, ma dietro la facciata la sostanza è debole.

In sintesi, questo lavoro non dimostra affatto l’efficacia dei preparati biodinamici: mostra soltanto che il letame fa bene al suolo, una banalità agronomica travestita da scoperta.

Mappatura, non validazione

Giusto per concludere questa breve revisione critica di qualche lavoro sulla biodinamica, prendo in considerazione una review pubblicata su Organic Agriculture che ha analizzato 68 studi sull’agricoltura biodinamica. Gli autori segnalano effetti positivi su suolo e biodiversità, soprattutto in aree temperate, sostenendo che “most studies reported improvements in soil quality parameters, biodiversity, and crop quality under biodynamic management” (p. 3).

Il problema è che si tratta di una rassegna descrittiva, non critica. Gli stessi autori ammettono che “we did not perform a formal quality assessment of the included studies” (p. 2). In altre parole, nessuna valutazione della robustezza metodologica, della significatività statistica o della replicabilità dei risultati. Non hanno fatto, insomma, quello che ho fatto io con le critiche riportate nei paragrafi precedenti.

Non solo: la review mette nello stesso calderone pratiche agricole consolidate (rotazioni, compost, minore uso di chimica) e l’uso dei preparati biodinamici, facendo apparire i benefici come frutto della biodinamica tout court. Un artificio retorico che sposta l’attenzione dall’agronomia alla magia.

Il risultato è esattamente quello che Enrico Bucci definì su Il Foglio una “eterna review”: un elenco di lavori, non una loro valutazione critica. Utile come catalogo, ma totalmente inutile come prova di validazione scientifica. Insomma, un inventario ordinato, non una prova di efficacia: la scienza qui rimane alla porta, mentre la retorica magica occupa la scena.

La fatica della demistificazione scientifica

Arrivati a questo punto, vale la pena sottolineare un aspetto che spesso sfugge a chi guarda la scienza dall’esterno. Smontare lavori che si travestono da scienza non è un passatempo da tastiera né un esercizio da poltrona. È un percorso lungo, faticoso e a tratti logorante. Perché?

Per prima cosa bisogna leggere gli articoli nella loro interezza, riga dopo riga, spesso decifrando un linguaggio tecnico volutamente denso. Poi serve una conoscenza approfondita delle metodologie: saper distinguere un NMR da una cromatografia, sapere cosa può misurare davvero un test enzimatico e cosa invece viene gonfiato nell’interpretazione. Infine, è indispensabile una robusta esperienza nella progettazione sperimentale: senza questa non ci si accorge dei bias nascosti, dei controlli mancanti, delle conclusioni che vanno ben oltre i dati.

E tutto ciò richiede tempo, pazienza e un certo spirito combattivo.  La scienza procede per tentativi ed errori. Un lavoro pubblicato non necessariamente è validoLa pubblicazione è solo il primo gradino. La vera prova arriva dopo, quando la comunità scientifica lo sottopone a un esame collettivo, minuzioso, implacabile: esperti che “fanno le pulci” a ogni cifra, a ogni tabella, a ogni esperimento. Se il lavoro è solido, resiste e diventa pietra miliare. Se è fragile, si sgretola in fretta e viene dimenticato.

Ecco perché la demistificazione è così importante e così dura: perché si combatte con armi scientifiche contro narrazioni che usano il fascino del mito. E i lavori sulla biodinamica, quando passano sotto questo setaccio, puntualmente crollano.

Conclusione: un fallimento annunciato

Il quadro che emerge è inequivocabile. Studi ben confezionati ma concettualmente vuoti, prove senza controlli, numeri sbagliati, review che confondono agronomia con magia. Tutto ciò che funziona nelle aziende biodinamiche non è esclusivo della biodinamica: è semplice agronomia, già consolidata nel biologico e perfezionata nell’integrato.

Il resto – corna interrate, cicli cosmici, preparati miracolosi – non resiste alla prova della scienza. La biodinamica cerca da oltre un secolo legittimazione, ma ogni volta che la ricerca prova a verificarla seriamente, la sua fragilità diventa evidente. Non è agricoltura del futuro, ma un mito che il tempo ha già smentito.

A questo punto, un lettore non addetto potrebbe chiedersi: “Ma se è così fragile, come mai questi studi vengono pubblicati? Possibile che i revisori non se ne accorgano? E come faccio io, dall’esterno, a non fidarmi di ciò che appare su riviste qualificate, persino con un buon Impact Factor?”

La risposta è meno misteriosa di quanto sembri. Come ho già scritto nel paragrafo precedente, la pubblicazione è solo il primo passo: significa che un articolo ha superato un filtro minimo di qualità, non che sia una verità scolpita nel marmo. La peer review non è un tribunale infallibile: è fatta da esseri umani, spesso con tempi stretti e competenze specifiche. Alcuni errori sfuggono, altre volte ci si concentra più sulla tecnica che sulla sostanza. Succede che un lavoro ben scritto e infarcito di strumentazioni sofisticate riesca a passare, anche se le conclusioni sono deboli.

La differenza la fa il tempo e la comunità scientifica. È il vaglio collettivo, fatto di discussioni, repliche, critiche, tentativi di replica sperimentale, che separa ciò che rimane da ciò che evapora. Ed è un processo lento e faticoso, che richiede esperienza, attenzione e anche una certa dose di ostinazione.

Ecco perché non basta fidarsi di un titolo altisonante o di una rivista con un buon IF. Bisogna guardare dentro i lavori, leggerli, pesarli, verificarli. Lo facciamo noi scienziati, ed è una parte del nostro mestiere che non fa notizia, ma è essenziale: distinguere i dati solidi dai castelli di carta.

E ogni volta che la biodinamica entra in questo setaccio, il risultato è lo stesso: crolla.

Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci

Ci risiamo! Più volte ho parlato di biodinamica, ma, come sempre accade, questa pratica sembra risorgere dalle ceneri come la fenice, un essere mitologico che ben rappresenta l’impianto fantastico da cui trae origine. Stavolta a riproporla in chiave “scientifica” è un articolo apparso su Terra & Vita l’11 agosto 2025 a firma di Carlo Triarico, presidente dell’Associazione per l’Agricoltura Biodinamica:
? Agricoltura biodinamica e ricerca scientifica, il dialogo continua

Come al solito, ci troviamo di fronte a un testo che cerca di accreditare la biodinamica usando il linguaggio della scienza e richiamando collaborazioni con enti di ricerca. Vale la pena analizzare punto per punto le affermazioni contenute nell’articolo, per capire cosa c’è di sostanza e cosa invece è pura retorica.

La premessa retorica

“La crisi ambientale impone nuove pratiche rigenerative, accompagnate da un solido impianto di validazione scientifica.”

Che la crisi ambientale e climatica sia una realtà innegabile è fuori discussione. Nessuno scienziato serio la nega. Ma proprio perché la crisi è reale, il richiamo a essa non può essere usato come cavallo di Troia per giustificare qualunque pratica, tanto meno quelle nate da premesse esoteriche. È un classico espediente retorico: evocare un problema grave e condiviso per darsi legittimità, senza però dimostrare che la soluzione proposta sia davvero efficace.

Il termine “pratiche rigenerative” è suggestivo ma vago. Rigenerare cosa? In che modo? Con quali meccanismi verificabili? Senza una definizione chiara, si resta nell’ambito dello slogan. La biodinamica viene così presentata come medicina miracolosa, ma senza che siano forniti protocolli scientifici in grado di dimostrare causalità tra pratiche e risultati.

Infine, parlare di “validazione scientifica” è improprio. La scienza non “valida” come fosse un ente certificatore che mette bollini di approvazione. La scienza funziona per ipotesi sottoposte a prove, dati che devono essere replicabili, esperimenti che altri ricercatori possono confermare o smentire. Se un modello agronomico ha basi solide, non c’è bisogno di rivestirlo di retorica: i dati parlano da soli.

La verità è che quando si tratta di biodinamica, si invoca la scienza come un orpello decorativo, ma si evita accuratamente di sottoporre al vaglio critico proprio i capisaldi del metodo — i preparati, le diluizioni omeopatiche, i cicli cosmici. Su questi aspetti, che costituiscono l’anima della biodinamica, non esiste alcuna evidenza.

In altre parole: usare la crisi climatica come giustificazione per promuovere pratiche prive di fondamento non è un’operazione scientifica, ma retorica.

La “visione sistemica”

“La biodinamica, con la sua visione sistemica e la cura della terra, ha molto da offrire in termini di sostenibilità.”

Visione sistemica” è un’espressione ad alto impatto emotivo, che sembra evocare profondità e modernità di pensiero. Ma è un concetto che, applicato così, resta puramente decorativo. In agronomia la gestione integrata dei sistemi agricoli è già una realtà da decenni: rotazioni colturali, pratiche conservative, uso oculato delle risorse idriche, incremento della sostanza organica del suolo. Tutti questi approcci rientrano già da tempo nell’agricoltura biologica, nella lotta integrata e nei sistemi sostenibili, senza bisogno di ricorrere a cosmologie esoteriche.

Attribuire alla biodinamica una presunta “visione sistemica” è dunque un’operazione di maquillage: si prende un concetto scientificamente serio, lo si ammanta di suggestioni e lo si appiccica a pratiche che con la scienza hanno poco a che fare. In realtà, la biodinamica non porta alcuna innovazione metodologica: si limita a riproporre tecniche già note in agricoltura ecocompatibile, aggiungendo però un corredo rituale che nulla aggiunge né alla produttività né alla sostenibilità.

È come se qualcuno prendesse l’omeopatia e la presentasse come “medicina olistica sistemica”: un modo elegante per mascherare l’assenza di meccanismi verificabili dietro un linguaggio affascinante. Allo stesso modo, dire che la biodinamica ha “molto da offrire” in termini di sostenibilità è fuorviante: ciò che funziona non è la biodinamica, ma le stesse pratiche agronomiche già validate che essa incorpora al suo interno.

In sintesi, la “visione sistemica” non è un portato della biodinamica: è un concetto scientifico e agronomico che le viene arbitrariamente attribuito per conferirle un’aura di credibilità.

Le collaborazioni scientifiche

“Abbiamo collaborato con CREA, Università di Firenze, Università di Salerno, CERMANU, SISB…”

E qui scatta il gioco delle citazioni, un artificio retorico ben collaudato: nominare enti di ricerca e università serve a costruire una patina di autorevolezza, come se la sola menzione bastasse a trasferire credibilità scientifica. Ma la realtà è più complessa.

Che università e centri di ricerca abbiano svolto studi sulla fertilità del suolo, sulla biodiversità o sull’impatto ambientale delle pratiche agricole è un dato di fatto. Questo, però, non equivale ad aver avallato i principi fondanti della biodinamica, che restano di natura esoterica. Bisogna distinguere nettamente:

  • quando si studiano pratiche agronomiche comuni, come la riduzione dei fertilizzanti di sintesi (cioè sistemi inorganici), l’incremento della sostanza organica o la gestione integrata del terreno, si sta facendo agronomia.
  • quando invece si invocano corna di vacca interrate, preparati dinamizzati in acqua agitata ritualmente, o influssi cosmici legati alla posizione della Luna, si entra nell’ambito del rituale, non della ricerca scientifica.

Mescolare i due livelli, come avviene sistematicamente nei comunicati del mondo biodinamico, è un’operazione retorica: si confonde il rigore della scienza con il linguaggio mistico, sperando che la rispettabilità della prima copra le fragilità della seconda.

In altre parole: se un’università conduce uno studio sulla biodiversità in un’azienda biodinamica, il dato che ottiene riguarda la biodiversità in quell’azienda, non la validazione delle teorie di Steiner. Dire il contrario equivale a dire che se un medico misura la pressione a un paziente che porta un amuleto al collo, allora lo studio conferma l’efficacia dell’amuleto.

Il problema, dunque, non è la collaborazione in sé, ma il suo uso strumentale: un modo per presentare come “scientificamente supportato” ciò che resta, nei suoi fondamenti, privo di basi scientifiche.

L’azienda modello e la certificazione Demeter

“Le aziende certificate Demeter come Lacalamita Rosa mostrano risultati significativi e attraggono nuovi produttori.”

Portare ad esempio aziende di successo è una strategia comunicativa potente: un nome evocativo, qualche dato positivo e il lettore medio è portato a pensare che il merito sia tutto della biodinamica. Ma il ragionamento è fuorviante.

Il successo commerciale o l’apprezzamento dei consumatori non dimostrano di per sé la validità scientifica di un metodo. Un’azienda può prosperare per molte ragioni: la qualità intrinseca del suolo, la competenza agronomica di chi la conduce, le condizioni climatiche favorevoli, oppure semplicemente un buon posizionamento di mercato. Attribuire automaticamente questi risultati alla biodinamica equivale a confondere i fattori: è il tipico errore di scambiare correlazione per causalità.

Quanto alla certificazione Demeter, non si tratta di un riconoscimento indipendente né neutrale. È un marchio privato, gestito dal movimento biodinamico stesso, che valuta la conformità delle aziende a un disciplinare interno. E questo disciplinare, lungi dall’essere scientifico, prescrive pratiche rituali che includono i famosi preparati e le procedure esoteriche steineriane. Parlare quindi di “standard oggettivi” è improprio: non si tratta di oggettività scientifica, ma di coerenza con un regolamento autoreferenziale.

Per chiarire con un paragone: dire che un’azienda è “validata scientificamente” perché certificata Demeter è come dire che un club di astrologi garantisce l’accuratezza dell’oroscopo dei suoi membri. Vale come appartenenza a una comunità che condivide gli stessi rituali, ma non come dimostrazione di efficacia.

In definitiva, l’esempio delle aziende modello e della certificazione Demeter serve a costruire un racconto accattivante, ma non sposta di un millimetro la questione centrale: i principi fondanti della biodinamica restano privi di fondamento scientifico.

Lo studio con NMR sull’uva da tavola

“Gli studi con spettroscopia H-NMR hanno mostrato parametri qualitativi superiori nell’azienda biodinamica.”

Qui si tocca un aspetto che, letto in fretta, sembra confermare in pieno la narrazione biodinamica: un’analisi sofisticata, condotta con uno strumento scientifico avanzato, avrebbe mostrato differenze qualitative a favore dell’azienda biodinamica. Ma la realtà, ancora una volta, è diversa.

Innanzitutto, va chiarito cosa significhi “parametri qualitativi superiori”. Una differenza nei profili metabolomici non equivale automaticamente a un miglioramento. In metabolomica, infatti, i dati descrivono variazioni nella concentrazione di certi composti, ma la loro interpretazione dipende dal contesto e da ulteriori correlazioni con parametri sensoriali, nutrizionali o tecnologici. Dire che un prodotto è “migliore” perché diverso non ha alcun senso scientifico.

In secondo luogo, anche ammesso che un’azienda biodinamica mostri parametri più favorevoli, ciò non dimostra affatto che la causa sia la biodinamica in sé. Gli studi comparativi, per essere robusti, devono isolare le variabili: stesse condizioni pedoclimatiche, stesso vitigno, stessa gestione agronomica, stesso livello di esperienza dell’agricoltore. Nella realtà, però, un’azienda non è un laboratorio sterile: il suolo, il microclima, l’età delle piante, persino la cura quotidiana nella gestione possono influenzare i risultati.

Attribuire quindi le differenze osservate ai preparati steineriani o all’influenza dei cicli cosmici è un salto logico arbitrario. Sarebbe come dire che, se una squadra di calcio vince una partita, il merito è della maglia portafortuna indossata dall’allenatore. Correlazione e causalità, ancora una volta, vengono confuse deliberatamente.

Infine, l’uso stesso di tecniche avanzate come la spettroscopia NMR rischia di funzionare da “effetto scenico”: uno strumento complesso viene chiamato in causa per impressionare il lettore, non per fornire prove decisive. Ma la scienza non si misura dalla sofisticazione dello strumento, bensì dalla solidità del disegno sperimentale e dalla replicabilità dei risultati.

In sintesi: se anche uno studio rileva differenze, non è corretto attribuirle tout court alla biodinamica. La vera prova mancherebbe proprio là dove servirebbe: dimostrare che i precetti esoterici abbiano un effetto misurabile e riproducibile. E questa prova, ad oggi, non esiste.

Agroecologia e dieta mediterranea

“La biodinamica si integra con i principi dell’agroecologia e della Dieta Mediterranea sostenibile.”

Questo passaggio è un esempio chiaro di appropriazione semantica: si accostano concetti scientificamente fondati (agroecologia e Dieta Mediterranea) a un paradigma privo di basi razionali come la biodinamica, nel tentativo di trasferire prestigio dall’uno all’altro.

L’agroecologia è un approccio interdisciplinare che combina scienze agrarie, ecologia, economia e sociologia per rendere sostenibili i sistemi agricoli. La Dieta Mediterranea, invece, non è affatto un modello antico e immutato: è una costruzione recente, nata negli Stati Uniti negli anni ’50-’60 grazie agli studi di Ancel Keys, che osservò la maggiore longevità di alcune popolazioni del bacino mediterraneo. Da quelle osservazioni derivò un modello alimentare “idealizzato”, promosso poi a livello internazionale. Nonostante le sue origini moderne e in parte commerciali, la Dieta Mediterranea si è guadagnata un solido supporto scientifico: numerosi studi hanno confermato la correlazione con benefici per la salute, e l’UNESCO l’ha riconosciuta come patrimonio culturale immateriale per il suo valore sociale e culturale.

La biodinamica, al contrario, nasce da premesse esoteriche di Rudolf Steiner e non ha alcuna validazione scientifica. Metterla sullo stesso piano dell’agroecologia e della Dieta Mediterranea è quindi fuorviante: mentre le prime si fondano su dati, osservazioni e modelli riproducibili, la biodinamica resta ancorata a rituali cosmici e pratiche prive di riscontro sperimentale.

Il meccanismo comunicativo è evidente: evocare concetti positivi e consolidati per “nobilitare” la biodinamica. Ma, in realtà, tutto ciò che appare compatibile con l’agroecologia o con il modello mediterraneo (rotazioni, compostaggio, riduzione degli input chimici) non è esclusivamente biodinamico: appartiene già all’agricoltura biologica e sostenibile. L’unico elemento davvero caratterizzante della biodinamica — i preparati e i rituali steineriani — non ha alcun fondamento scientifico.

In definitiva, questo accostamento non rafforza la biodinamica: ne evidenzia piuttosto la debolezza, perché dimostra il suo costante bisogno di appoggiarsi ad altro per sembrare credibile.

Standard e protocolli “oggettivi”

“La biodinamica è identificata da standard e protocolli oggettivi e soggetti a verifica.”

Questa affermazione suona rassicurante, ma è profondamente ambigua. Nel linguaggio della scienza, “standard oggettivi” significa procedure condivise, ripetibili, verificabili da chiunque e soprattutto indipendenti da appartenenze ideologiche. Nel caso della biodinamica, invece, gli “standard” non sono altro che le regole fissate dal marchio Demeter, ovvero dall’organizzazione stessa che promuove la biodinamica.

Questi protocolli prevedono sì pratiche agronomiche comuni e sensate (rotazioni, compostaggio, attenzione alla fertilità del suolo), ma includono anche prescrizioni rituali come i preparati dinamizzati o le corna interrate seguendo cicli lunari e planetari. Non c’è nulla di scientifico in questo: sono norme interne a una comunità, autoreferenziali, che si verificano in base alla loro stessa coerenza interna, non sulla base di prove oggettive.

È come dire che l’astrologia è “oggettiva” perché esistono regole precise per calcolare un oroscopo. Certo, il calcolo segue un protocollo, ma ciò non significa che il risultato abbia validità scientifica. Allo stesso modo, rispettare il disciplinare Demeter dimostra solo che un’azienda aderisce a un regolamento, non che i principi steineriani abbiano efficacia reale.

Il vero paradosso è che il richiamo alla “verifica” finisce per essere un gioco di specchi: chi controlla la conformità non valuta i risultati scientifici delle pratiche, ma solo la fedeltà a un rituale codificato. È un sistema chiuso, che si autolegittima senza mai confrontarsi con il metodo scientifico.

In sintesi: parlare di “protocolli oggettivi” in biodinamica è un abuso del linguaggio scientifico. Non si tratta di oggettività, ma di appartenenza. Non si tratta di verifiche, ma di rituali. E questa differenza non è un dettaglio semantico: è il punto che segna la distanza tra scienza e pseudoscienza.

Conclusione

Ancora una volta la biodinamica si presenta con abiti nuovi, evocando crisi ambientali, citando enti di ricerca, richiamando agroecologia e dieta mediterranea, esibendo certificazioni e dati metabolomici. Ma al di là della patina, la sostanza resta immutata: i capisaldi steineriani non hanno alcuna validazione scientifica.

Tutto ciò che funziona nelle aziende biodinamiche non è esclusivo della biodinamica: è semplice agronomia, già consolidata nel biologico e perfezionata oggi nell’agricoltura integrata. La differenza è che qui si parla di conoscenze scientifiche, non di rituali esoterici. Ciò che resta tipicamente biodinamico non ha alcuna evidenza e non può essere considerato scienza.

La conclusione è inevitabile: la biodinamica non rappresenta un modello innovativo di sostenibilità, ma un insieme di pratiche esoteriche rivestite di retorica scientifica. E confondere scienza e rituale non aiuta l’agricoltura a diventare più sostenibile: la espone, semmai, al rischio di perdere credibilità proprio quando la società ha più bisogno di rigore, trasparenza e soluzioni reali.

Come la fenice, la biodinamica sembra risorgere dalle proprie ceneri: ma, a differenza del mito, dalle sue ceneri non nasce mai scienza.

Quando l’impossibile è solo improbabile: la cosmochimica ci insegna a essere umili

Recentemente Nature Communications ha pubblicato un articolo che ha fatto il giro del web: la scoperta di una molecola ritenuta “impossibile” secondo la chimica classica. Si tratta del methanetetrol, con formula C(OH)₄, cioè un atomo di carbonio legato a quattro gruppi ossidrilici. Se avete familiarità con la chimica organica, vi sarà già scattato un campanello d’allarme.

Un carbonio, quattro ossidrili

In chimica organica, anche due gruppi -OH sullo stesso carbonio (dioli germinali) sono instabili: tendono a disidratarsi spontaneamente, formando un carbonile più stabile. Con quattro ossidrili, il carbonio è sottoposto a forte repulsione elettronica e alta reattività: la molecola è intrinsecamente instabile nelle condizioni terrestri.

Ma lo spazio è tutta un’altra storia

L’esperimento condotto da Joshua H. Marks e colleghi ha simulato condizioni interstellari:

  • temperatura di circa 10 K (~ –263 °C);
  • pressione ultra-bassa (10⁻¹⁰ atm);
  • esposizione a radiazione energetica, simile a quella dei raggi cosmici.

In queste condizioni la molecola non riceve abbastanza energia per reagire o disidratarsi. Resta quindi “congelata” in uno stato metastabile, come se fosse bloccata nel tempo.

Instabile ≠ impossibile

Il methanetetrol non è “impossibile”: è semplicemente troppo instabile per durare a lungo alle condizioni ambientali della Terra. Ma nel vuoto cosmico, dove le collisioni tra molecole sono rarissime e la temperatura è prossima allo zero assoluto, anche le molecole più reattive possono esistere per tempi lunghissimi.

Un esempio quotidiano: l’acqua sovraraffreddata

Un buon esempio di metastabilità è l’acqua sovraraffreddata: se si raffredda dell’acqua molto pura lentamente e senza disturbarla, può restare liquida anche sotto gli 0 °C. Basta però un urto o l’aggiunta di un cristallo di ghiaccio perché si congeli all’istante, liberando calore.

Il methanetetrol nello spazio si comporta allo stesso modo: esiste in uno stato “delicato”, che può durare milioni di anni solo finché non interviene qualcosa a modificarlo.

Un’eredità cosmica

È importante ricordare che le molecole presenti oggi sulla Terra — comprese quelle che hanno contribuito all’origine della vita — sono in parte eredi di queste molecole “cosmiche”. Nei primi miliardi di anni, comete, meteoriti e polveri interstellari hanno portato sulla Terra materiali formatisi in ambienti estremi, spesso metastabili.

Queste molecole, una volta inglobate nel giovane pianeta, si sono trasformate: alcune sono sopravvissute, altre si sono degradate, altre ancora hanno reagito dando origine a sistemi sempre più complessi. La chimica della vita, in questo senso, è figlia della chimica dello spazio, anche se si è evoluta in condizioni molto diverse.

Anche la Terra ha i suoi estremi

Non dobbiamo però pensare che condizioni “impossibili” esistano solo nello spazio. Anche sulla Terra troviamo ambienti estremi in cui si manifestano forme di chimica — e persino di biologia — del tutto inattese.

  • Nelle saline di Trapani, ad esempio, vivono microrganismi capaci di resistere a concentrazioni di sale che ucciderebbero qualsiasi cellula “normale”.
  • Nei pressi delle bocche vulcaniche sottomarine, dove temperature e pressioni sono altissime, esistono comunità microbiche che metabolizzano zolfo e metalli.
  • In ambienti acidi, alcalini, radioattivi o privi di ossigeno, prosperano organismi estremofili che mettono in crisi i nostri criteri su cosa è “compatibile con la vita”.

Anche qui la natura ci insegna che la stabilità è relativa: ciò che sembra impossibile in una condizione può essere perfettamente normale in un’altra.

Uno sguardo all’origine della complessità

L’interesse principale di questa scoperta non è nella molecola in sé, ma nei meccanismi di formazione. L’esperimento ha mostrato che partendo da semplici ghiacci di CO₂ e H₂O si possono generare:

I calcoli teorici confermano che, se c’è sufficiente CO₂ nello spazio, il methanetetrol potrebbe già esistere là fuori — congelato nei ghiacci cosmici, in attesa di una nuova reazione.

Conclusione

La chimica nello spazio non viola le regole: le applica in modo diverso. Il methanetetrol ci ricorda che non possiamo giudicare la plausibilità di una molecola solo dalle condizioni terrestri. E ci insegna una lezione ancora più importante:
la chimica, come la vita, nasce dove trova spazio per esistere — anche se quel luogo è a 10 Kelvin, nel vuoto cosmico o in una salina siciliana.

Clima e pseudoscienza: anatomia di una discussione

Qualche giorno fa ho pubblicato il terzo e, speravo, ultimo articolo di un reportage sui cambiamenti climatici. In questo articolo, intitolato I cambiamenti climatici? Sì, siamo noi i responsabili, ho discusso delle prove oggettive – corredate da riferimenti puntuali – che hanno portato l’intera comunità scientifica alla conclusione che i responsabili di quanto sta accadendo attualmente sulla superficie terrestre, ovvero l’aumento delle temperature globali e la conseguente alterazione degli ecosistemi, siamo noi esseri umani.

In quel testo ho cercato di mostrare, in modo accessibile ma rigoroso, perché la tesi dell’origine antropica dell’attuale riscaldamento globale non sia più un’ipotesi, ma una conclusione supportata da una mole imponente di dati.

Ho parlato del ruolo dei gas serra, in particolare della CO₂ prodotta dalla combustione di combustibili fossili, la cui impronta isotopica è ben riconoscibile in atmosfera. Ho discusso anche delle fonti indipendenti che confermano il trend in atto – dalle carote glaciali agli anelli degli alberi, dai sedimenti oceanici alle misurazioni satellitari – e delle ragioni per cui né l’attività solare né le eruzioni vulcaniche possono spiegare ciò che osserviamo oggi.

Infine, ho evidenziato come la rapidità del riscaldamento attuale – oltre un grado in appena un secolo – sia senza precedenti nella storia recente del pianeta, e come l’intero corpo scientifico internazionale, sintetizzato nei report dell’IPCC, abbia ormai raggiunto un consenso solido e ben documentato su questo punto.

Non è necessario riproporre qui tutti i riferimenti bibliografici: si trovano nell’articolo appena riassunto (qui il link).

Eppure, eccomi di nuovo a scrivere sull’apporto antropico all’effetto serra. Non per aggiungere nuove evidenze, ma per riflettere sul modo estremamente fallace – e sempre più diffuso – di ragionare dei negazionisti del cambiamento climatico. Non si tratta, in questo caso, di negazionisti tout court: anche loro, ormai, devono riconoscere l’evidenza dell’aumento delle temperature globali. Si tratta piuttosto dei negazionisti dell’origine antropica, coloro che rifiutano di accettare che la causa principale del riscaldamento sia l’attività umana.

In un gruppo Facebook che aiuto a gestire – Bufale e dintorni gruppo – sono comparsi i primi commenti al mio post con cui pubblicizzavo l’articolo (potete farvene un’idea a questo link).
Poiché si tratta di un gruppo privato – quindi i post non sono visibili pubblicamente – e considerando che non tutti hanno un account Facebook attivo, riporto di seguito gli screenshot della discussione.

La Figura 1 riporta la condivisione dalla mia pagina Facebook “Rino Conte”.

Figura 1. Screenshot relativo alla condivisione del mio articolo sull’effetto antropico nei cambiamenti climatici. Questo thread ha dato la stura a una discussione con un negazionista di tale effetto.

La Figura 2 riporta (spero in modo leggibile, altrimenti è necessario da parte dei volenterosi scaricare l’immagine ed effettuarne uno zoom) la discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

Figura 2. Discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

E proprio mentre sto scrivendo questo articolo la discussione continua (Figura 3).

Figura 3. Proseguimento della discussione mentre scrivo questo articolo.

Come si evince dagli screenshot, il tutto ha inizio dall’inserimento di un link a un articolo giornalistico in cui si riporta un filmato che mostra il comportamento di certi ghiacciai negli ultimi 800 000 anni. Questo filmato è tratto da un lavoro scientifico dal titolo “Modelling last glacial cycle ice dynamics in the Alps” pubblicato nel 2018 sulla rivista The Cryosphere della European Geoscience Union, associazione per la quale anche io ho organizzato in passato dei miniconvegni nell’ambito delle attività congressuali più generali che si fanno ogni anno a Vienna in Austria (per esempio, uno è qui).

Chi ha condiviso questo studio nella discussione lo ha fatto con l’intento – più o meno esplicito – di suggerire che, dal momento che i ghiacciai alpini si sono espansi e ritirati ciclicamente nel passato, il cambiamento climatico attuale potrebbe essere semplicemente parte di una lunga variabilità naturale. È un’inferenza del tutto errata, che nasce da un fraintendimento delle finalità e dei contenuti del lavoro scientifico citato.

Infatti, lo studio in questione (Seguinot et al., 2018) non parla di cambiamenti climatici attuali né tantomeno ne discute le cause. Si tratta di un lavoro di modellizzazione numerica della dinamica glaciale delle Alpi durante l’ultimo ciclo glaciale (da 120.000 a 0 anni fa), che ha lo scopo di testare la coerenza tra ricostruzioni geologiche e simulazioni del comportamento dei ghiacciai su scala millenaria. Non c’è nel testo alcuna analisi delle cause del riscaldamento moderno, né alcun confronto con l’evoluzione recente del clima terrestre.

Quello che il mio interlocutore ha fatto è un tipico esempio di bias di conferma: ha estrapolato da un articolo tecnico una conclusione che non c’è, perché questa coincide con la propria convinzione preesistente. È un meccanismo comune tra i cosiddetti “negazionisti soft” – persone che, pur riconoscendo che il clima sta cambiando, rifiutano l’idea che l’essere umano ne sia il principale responsabile.

La dinamica della discussione su Facebook lo conferma: ogni volta che si porta un dato, una misura, una ricostruzione paleoclimatica, l’interlocutore non contesta la validità della fonte, ma sposta il piano, relativizza, introduce “dubbi” storici o filosofici. E infine si rifugia nel mito del “Galileo solitario”, come se ogni minoranza fosse destinata a diventare verità solo perché è minoranza. Ma Galileo non aveva ragione perché era solo: aveva ragione perché aveva i dati e un metodo.

Ecco il punto: il problema non è tanto avere un’opinione diversa, quanto non saper distinguere tra opinione personale e conoscenza scientifica. E non è un caso che questo tipo di retorica si ritrovi spesso in altri ambiti della disinformazione scientifica: chi si sente “eretico” rispetto al sapere ufficiale tende a sopravvalutare le proprie intuizioni e a sottovalutare il lavoro, faticoso e rigoroso, di chi fa scienza sul serio.

Discutere con chi rifiuta le conclusioni della scienza può essere faticoso, ma è anche necessario. Non per convincere chi ha già deciso di non ascoltare, ma per fornire strumenti a chi legge in silenzio, a chi cerca chiarezza in mezzo al rumore. La scienza non ha bisogno di essere difesa come un dogma: si difende da sé, con i dati, con la trasparenza dei metodi, con la disponibilità al confronto critico. Ma proprio per questo va protetta dalle distorsioni, dalle semplificazioni, e soprattutto dal relativismo delle opinioni travestite da verità.
Il cambiamento climatico attuale è un fenomeno reale, misurabile e in larga parte causato dalle attività umane. Continuare a negarlo non è esercizio di pensiero critico, ma una forma di resistenza ideologica che rischia di ritardare l’unica cosa che oggi dovremmo fare: affrontare il problema con serietà, competenza e senso di responsabilità.

EDIT

Mentre mi accingevo a pubblicare questo articolo, il mio interlocutore ha pubblicato un’ultima risposta che ho deciso di riportare integralmente per completezza. Qui sotto trovate anche la mia replica con cui ho deciso di concludere la discussione pubblica.

Interlocutore:

Pellegrino

  1. Lei stesso parla di “stime solide”; che sono appunto stime, non misurazioni dirette.
  2. “Sappiamo perché”, è un’altra forzatura. In realtà abbiamo delle interpretazioni plausibili per molte di esse, ma ciò non equivale a una certezza assoluta. Anche nelle osservazioni attuali, ci si imbatte in anomalie impreviste, tipo l’impatto dello scioglimento del permafrost, temperature previste che poi non si sono verificate… E parliamo di osservazioni dirette; figuriamoci sulle “stime” di fenomeni non osservati direttamente. Per non parlare dell’infinito dibattito su quanto influiscano o meno le macchie solari…

Stesso discorso sul fatto che le oscillazioni in passato non avvenissero in decenni, trascurando che non possiamo sapere se gli strumenti che abbiamo a disposizione siano davvero affidabili con tale precisione. Mancando l’osservazione diretta, non possiamo verificarlo.

Dire che “potrebbero esserci state” significa semplicemente dire che il modello generale è ancora soddisfatto; per dimostrare l’anomalia bisogna dimostrare che davvero non ci siano precedenti. È un discorso di presunzione d’innocenza: per dare la colpa all’uomo bisogna dimostrarla; il “ragionevole dubbio” è a favore dell’imputato. Foss’anche solo per mancanza di prove.

  1. Il moto dei pianeti era noto da sempre (“planities” significa appunto “errante”), ma lui (anzi, Copernico) fornì solo un modello di calcolo semplificato. Infatti, a dirla tutta, il sole non è affatto al centro dell’universo ma si muove pure lui… In questo ha ragione l’insegnante del prof. Barbero che diceva che il card. Bellarmino era più moderno di Galileo.
  2. A “negazionista” si potrebbe contrapporre “fideista”, ovvero uno che sposa senz’altro ciò che dice la maggioranza stigmatizzando il dubbio. Ma io continio a ricordare che la stessa comunità scientifica oggi certa del riscaldamento globale appena quarant’anni fa era ugualmente certa dell’imminenza di un’era glaciale. Un cambio di rotta di 180 gradi in meno di mezzo secolo, e si dovrebbe prendere per oro colato anche l’attribuzione di responsabilità? Anche a fronte di numerose previsioni rivelatesi poi errate?
  3. Su un punto, concordo senz’altro: sulla separazione netta tra dissertazione scientifica e azione concreta (e non potrei dire diversamente, dato che come ho già detto opero nella Protezione Civile).

Il punto certo è che vi sia in atto un cambiamento climatico che attualmente va verso un aumento delle temperature, che il problema è serio e che la cosa va affrontata. Ridurre il più possibile (e possibilmente azzerare) l’impatto antropico non ha controindicazioni, e quindi va benissimo farlo; e infatti ne sono da sempre un convinto sostenitore.

A mio modesto parere, non servirà a granché, perché se Madre Natura ha deciso che è tempo di un nuovo Eocene, Eocene sarà; che ci piaccia o no.

Quindi, oltre ad azzerare le emissioni, miglioriamo l’efficienza dei condizionatori, perché ne avremo comunque bisogno. Tutto qui.

Io:
grazie per aver chiarito ulteriormente il suo punto di vista. Le rispondo un’ultima volta, per chi ci legge e non per la soddisfazione di “avere l’ultima parola”, che non mi interessa.

Sì, le proxy sono stime, ma sono stime calibrate, validate e incrociate da molte fonti indipendenti. Nessun climatologo confonde una proxy con una misura diretta, ma la scienza lavora ogni giorno per rendere sempre più affidabili quelle stime. E il fatto che convergano tutte sul medesimo trend dà forza alla ricostruzione. Questo è il normale funzionamento della scienza, non una debolezza.

Nessuno pretende certezze assolute, né le scienze naturali le promettono. Lei invece sembra richiedere una prova “oltre ogni dubbio”, come se fossimo in un’aula di tribunale. Ma la scienza si basa sulla probabilità, sul peso delle evidenze, sulla capacità predittiva dei modelli. Oggi, la quantità di prove che puntano all’origine antropica del riscaldamento è così ampia da rendere l’ipotesi alternativa – quella esclusivamente naturale – altamente improbabile. Ed è su questo che si fondano le politiche, non sull’attesa della perfezione epistemologica.

Il paragone con Galileo e Bellarmino è affascinante ma fuori luogo. Galileo non aveva solo un modello “più semplice”: aveva anche l’evidenza delle fasi di Venere e delle lune di Giove. Il suo valore non sta nel ribellarsi alla maggioranza, ma nell’aver offerto dati e osservazioni migliori. Lei invece continua a proporre “dubbi” senza portare nessun dato nuovo, solo generalizzazioni.

La comunità scientifica non era “certa” dell’era glaciale negli anni ’70. Questa è una leggenda urbana, smentita dai dati storici: all’epoca la maggior parte degli articoli già indicava un riscaldamento, non un raffreddamento. Se guarda i paper dell’epoca, lo vede chiaramente.

Quanto agli errori previsionali: il fatto che un modello venga corretto o raffinato è normale in ogni scienza. Non è un fallimento, è progresso. Non confondiamo fallibilità con inattendibilità.

Mi fa piacere leggere che riconosce l’urgenza del problema e sostiene l’azione per ridurre le emissioni. Su questo ci troviamo d’accordo. Tuttavia, dire “tanto non servirà a nulla” è una rinuncia mascherata da fatalismo. La scienza climatica non dice che siamo condannati, ma che abbiamo una finestra temporale per ridurre gli impatti futuri. La differenza tra +1,5 °C e +4 °C non è affatto irrilevante. E anche se non possiamo evitare ogni effetto, possiamo evitare quelli peggiori. Questa è responsabilità, non fideismo.

Chiudo qui il mio intervento, perché i fatti, i dati e il consenso scientifico sono pubblici e verificabili. Il resto è opinione personale – legittima – ma non equiparabile alla conoscenza prodotta dalla scienza.

Nota finale: ho riportato per esteso questo scambio non per dare visibilità a una posizione pseudoscientifica, ma per mostrare, in modo documentato, come ragiona chi nega l’origine antropica del cambiamento climatico, e perché queste argomentazioni non reggano al vaglio della scienza.

Il grande mescolamento: il ruolo vitale degli oceani e le conseguenze del riscaldamento globale

Per capire davvero cosa significhi “riscaldamento globale”, dobbiamo prima capire come funziona il sistema che, da sempre, modera il clima della Terra: gli oceani. Sono loro, infatti, il gigantesco ingranaggio nascosto che regola la distribuzione del calore, l’equilibrio dell’umidità e la circolazione dell’energia termica sul nostro pianeta.

Le acque oceaniche non stanno mai ferme. Si muovono in superficie, spinte dai venti; si muovono in profondità, guidate da variazioni di temperatura e salinità. In questo continuo rimescolamento – silenzioso, ma potentissimo – si nasconde il segreto della nostra stabilità climatica. Ogni corrente trasporta calore dai tropici verso i poli e viceversa, mitiga le temperature, distribuisce nutrienti e sostiene la vita marina.

È un equilibrio delicato, raffinato, essenziale. E proprio per questo vulnerabile.

Se le acque si muovono meno, se non si mescolano più come dovrebbero, l’intero sistema comincia a rallentare, a scompensarsi. Il clima si fa più estremo, le piogge più irregolari, le stagioni meno distinguibili.

Ecco perché non possiamo davvero comprendere il cambiamento climatico senza prima esplorare i meccanismi che governano il movimento delle acque nei grandi corpi idrici: oceani, mari, fiumi, laghi.

A partire da qui, cercherò di spiegare – con l’aiuto della fisica e della chimica – come funzionano i movimenti orizzontali e verticali delle acque e perché sono così importanti per la regolazione del clima. Solo dopo, potremo affrontare il nodo centrale: cosa succede quando, a causa dell’aumento delle temperature globali, questi meccanismi si inceppano.

Le grandi correnti: il vento comanda

Partiamo dalla superficie. Le acque degli oceani sono spinte dai venti, ma non in modo casuale. Intorno all’equatore, ad esempio, gli Alisei soffiano da est verso ovest e trascinano con sé le acque superficiali. Alle latitudini medie (tra 30° e 60°), i venti occidentali spingono invece le correnti verso est.

Quando queste correnti incontrano i continenti, vengono deviate. Ed è qui che entra in gioco la forza di Coriolis: un effetto legato alla rotazione terrestre che curva i flussi d’acqua verso destra nell’emisfero nord e verso sinistra in quello sud. Il risultato? Enormi vortici oceanici che formano veri e propri “nastri trasportatori” d’acqua calda e fredda.

Uno degli esempi più noti è la Corrente del Golfo, che trasporta acque tropicali lungo la costa orientale del Nord America fino all’Europa occidentale, regalando inverni miti a paesi come il Regno Unito e la Norvegia.

Come illustrato in Figura 1, le acque superficiali degli oceani (fino a circa 100 metri di profondità) si muovono orizzontalmente, spinte soprattutto dai venti. La presenza dei continenti ne modifica il percorso, generando ampie correnti che si piegano e si avvolgono in vortici permanenti, visibili in tutti i principali bacini oceanici.

Figura 1. Rappresentazione delle principali correnti oceaniche superficiali. A causa della presenza dei continenti, le correnti deviano dal loro percorso originale, generando grandi vortici oceanici. Immagine scaricata liberamente da: https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Le correnti profonde: il ruolo del sale e della temperatura

Ma c’è un altro motore, più lento, silenzioso e profondo: il rimescolamento verticale. È un processo meno visibile rispetto alle correnti superficiali, ma non meno importante. In alcune regioni del pianeta, come le zone tropicali aride o le aree polari, l’acqua in superficie subisce trasformazioni che ne modificano profondamente la densità.

Nelle aree calde, per esempio, l’evaporazione intensa concentra i sali nell’acqua residua. Più sale significa maggiore densità: e un’acqua più densa tende naturalmente ad affondare verso gli strati profondi dell’oceano.
Al contrario, in altre zone l’acqua può essere diluita da piogge abbondanti o dallo scioglimento dei ghiacci, diventando più dolce e meno densa, e quindi destinata a risalire.

Anche la temperatura gioca un ruolo cruciale. Quando l’acqua marina si raffredda intensamente – come accade ai poli – tende a ghiacciarsi. Durante il congelamento, però, il ghiaccio espelle i sali: ciò che resta intorno ai blocchi di ghiaccio è un’acqua estremamente salina e fredda. Questo liquido denso sprofonda verso il fondo oceanico, innescando così un flusso verticale che alimenta la circolazione delle acque a grandi profondità.

Questo meccanismo prende il nome di circolazione termoalina: un termine che unisce l’effetto della temperatura (“termo”) a quello del sale (“alina”, dal greco halos). È grazie a questa lenta ma continua danza tra acque fredde, salate e profonde, e acque più calde e superficiali, che l’oceano riesce a rimescolarsi in profondità, mantenendo in equilibrio il trasporto di calore, nutrienti e anidride carbonica tra gli strati più esterni e quelli abissali.

Il grande nastro trasportatore globale

Combinando i movimenti orizzontali delle acque – spinti dai venti – con quelli verticali – governati da differenze di temperatura e salinità – si ottiene un colossale circuito planetario che i climatologi chiamano Global Conveyor Belt, ovvero nastro trasportatore oceanico globale.

È un sistema mastodontico, profondo e lentissimo. Le acque che oggi affondano nel Nord Atlantico, gelide e ricche di sale, possono impiegare fino a mille anni per completare il loro viaggio nei fondali oceanici e riaffiorare in superficie dall’altra parte del mondo. Una corrente profonda che scorre a pochi centimetri al secondo, eppure fondamentale per la vita sul pianeta.

Quello che si viene a creare è un ciclo continuo: le correnti calde e superficiali (come la Corrente del Golfo) trasportano calore dai tropici verso i poli; lì, l’acqua si raffredda e sprofonda, diventando corrente fredda e profonda che scivola silenziosamente nei meandri degli oceani, fino a riemergere in zone tropicali o subtropicali, dove riprende il viaggio in superficie.
Questo meccanismo globale è illustrato nella Figura 2.

Figura 2. Rappresentazione semplificata della circolazione termoalina, nota anche come Global Conveyor Belt. Le correnti calde e superficiali (in rosso) scorrono verso le regioni polari, dove l’acqua raffreddata e più salina sprofonda, originando correnti fredde profonde (in blu) che si muovono attraverso gli oceani fino a riemergere nelle regioni tropicali, completando il ciclo. Immagine liberamente disponibile su https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Quando il nastro si inceppa

Tutto questo sistema – perfetto, lento, ma vitale – può essere compromesso. Il riscaldamento globale sta alterando proprio quei meccanismi che regolano la circolazione termoalina, interferendo con la densità delle acque superficiali nelle zone chiave del pianeta.

Nelle regioni dove si formano le acque profonde, come il Nord Atlantico, il processo dipende dalla capacità dell’acqua superficiale di diventare abbastanza densa da affondare. Ma con l’aumento delle temperature globali, entrano in gioco due fattori destabilizzanti:

  • lo scioglimento dei ghiacci artici immette enormi quantità di acqua dolce nei mari;
  • l’intensificarsi delle precipitazioni diluisce ulteriormente le acque superficiali.

Il risultato? L’acqua resta più dolce, più calda, e quindi meno densa. Non affonda più come dovrebbe. E se non affonda, il motore si spegne.

Questo porta a un fenomeno ben noto in oceanografia: la stratificazione delle acque. Gli strati superficiali diventano sempre più stabili, separati da quelli profondi da un gradiente di densità così marcato da impedire ogni rimescolamento. È come se l’oceano fosse “bloccato a strati”, con uno strato leggero e caldo che galleggia sopra uno freddo e denso, ma senza più scambi attivi tra i due (Figura 3).

Le conseguenze sono profonde:

  • Il nastro trasportatore globale rallenta o si indebolisce, fino al rischio – non solo teorico – di un blocco parziale o totale.
  • Il calore non viene più redistribuito: i tropici si surriscaldano, le regioni temperate (come l’Europa nord-occidentale) rischiano un paradossale raffreddamento.
  • L’acqua profonda non riceve più ossigeno né nutrienti, danneggiando la vita marina.
  • In superficie, mancano i nutrienti che sostengono il plancton: cala la produttività biologica degli oceani.
  • E soprattutto: l’oceano assorbe meno anidride carbonica per due motivi. Da un lato, l’aumento della temperatura riduce la solubilità della CO₂ in acqua; dall’altro, la stratificazione blocca il rimescolamento, impedendo il trasporto della CO₂ in profondità. Il risultato è che più CO₂ resta nell’atmosfera, accelerando ulteriormente il riscaldamento globale.

È una spirale pericolosa, un meccanismo di retroazione in cui l’effetto rafforza la causa: più caldo → più stratificazione → meno rimescolamento → meno assorbimento di CO₂ → ancora più caldo.
Un classico cane che si morde la coda, ma su scala planetaria.

Figura 3. Meccanismo della stratificazione degli oceani. Il riscaldamento globale, lo scioglimento dei ghiacci e l’aumento delle precipitazioni rendono l’acqua superficiale più calda e dolce, quindi meno densa. Questo riduce il rimescolamento verticale con gli strati profondi, limitando lo scambio di calore, nutrienti e la capacità dell’oceano di assorbire CO₂.

Conclusioni

Gli oceani non sono solo grandi riserve d’acqua: sono ingranaggi dinamici e complessi che regolano il clima terrestre, trasportano calore, rimescolano nutrienti e assorbono anidride carbonica. La loro capacità di farlo dipende dal delicato equilibrio tra venti, salinità e temperatura. Quando questo equilibrio si spezza — a causa dell’aumento delle temperature globali — il sistema si inceppa: le acque si stratificano, il rimescolamento si blocca, la circolazione rallenta.

Le conseguenze, anche se lente a manifestarsi, sono profonde: clima più estremo, ecosistemi marini impoveriti e maggiore accumulo di CO₂ in atmosfera. È una crisi silenziosa, ma già in atto.
Per capire e affrontare il cambiamento climatico, non basta guardare al cielo: dobbiamo guardare al mare, e comprendere come funziona — e come sta cambiando — il grande mescolamento degli oceani.

Questo articolo è parte di un percorso dedicato al riscaldamento climatico.
Nel primo appuntamento ci siamo chiesti perché, in un mondo sempre più caldo, possano verificarsi fenomeni estremi come piogge torrenziali e temporali improvvisi (leggi qui).
Oggi abbiamo esplorato il ruolo nascosto ma fondamentale degli oceani nella regolazione del clima.

Nel prossimo articolo parleremo invece di come l’attività umana stia alterando questi equilibri, e perché il riscaldamento globale non può più essere considerato un semplice fenomeno naturale.

 

Caldo globale, temporali locali: l’apparente paradosso

Introduzione

Negli ultimi anni, gli eventi meteorologici estremi sono diventati sempre più frequenti, sia in Italia che nel resto del mondo.
Una mappa interattiva dell’ISPRA, consultabile online, mostra chiaramente dove questi eventi si sono verificati in Italia tra il 2020 e il 2024. Si osservano piogge torrenziali, grandinate eccezionali, ondate di calore anomale e prolungate. Tutti segnali di un sistema climatico sempre più instabile.

Come conseguenza di queste anomalie, è sempre più comune imbattersi – soprattutto sui social – in discussioni o thread in cui si afferma che fenomeni come le alluvioni, seguite da bruschi cali di temperatura, smentirebbero l’esistenza del riscaldamento globale.
Una frase ricorrente è:

“Altro che riscaldamento globale: ieri grandinava e oggi ci sono 18 gradi!”

Chi vive in zone come Palermo – dove, negli ultimi anni, si sono registrati picchi termici estremi e livelli di umidità superiori all’80%, anche in pieno giorno – tende invece a riconoscere, in modo molto concreto, la realtà del cambiamento climatico.

“Orpo… che caldo. Veramente stiamo andando verso qualcosa che non abbiamo mai vissuto.”

Ma come si concilia tutto questo?

Come può il riscaldamento globale provocare temporali violenti, grandinate e persino abbassamenti improvvisi della temperatura?

Dobbiamo innanzitutto ricordare che la logica scientifica è controintuitiva. Non possiamo applicare al metodo scientifico la logica che usiamo tutti i giorni per collegare ciò che vediamo con ciò che pensiamo sia vero: la realtà fisica spesso sorprende e non si lascia interpretare con impressioni o sensazioni.

Sulla base di queste premesse, chiediamoci cosa accade sulla superficie terrestre quando la temperatura aumenta di un solo grado Celsius. Un grado può sembrare poco. Se tocchiamo una pentola a 70 °C proviamo lo stesso bruciore che a 71 °C. E non distinguiamo tra il freddo di 0 °C e quello di -1 °C.

Ma il pianeta non è il nostro palmo, né il nostro naso.

Nel sistema Terra, un solo grado può fare una differenza gigantesca: significa più energia, più evaporazione, più acqua nell’atmosfera. E più acqua nell’aria significa, potenzialmente, più pioggia, più violenza, più squilibrio.

Per capire quanto sia concreta questa affermazione, facciamo un semplice calcolo: stimiamo quanta acqua in più evapora dagli oceani quando la loro temperatura superficiale sale di un solo grado come, per esempio, da 25 °C a 26 °C.

Effetti della temperatura sull’equilibrio H2Oliquido = H2Ovapore

Per semplicità, consideriamo solo una porzione di oceano estesa per 100 milioni di metri quadrati (pari a 100 km²) e limitiamoci al primo metro d’aria immediatamente sovrastante. Vogliamo capire quanta acqua in più finisce nell’aria subito sopra l’oceano quando la sua temperatura sale di un solo grado, da 25 °C a 26 °C.

  1. L’equazione di Antoine

Per stimare la pressione di vapore dell’acqua alle due temperature, usiamo la formula empirica di Antoine, valida tra 1 e 100 °C:

log₁₀(P) = A − B / (C + T)

dove:

  • P è la pressione di vapore in mmHg,
  • T è la temperatura in gradi Celsius,
  • A, B, C sono coefficienti specifici per ciascuna sostanza (ad esempio, acqua, etanolo, acetone…) e validi solo entro certi intervalli di temperatura. Nel caso specifico dell’acqua: A = 8.07131; B = 1730.63; C = 233.426 (valori specifici per l’acqua in questo intervallo). Il riferimento per i valori numerici di A, B e C è qui.

Convertiamo poi la pressione in Pascal (1 mmHg = 133.322 Pa).

  1. I risultati

Applicando i valori:

  • a 25 °C si ottiene P ≈ 23.76 mmHg, cioè circa 3158 Pa;
  • a 26 °C si ottiene P ≈ 25.13 mmHg, cioè circa 3351 Pa.
  1. Calcolo della densità del vapore

Convertiamo ora la pressione parziale in densità di vapore acqueo (ρ), usando l’equazione dei gas ideali:

ρ = (P × M) / (R × T)

dove:

  • P è la pressione in pascal,
  • M è la massa molare dell’acqua (18.015 g/mol),
  • R è la costante dei gas (8.314 J/mol·K),
  • T è la temperatura assoluta in Kelvin.

Calcolando:

  • a 25 °C (298.15 K) si ottiene ρ ≈ 0.02295 kg/m³;
  • a 26 °C (299.15 K) si ottiene ρ ≈ 0.02431 kg/m³.
  1. L’aumento netto di vapore

La differenza di densità è:

0.02431 − 0.02295 = 0.00136 kg/m³

Moltiplichiamo per il volume d’aria (100 000 000 m³):

0.00136 × 100 000 000 = 136.000 kg

In altre parole, un aumento di temperatura di 1 °C (da 25 a 26 °C) genera 136 tonnellate di vapore in più, solo su una superficie di 100 km² e solo nello strato d’aria immediatamente sopra l’oceano.

E se fosse tutto l’Atlantico?

Se estendiamo il calcolo all’intera superficie dell’Oceano Atlantico – circa 116 milioni di km² – otteniamo:

157 800 000 000 kg, ovvero 158 milioni di tonnellate di vapore acqueo in più.

E questo, lo ripeto, solo nello strato d’aria immediatamente sopra la superficie, per un singolo grado in più.

Ma quei numeri non restano sulla carta. Entrano in circolo nell’atmosfera, e da lì comincia il loro impatto reale.

Dall’oceano alla pioggia: il viaggio del vapore

Ma cosa succede a tutta quest’acqua una volta entrata in atmosfera?

Viene trasportata dalle correnti. Quando incontra masse d’aria più fredde, condensa formando nubi e poi pioggia. Se la quantità di vapore è anomala, lo saranno anche le precipitazioni: brevi, violente, improvvise.

Inoltre, il vapore acqueo è attivo nell’infrarosso: è un gas serra molto più potente della CO₂, anche se molto più effimero. In climatologia si parla di feedback positivo: l’aumento della temperatura fa evaporare più acqua → il vapore trattiene più calore → aumenta ancora la temperatura → e così via.

Quella pioggia non è “contro” il riscaldamento: è il riscaldamento

Piogge torrenziali, grandinate e cali locali della temperatura non smentiscono il riscaldamento globale. Al contrario, ne sono una conseguenza. Il sistema Terra si scalda in media, ma localmente può produrre raffreddamenti temporanei proprio in risposta a squilibri energetici più ampi.

Conclusioni

Il calcolo che ho presentato è, ovviamente, una semplificazione. Non tiene conto del vento, della turbolenza, della salinità, né della reale dinamica verticale dell’atmosfera. Non pretende di descrivere con esattezza tutto ciò che accade nell’interazione tra oceano e cielo. Ma ha un obiettivo chiaro: rendere visibile, con i numeri, una verità che l’intuizione fatica a cogliere.

Perché la logica scientifica non coincide con il senso comune.

Come ho già scritto, nel nostro vissuto quotidiano, un solo grado in più non è nulla. Non percepiamo differenze tra 0 °C e -1 °C, tra 70 °C e 71 °C. Ma il sistema Terra non funziona secondo ciò che sentiamo sulla pelle: funziona secondo leggi fisiche. E in fisica, un solo grado può significare miliardi di tonnellate d’acqua in più nell’atmosfera. Significa più energia, più instabilità, più violenza meteorologica.

Paradossalmente, quello che percepiamo come una smentita del riscaldamento globale – la grandine, il temporale, il crollo improvviso delle temperature – ne è invece una manifestazione diretta.

Il clima risponde con intensità e disordine proprio perché è fuori equilibrio. E lo è, in parte, per colpa di quell’apparente “piccolo” grado in più.

La scienza ci dà gli strumenti per misurare, per capire, per anticipare.

Sta a noi scegliere se vogliamo continuare a confondere il temporale con una tregua, o iniziare a leggere in quelle piogge il segnale di un sistema che sta cambiando – e lo sta facendo sotto i nostri occhi.

Quella pioggia che ti ha fatto dire “ma quale riscaldamento globale?” è esattamente il motivo per cui dovremmo iniziare a preoccuparci.

Glifosato e cancro: nuovo studio, molti titoli… pochi fatti

di Enrico Bucci & Pellegrino Conte

Se c’è una cosa che la scienza dovrebbe insegnarci, è che non tutti gli studi hanno la stessa valenza e importanza. Alcuni sono ben progettati, trasparenti e ci aiutano a capire meglio il mondo; altri, invece, presentano fragilità nelle premesse, nel metodo o nell’interpretazione dei dati.

L’ultimo studio pubblicato nel 2025 su Environmental Health da un gruppo di ricerca dell’Istituto Ramazzini ha fatto molto discutere, sostenendo che anche dosi di glifosato ritenute sicure possano aumentare il rischio di tumori nei ratti. Da qui è nato il timore che, se aumenta la possibilità di avere tumori nei ratti, anche l’essere umano possa correre lo stesso rischio. Tuttavia, un’analisi attenta rivela numerosi limiti sull’effettiva rilevanza dei risultati.

Vediamo perché.

Dosi scelte e perché non sono realistiche

Lo studio ha previsto tre dosi di glifosato somministrate ai ratti:

  • 0.5 mg/kg al giorno (l’ADI, ovvero la dose giornaliera accettabile in Europa)
  • 5 mg/kg al giorno (10 volte l’ADI)
  • 50 mg/kg al giorno (NOAEL, che corrisponde alla dose massima senza effetti osservati).

A prima vista, trovare effetti anche alla dose più bassa potrebbe sembrare preoccupante. Ma c’è un dettaglio importante: l’ADI non è una soglia tossicologica, ma un limite iper-cautelativo. Come viene calcolata?

  1. Si prende la dose più alta che non ha causato effetti negli animali (es. 50 mg/kg).
  2. Si divide per 100: 10 per la variabilità interspecie (topo vs uomo) e 10 per la variabilità intraspecie (uomo vs uomo).
  3. Si ottiene l’ADI (0.5 mg/kg).

Quindi, se uno studio trova effetti giusto all’ADI, non è un fallimento del sistema: è la conferma che il sistema di sicurezza funziona.

E nella vita reale? L’EFSA ha stimato che l’esposizione reale della popolazione è centinaia di volte inferiore all’ADI. Per raggiungere 0.5 mg/kg, un adulto di 70 kg dovrebbe mangiare 10 kg di soia OGM al giorno, tutti i giorni. E anche gli agricoltori professionisti non si avvicinano a quei livelli.

Discrepanze tra dosi dichiarate e dosi realmente usate

Come si può facilmente immaginare, il lavoro che stiamo valutando non è passato inosservato. La comunità scientifica si è subito attivata per verificare se quanto riportato fosse attendibile, e questo è un aspetto cruciale. In un contesto saturo di informazioni, dove distinguere il falso dal vero o dal verosimile è sempre più difficile, avere dei riferimenti affidabili per valutare la solidità di uno studio è fondamentale. Dimostra anche che la scienza non resta chiusa in una torre d’avorio: controlla, discute e, se necessario, corregge.

Un’analisi particolarmente accurata pubblicata su PubPeer  ha evidenziato come gli autori dello studio mirassero a somministrare ai ratti tre livelli “target” di esposizione giornaliera al glifosato, corrispondenti, come già indicato nel paragrafo precedente, all’ADI europea di 0,5 mg per chilo di peso corporeo, a 5 mg/kg e infine al NOAEL di 50 mg/kg, calibrando la concentrazione del principio attivo nell’acqua da bere sulla base di un consumo medio di 40 mL e di un peso medio di 400 g. Tuttavia, nei grafici relativi al peso e al consumo d’acqua, visibili già a partire dalla quinta settimana di vita, si nota chiaramente che i ratti più giovani, ancora ben al di sotto dei 400 g, continuano a bere quantità di acqua vicine a quelle stimate per gli adulti. Questo significa che, anziché ricevere esattamente i dosaggi “target”, i cuccioli assumono in realtà molto più glifosato, spesso oltre il doppio di quanto previsto per l’ADI, proprio nel momento in cui la loro vulnerabilità ai possibili effetti tossici è maggiore.

Colpisce poi il fatto che i pannelli che riportano l’effettiva assunzione giornaliera di glifosato inizino soltanto alla tredicesima settimana, escludendo dalla visualizzazione le prime dieci settimane successive allo svezzamento, quando il sovradosaggio è più pronunciato. In questo modo il lettore non ha modo di rendersi conto di quanto i ratti più giovani abbiano effettivamente superato i livelli di riferimento, né di valutare eventuali conseguenze sulla salute in questa fase critica dello sviluppo.

La mancanza di qualsiasi discussione nel testo centrale su questa esposizione eccessiva nei cuccioli rappresenta una lacuna significativa, perché proprio nei primi mesi di vita gli organismi mostrano una sensibilità maggiore a sostanze tossiche. Sarebbe stato opportuno non soltanto estendere i grafici dell’assunzione fin dalla quinta settimana, ma anche accompagnarli con un’analisi dedicata a quei dati, per capire se fenomeni di tossicità precoce possano essere correlati proprio al superamento dei dosaggi prefissati. In assenza di questa trasparenza, resta un interrogativo aperto sul reale profilo di sicurezza del glifosato nei soggetti in accrescimento.

Statistiche creative: quando un “aumento significativo” è solo rumore

Uno dei problemi più comuni negli studi tossicologici è quando si prendono in considerazione troppi parametri. In queste circostanze, prima o poi, qualcosa risulterà “statisticamente significativo”… ma per puro caso.

Lo studio ha esaminato tumori in:

  • fegato
  • pelle
  • tiroide
  • sistema nervoso
  • reni
  • mammelle
  • ovaie
  • pancreas
  • ghiandole surrenali
  • milza
  • osso
  • vescica

Statisticamente parlando, più confronti si fanno, più aumenta il rischio di falsi positivi: è il noto problema dei confronti multipli. E in questo caso non è stata applicata nessuna correzione (come Bonferroni o FDR), nonostante le decine di test effettuati.

Per esempio:

  • Un solo caso di carcinoma follicolare tiroideo (1,96%) viene presentato come “aumento significativo”, nonostante un’incidenza storica dello 0,09%.
  • Leucemie rarissime (0 casi nei controlli) diventano improvvisamente “frequenti” se appaiono in uno o due animali.

E proprio perché si lavora con numeri minuscoli (gruppi da 51 ratti), anche un singolo caso in più può far sembrare enorme un effetto che in realtà è solo rumore statistico.

Non a caso, un commentatore su PubPeer ha fatto notare che, nella versione pubblicata rispetto al preprint è stato aggiunto un caso di leucemia monocitica in un ratto femmina trattato con 50 mg/kg/die, assente nella versione preprint. Nessuna spiegazione è stata data per questo cambiamento. Ma in gruppi così piccoli, un solo caso in più può bastare a far emergere o sparire un “aumento significativo”. E la mancanza di trasparenza su come sia stato deciso questo aggiornamento rende ancora più difficile fidarsi delle conclusioni.

Statistiche fragili: come un’analisi più corretta fa crollare i risultati

Gli autori dello studio dicono di aver usato il test di Cochrane-Armitage per verificare se aumentando le dosi di glifosato aumentasse anche il numero di tumori nei ratti: insomma, per valutare se esistesse un trend “dose-risposta” significativo.

Fin qui, tutto regolare. Ma leggendo le osservazioni pubblicate su PubPeer emerge un problema serio: gli autori hanno usato la versione asintotica del test, che diventa poco affidabile quando si analizzano eventi rari – come accade quasi sempre negli studi di cancerogenicità a lungo termine, dove molti tumori osservati sono davvero pochi.

Chi ha commentato ha quindi rifatto i calcoli usando la versione esatta del test (disponibile grazie al software del DKFZ) e il risultato è stato sorprendente: i p-value, che nello studio originale erano inferiori a 0.05 (e quindi dichiarati “significativi”), sono saliti ben oltre 0.25, diventando del tutto non significativi.

In pratica: gli stessi dati, analizzati in modo più corretto, perdono completamente la significatività statistica.

E questo non è un dettaglio secondario: lo stesso errore potrebbe riguardare anche altre analisi statistiche e tabelle pubblicate, mettendo seriamente in discussione la solidità complessiva delle conclusioni dello studio.

Glifosato puro vs formulazioni commerciali: un confronto incompleto

Lo studio testa anche due erbicidi commerciali (Roundup Bioflow e RangerPro), sostenendo che siano più tossici del glifosato puro. Ma:

È un po’ come dire:

“La vodka è tossica!”
Senza specificare se il problema è l’alcol o l’acqua in essa contenuta.

Trasparenza e potenziali conflitti d’interesse

Gli autori dello studio dichiarano esplicitamente di non avere conflitti di interesse. Tuttavia, come segnalato su PubPeer, emergono diverse criticità. L’Istituto Ramazzini che ha condotto la ricerca riceve fondi da organizzazioni e soggetti che hanno preso pubblicamente posizione contro l’uso del glifosato. Tra questi finanziatori troviamo:

  1. la Heartland Health Research Alliance, già criticata da diverse fonti per sostenere ricerche orientate contro i pesticidi;
  2. l’Institute for Preventive Health, fondato da Henry Rowlands, che è anche l’ideatore della certificazione “Glyphosate Residue Free”;
  3. Coop Reno, una cooperativa italiana che promuove attivamente la riduzione dei pesticidi nei propri prodotti;
  4. Coopfond, che ha dichiarato pubblicamente il proprio sostegno alla ricerca contro il glifosato.

Tutti questi elementi non sono banali, perché vanno in direzione opposta alla dichiarazione “no competing interests” fornita dagli autori.

Dichiarare questi legami non significa necessariamente che i risultati siano falsati, ma consente ai lettori di valutare meglio la possibile influenza dei finanziatori.

IARC, hazard e risk: una distinzione fondamentale

Lo studio si richiama alla classificazione dello IARC, che nel 2015 ha definito il glifosato “probabile cancerogeno” (Gruppo 2A). Ma attenzione: l’IARC valuta l’hazard, non il rischio.

  • Hazard: “Il glifosato può causare il cancro in certe condizioni ideali”.
  • Risk: “Il glifosato causa il cancro nelle condizioni reali di esposizione?”

Lo IARC ha incluso nel gruppo 2A anche:

  • la carne rossa,
  • il lavoro da parrucchiere,
  • il turno di notte.

Le principali agenzie che valutano il rischio reale non hanno trovato evidenze sufficienti per considerare il glifosato cancerogeno:

Agenzia Conclusione Anno
EFSA (UE) Non cancerogeno 2023
EPA (USA) Non cancerogeno 2020
JMPR (FAO/OMS) Non cancerogeno 2016
IARC Probabile cancerogeno 2015

Conclusione: il glifosato non è innocente, ma nemmeno un mostro

Il nuovo studio del 2025 mostra che, se si cercano abbastanza tumori rari in tanti tessuti, qualcosa prima o poi emerge. Ma:

  • Le dosi utilizzate sono lontanissime dalla realtà umana, e persino più alte del previsto nei ratti giovani;
  • I risultati sono fragili, non replicati, e statisticamente poco robusti;
  • I meccanismi di azione non sono spiegati;
  • La trasparenza sui dati e sui conflitti di interesse è carente;
  • Le conclusioni si basano su metodi statistici che vanno messi in discussione.

Non si tratta di negazionismo scientifico ma di scetticismo informato, che è il cuore del metodo scientifico. Sebbene questo studio sollevi questioni interessanti, trarre conclusioni definitive su un legame causale tra glifosato e cancro basandosi su dati così fragili e dosi irrealistiche è prematuro. La scienza richiede prove solide, replicabili e trasparenti.

Per questo, le agenzie regolatorie continuano a considerare il glifosato sicuro se usato nei limiti stabiliti. Restiamo aperti a nuove evidenze, ma diffidiamo dei titoli allarmistici che spesso accompagnano studi con così tante ombre.

EDIT

A dimostrazione del fatto che il metodo scientifico si basa sull’autocorrezione, sia Enrico Bucci che io desideriamo ringraziare l’Ing. Dario Passafiume per essersi accorto di un errore che abbiamo commesso nell’interpretare i dati di PubPeer. La sostanza non cambia: cambiano solo i valori assoluti dei numeri che avevamo preso in considerazione. Il testo che abbiamo rieditato per effetto dell’errore di cui ci siamo accorti grazie all’ingegnere è il seguente:

Un’analisi particolarmente accurata pubblicata su PubPeer ha evidenziato una discrepanza rilevante: le figure riportate nello studio non si riferiscono alle dosi dichiarate (quelle indicate nel primo paragrafo), ma a dosi circa dieci volte superiori. In pratica, mentre gli autori affermano di aver usato 0.5, 5 e 50 mg/kg/die, i grafici mostrano dati ottenuti con 5, 50 e 500 mg/kg/die. Si tratta – come già evidenziato – di concentrazioni del tutto inconcepibili nella vita reale dove per arrivare all’assunzione di soli 0.5 mg/kg/die bisogna ingurgitare circa 70 kg di soia OGM al giorno, tutti i giorni.

Mentos e Coca Cola… una fontana di scienza!

Se almeno una volta nella vita hai visto il famoso esperimento in cui delle caramelle Mentos vengono fatte cadere in una bottiglia di Coca Cola (o, più spesso, Diet Coke), conosci già il risultato: una fontana impazzita di schiuma che può superare i tre metri d’altezza (v. il filmato qui sotto).

Ma cosa succede davvero? È solo una semplice reazione fisica? C’entra la chimica? Perché proprio le Mentos? E perché la Diet Coke funziona meglio della Coca normale?

Negli ultimi anni, diversi ricercatori si sono cimentati nello studio scientifico di questo fenomeno, spesso usato come dimostrazione educativa nelle scuole e nei laboratori divulgativi. E ciò che è emerso è una storia sorprendentemente ricca di fisica, chimica, e perfino di gastronomia molecolare.

La nucleazione: come nasce un cambiamento

La parola “nucleazione” descrive il momento in cui, all’interno di un sistema fisico, comincia a svilupparsi una nuova fase. È un concetto fondamentale per comprendere fenomeni come la formazione di gocce in una nube, la cristallizzazione di un solido, o – nel nostro caso – la comparsa di bolle in un liquido soprassaturo di gas.

Secondo la teoria classica della nucleazione, perché si formi una nuova fase (come una bolla di gas in un liquido), è necessario superare una barriera energetica. Questa barriera nasce dal fatto che generare una bolla comporta un costo in termini di energia superficiale (ovvero, bisogna spendere energia per “deformare” i legami a idrogeno che, nel caso dell’acqua, tengono unite le diverse molecole), anche se si guadagna energia liberando il gas.

Il sistema deve dunque “pagare un prezzo iniziale” per creare una bolla sufficientemente grande: questa è la cosiddetta “bolla critica”. Una volta che si supera quella dimensione critica, la formazione della nuova fase (cioè, la crescita della bolla) diventa spontanea e inarrestabile.

Tuttavia, nel mondo reale, è raro che le bolle si formino spontaneamente all’interno del liquido: nella maggior parte dei casi, servono delle “scorciatoie energetiche”. È qui che entra in gioco la nucleazione eterogenea.

Nucleazione eterogenea: quando le superfici danno una spinta

Nel mondo reale, è raro che una nuova fase si formi spontaneamente all’interno del liquido (nucleazione omogenea), perché la probabilità che si verifichi una fluttuazione sufficientemente grande da superare la barriera energetica è molto bassa. Nella maggior parte dei casi, il sistema trova delle “scorciatoie energetiche” grazie alla presenza di superfici, impurità o irregolarità: è quello che si chiama nucleazione eterogenea.

Le superfici ruvide, porose o idrofobe possono abbassare la barriera energetica necessaria per innescare la formazione di una bolla. Per esempio, un piccolo graffio sul vetro, un granello di polvere o una microscopica cavità possono ospitare delle minuscole sacche d’aria che fungono da “embrioni” di bolla. In questi punti, la CO2 disciolta trova un ambiente favorevole per iniziare la transizione verso la fase gassosa, superando più facilmente la soglia critica.

Anche la geometria ha un ruolo: cavità coniche o fessure strette possono concentrare le forze e rendere ancora più facile la nucleazione. In pratica, il sistema approfitta di qualsiasi imperfezione per risparmiare energia nel passaggio di fase.

Il caso delle Mentos: nucleatori perfetti

L’esperimento della fontana di Diet Coke e Mentos è un esempio spettacolare (e rumoroso) di nucleazione eterogenea. Quando le Mentos vengono lasciate cadere nella bottiglia, la loro superficie – irregolare, porosa e ricoperta da uno strato zuccherino solubile – offre migliaia di siti di nucleazione. Ogni microscopica cavità è in grado di ospitare una piccola sacca di gas o di innescare la formazione di una bolla (Figura 1). In più, le Mentos cadono rapidamente fino al fondo della bottiglia, generando nucleazione non solo in superficie, ma in profondità, dove la pressione idrostatica è maggiore. Questo favorisce un rilascio ancora più esplosivo del gas disciolto.

Il risultato? Una vera e propria “valanga di bolle” che si spingono a vicenda verso l’alto, trascinando con sé la soda e formando il famoso geyser, che può raggiungere anche 5 o 6 metri d’altezza.

Figura 1. Nucleazione eterogenea di una bolla su una superficie solida. Le molecole d’acqua a contatto con una superficie solida interagiscono con essa, formando legami che disturbano la rete di legami a idrogeno tra le molecole d’acqua stesse. Questo indebolimento locale della coesione interna rende la zona prossima alla superficie più favorevole all’accumulo di gas disciolto, come la CO2. Il gas si concentra in microcavità o irregolarità della superficie, gonfiando piccole sacche d’acqua. Quando queste sacche superano una dimensione critica, la tensione interna diventa sufficiente a vincere le forze di adesione, e la bolla si stacca dalla superficie, iniziando a crescere liberamente nel liquido. Questo meccanismo, noto come nucleazione eterogenea, è alla base di molti fenomeni naturali e tecnici, incluso l’effetto geyser osservato nel celebre esperimento con Diet Coke e Mentos.

Non è una reazione chimica, ma…

Uno dei miti più diffusi, e da sfatare, è che il famoso effetto geyser della Diet Coke con le Mentos sia il risultato di una reazione chimica tra gli ingredienti delle due sostanze. In realtà, non avviene alcuna trasformazione chimica tra i componenti: non si formano nuovi composti, non ci sono scambi di elettroni né rottura o formazione di legami chimici. Il fenomeno è invece di natura puramente fisica, legato al rilascio improvviso e violento del gas disciolto (CO2) dalla soluzione liquida.

La Coca Cola (e in particolare la Diet Coke) è una soluzione sovrassatura di anidride carbonica, mantenuta tale grazie alla pressione all’interno della bottiglia sigillata. Quando la bottiglia viene aperta, la pressione cala, e il sistema non è più in equilibrio: il gas tende a uscire lentamente. Ma se si introducono le Mentos – che, come abbiamo visto, forniscono una miriade di siti di nucleazione – la CO2 trova una “scappatoia rapida” per tornare allo stato gassoso, formando in pochi istanti una quantità enorme di bolle.

Pur non trattandosi di una reazione chimica nel senso stretto, il rilascio della CO2 provoca alcune conseguenze misurabili dal punto di vista chimico. Una di queste è il cambiamento di pH: la Coca Cola è fortemente acida (pH ≈ 3) perché contiene acido fosforico ma anche CO2 disciolta, che in acqua dà luogo alla formazione di acido carbonico (H2CO3). Quando il gas fuoriesce rapidamente, l’equilibrio viene spostato, l’acido carbonico si dissocia meno, e il pH del liquido aumenta leggermente, diventando meno acido.

Questa variazione, anche se modesta, è stata misurata sperimentalmente in laboratorio, ed è coerente con l’interpretazione fisico-chimica del fenomeno.

In sintesi, si tratta di una transizione di fase accelerata (da gas disciolto a gas libero), facilitata da superfici ruvide: un classico esempio di fisica applicata alla vita quotidiana, più che di chimica reattiva.

Diet Coke meglio della Coca normale?

Sì, e il motivo non è solo la diversa composizione calorica, ma anche l’effetto fisico degli edulcoranti artificiali contenuti nella Diet Coke, in particolare aspartame e benzoato di potassio. Queste sostanze, pur non reagendo chimicamente con le Mentos, abbassano la tensione superficiale della soluzione, facilitando la formazione di bolle e rendendo il rilascio del gas CO2 più efficiente e spettacolare.

La tensione superficiale è una proprietà del liquido che tende a “resistere” alla formazione di nuove superfici – come quelle di una bolla d’aria. Se questa tensione si riduce, il sistema è più “disponibile” a formare molte piccole bolle, anziché poche grandi. E più bolle significa più superficie totale, quindi più spazio attraverso cui il gas può uscire rapidamente.

Anche altri additivi – acido citrico, aromi naturali (come citral e linalolo, Figura 2) e perfino zuccheri – influenzano il comportamento delle bolle. In particolare, molti di questi composti inibiscono la coalescenza, cioè, impediscono che le bolle si fondano tra loro per formare bolle più grandi. Questo porta a una schiuma fatta di bolle piccole, stabili e molto numerose, che massimizzano il rilascio di CO2 e quindi l’altezza della fontana.

Figura 2. Strutture chimiche di alcuni composti aromatici naturali presenti nelle bevande analcoliche. Il citral è una miscela di due isomeri geometrici: trans-citrale (geraniale) e cis-citrale (nerale), entrambi aldeidi con catena coniugata e intensa nota di limone. Il linalolo è un alcol terpenico aciclico, con due doppi legami e un gruppo ossidrilico (–OH), noto per il suo profumo floreale. Questi composti non partecipano a reazioni chimiche durante l’esperimento Diet Coke–Mentos, ma agiscono sul comportamento fisico del sistema, favorendo la formazione di schiuma fine e persistente e contribuendo all’altezza del geyser grazie alla inibizione della coalescenza delle bolle.

E che dire dei dolcificanti classici, come il saccarosio (lo zucchero da cucina)? A differenza dell’aspartame, il saccarosio non abbassa la tensione superficiale, anzi la aumenta leggermente. Tuttavia, anch’esso contribuisce a stabilizzare le bolle, soprattutto se combinato con altri soluti come acidi organici o sali. Questo spiega perché le bevande zuccherate (come la Coca Cola “classica”) producano comunque geyser abbastanza alti, ma meno impressionanti rispetto alle versioni “diet”.

Esperimenti controllati hanno mostrato che la Diet Coke produce le fontane più alte, seguita dalle bevande zuccherate e, in fondo, dall’acqua frizzante (che contiene solo CO2 e acqua): segno evidente che la presenza e la natura dei soluti giocano un ruolo chiave, anche in assenza di reazioni chimiche.

E se uso altre cose al posto delle Mentos?

La fontana di Coca Cola può essere innescata anche da altri materiali: gessetti, sabbia, sale grosso, zucchero, caramelle dure o persino stimolazioni meccaniche come gli ultrasuoni. Qualsiasi sostanza o perturbazione capace di introdurre nel liquido dei siti di nucleazione può innescare il rilascio del gas. Tuttavia, tra tutte le opzioni testate, le Mentos restano il materiale più efficace, producendo fontane più alte, più rapide e più spettacolari.

Questo successo si deve a una combinazione di caratteristiche fisiche uniche:

  1. Superficie molto rugosa e porosa
    Le Mentos hanno una superficie irregolare, visibile chiaramente al microscopio elettronico (SEM), con migliaia di microcavità che fungono da siti di nucleazione eterogenea. Più rugosità significa più bolle che si formano contemporaneamente, e quindi maggiore pressione generata in tempi brevissimi.
  2. Densità e forma ottimali
    Le caramelle sono sufficientemente dense e lisce all’esterno da cadere velocemente sul fondo della bottiglia, senza fluttuare. Questo è cruciale: la nucleazione avviene lungo tutta la colonna di liquido, non solo in superficie, e la pressione idrostatica più alta in basso aiuta la formazione più vigorosa di bolle. In confronto, materiali più leggeri (come il sale fino o la sabbia) galleggiano o si disperdono più lentamente, riducendo l’effetto.
  3. Rivestimento zuccherino solubile
    Il rivestimento esterno delle Mentos, a base di zuccheri e gomma arabica, si dissolve rapidamente, liberando nuovi siti di nucleazione man mano che la caramella si bagna. Inoltre, alcuni componenti del rivestimento (come emulsionanti e tensioattivi) favoriscono la schiuma e inibiscono la coalescenza delle bolle, contribuendo alla formazione di un getto più sottile e stabile

Un esperimento che insegna molto (e sporca parecchio)

Dietro quella che a prima vista sembra una semplice (e divertentissima) esplosione di schiuma, si nasconde una miniera di concetti scientifici: termodinamica, cinetica, tensione superficiale, solubilità dei gas, equilibrio chimico, pressione, nucleazione omogenea ed eterogenea. Un’intera unità didattica condensata in pochi secondi di spettacolo.

Ed è proprio questo il suo punto di forza: l’esperimento della fontana di Diet Coke e Mentos è perfetto per essere proposto nelle scuole, sia del primo grado (scuola media) che del secondo grado (licei, istituti tecnici e professionali), senza bisogno di strumenti di laboratorio complessi o costosi. Bastano:

  • qualche bottiglia di Coca Cola o altra bibita gassata,
  • delle Mentos (o altri oggetti solidi rugosi da confrontare: gessetti, zucchero, sabbia…),
  • una penna, un quaderno e un buon occhio per osservare e registrare cosa succede,
  • e, immancabili, canovacci, secchi, stracci e un po’ di detersivo per sistemare l’aula (o il cortile) dopo il disastro creativo!

Non solo: questo tipo di attività permette di lavorare in modalità laboratoriale attiva, stimolando l’osservazione, la formulazione di ipotesi, la progettazione sperimentale, la misura, l’analisi dei dati, la comunicazione scientifica. In altre parole: il metodo scientifico in azione, alla portata di tutti.

Insomma, la fontana di Diet Coke e Mentos non è solo un video virale da YouTube: è un fenomeno scientificamente ricchissimo, capace di affascinare e coinvolgere studenti e insegnanti. Provatelo (con le dovute precauzioni)… e preparatevi a fare il pieno di chimica!

Riferimenti

Baur & al. (2006) The Ultrasonic Soda Fountain: A Dramatic Demonstration of Gas Solubility in Aqueous Solutions. J. Chem. Educ. 83(4), 577. https://doi.org/10.1021/ed083p577.

Coffey (2008) Diet Coke and Mentos: What is really behind this physical reaction? Am. J. Phys. 76, 551. http://dx.doi.org/10.1119/1.2888546.

Eichler & al. (2007) Mentos and the Scientific Method: A Sweet Combination. J. Chem. Educ. 84(7), 1120. https://doi.org/10.1021/ed084p1120.

Kuntzleman & al. (2017) New Demonstrations and New Insights on the Mechanism of the Candy-Cola Soda Geyser. J. Chem. Educ. 94, 569−576. https://doi.org/10.1021/acs.jchemed.6b00862.

Maris (2006) Introduction to the physics of nucleation. C. R. Physique 7, 946–958. https://doi.org/10.1016/j.crhy.2006.10.019.

Sims & Kuntzleman (2016) Kinetic Explorations of the Candy−Cola Soda Geyser. J. Chem. Educ. 93, 1809−1813. https://pubs.acs.org/doi/10.1021/acs.jchemed.6b00263.

…e per i docenti della scuola secondaria di primo e secondo grado, ecco una scheda laboratorio pronta all’uso, per trasformare questa esplosione di schiuma in un’attività scientifica coinvolgente.

Scheda laboratorio – Un geyser di CO2 tra scienza e divertimento

? Esperimento: La fontana di Diet Coke e Mentos

? Obiettivi didattici

  • Osservare e descrivere fenomeni di nucleazione eterogenea
  • Comprendere il concetto di tensione superficiale e solubilità dei gas
  • Riconoscere la differenza tra fenomeni fisici e chimici
  • Introdurre il metodo scientifico: osservazione, ipotesi, verifica, confronto dati
  • Stimolare il pensiero critico e il lavoro di gruppo

? Materiali

Quantità Materiale
1–2 Bottiglie da 1.5 o 2 L di Coca Cola/Diet Coke
1 confezione Mentos (preferibilmente menta)
facoltativi Zucchero, sabbia, gessetti, sale grosso, caramelle dure
1 Contenitore/sottovaso/catino (per contenere la fontana)
✔️ Carta, penne o tablet per prendere appunti
✔️ Canovacci, stracci, secchio, detersivo

? Procedura base (semplificata)

  1. Posizionare la bottiglia su un piano all’aperto o in un contenitore.
  2. Preparare il sistema di rilascio rapido delle Mentos (ad esempio con un cartoncino a scivolo o un tubo).
  3. Far cadere rapidamente 1–3 Mentos nella bottiglia aperta.
  4. Osservare il fenomeno: altezza, durata, forma della fontana, eventuale schiuma residua.
  5. Ripetere con altri materiali (gesso, sabbia, sale…) e confrontare l’effetto.
  6. Annotare le osservazioni. Stimolare ipotesi: perché cambiano i risultati?

? Spunti teorici (modulabili per il grado scolastico)

  • Fisica: pressione interna, energia potenziale, accelerazione del liquido
  • Chimica fisica: tensione superficiale, solubilità dei gas, acido carbonico e variazione di pH
  • Chimica generale: differenza tra cambiamento fisico e chimico
  • Scienza dei materiali: effetto della rugosità e della forma dei solidi sulla nucleazione
  • Metodo scientifico: osservazione, variabili, confronto controllato

? Domande guida per la discussione

  • Cosa accade quando inseriamo le Mentos nella bibita?
  • Che differenza c’è tra Coca Cola normale e Diet Coke?
  • Perché altri materiali (es. sale o sabbia) funzionano diversamente?
  • È una reazione chimica o un fenomeno fisico?
  • Come potremmo misurare e confrontare le fontane? (es. altezza, tempo, schiuma)

? Varianti possibili

  • Cambiare la temperatura della bibita (fredda vs ambiente)
  • Provare con acqua frizzante o altre bevande gassate
  • Usare un righello o griglia per stimare l’altezza
  • Fare video al rallentatore e analizzare la dinamica
  • Includere una prova con ultrasuoni (se si dispone di un pulitore a ultrasuoni)

? Note di sicurezza

  • L’esperimento è sicuro, ma va fatto in ambienti controllati o all’aperto
  • Tenere gli occhi lontani dal getto (meglio osservare di lato)
  • Prevedere pulizia immediata di superfici scivolose o appiccicose
Share