Così parlò Bellavite: quando la retorica si traveste da scienza

Introduzione

Di recente Paolo Bellavite, professore associato presso l’Università di Verona, in pensione dal 2017 e noto per le sue posizioni critiche verso le vaccinazioni e per la promozione dell’omeopatia, ha pubblicato un post sui social (Figura 1) in cui denuncia presunte “censure” e un rifiuto del confronto scientifico da parte delle istituzioni sanitarie. Il pretesto è lo scioglimento del comitato NITAG (National Immunization Technical Advisory Group) da parte del Ministero della Salute.

Il NITAG fornisce indicazioni basate su prove per le strategie vaccinali a livello nazionale, valutando costantemente rischi e benefici in relazione a età, condizioni di salute e contesto epidemiologico. Di questo tema ho già parlato in un mio precedente articolo (Nomine e cortocircuiti: quando l’antiscienza entra nei comitati scientifici).

Al di là della cronaca, però, il post di Bellavite si rivela soprattutto un insieme di slogan e artifici retorici non supportati da evidenze scientifiche solide, costruito sui più classici argomenti cari ai critici delle vaccinazioni. Ed è proprio qui che torna utile un altro parallelismo: le stesse strategie comunicative – indipendentemente dal campo, che si tratti di vaccini o di agricoltura – le ritroviamo nell’universo della “scienza alternativa”. Ne ho dato esempio in un altro articolo, Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci.

I toni retorici possono apparire convincenti a chi non ha dimestichezza con il metodo scientifico ma non reggono alla prova dei fatti. Proviamo dunque a smontare, punto per punto, le argomentazioni dell’ex professore Paolo Bellavite.

Figura 1. Screenshot dalla pagina facebook del Dr. Bellavite.

Il mito della “censura”

Uno degli argomenti più frequenti nella retorica tipica dei critici dei vaccini è l’idea che la comunità scientifica “censuri” le voci “fuori dal coro” per paura o per difendere interessi di un qualche tipo.

Per rafforzare questa immagine, viene spesso evocata la vicenda di Ignác Semmelweis, il medico che nell’Ottocento intuì l’importanza dell’igiene delle mani per ridurre la febbre puerperale. Il paragone, però, è fuorviante. Semmelweis non fu osteggiato perché considerato “eretico” ma perché il contesto scientifico dell’epoca non disponeva ancora degli strumenti teorici e sperimentali necessari a comprendere e verificare le sue osservazioni. La teoria dei germi non era stata ancora formulata e l’idea che “qualcosa di invisibile” potesse trasmettere la malattia appariva inconcepibile. Nonostante ciò, i dati raccolti da Semmelweis erano solidi e difficilmente confutabili: nelle cliniche in cui introdusse il lavaggio delle mani la mortalità scese in maniera drastica. Quei numeri, alla lunga, hanno avuto la meglio.

Oggi, il confronto scientifico avviene tramite peer-review, conferenze specialistiche e comitati di valutazione sistematica delle evidenze (ne ho parlato qualche tempo fa in un articolo semiserio dal titolo Fortuna o bravura? osservazioni inusuali sul metodo scientifico). In definitiva, la scienza non mette a tacere: filtra. Ogni idea può essere proposta e discussa, ma per sopravvivere deve poggiare su dati riproducibili, verificabili e coerenti con l’insieme delle conoscenze disponibili. In mancanza di queste condizioni, non viene esclusa per censura, bensì perché non regge al vaglio delle prove.

Trasformare questo processo di selezione in un racconto di “persecuzione” significa confondere il metodo scientifico con un tribunale ideologico, quando in realtà è solo il meccanismo che permette alla conoscenza di avanzare.

La falsa richiesta di “prove definitive”

Un espediente retorico molto diffuso tra chi vuole mettere in discussione i vaccini è quello di pretendere “prove definitive” – come se esistesse una singola evidenza in grado di dimostrare in modo assoluto l’utilità di un vaccino. La verità è che nessuna terapia medica è vantaggiosa sempre e comunque, ma le raccomandazioni vaccinali si basano su analisi robuste e ben documentate di rapporto rischio/beneficio.
Ecco alcuni esempi concreti e supportati da fonti autorevoli:

Chiedere quindi una singola prova assoluta significa distogliere l’attenzione da un ampio corpus di evidenze solide e riproducibili, e puntare invece su un vuoto nella narrazione che non corrisponde alla realtà scientifica.

“I bambini vaccinati non sono più sani”

Alcuni insinuano che non esistano prove che i bambini vaccinati siano “più sani” o addirittura suggeriscono l’opposto. Ma qui il trucco retorico sta nella vaghezza del concetto di “salute” che può essere interpretato in molti modi.
I dati concreti parlano chiaro: i bambini vaccinati hanno un rischio nettamente ridotto di contrarre malattie infettive gravi e le evidenze epidemiologiche mostrano riduzioni significative della mortalità, delle complicanze e degli accessi ospedalieri.

Questi dati si legano strettamente al paragrafo precedente in cui si evidenziava che vaccinare i bambini – come con il caso del vaccino anti-COVID e la prevenzione del morbillo – non solo limita le infezioni specifiche, ma contribuisce a migliorare la salute complessiva della popolazione infantile.

La retorica dei “vaccini meno tossici”

Un argomento ricorrente tra chi mette in dubbio le vaccinazioni è l’appello a “vaccini meno tossici, monovalenti e senza alluminio”. In realtà, gli adiuvanti a base di alluminio – utilizzati da oltre 90 anni per potenziare la risposta immunitaria – sono presenti in quantità molto inferiori a quelle assunte quotidianamente con l’alimentazione: tra 7 e 117 mg nei primi 6 mesi di vita, a seconda dell’alimentazione, mentre un singolo vaccino ne contiene tra 0.125 e 0.85 mg. In particolare, numerosi studi e monitoraggi hanno evidenziato che, sebbene possano causare arrossamento, dolore o un piccolo nodulo nel sito di iniezione, non esistono evidenze di tossicità grave o effetti duraturi legati ai sali di alluminio. Anche la Fondazione Veronesi conferma: non c’è motivo di dubitare della sicurezza degli adiuvanti, che hanno superato con successo gli studi di sicurezza.

Va, inoltre, sottolineato che proporre vaccini monovalenti (cioè che proteggono da una sola malattia) in alternativa a quelli combinati riduce l’efficacia complessiva delle campagne vaccinali. Le formulazioni polivalenti (come l’esavalente) permettono di proteggere contemporaneamente da più malattie con meno somministrazioni, semplificando i calendari vaccinali e migliorando la copertura.

Questo si traduce in una maggiore efficienza delle campagne, minori costi logistici e un impatto complessivo più forte sulla salute pubblica. Lo confermano anche diversi studi su riviste di settore. Per esempio, un trial pubblicato su Lancet ha documentato un’efficacia del 94.9 % contro la varicella e fino al 99.5 % contro altre forme virali moderate o severe, mentre una meta-analisi del 2015 ha evidenziato che le formulazioni combinate mantengono un profilo di sicurezza e immunogenicità paragonabile, ma più efficiente rispetto alle somministrazioni separate. Infine, in un recente studio caso-controllo, il vaccino Priorix‑Tetra (MMRV) ha mostrato un’efficacia dell’88‑93 % contro la varicella dopo una sola o due dosi, e del 96 % contro le ospedalizzazioni.

Come ogni farmaco, i vaccini possono avere effetti collaterali, ma sono rari e attentamente monitorati tramite sistemi di farmacovigilanza che possono intervenire tempestivamente in caso di sospetti. Definire i vaccini “tossici” senza distinguere fra effetti lievi e transitori (come febbre o gonfiore locale) e eventi gravi, ma estremamente rari, è un artificio retorico che induce confusione. In realtà, i benefici delle vaccinazioni – prevenire malattie gravi, complicanze e morti – superano di gran lunga i rischi, grazie anche a un sistema di sicurezza ben strutturato.

Le “analisi pre-vaccinali”

Uno dei cavalli di battaglia dei critici dei vaccini è l’utilizzo di analisi pre‑vaccinali – come test genetici, tipizzazione HLA o dosaggi di anticorpi – per valutare il rischio individuale o l’immunità naturale. A prima vista può sembrare una precauzione intelligente ma in realtà è un’idea infondata e controproducente. Gli eventi avversi gravi legati alle vaccinazioni sono estremamente rari e non correlabili a marcatori genetici o immunologici conosciuti. Al momento non esistono esami in grado di prevedere in anticipo chi potrebbe sviluppare una reazione avversa significativa.

Studi su varianti genetiche e reazioni avverse da vaccino (come studi su polimorfismi MTHFR o antigeni HLA) hanno dimostrato che l’uso di questi test non è scientificamente rilevante, né affidabile per prevenire eventi avversi.
La Federazione Nazionale degli Ordini dei Medici ha ribadito con forza che:
«La richiesta di esami diagnostici da eseguire di routine prima della vaccinazione non ha alcuna giustificazione scientifica».
In altre parole, valutare il rischio da vaccinazione è responsabilità del medico curante, basata su anamnesi e valutazioni cliniche, non su test di laboratorio preliminari.

Nel suo magazine di divulgazione, la Fondazione Veronesi – attraverso l’esperto Pier Luigi Lopalco – risponde chiaramente alla domanda “Esistono test pre‑vaccinali per valutare possibili effetti collaterali?”, la risposta è netta: non esistono.

L’introduzione obbligatoria di esami prevaccinali renderebbe logisticamente impossibili le campagne, ostacolando la copertura diffusa necessaria per l’immunità di gregge. Le vaccinazioni funzionano proprio perché applicate su larga scala, creando uno scudo comunitario che riduce la circolazione dei patogeni.

L’inversione retorica: “noi siamo la vera scienza”

Un tratto distintivo della comunicazione di chi contesta le vaccinazioni è la pretesa di incarnare la “vera scienza”, accusando al tempo stesso le istituzioni di rifiutare il confronto. È un vero rovesciamento di prospettiva: si imputa alla comunità scientifica un atteggiamento dogmatico, mentre ci si propone come gli unici detentori delle “vere prove”. In pratica, si pretende di cambiare le regole del gioco scientifico, così che affermazioni prive di fondamento possano essere messe sullo stesso piano delle evidenze prodotte e validate dall’intera comunità. È come voler riscrivere le regole del Monopoli per far sì che a vincere non sia chi accumula dati e dimostrazioni, ma chi urla di più o pesca la carta giusta al momento opportuno.

La realtà è un’altra: il confronto scientifico non si svolge sui social o nei talk show, ma nelle riviste peer-reviewed, nei congressi specialistici e nei comitati di valutazione delle evidenze. Ed è in questi contesti che certe tesi non trovano spazio, non per censura, ma per una ragione molto più semplice: mancano dati solidi che le sostengano.

Conclusione: la scienza contro gli slogan

Il caso Bellavite mostra come il linguaggio della scienza possa essere piegato e trasformato in uno strumento di retorica ideologica: un lessico apparentemente tecnico usato non per chiarire ma per confondere; non per spiegare ma per insinuare dubbi e paure privi di basi reali.

I vaccini rimangono uno dei più grandi successi della medicina moderna. Hanno ridotto o eliminato malattie che per secoli hanno decimato intere popolazioni. Certo, come ogni atto medico comportano rischi, ma il rapporto rischi/benefici è da decenni valutato e aggiornato con metodi rigorosi ed è incontrovertibile: il beneficio collettivo e individuale supera enormemente i rari effetti collaterali.

In politica, come nei discorsi attraverso cui si criticano le vaccinazioni, accade spesso che a prevalere siano slogan facili e interpretazioni personali. Il dibattito si trasforma così in un’arena di opinioni precostituite, dove il volume della voce sembra contare più della solidità delle prove. Ma la scienza non funziona in questo modo: non si piega alle opinioni, non segue le mode e non obbedisce agli slogan. È un processo collettivo, autocorrettivo e guidato dai dati, che avanza proprio perché seleziona ciò che resiste alla verifica e scarta ciò che non regge all’evidenza.

Chi tenta di manipolare questo processo dimentica un punto essenziale: la verità scientifica non appartiene a chi urla più forte, ma a chi misura, dimostra e sottopone i risultati al vaglio della comunità. È questo meccanismo che, tra errori e correzioni, consente alla scienza di progredire e di migliorare la vita di tutti.

Nota a margine dell’articolo

Sono perfettamente consapevole che questo scritto non convincerà chi è già persuaso che i vaccini siano dannosi o chi si rifugia dietro un malinteso concetto di “libertà di vaccinazione”. Desidero però ricordare ai miei quattro lettori che l’Art. 32 della nostra Costituzione recita:

“La Repubblica tutela la salute come fondamentale diritto dell’individuo e interesse della collettività, e garantisce cure gratuite agli indigenti. Nessuno può essere obbligato a un determinato trattamento sanitario se non per disposizione di legge. La legge non può in nessun caso violare i limiti imposti dal rispetto della persona umana”.

La Corte Costituzionale, interpretando questo articolo, ha più volte ribadito che la salute pubblica può prevalere su quella individuale. Già con la sentenza n. 307/1990 e la n. 218/1994 ha chiarito che l’obbligo vaccinale è compatibile con la Costituzione se proporzionato e giustificato dall’interesse collettivo. La sentenza n. 282/2002, pur riguardando i trattamenti sanitari obbligatori in ambito psichiatrico, ribadisce il principio generale: un trattamento sanitario può essere imposto per legge, purché rispettoso della dignità della persona. Infine, la più recente sentenza n. 5/2018 ha confermato la piena discrezionalità del legislatore nell’introdurre obblighi vaccinali a tutela della salute pubblica.

Il mio intento non è convincere chi non vuole ascoltare, ma offrire strumenti a chi esita, a chi è spaventato. La paura è umana, comprensibile, ma non ha fondamento: i dati dimostrano che vaccinarsi significa proteggere sé stessi e, soprattutto, la comunità di cui facciamo parte. È questo il senso profondo dell’art. 32: la salute non è mai solo un fatto privato, ma un bene comune.

Biodinamica e scienza: smontare i miti non è mai facile

Negli ultimi anni la biodinamica è tornata con forza nel dibattito pubblico, presentata come un’agricoltura “più naturale”, capace di riconnettere l’uomo con la terra attraverso antichi rituali e influssi cosmici. Ma quando si scava nei lavori scientifici che dovrebbero darle credibilità, il castello crolla.

In un precedente articolo, Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci, avevo già mostrato come l’apparente incontro tra ricerca e pratiche steineriane sia in realtà un dialogo ingannevole. Oggi raccolgo e sintetizzo delle analisi critiche di studi pubblicati su riviste scientifiche, spesso citati a sostegno della biodinamica. Il risultato è un quadro chiaro: tanta tecnologia, poca scienza, e un mare di suggestioni travestite da rigore.

Il mito del Preparato 500

Al centro della biodinamica c’è il Preparato 500, letame fermentato in corna di vacca, elevato a elisir magico. Uno studio del 2013 su Journal of Microbiology and Biotechnology ha tentato di dargli dignità scientifica. Il risultato? Una sequenza di prove deboli: assenza di controlli, attività biologiche senza legame con benefici concreti, repliche non documentate.

Gli stessi autori, del resto, offrono materiale sufficiente per smontare ogni pretesa di scientificità. Non hanno inserito veri controlli: “Different commercial samples of BD Preparation 500… were studied” (p. 645). In pratica, hanno confrontato solo diversi lotti dello stesso preparato, senza mai verificare se i risultati differissero da un letame ordinario.

Le attività enzimatiche riportate sono descritte come promettenti, ma senza legame con effetti pratici: “Preparation 500 displays high specific levels of activity… A high alkaline phosphatase activity indicates its potential” (p. 648). Potenziale, non prova.

Una volta estratto dalle corna, il Preparato viene applicato in campo dopo diluizioni omeopatiche: 200 grammi in decine di litri d’acqua per ettaro. Gli autori non si limitano a descriverne le caratteristiche microbiologiche e chimiche, ma cercano anche di giustificare questa pratica con un ragionamento per analogia: “…they will already be delivered at a 10¹⁰ M concentration… well within their expected windows of biological activity (p. 649). Ma si tratta di pura speculazione: nessuna prova sperimentale mostra che quelle diluizioni abbiano davvero un effetto.

Il linguaggio stesso tradisce l’incertezza. Ovunque compaiono formule ipotetiche: “could possibly contribute” (p. 648), “may account for the biostimulations” (p. 649), “it cannot be excluded that it might act” (p. 650). Non dimostrazioni, ma tentativi di rivestire di retorica ciò che rimane un rituale agronomico.

Qui la scienza si ferma e subentra il wishful thinking. Non c’è alcun dato che dimostri l’efficacia di quelle diluizioni: è una speculazione posticcia, un tentativo di dare un’aura scientifica a un rituale. In sostanza, la giustificazione proposta non è ricerca: è retorica. Nessun esperimento serio ha mai mostrato che spruzzare tracce infinitesimali di letame fermentato possa produrre effetti concreti su un sistema agricolo complesso.

Corna, letame e spettrometri: la scienza usata per dare lustro al mito

Nel paragrafo precedente è stato introdotto il Preparato 500, gioia degli attivisti della biodinamica. Ebbene, esso è stato analizzato mediante risonanza magnetica nucleare (NMR) e gas-cromatografia con pirolisi (pyrolysis-TMAH-GC-MS) in un lavoro pubblicato su Environmental Science and Pollution Research nel 2012. Questo studio si presenta come la “prima caratterizzazione molecolare” del Preparato 500: una vetrina tecnologica impressionante, che tuttavia poggia su fondamenta fragilissime. Una sfilata di strumenti sofisticati al servizio non della conoscenza, ma della legittimazione di un mito. Vediamo perché.

Gli autori hanno analizzato tre lotti di Preparato 500 (“three samples of horn manure… were collected from different European farms”, p. 2558). Tutto qui. Nessun confronto con compost ordinario o letame tradizionale. Senza un vero controllo, attribuire “peculiarità biodinamiche” diventa arbitrario: come distinguere l’effetto del corno interrato da quello della normale fermentazione del letame?

Le analisi rivelano componenti come lignina, carboidrati, lipidi vegetali e marcatori microbici. Gli stessi autori ammettono che “the chemical composition of HM was consistent with that of natural organic materials” (p. 2564). In altre parole, il Preparato 500 non mostra alcuna unicità sorprendente: è esattamente ciò che ci si aspetta da una biomassa organica parzialmente decomposta.

Il paper suggerisce che la presenza di frazioni labili e lignina parzialmente decomposta possa conferire al Preparato 500 una particolare bioattività: “HM was characterized by a relatively high content of labile compounds that might account for its claimed biostimulant properties” (p. 2565). Ma questa è pura congettura: nessun dato in campo supporta l’idea che tali caratteristiche abbiano effetti agronomici specifici.

Le conclusioni parlano di “a higher bioactivity with respect to mature composts” (p. 2565). Ma il solo risultato tangibile è che il Preparato 500 risulta meno stabilizzato e più ricco di composti facilmente degradabili rispetto a un compost maturo. Un’osservazione banale, trasformata in presunta “prova” di efficacia biodinamica.

In altre parole, il lavoro appena analizzato non dimostra alcuna unicità del Preparato 500. Mostra soltanto che un letame lasciato fermentare in condizioni anossiche dentro un corno ha una composizione chimica simile a quella di altri ammendanti poco maturi. L’uso di strumenti spettroscopici di alto livello serve più a conferire prestigio alla pratica biodinamica che a produrre nuova conoscenza. È un’operazione di maquillage scientifico: dati corretti, ma interpretazione piegata all’ideologia.

Strumenti sofisticati, interpretazioni esoteriche

In uno studio apparso su Chemical and Biological Technologies in Agriculture, gli autori hanno applicato tecniche avanzatissime – MRI (risonanza magnetica per immagini) per la struttura interna delle bacche e HR-MAS NMR per il metaboloma – a uve Fiano e Pallagrello trattate con il celebre Preparato 500. Dal punto di vista tecnico nulla da eccepire: “MRI and HR-MAS NMR provided detailed information on berry structure and metabolite profiles” (p. 3).

Il problema nasce subito dopo. Gli autori collegano direttamente i risultati“a significant decrease in sugars and an increase in total phenolics and antioxidant activity in biodynamically treated grapes” (p. 5) – all’applicazione del Preparato 500. Ma senza un adeguato controllo placebo questo salto logico è insostenibile: come distinguere l’effetto della “pozione biodinamica” da quello di fattori molto più concreti e plausibili come microclima, esposizione solare, variabilità del suolo o semplici disomogeneità nell’irrigazione?

Gli stessi autori ammettono che la variabilità ambientale è enorme: “soil heterogeneity and microclimatic differences strongly influenced metabolite composition” (p. 6). Eppure, attribuiscono al trattamento biodinamico differenze che potrebbero essere spiegate benissimo da questi fattori.

Ecco il nodo: la biodinamica viene trattata come variabile determinante quando, in realtà, manca la dimostrazione del nesso causale. Si confonde la correlazione con la causa, sostituendo la fatica della verifica sperimentale con il fascino della narrazione esoterica. In altre parole, strumenti scientifici tra i più potenti oggi disponibili vengono usati correttamente per produrre dati robusti, ma poi piegati a interpretazioni che appartengono più al mito che alla scienza. È come se un telescopio di ultima generazione fosse puntato verso il cielo non per studiare le galassie, ma per cercare gli influssi astrali di cui parlano gli oroscopi.

Quando i numeri non tornano

Tra i lavori più citati a sostegno della biodinamica c’è l’articolo di Zaller e Köpke pubblicato su Biology and Fertility of Soils nel 2004, che confronta letame compostato tradizionale e letame compostato con “preparati” biodinamici in un esperimento pluriennale. Sulla carta, il disegno sperimentale sembra solido: rotazioni colturali, repliche, parametri chimici e biologici del suolo.

Ma basta entrare nei dettagli per accorgersi delle crepe. Innanzitutto, gli autori parlano di quattro trattamenti, ma l’unico vero confronto rilevante – biodinamico vs tradizionale – è reso ambiguo dal fatto che manca un controllo cruciale: il letame senza alcuna applicazione (no FYM) è incluso, ma non permette di distinguere se le differenze dipendano dalle preparazioni biodinamiche o, banalmente, dalla sostanza organica. In altre parole, non è possibile stabilire se l’“effetto” sia biodinamico o semplicemente concimante.

In secondo luogo, molte delle differenze riportate sono minime, al limite della significatività statistica, e oscillano addirittura in direzioni opposte tra i diversi strati di suolo (es. la respirazione microbica più bassa con tutti i preparati a 0–10 cm, ma più alta col solo Achillea a 10–20 cm: Fig. 1). Questo non è un segnale di coerenza biologica, ma di rumore sperimentale.

E poi ci sono le rese: tabella 3 mostra chiaramente che le differenze tra preparati e non-preparati non sono mai significative. In pratica, dopo nove anni di sperimentazione, la produttività dei sistemi resta identica, indipendentemente dall’uso o meno dei preparati.

Il colpo finale arriva dall’interpretazione: gli autori ammettono che “how those very low-dose preparations can affect soil processes is still not clear” (p. 228), ma subito dopo ipotizzano meccanismi fumosi come “microbial efficiency” o “stress reduction” senza fornire prove solide. Non sorprende che l’articolo sia diventato un riferimento per i sostenitori della biodinamica: fornisce grafici, tabelle e un lessico tecnico, ma dietro la facciata la sostanza è debole.

In sintesi, questo lavoro non dimostra affatto l’efficacia dei preparati biodinamici: mostra soltanto che il letame fa bene al suolo, una banalità agronomica travestita da scoperta.

Mappatura, non validazione

Giusto per concludere questa breve revisione critica di qualche lavoro sulla biodinamica, prendo in considerazione una review pubblicata su Organic Agriculture che ha analizzato 68 studi sull’agricoltura biodinamica. Gli autori segnalano effetti positivi su suolo e biodiversità, soprattutto in aree temperate, sostenendo che “most studies reported improvements in soil quality parameters, biodiversity, and crop quality under biodynamic management” (p. 3).

Il problema è che si tratta di una rassegna descrittiva, non critica. Gli stessi autori ammettono che “we did not perform a formal quality assessment of the included studies” (p. 2). In altre parole, nessuna valutazione della robustezza metodologica, della significatività statistica o della replicabilità dei risultati. Non hanno fatto, insomma, quello che ho fatto io con le critiche riportate nei paragrafi precedenti.

Non solo: la review mette nello stesso calderone pratiche agricole consolidate (rotazioni, compost, minore uso di chimica) e l’uso dei preparati biodinamici, facendo apparire i benefici come frutto della biodinamica tout court. Un artificio retorico che sposta l’attenzione dall’agronomia alla magia.

Il risultato è esattamente quello che Enrico Bucci definì su Il Foglio una “eterna review”: un elenco di lavori, non una loro valutazione critica. Utile come catalogo, ma totalmente inutile come prova di validazione scientifica. Insomma, un inventario ordinato, non una prova di efficacia: la scienza qui rimane alla porta, mentre la retorica magica occupa la scena.

La fatica della demistificazione scientifica

Arrivati a questo punto, vale la pena sottolineare un aspetto che spesso sfugge a chi guarda la scienza dall’esterno. Smontare lavori che si travestono da scienza non è un passatempo da tastiera né un esercizio da poltrona. È un percorso lungo, faticoso e a tratti logorante. Perché?

Per prima cosa bisogna leggere gli articoli nella loro interezza, riga dopo riga, spesso decifrando un linguaggio tecnico volutamente denso. Poi serve una conoscenza approfondita delle metodologie: saper distinguere un NMR da una cromatografia, sapere cosa può misurare davvero un test enzimatico e cosa invece viene gonfiato nell’interpretazione. Infine, è indispensabile una robusta esperienza nella progettazione sperimentale: senza questa non ci si accorge dei bias nascosti, dei controlli mancanti, delle conclusioni che vanno ben oltre i dati.

E tutto ciò richiede tempo, pazienza e un certo spirito combattivo.  La scienza procede per tentativi ed errori. Un lavoro pubblicato non necessariamente è validoLa pubblicazione è solo il primo gradino. La vera prova arriva dopo, quando la comunità scientifica lo sottopone a un esame collettivo, minuzioso, implacabile: esperti che “fanno le pulci” a ogni cifra, a ogni tabella, a ogni esperimento. Se il lavoro è solido, resiste e diventa pietra miliare. Se è fragile, si sgretola in fretta e viene dimenticato.

Ecco perché la demistificazione è così importante e così dura: perché si combatte con armi scientifiche contro narrazioni che usano il fascino del mito. E i lavori sulla biodinamica, quando passano sotto questo setaccio, puntualmente crollano.

Conclusione: un fallimento annunciato

Il quadro che emerge è inequivocabile. Studi ben confezionati ma concettualmente vuoti, prove senza controlli, numeri sbagliati, review che confondono agronomia con magia. Tutto ciò che funziona nelle aziende biodinamiche non è esclusivo della biodinamica: è semplice agronomia, già consolidata nel biologico e perfezionata nell’integrato.

Il resto – corna interrate, cicli cosmici, preparati miracolosi – non resiste alla prova della scienza. La biodinamica cerca da oltre un secolo legittimazione, ma ogni volta che la ricerca prova a verificarla seriamente, la sua fragilità diventa evidente. Non è agricoltura del futuro, ma un mito che il tempo ha già smentito.

A questo punto, un lettore non addetto potrebbe chiedersi: “Ma se è così fragile, come mai questi studi vengono pubblicati? Possibile che i revisori non se ne accorgano? E come faccio io, dall’esterno, a non fidarmi di ciò che appare su riviste qualificate, persino con un buon Impact Factor?”

La risposta è meno misteriosa di quanto sembri. Come ho già scritto nel paragrafo precedente, la pubblicazione è solo il primo passo: significa che un articolo ha superato un filtro minimo di qualità, non che sia una verità scolpita nel marmo. La peer review non è un tribunale infallibile: è fatta da esseri umani, spesso con tempi stretti e competenze specifiche. Alcuni errori sfuggono, altre volte ci si concentra più sulla tecnica che sulla sostanza. Succede che un lavoro ben scritto e infarcito di strumentazioni sofisticate riesca a passare, anche se le conclusioni sono deboli.

La differenza la fa il tempo e la comunità scientifica. È il vaglio collettivo, fatto di discussioni, repliche, critiche, tentativi di replica sperimentale, che separa ciò che rimane da ciò che evapora. Ed è un processo lento e faticoso, che richiede esperienza, attenzione e anche una certa dose di ostinazione.

Ecco perché non basta fidarsi di un titolo altisonante o di una rivista con un buon IF. Bisogna guardare dentro i lavori, leggerli, pesarli, verificarli. Lo facciamo noi scienziati, ed è una parte del nostro mestiere che non fa notizia, ma è essenziale: distinguere i dati solidi dai castelli di carta.

E ogni volta che la biodinamica entra in questo setaccio, il risultato è lo stesso: crolla.

Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci

Ci risiamo! Più volte ho parlato di biodinamica, ma, come sempre accade, questa pratica sembra risorgere dalle ceneri come la fenice, un essere mitologico che ben rappresenta l’impianto fantastico da cui trae origine. Stavolta a riproporla in chiave “scientifica” è un articolo apparso su Terra & Vita l’11 agosto 2025 a firma di Carlo Triarico, presidente dell’Associazione per l’Agricoltura Biodinamica:
👉 Agricoltura biodinamica e ricerca scientifica, il dialogo continua

Come al solito, ci troviamo di fronte a un testo che cerca di accreditare la biodinamica usando il linguaggio della scienza e richiamando collaborazioni con enti di ricerca. Vale la pena analizzare punto per punto le affermazioni contenute nell’articolo, per capire cosa c’è di sostanza e cosa invece è pura retorica.

La premessa retorica

“La crisi ambientale impone nuove pratiche rigenerative, accompagnate da un solido impianto di validazione scientifica.”

Che la crisi ambientale e climatica sia una realtà innegabile è fuori discussione. Nessuno scienziato serio la nega. Ma proprio perché la crisi è reale, il richiamo a essa non può essere usato come cavallo di Troia per giustificare qualunque pratica, tanto meno quelle nate da premesse esoteriche. È un classico espediente retorico: evocare un problema grave e condiviso per darsi legittimità, senza però dimostrare che la soluzione proposta sia davvero efficace.

Il termine “pratiche rigenerative” è suggestivo ma vago. Rigenerare cosa? In che modo? Con quali meccanismi verificabili? Senza una definizione chiara, si resta nell’ambito dello slogan. La biodinamica viene così presentata come medicina miracolosa, ma senza che siano forniti protocolli scientifici in grado di dimostrare causalità tra pratiche e risultati.

Infine, parlare di “validazione scientifica” è improprio. La scienza non “valida” come fosse un ente certificatore che mette bollini di approvazione. La scienza funziona per ipotesi sottoposte a prove, dati che devono essere replicabili, esperimenti che altri ricercatori possono confermare o smentire. Se un modello agronomico ha basi solide, non c’è bisogno di rivestirlo di retorica: i dati parlano da soli.

La verità è che quando si tratta di biodinamica, si invoca la scienza come un orpello decorativo, ma si evita accuratamente di sottoporre al vaglio critico proprio i capisaldi del metodo — i preparati, le diluizioni omeopatiche, i cicli cosmici. Su questi aspetti, che costituiscono l’anima della biodinamica, non esiste alcuna evidenza.

In altre parole: usare la crisi climatica come giustificazione per promuovere pratiche prive di fondamento non è un’operazione scientifica, ma retorica.

La “visione sistemica”

“La biodinamica, con la sua visione sistemica e la cura della terra, ha molto da offrire in termini di sostenibilità.”

Visione sistemica” è un’espressione ad alto impatto emotivo, che sembra evocare profondità e modernità di pensiero. Ma è un concetto che, applicato così, resta puramente decorativo. In agronomia la gestione integrata dei sistemi agricoli è già una realtà da decenni: rotazioni colturali, pratiche conservative, uso oculato delle risorse idriche, incremento della sostanza organica del suolo. Tutti questi approcci rientrano già da tempo nell’agricoltura biologica, nella lotta integrata e nei sistemi sostenibili, senza bisogno di ricorrere a cosmologie esoteriche.

Attribuire alla biodinamica una presunta “visione sistemica” è dunque un’operazione di maquillage: si prende un concetto scientificamente serio, lo si ammanta di suggestioni e lo si appiccica a pratiche che con la scienza hanno poco a che fare. In realtà, la biodinamica non porta alcuna innovazione metodologica: si limita a riproporre tecniche già note in agricoltura ecocompatibile, aggiungendo però un corredo rituale che nulla aggiunge né alla produttività né alla sostenibilità.

È come se qualcuno prendesse l’omeopatia e la presentasse come “medicina olistica sistemica”: un modo elegante per mascherare l’assenza di meccanismi verificabili dietro un linguaggio affascinante. Allo stesso modo, dire che la biodinamica ha “molto da offrire” in termini di sostenibilità è fuorviante: ciò che funziona non è la biodinamica, ma le stesse pratiche agronomiche già validate che essa incorpora al suo interno.

In sintesi, la “visione sistemica” non è un portato della biodinamica: è un concetto scientifico e agronomico che le viene arbitrariamente attribuito per conferirle un’aura di credibilità.

Le collaborazioni scientifiche

“Abbiamo collaborato con CREA, Università di Firenze, Università di Salerno, CERMANU, SISB…”

E qui scatta il gioco delle citazioni, un artificio retorico ben collaudato: nominare enti di ricerca e università serve a costruire una patina di autorevolezza, come se la sola menzione bastasse a trasferire credibilità scientifica. Ma la realtà è più complessa.

Che università e centri di ricerca abbiano svolto studi sulla fertilità del suolo, sulla biodiversità o sull’impatto ambientale delle pratiche agricole è un dato di fatto. Questo, però, non equivale ad aver avallato i principi fondanti della biodinamica, che restano di natura esoterica. Bisogna distinguere nettamente:

  • quando si studiano pratiche agronomiche comuni, come la riduzione dei fertilizzanti di sintesi (cioè sistemi inorganici), l’incremento della sostanza organica o la gestione integrata del terreno, si sta facendo agronomia.
  • quando invece si invocano corna di vacca interrate, preparati dinamizzati in acqua agitata ritualmente, o influssi cosmici legati alla posizione della Luna, si entra nell’ambito del rituale, non della ricerca scientifica.

Mescolare i due livelli, come avviene sistematicamente nei comunicati del mondo biodinamico, è un’operazione retorica: si confonde il rigore della scienza con il linguaggio mistico, sperando che la rispettabilità della prima copra le fragilità della seconda.

In altre parole: se un’università conduce uno studio sulla biodiversità in un’azienda biodinamica, il dato che ottiene riguarda la biodiversità in quell’azienda, non la validazione delle teorie di Steiner. Dire il contrario equivale a dire che se un medico misura la pressione a un paziente che porta un amuleto al collo, allora lo studio conferma l’efficacia dell’amuleto.

Il problema, dunque, non è la collaborazione in sé, ma il suo uso strumentale: un modo per presentare come “scientificamente supportato” ciò che resta, nei suoi fondamenti, privo di basi scientifiche.

L’azienda modello e la certificazione Demeter

“Le aziende certificate Demeter come Lacalamita Rosa mostrano risultati significativi e attraggono nuovi produttori.”

Portare ad esempio aziende di successo è una strategia comunicativa potente: un nome evocativo, qualche dato positivo e il lettore medio è portato a pensare che il merito sia tutto della biodinamica. Ma il ragionamento è fuorviante.

Il successo commerciale o l’apprezzamento dei consumatori non dimostrano di per sé la validità scientifica di un metodo. Un’azienda può prosperare per molte ragioni: la qualità intrinseca del suolo, la competenza agronomica di chi la conduce, le condizioni climatiche favorevoli, oppure semplicemente un buon posizionamento di mercato. Attribuire automaticamente questi risultati alla biodinamica equivale a confondere i fattori: è il tipico errore di scambiare correlazione per causalità.

Quanto alla certificazione Demeter, non si tratta di un riconoscimento indipendente né neutrale. È un marchio privato, gestito dal movimento biodinamico stesso, che valuta la conformità delle aziende a un disciplinare interno. E questo disciplinare, lungi dall’essere scientifico, prescrive pratiche rituali che includono i famosi preparati e le procedure esoteriche steineriane. Parlare quindi di “standard oggettivi” è improprio: non si tratta di oggettività scientifica, ma di coerenza con un regolamento autoreferenziale.

Per chiarire con un paragone: dire che un’azienda è “validata scientificamente” perché certificata Demeter è come dire che un club di astrologi garantisce l’accuratezza dell’oroscopo dei suoi membri. Vale come appartenenza a una comunità che condivide gli stessi rituali, ma non come dimostrazione di efficacia.

In definitiva, l’esempio delle aziende modello e della certificazione Demeter serve a costruire un racconto accattivante, ma non sposta di un millimetro la questione centrale: i principi fondanti della biodinamica restano privi di fondamento scientifico.

Lo studio con NMR sull’uva da tavola

“Gli studi con spettroscopia H-NMR hanno mostrato parametri qualitativi superiori nell’azienda biodinamica.”

Qui si tocca un aspetto che, letto in fretta, sembra confermare in pieno la narrazione biodinamica: un’analisi sofisticata, condotta con uno strumento scientifico avanzato, avrebbe mostrato differenze qualitative a favore dell’azienda biodinamica. Ma la realtà, ancora una volta, è diversa.

Innanzitutto, va chiarito cosa significhi “parametri qualitativi superiori”. Una differenza nei profili metabolomici non equivale automaticamente a un miglioramento. In metabolomica, infatti, i dati descrivono variazioni nella concentrazione di certi composti, ma la loro interpretazione dipende dal contesto e da ulteriori correlazioni con parametri sensoriali, nutrizionali o tecnologici. Dire che un prodotto è “migliore” perché diverso non ha alcun senso scientifico.

In secondo luogo, anche ammesso che un’azienda biodinamica mostri parametri più favorevoli, ciò non dimostra affatto che la causa sia la biodinamica in sé. Gli studi comparativi, per essere robusti, devono isolare le variabili: stesse condizioni pedoclimatiche, stesso vitigno, stessa gestione agronomica, stesso livello di esperienza dell’agricoltore. Nella realtà, però, un’azienda non è un laboratorio sterile: il suolo, il microclima, l’età delle piante, persino la cura quotidiana nella gestione possono influenzare i risultati.

Attribuire quindi le differenze osservate ai preparati steineriani o all’influenza dei cicli cosmici è un salto logico arbitrario. Sarebbe come dire che, se una squadra di calcio vince una partita, il merito è della maglia portafortuna indossata dall’allenatore. Correlazione e causalità, ancora una volta, vengono confuse deliberatamente.

Infine, l’uso stesso di tecniche avanzate come la spettroscopia NMR rischia di funzionare da “effetto scenico”: uno strumento complesso viene chiamato in causa per impressionare il lettore, non per fornire prove decisive. Ma la scienza non si misura dalla sofisticazione dello strumento, bensì dalla solidità del disegno sperimentale e dalla replicabilità dei risultati.

In sintesi: se anche uno studio rileva differenze, non è corretto attribuirle tout court alla biodinamica. La vera prova mancherebbe proprio là dove servirebbe: dimostrare che i precetti esoterici abbiano un effetto misurabile e riproducibile. E questa prova, ad oggi, non esiste.

Agroecologia e dieta mediterranea

“La biodinamica si integra con i principi dell’agroecologia e della Dieta Mediterranea sostenibile.”

Questo passaggio è un esempio chiaro di appropriazione semantica: si accostano concetti scientificamente fondati (agroecologia e Dieta Mediterranea) a un paradigma privo di basi razionali come la biodinamica, nel tentativo di trasferire prestigio dall’uno all’altro.

L’agroecologia è un approccio interdisciplinare che combina scienze agrarie, ecologia, economia e sociologia per rendere sostenibili i sistemi agricoli. La Dieta Mediterranea, invece, non è affatto un modello antico e immutato: è una costruzione recente, nata negli Stati Uniti negli anni ’50-’60 grazie agli studi di Ancel Keys, che osservò la maggiore longevità di alcune popolazioni del bacino mediterraneo. Da quelle osservazioni derivò un modello alimentare “idealizzato”, promosso poi a livello internazionale. Nonostante le sue origini moderne e in parte commerciali, la Dieta Mediterranea si è guadagnata un solido supporto scientifico: numerosi studi hanno confermato la correlazione con benefici per la salute, e l’UNESCO l’ha riconosciuta come patrimonio culturale immateriale per il suo valore sociale e culturale.

La biodinamica, al contrario, nasce da premesse esoteriche di Rudolf Steiner e non ha alcuna validazione scientifica. Metterla sullo stesso piano dell’agroecologia e della Dieta Mediterranea è quindi fuorviante: mentre le prime si fondano su dati, osservazioni e modelli riproducibili, la biodinamica resta ancorata a rituali cosmici e pratiche prive di riscontro sperimentale.

Il meccanismo comunicativo è evidente: evocare concetti positivi e consolidati per “nobilitare” la biodinamica. Ma, in realtà, tutto ciò che appare compatibile con l’agroecologia o con il modello mediterraneo (rotazioni, compostaggio, riduzione degli input chimici) non è esclusivamente biodinamico: appartiene già all’agricoltura biologica e sostenibile. L’unico elemento davvero caratterizzante della biodinamica — i preparati e i rituali steineriani — non ha alcun fondamento scientifico.

In definitiva, questo accostamento non rafforza la biodinamica: ne evidenzia piuttosto la debolezza, perché dimostra il suo costante bisogno di appoggiarsi ad altro per sembrare credibile.

Standard e protocolli “oggettivi”

“La biodinamica è identificata da standard e protocolli oggettivi e soggetti a verifica.”

Questa affermazione suona rassicurante, ma è profondamente ambigua. Nel linguaggio della scienza, “standard oggettivi” significa procedure condivise, ripetibili, verificabili da chiunque e soprattutto indipendenti da appartenenze ideologiche. Nel caso della biodinamica, invece, gli “standard” non sono altro che le regole fissate dal marchio Demeter, ovvero dall’organizzazione stessa che promuove la biodinamica.

Questi protocolli prevedono sì pratiche agronomiche comuni e sensate (rotazioni, compostaggio, attenzione alla fertilità del suolo), ma includono anche prescrizioni rituali come i preparati dinamizzati o le corna interrate seguendo cicli lunari e planetari. Non c’è nulla di scientifico in questo: sono norme interne a una comunità, autoreferenziali, che si verificano in base alla loro stessa coerenza interna, non sulla base di prove oggettive.

È come dire che l’astrologia è “oggettiva” perché esistono regole precise per calcolare un oroscopo. Certo, il calcolo segue un protocollo, ma ciò non significa che il risultato abbia validità scientifica. Allo stesso modo, rispettare il disciplinare Demeter dimostra solo che un’azienda aderisce a un regolamento, non che i principi steineriani abbiano efficacia reale.

Il vero paradosso è che il richiamo alla “verifica” finisce per essere un gioco di specchi: chi controlla la conformità non valuta i risultati scientifici delle pratiche, ma solo la fedeltà a un rituale codificato. È un sistema chiuso, che si autolegittima senza mai confrontarsi con il metodo scientifico.

In sintesi: parlare di “protocolli oggettivi” in biodinamica è un abuso del linguaggio scientifico. Non si tratta di oggettività, ma di appartenenza. Non si tratta di verifiche, ma di rituali. E questa differenza non è un dettaglio semantico: è il punto che segna la distanza tra scienza e pseudoscienza.

Conclusione

Ancora una volta la biodinamica si presenta con abiti nuovi, evocando crisi ambientali, citando enti di ricerca, richiamando agroecologia e dieta mediterranea, esibendo certificazioni e dati metabolomici. Ma al di là della patina, la sostanza resta immutata: i capisaldi steineriani non hanno alcuna validazione scientifica.

Tutto ciò che funziona nelle aziende biodinamiche non è esclusivo della biodinamica: è semplice agronomia, già consolidata nel biologico e perfezionata oggi nell’agricoltura integrata. La differenza è che qui si parla di conoscenze scientifiche, non di rituali esoterici. Ciò che resta tipicamente biodinamico non ha alcuna evidenza e non può essere considerato scienza.

La conclusione è inevitabile: la biodinamica non rappresenta un modello innovativo di sostenibilità, ma un insieme di pratiche esoteriche rivestite di retorica scientifica. E confondere scienza e rituale non aiuta l’agricoltura a diventare più sostenibile: la espone, semmai, al rischio di perdere credibilità proprio quando la società ha più bisogno di rigore, trasparenza e soluzioni reali.

Come la fenice, la biodinamica sembra risorgere dalle proprie ceneri: ma, a differenza del mito, dalle sue ceneri non nasce mai scienza.

Clima e pseudoscienza: anatomia di una discussione

Qualche giorno fa ho pubblicato il terzo e, speravo, ultimo articolo di un reportage sui cambiamenti climatici. In questo articolo, intitolato I cambiamenti climatici? Sì, siamo noi i responsabili, ho discusso delle prove oggettive – corredate da riferimenti puntuali – che hanno portato l’intera comunità scientifica alla conclusione che i responsabili di quanto sta accadendo attualmente sulla superficie terrestre, ovvero l’aumento delle temperature globali e la conseguente alterazione degli ecosistemi, siamo noi esseri umani.

In quel testo ho cercato di mostrare, in modo accessibile ma rigoroso, perché la tesi dell’origine antropica dell’attuale riscaldamento globale non sia più un’ipotesi, ma una conclusione supportata da una mole imponente di dati.

Ho parlato del ruolo dei gas serra, in particolare della CO₂ prodotta dalla combustione di combustibili fossili, la cui impronta isotopica è ben riconoscibile in atmosfera. Ho discusso anche delle fonti indipendenti che confermano il trend in atto – dalle carote glaciali agli anelli degli alberi, dai sedimenti oceanici alle misurazioni satellitari – e delle ragioni per cui né l’attività solare né le eruzioni vulcaniche possono spiegare ciò che osserviamo oggi.

Infine, ho evidenziato come la rapidità del riscaldamento attuale – oltre un grado in appena un secolo – sia senza precedenti nella storia recente del pianeta, e come l’intero corpo scientifico internazionale, sintetizzato nei report dell’IPCC, abbia ormai raggiunto un consenso solido e ben documentato su questo punto.

Non è necessario riproporre qui tutti i riferimenti bibliografici: si trovano nell’articolo appena riassunto (qui il link).

Eppure, eccomi di nuovo a scrivere sull’apporto antropico all’effetto serra. Non per aggiungere nuove evidenze, ma per riflettere sul modo estremamente fallace – e sempre più diffuso – di ragionare dei negazionisti del cambiamento climatico. Non si tratta, in questo caso, di negazionisti tout court: anche loro, ormai, devono riconoscere l’evidenza dell’aumento delle temperature globali. Si tratta piuttosto dei negazionisti dell’origine antropica, coloro che rifiutano di accettare che la causa principale del riscaldamento sia l’attività umana.

In un gruppo Facebook che aiuto a gestire – Bufale e dintorni gruppo – sono comparsi i primi commenti al mio post con cui pubblicizzavo l’articolo (potete farvene un’idea a questo link).
Poiché si tratta di un gruppo privato – quindi i post non sono visibili pubblicamente – e considerando che non tutti hanno un account Facebook attivo, riporto di seguito gli screenshot della discussione.

La Figura 1 riporta la condivisione dalla mia pagina Facebook “Rino Conte”.

Figura 1. Screenshot relativo alla condivisione del mio articolo sull’effetto antropico nei cambiamenti climatici. Questo thread ha dato la stura a una discussione con un negazionista di tale effetto.

La Figura 2 riporta (spero in modo leggibile, altrimenti è necessario da parte dei volenterosi scaricare l’immagine ed effettuarne uno zoom) la discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

Figura 2. Discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

E proprio mentre sto scrivendo questo articolo la discussione continua (Figura 3).

Figura 3. Proseguimento della discussione mentre scrivo questo articolo.

Come si evince dagli screenshot, il tutto ha inizio dall’inserimento di un link a un articolo giornalistico in cui si riporta un filmato che mostra il comportamento di certi ghiacciai negli ultimi 800 000 anni. Questo filmato è tratto da un lavoro scientifico dal titolo “Modelling last glacial cycle ice dynamics in the Alps” pubblicato nel 2018 sulla rivista The Cryosphere della European Geoscience Union, associazione per la quale anche io ho organizzato in passato dei miniconvegni nell’ambito delle attività congressuali più generali che si fanno ogni anno a Vienna in Austria (per esempio, uno è qui).

Chi ha condiviso questo studio nella discussione lo ha fatto con l’intento – più o meno esplicito – di suggerire che, dal momento che i ghiacciai alpini si sono espansi e ritirati ciclicamente nel passato, il cambiamento climatico attuale potrebbe essere semplicemente parte di una lunga variabilità naturale. È un’inferenza del tutto errata, che nasce da un fraintendimento delle finalità e dei contenuti del lavoro scientifico citato.

Infatti, lo studio in questione (Seguinot et al., 2018) non parla di cambiamenti climatici attuali né tantomeno ne discute le cause. Si tratta di un lavoro di modellizzazione numerica della dinamica glaciale delle Alpi durante l’ultimo ciclo glaciale (da 120.000 a 0 anni fa), che ha lo scopo di testare la coerenza tra ricostruzioni geologiche e simulazioni del comportamento dei ghiacciai su scala millenaria. Non c’è nel testo alcuna analisi delle cause del riscaldamento moderno, né alcun confronto con l’evoluzione recente del clima terrestre.

Quello che il mio interlocutore ha fatto è un tipico esempio di bias di conferma: ha estrapolato da un articolo tecnico una conclusione che non c’è, perché questa coincide con la propria convinzione preesistente. È un meccanismo comune tra i cosiddetti “negazionisti soft” – persone che, pur riconoscendo che il clima sta cambiando, rifiutano l’idea che l’essere umano ne sia il principale responsabile.

La dinamica della discussione su Facebook lo conferma: ogni volta che si porta un dato, una misura, una ricostruzione paleoclimatica, l’interlocutore non contesta la validità della fonte, ma sposta il piano, relativizza, introduce “dubbi” storici o filosofici. E infine si rifugia nel mito del “Galileo solitario”, come se ogni minoranza fosse destinata a diventare verità solo perché è minoranza. Ma Galileo non aveva ragione perché era solo: aveva ragione perché aveva i dati e un metodo.

Ecco il punto: il problema non è tanto avere un’opinione diversa, quanto non saper distinguere tra opinione personale e conoscenza scientifica. E non è un caso che questo tipo di retorica si ritrovi spesso in altri ambiti della disinformazione scientifica: chi si sente “eretico” rispetto al sapere ufficiale tende a sopravvalutare le proprie intuizioni e a sottovalutare il lavoro, faticoso e rigoroso, di chi fa scienza sul serio.

Discutere con chi rifiuta le conclusioni della scienza può essere faticoso, ma è anche necessario. Non per convincere chi ha già deciso di non ascoltare, ma per fornire strumenti a chi legge in silenzio, a chi cerca chiarezza in mezzo al rumore. La scienza non ha bisogno di essere difesa come un dogma: si difende da sé, con i dati, con la trasparenza dei metodi, con la disponibilità al confronto critico. Ma proprio per questo va protetta dalle distorsioni, dalle semplificazioni, e soprattutto dal relativismo delle opinioni travestite da verità.
Il cambiamento climatico attuale è un fenomeno reale, misurabile e in larga parte causato dalle attività umane. Continuare a negarlo non è esercizio di pensiero critico, ma una forma di resistenza ideologica che rischia di ritardare l’unica cosa che oggi dovremmo fare: affrontare il problema con serietà, competenza e senso di responsabilità.

EDIT

Mentre mi accingevo a pubblicare questo articolo, il mio interlocutore ha pubblicato un’ultima risposta che ho deciso di riportare integralmente per completezza. Qui sotto trovate anche la mia replica con cui ho deciso di concludere la discussione pubblica.

Interlocutore:

Pellegrino

  1. Lei stesso parla di “stime solide”; che sono appunto stime, non misurazioni dirette.
  2. “Sappiamo perché”, è un’altra forzatura. In realtà abbiamo delle interpretazioni plausibili per molte di esse, ma ciò non equivale a una certezza assoluta. Anche nelle osservazioni attuali, ci si imbatte in anomalie impreviste, tipo l’impatto dello scioglimento del permafrost, temperature previste che poi non si sono verificate… E parliamo di osservazioni dirette; figuriamoci sulle “stime” di fenomeni non osservati direttamente. Per non parlare dell’infinito dibattito su quanto influiscano o meno le macchie solari…

Stesso discorso sul fatto che le oscillazioni in passato non avvenissero in decenni, trascurando che non possiamo sapere se gli strumenti che abbiamo a disposizione siano davvero affidabili con tale precisione. Mancando l’osservazione diretta, non possiamo verificarlo.

Dire che “potrebbero esserci state” significa semplicemente dire che il modello generale è ancora soddisfatto; per dimostrare l’anomalia bisogna dimostrare che davvero non ci siano precedenti. È un discorso di presunzione d’innocenza: per dare la colpa all’uomo bisogna dimostrarla; il “ragionevole dubbio” è a favore dell’imputato. Foss’anche solo per mancanza di prove.

  1. Il moto dei pianeti era noto da sempre (“planities” significa appunto “errante”), ma lui (anzi, Copernico) fornì solo un modello di calcolo semplificato. Infatti, a dirla tutta, il sole non è affatto al centro dell’universo ma si muove pure lui… In questo ha ragione l’insegnante del prof. Barbero che diceva che il card. Bellarmino era più moderno di Galileo.
  2. A “negazionista” si potrebbe contrapporre “fideista”, ovvero uno che sposa senz’altro ciò che dice la maggioranza stigmatizzando il dubbio. Ma io continio a ricordare che la stessa comunità scientifica oggi certa del riscaldamento globale appena quarant’anni fa era ugualmente certa dell’imminenza di un’era glaciale. Un cambio di rotta di 180 gradi in meno di mezzo secolo, e si dovrebbe prendere per oro colato anche l’attribuzione di responsabilità? Anche a fronte di numerose previsioni rivelatesi poi errate?
  3. Su un punto, concordo senz’altro: sulla separazione netta tra dissertazione scientifica e azione concreta (e non potrei dire diversamente, dato che come ho già detto opero nella Protezione Civile).

Il punto certo è che vi sia in atto un cambiamento climatico che attualmente va verso un aumento delle temperature, che il problema è serio e che la cosa va affrontata. Ridurre il più possibile (e possibilmente azzerare) l’impatto antropico non ha controindicazioni, e quindi va benissimo farlo; e infatti ne sono da sempre un convinto sostenitore.

A mio modesto parere, non servirà a granché, perché se Madre Natura ha deciso che è tempo di un nuovo Eocene, Eocene sarà; che ci piaccia o no.

Quindi, oltre ad azzerare le emissioni, miglioriamo l’efficienza dei condizionatori, perché ne avremo comunque bisogno. Tutto qui.

Io:
grazie per aver chiarito ulteriormente il suo punto di vista. Le rispondo un’ultima volta, per chi ci legge e non per la soddisfazione di “avere l’ultima parola”, che non mi interessa.

Sì, le proxy sono stime, ma sono stime calibrate, validate e incrociate da molte fonti indipendenti. Nessun climatologo confonde una proxy con una misura diretta, ma la scienza lavora ogni giorno per rendere sempre più affidabili quelle stime. E il fatto che convergano tutte sul medesimo trend dà forza alla ricostruzione. Questo è il normale funzionamento della scienza, non una debolezza.

Nessuno pretende certezze assolute, né le scienze naturali le promettono. Lei invece sembra richiedere una prova “oltre ogni dubbio”, come se fossimo in un’aula di tribunale. Ma la scienza si basa sulla probabilità, sul peso delle evidenze, sulla capacità predittiva dei modelli. Oggi, la quantità di prove che puntano all’origine antropica del riscaldamento è così ampia da rendere l’ipotesi alternativa – quella esclusivamente naturale – altamente improbabile. Ed è su questo che si fondano le politiche, non sull’attesa della perfezione epistemologica.

Il paragone con Galileo e Bellarmino è affascinante ma fuori luogo. Galileo non aveva solo un modello “più semplice”: aveva anche l’evidenza delle fasi di Venere e delle lune di Giove. Il suo valore non sta nel ribellarsi alla maggioranza, ma nell’aver offerto dati e osservazioni migliori. Lei invece continua a proporre “dubbi” senza portare nessun dato nuovo, solo generalizzazioni.

La comunità scientifica non era “certa” dell’era glaciale negli anni ’70. Questa è una leggenda urbana, smentita dai dati storici: all’epoca la maggior parte degli articoli già indicava un riscaldamento, non un raffreddamento. Se guarda i paper dell’epoca, lo vede chiaramente.

Quanto agli errori previsionali: il fatto che un modello venga corretto o raffinato è normale in ogni scienza. Non è un fallimento, è progresso. Non confondiamo fallibilità con inattendibilità.

Mi fa piacere leggere che riconosce l’urgenza del problema e sostiene l’azione per ridurre le emissioni. Su questo ci troviamo d’accordo. Tuttavia, dire “tanto non servirà a nulla” è una rinuncia mascherata da fatalismo. La scienza climatica non dice che siamo condannati, ma che abbiamo una finestra temporale per ridurre gli impatti futuri. La differenza tra +1,5 °C e +4 °C non è affatto irrilevante. E anche se non possiamo evitare ogni effetto, possiamo evitare quelli peggiori. Questa è responsabilità, non fideismo.

Chiudo qui il mio intervento, perché i fatti, i dati e il consenso scientifico sono pubblici e verificabili. Il resto è opinione personale – legittima – ma non equiparabile alla conoscenza prodotta dalla scienza.

Nota finale: ho riportato per esteso questo scambio non per dare visibilità a una posizione pseudoscientifica, ma per mostrare, in modo documentato, come ragiona chi nega l’origine antropica del cambiamento climatico, e perché queste argomentazioni non reggano al vaglio della scienza.

I cambiamenti climatici? Sì, siamo noi i responsabili.

Vi siete mai trovati di fronte a un negazionista climatico? Io sì!

C’è chi dice che i cambiamenti climatici non esistono, perché “oggi piove” o “ieri faceva freddo”. A questi ho già risposto nei primi due articoli della serie, parlando del riscaldamento globale e dei suoi effetti locali – temporali compresi – e del grande rimescolamento che avviene negli oceani.

Ma poi ci sono quelli che ammettono sì, il clima sta cambiando, però non è colpa nostra. “È il Sole!”, “Sono i vulcani!”, “È sempre successo!”.

Ecco, è a loro che è dedicato questo articolo.

Perché sì, il clima è sempre cambiato: durante le ere glaciali e le fasi interglaciali, le grandi estinzioni, le migrazioni dei continenti, ma mai così, e mai così in fretta.

La temperatura media globale è aumentata di oltre un grado in poco più di un secolo. La concentrazione di CO2 nell’atmosfera ha superato le 420 parti per milione, un valore che non si era mai visto negli ultimi 800.000 anni e probabilmente nemmeno negli ultimi tre milioni.

E questo non lo dicono gli opinionisti, ma le carote di ghiaccio estratte dall’Antartide e dalla Groenlandia, dove ogni bolla d’aria intrappolata è una macchina del tempo (Staffelbach et al., 1991; Berends et al., 2021; Bauska, 2024).

La traccia dell’uomo

Quando osserviamo il passato del clima, vediamo che le sue variazioni sono state guidate da forzanti naturali: cicli orbitali (i cosiddetti cicli di Milanković), variazioni dell’attività solare, grandi eruzioni vulcaniche. Questi meccanismi hanno regolato per millenni l’alternarsi di periodi glaciali e interglaciali. Tuttavia, nessuna di queste spiegazioni è sufficiente a giustificare l’aumento repentino e marcato della temperatura media globale registrato negli ultimi 150 anni.

Solo includendo nei modelli climatici le forzanti antropiche – in particolare le emissioni di gas serra derivanti dalla combustione di combustibili fossili, la deforestazione su larga scala, l’allevamento intensivo e l’uso massiccio di fertilizzanti – è possibile riprodurre fedelmente l’andamento osservato del riscaldamento globale (Stott et al., 2000; Meehl et al., 2004; Lee et al., 2016; Abatzoglou et al., 2018; Schlunegger et al., 2019; He et al., 2023; Tjiputra et al., 2023; Abera et al., 2024; Gong et al. 2024).

Questa evidenza è stata raccolta e consolidata da decenni di ricerca, culminando nella sintesi fornita dall’Intergovernmental Panel on Climate Change (IPCC) nel suo Sesto Rapporto di Valutazione (AR6, 2021), dove si legge:

“It is unequivocal that human influence has warmed the atmosphere, ocean and land.”

È la prima volta che l’IPCC utilizza il termine “inequivocabile” per descrivere l’influenza umana sul sistema climatico. Questo non è frutto di una singola analisi o di un’interpretazione soggettiva, ma il risultato di milioni di osservazioni, migliaia di simulazioni indipendenti e centinaia di studi scientifici pubblicati su riviste peer-reviewed. Un risultato convergente, robusto e statisticamente solido, ottenuto da comunità scientifiche di tutto il mondo.

In altre parole, senza introdurre l’uomo nelle equazioni, il riscaldamento osservato non si spiega.

La firma fossile

Anche la chimica ci aiuta a riconoscere con chiarezza il responsabile. Il carbonio che proviene dai combustibili fossili ha una composizione isotopica distinta rispetto a quello attivamente scambiato tra atmosfera, biosfera e oceani. In particolare, il rapporto tra gli isotopi stabili del carbonio (13C/12C) è un indicatore chiave: i combustibili fossili, derivati dalla sostanza organica vegetale antica, sono naturalmente poveri in 13C. Quando bruciamo carbone, petrolio o gas naturale, questo carbonio “leggero” si riversa nell’atmosfera, abbassando il δ13C atmosferico in modo misurabile (Keeling et al., 1979; Francey et al., 1999).

Questo segnale isotopico rappresenta una vera e propria firma chimica dell’origine fossile della CO2 in eccesso. È come se la Terra ci stesse restituendo lo scontrino della nostra attività industriale.

Un’ulteriore conferma arriva dal monitoraggio del radiocarbonio (14C): essendo un isotopo radioattivo con un’emivita di circa 5.700 anni, è completamente assente nei combustibili fossili, che hanno milioni di anni. L’immissione massiccia di CO2 fossile diluisce il contenuto di 14C nell’atmosfera, un fenomeno noto come Suess effect (Suess, 1955; Graven et al., 2012).

Ma la CO2 non è l’unico gas climalterante in aumento. A questo si aggiungono due gas serra minori ma molto più potenti per unità di massa: il metano (CH4) e il protossido di azoto (N2O). Il metano è rilasciato da fonti naturali, ma in misura crescente anche da allevamenti intensivi, risaie e attività estrattive (Kirschke et al., 2013), mentre il protossido di azoto deriva principalmente dall’uso agricolo di fertilizzanti azotati (Syakila & Kroeze, 2011). Entrambi i gas contribuiscono in modo sostanziale al riscaldamento globale, con un potere climalterante rispettivamente 28–34 volte (CH4) e circa 265 volte (N2O) superiore a quello della CO2 su scala centennale (IPCC AR6, 2021).

La loro crescita, documentata in registrazioni atmosferiche e bolle d’aria nei ghiacci, segue l’espansione delle attività agricole e industriali umane, non eventi naturali. Anche qui, la firma è inequivocabile.

Gli alibi non reggono

C’è chi punta il dito contro i vulcani, sostenendo che siano loro a rilasciare enormi quantità di CO₂. Ma questa affermazione è smentita dai dati: le emissioni vulcaniche annue di anidride carbonica sono stimate intorno ai 0,26 gigatonnellate, contro le oltre 36 gigatonnellate prodotte ogni anno dalle attività umane (Andres et al., 2012; Burton et al., 2013). In altre parole, le emissioni antropiche superano quelle vulcaniche di almeno 100 volte. I vulcani, inoltre, spesso hanno effetti raffreddanti temporanei sul clima, a causa degli aerosol solforici che riflettono la luce solare (come accadde dopo l’eruzione del Pinatubo nel 1991; Soden et al., 2002).

Altri tirano in ballo il Sole. Ma le osservazioni satellitari dal 1978 in poi mostrano che l’irraggiamento solare totale (TSI) è rimasto sostanzialmente stabile o ha addirittura subito una lieve diminuzione. Se il Sole fosse il responsabile del riscaldamento, ci aspetteremmo un riscaldamento uniforme in tutta l’atmosfera. Invece, ciò che si osserva è un riscaldamento netto nella troposfera e un raffreddamento nella stratosfera — una firma tipica dell’effetto serra (Santer et al., 2013).

Altri ancora evocano vaghi “cicli naturali”, ma senza mai specificare quali. I cicli oceanici come El Niño o la PDO (Pacific Decadal Oscillation) possono modulare il clima a livello regionale e su scala interannuale o decadale, ma non spiegano la tendenza globale e persistente all’aumento delle temperature. Sono fluttuazioni attorno a una curva che, negli ultimi decenni, ha una pendenza chiaramente positiva.

La verità è che ogni singolo grande ente scientifico mondiale — dalla NASA alla NOAA, dal Met Office britannico fino al Centro Europeo Copernicus, e naturalmente l’IPCC — concorda su questo punto:

la causa principale del riscaldamento globale osservato dal 1850 a oggi è l’attività umana.

Non è tutta colpa nostra?

Certo, i sistemi climatici sono complessi. Una componente naturale è sempre presente.
Ma i modelli climatici sono in grado di isolare le diverse forzanti: senza introdurre le emissioni antropiche, non si riesce a riprodurre l’aumento delle temperature globali osservato nel XX e XXI secolo (Weart, 2009; IPCC AR5, 2013; Rosenzweig & Neofotis, 2013; White, 2025).
Senza l’uomo, questo riscaldamento non ci sarebbe stato. E senza l’uomo, non sarà possibile fermarlo.

Una responsabilità storica

Siamo la prima generazione a vedere, misurare e comprendere gli effetti del cambiamento climatico su scala planetaria. Ma siamo anche — con ogni probabilità — l’ultima che ha ancora tempo per intervenire e limitare i danni più gravi.
Non parliamo di proiezioni astratte o scenari lontani: le ondate di calore, gli incendi fuori scala, la fusione dei ghiacci, le migrazioni forzate per siccità o inondazioni sono già realtà, e sono il frutto diretto di decenni di emissioni accumulate.

A causare il cambiamento climatico è stata l’attività dell’uomo moderno, non l’uomo in quanto specie.
Abbiamo costruito un modello economico basato sull’uso massiccio di combustibili fossili, sull’espansione urbana, sull’agricoltura intensiva, sull’estrazione incessante di risorse. Questo sistema ci ha dato energia, mobilità, benessere. Ma ha anche rotto l’equilibrio termico del pianeta.

Il clima sta cambiando per colpa nostra. Ma proprio per questo, possiamo ancora cambiarlo noi.

Non basta più ridurre “un po’” le emissioni o piantare qualche albero. Serve una trasformazione sistemica:

  • Decarbonizzare i trasporti, l’energia e l’industria, puntando su fonti rinnovabili come l’eolico e il solare, ma senza pregiudizi ideologici nei confronti del nucleare, che – come ho già discusso nell’articolo L’atomo della pace – resta una delle poche fonti capaci di fornire energia a basse emissioni su larga scala.
  • rivedere le pratiche agricole e alimentari, riducendo l’impatto ambientale della produzione primaria attraverso un uso più razionale di risorse come acqua, fertilizzanti e suolo, e promuovendo sistemi colturali e zootecnici improntati alla sostenibilità. L’agricoltura integrata, che prevede un equilibrio tra coltivazioni e allevamenti, può contribuire a mantenere la fertilità dei suoli, ridurre le emissioni climalteranti e garantire una produzione alimentare efficiente e resiliente. Anche la lotta agli sprechi resta fondamentale lungo tutta la filiera.
  • proteggere e ripristinare gli ecosistemi naturali, perché foreste, zone umide e suoli ricchi di sostanza organica svolgono un ruolo chiave come serbatoi di carbonio. Intervenire su scala paesaggistica significa rafforzare la capacità del pianeta di tamponare gli effetti del riscaldamento globale, rallentando i feedback più pericolosi.
  • adattare città e territori agli eventi estremi già in corso, ripensando la gestione del rischio, l’urbanizzazione selvaggia e l’impermeabilizzazione del suolo. L’aumento delle temperature e la frequenza di fenomeni meteorologici estremi impongono infrastrutture più resilienti, spazi verdi urbani, reti idriche e sistemi di allerta progettati per il clima che verrà – non per quello che avevamo.

E accanto alle scelte politiche e industriali, anche le azioni individuali contano: ridurre gli sprechi, consumare meno e meglio, informarsi, partecipare, votare con consapevolezza.

Non è una colpa da espiare.
Non serve sentirsi inadeguati o sopraffatti.
È una responsabilità storica che possiamo ancora scegliere di assumerci.
Perché, se il problema è stato causato dall’uomo, la soluzione può venire solo da noi.

Il grande mescolamento: il ruolo vitale degli oceani e le conseguenze del riscaldamento globale

Per capire davvero cosa significhi “riscaldamento globale”, dobbiamo prima capire come funziona il sistema che, da sempre, modera il clima della Terra: gli oceani. Sono loro, infatti, il gigantesco ingranaggio nascosto che regola la distribuzione del calore, l’equilibrio dell’umidità e la circolazione dell’energia termica sul nostro pianeta.

Le acque oceaniche non stanno mai ferme. Si muovono in superficie, spinte dai venti; si muovono in profondità, guidate da variazioni di temperatura e salinità. In questo continuo rimescolamento – silenzioso, ma potentissimo – si nasconde il segreto della nostra stabilità climatica. Ogni corrente trasporta calore dai tropici verso i poli e viceversa, mitiga le temperature, distribuisce nutrienti e sostiene la vita marina.

È un equilibrio delicato, raffinato, essenziale. E proprio per questo vulnerabile.

Se le acque si muovono meno, se non si mescolano più come dovrebbero, l’intero sistema comincia a rallentare, a scompensarsi. Il clima si fa più estremo, le piogge più irregolari, le stagioni meno distinguibili.

Ecco perché non possiamo davvero comprendere il cambiamento climatico senza prima esplorare i meccanismi che governano il movimento delle acque nei grandi corpi idrici: oceani, mari, fiumi, laghi.

A partire da qui, cercherò di spiegare – con l’aiuto della fisica e della chimica – come funzionano i movimenti orizzontali e verticali delle acque e perché sono così importanti per la regolazione del clima. Solo dopo, potremo affrontare il nodo centrale: cosa succede quando, a causa dell’aumento delle temperature globali, questi meccanismi si inceppano.

Le grandi correnti: il vento comanda

Partiamo dalla superficie. Le acque degli oceani sono spinte dai venti, ma non in modo casuale. Intorno all’equatore, ad esempio, gli Alisei soffiano da est verso ovest e trascinano con sé le acque superficiali. Alle latitudini medie (tra 30° e 60°), i venti occidentali spingono invece le correnti verso est.

Quando queste correnti incontrano i continenti, vengono deviate. Ed è qui che entra in gioco la forza di Coriolis: un effetto legato alla rotazione terrestre che curva i flussi d’acqua verso destra nell’emisfero nord e verso sinistra in quello sud. Il risultato? Enormi vortici oceanici che formano veri e propri “nastri trasportatori” d’acqua calda e fredda.

Uno degli esempi più noti è la Corrente del Golfo, che trasporta acque tropicali lungo la costa orientale del Nord America fino all’Europa occidentale, regalando inverni miti a paesi come il Regno Unito e la Norvegia.

Come illustrato in Figura 1, le acque superficiali degli oceani (fino a circa 100 metri di profondità) si muovono orizzontalmente, spinte soprattutto dai venti. La presenza dei continenti ne modifica il percorso, generando ampie correnti che si piegano e si avvolgono in vortici permanenti, visibili in tutti i principali bacini oceanici.

Figura 1. Rappresentazione delle principali correnti oceaniche superficiali. A causa della presenza dei continenti, le correnti deviano dal loro percorso originale, generando grandi vortici oceanici. Immagine scaricata liberamente da: https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Le correnti profonde: il ruolo del sale e della temperatura

Ma c’è un altro motore, più lento, silenzioso e profondo: il rimescolamento verticale. È un processo meno visibile rispetto alle correnti superficiali, ma non meno importante. In alcune regioni del pianeta, come le zone tropicali aride o le aree polari, l’acqua in superficie subisce trasformazioni che ne modificano profondamente la densità.

Nelle aree calde, per esempio, l’evaporazione intensa concentra i sali nell’acqua residua. Più sale significa maggiore densità: e un’acqua più densa tende naturalmente ad affondare verso gli strati profondi dell’oceano.
Al contrario, in altre zone l’acqua può essere diluita da piogge abbondanti o dallo scioglimento dei ghiacci, diventando più dolce e meno densa, e quindi destinata a risalire.

Anche la temperatura gioca un ruolo cruciale. Quando l’acqua marina si raffredda intensamente – come accade ai poli – tende a ghiacciarsi. Durante il congelamento, però, il ghiaccio espelle i sali: ciò che resta intorno ai blocchi di ghiaccio è un’acqua estremamente salina e fredda. Questo liquido denso sprofonda verso il fondo oceanico, innescando così un flusso verticale che alimenta la circolazione delle acque a grandi profondità.

Questo meccanismo prende il nome di circolazione termoalina: un termine che unisce l’effetto della temperatura (“termo”) a quello del sale (“alina”, dal greco halos). È grazie a questa lenta ma continua danza tra acque fredde, salate e profonde, e acque più calde e superficiali, che l’oceano riesce a rimescolarsi in profondità, mantenendo in equilibrio il trasporto di calore, nutrienti e anidride carbonica tra gli strati più esterni e quelli abissali.

Il grande nastro trasportatore globale

Combinando i movimenti orizzontali delle acque – spinti dai venti – con quelli verticali – governati da differenze di temperatura e salinità – si ottiene un colossale circuito planetario che i climatologi chiamano Global Conveyor Belt, ovvero nastro trasportatore oceanico globale.

È un sistema mastodontico, profondo e lentissimo. Le acque che oggi affondano nel Nord Atlantico, gelide e ricche di sale, possono impiegare fino a mille anni per completare il loro viaggio nei fondali oceanici e riaffiorare in superficie dall’altra parte del mondo. Una corrente profonda che scorre a pochi centimetri al secondo, eppure fondamentale per la vita sul pianeta.

Quello che si viene a creare è un ciclo continuo: le correnti calde e superficiali (come la Corrente del Golfo) trasportano calore dai tropici verso i poli; lì, l’acqua si raffredda e sprofonda, diventando corrente fredda e profonda che scivola silenziosamente nei meandri degli oceani, fino a riemergere in zone tropicali o subtropicali, dove riprende il viaggio in superficie.
Questo meccanismo globale è illustrato nella Figura 2.

Figura 2. Rappresentazione semplificata della circolazione termoalina, nota anche come Global Conveyor Belt. Le correnti calde e superficiali (in rosso) scorrono verso le regioni polari, dove l’acqua raffreddata e più salina sprofonda, originando correnti fredde profonde (in blu) che si muovono attraverso gli oceani fino a riemergere nelle regioni tropicali, completando il ciclo. Immagine liberamente disponibile su https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Quando il nastro si inceppa

Tutto questo sistema – perfetto, lento, ma vitale – può essere compromesso. Il riscaldamento globale sta alterando proprio quei meccanismi che regolano la circolazione termoalina, interferendo con la densità delle acque superficiali nelle zone chiave del pianeta.

Nelle regioni dove si formano le acque profonde, come il Nord Atlantico, il processo dipende dalla capacità dell’acqua superficiale di diventare abbastanza densa da affondare. Ma con l’aumento delle temperature globali, entrano in gioco due fattori destabilizzanti:

  • lo scioglimento dei ghiacci artici immette enormi quantità di acqua dolce nei mari;
  • l’intensificarsi delle precipitazioni diluisce ulteriormente le acque superficiali.

Il risultato? L’acqua resta più dolce, più calda, e quindi meno densa. Non affonda più come dovrebbe. E se non affonda, il motore si spegne.

Questo porta a un fenomeno ben noto in oceanografia: la stratificazione delle acque. Gli strati superficiali diventano sempre più stabili, separati da quelli profondi da un gradiente di densità così marcato da impedire ogni rimescolamento. È come se l’oceano fosse “bloccato a strati”, con uno strato leggero e caldo che galleggia sopra uno freddo e denso, ma senza più scambi attivi tra i due (Figura 3).

Le conseguenze sono profonde:

  • Il nastro trasportatore globale rallenta o si indebolisce, fino al rischio – non solo teorico – di un blocco parziale o totale.
  • Il calore non viene più redistribuito: i tropici si surriscaldano, le regioni temperate (come l’Europa nord-occidentale) rischiano un paradossale raffreddamento.
  • L’acqua profonda non riceve più ossigeno né nutrienti, danneggiando la vita marina.
  • In superficie, mancano i nutrienti che sostengono il plancton: cala la produttività biologica degli oceani.
  • E soprattutto: l’oceano assorbe meno anidride carbonica per due motivi. Da un lato, l’aumento della temperatura riduce la solubilità della CO₂ in acqua; dall’altro, la stratificazione blocca il rimescolamento, impedendo il trasporto della CO₂ in profondità. Il risultato è che più CO₂ resta nell’atmosfera, accelerando ulteriormente il riscaldamento globale.

È una spirale pericolosa, un meccanismo di retroazione in cui l’effetto rafforza la causa: più caldo → più stratificazione → meno rimescolamento → meno assorbimento di CO₂ → ancora più caldo.
Un classico cane che si morde la coda, ma su scala planetaria.

Figura 3. Meccanismo della stratificazione degli oceani. Il riscaldamento globale, lo scioglimento dei ghiacci e l’aumento delle precipitazioni rendono l’acqua superficiale più calda e dolce, quindi meno densa. Questo riduce il rimescolamento verticale con gli strati profondi, limitando lo scambio di calore, nutrienti e la capacità dell’oceano di assorbire CO₂.

Conclusioni

Gli oceani non sono solo grandi riserve d’acqua: sono ingranaggi dinamici e complessi che regolano il clima terrestre, trasportano calore, rimescolano nutrienti e assorbono anidride carbonica. La loro capacità di farlo dipende dal delicato equilibrio tra venti, salinità e temperatura. Quando questo equilibrio si spezza — a causa dell’aumento delle temperature globali — il sistema si inceppa: le acque si stratificano, il rimescolamento si blocca, la circolazione rallenta.

Le conseguenze, anche se lente a manifestarsi, sono profonde: clima più estremo, ecosistemi marini impoveriti e maggiore accumulo di CO₂ in atmosfera. È una crisi silenziosa, ma già in atto.
Per capire e affrontare il cambiamento climatico, non basta guardare al cielo: dobbiamo guardare al mare, e comprendere come funziona — e come sta cambiando — il grande mescolamento degli oceani.

Questo articolo è parte di un percorso dedicato al riscaldamento climatico.
Nel primo appuntamento ci siamo chiesti perché, in un mondo sempre più caldo, possano verificarsi fenomeni estremi come piogge torrenziali e temporali improvvisi (leggi qui).
Oggi abbiamo esplorato il ruolo nascosto ma fondamentale degli oceani nella regolazione del clima.

Nel prossimo articolo parleremo invece di come l’attività umana stia alterando questi equilibri, e perché il riscaldamento globale non può più essere considerato un semplice fenomeno naturale.

 

Caldo globale, temporali locali: l’apparente paradosso

Introduzione

Negli ultimi anni, gli eventi meteorologici estremi sono diventati sempre più frequenti, sia in Italia che nel resto del mondo.
Una mappa interattiva dell’ISPRA, consultabile online, mostra chiaramente dove questi eventi si sono verificati in Italia tra il 2020 e il 2024. Si osservano piogge torrenziali, grandinate eccezionali, ondate di calore anomale e prolungate. Tutti segnali di un sistema climatico sempre più instabile.

Come conseguenza di queste anomalie, è sempre più comune imbattersi – soprattutto sui social – in discussioni o thread in cui si afferma che fenomeni come le alluvioni, seguite da bruschi cali di temperatura, smentirebbero l’esistenza del riscaldamento globale.
Una frase ricorrente è:

“Altro che riscaldamento globale: ieri grandinava e oggi ci sono 18 gradi!”

Chi vive in zone come Palermo – dove, negli ultimi anni, si sono registrati picchi termici estremi e livelli di umidità superiori all’80%, anche in pieno giorno – tende invece a riconoscere, in modo molto concreto, la realtà del cambiamento climatico.

“Orpo… che caldo. Veramente stiamo andando verso qualcosa che non abbiamo mai vissuto.”

Ma come si concilia tutto questo?

Come può il riscaldamento globale provocare temporali violenti, grandinate e persino abbassamenti improvvisi della temperatura?

Dobbiamo innanzitutto ricordare che la logica scientifica è controintuitiva. Non possiamo applicare al metodo scientifico la logica che usiamo tutti i giorni per collegare ciò che vediamo con ciò che pensiamo sia vero: la realtà fisica spesso sorprende e non si lascia interpretare con impressioni o sensazioni.

Sulla base di queste premesse, chiediamoci cosa accade sulla superficie terrestre quando la temperatura aumenta di un solo grado Celsius. Un grado può sembrare poco. Se tocchiamo una pentola a 70 °C proviamo lo stesso bruciore che a 71 °C. E non distinguiamo tra il freddo di 0 °C e quello di -1 °C.

Ma il pianeta non è il nostro palmo, né il nostro naso.

Nel sistema Terra, un solo grado può fare una differenza gigantesca: significa più energia, più evaporazione, più acqua nell’atmosfera. E più acqua nell’aria significa, potenzialmente, più pioggia, più violenza, più squilibrio.

Per capire quanto sia concreta questa affermazione, facciamo un semplice calcolo: stimiamo quanta acqua in più evapora dagli oceani quando la loro temperatura superficiale sale di un solo grado come, per esempio, da 25 °C a 26 °C.

Effetti della temperatura sull’equilibrio H2Oliquido = H2Ovapore

Per semplicità, consideriamo solo una porzione di oceano estesa per 100 milioni di metri quadrati (pari a 100 km²) e limitiamoci al primo metro d’aria immediatamente sovrastante. Vogliamo capire quanta acqua in più finisce nell’aria subito sopra l’oceano quando la sua temperatura sale di un solo grado, da 25 °C a 26 °C.

  1. L’equazione di Antoine

Per stimare la pressione di vapore dell’acqua alle due temperature, usiamo la formula empirica di Antoine, valida tra 1 e 100 °C:

log₁₀(P) = A − B / (C + T)

dove:

  • P è la pressione di vapore in mmHg,
  • T è la temperatura in gradi Celsius,
  • A, B, C sono coefficienti specifici per ciascuna sostanza (ad esempio, acqua, etanolo, acetone…) e validi solo entro certi intervalli di temperatura. Nel caso specifico dell’acqua: A = 8.07131; B = 1730.63; C = 233.426 (valori specifici per l’acqua in questo intervallo). Il riferimento per i valori numerici di A, B e C è qui.

Convertiamo poi la pressione in Pascal (1 mmHg = 133.322 Pa).

  1. I risultati

Applicando i valori:

  • a 25 °C si ottiene P ≈ 23.76 mmHg, cioè circa 3158 Pa;
  • a 26 °C si ottiene P ≈ 25.13 mmHg, cioè circa 3351 Pa.
  1. Calcolo della densità del vapore

Convertiamo ora la pressione parziale in densità di vapore acqueo (ρ), usando l’equazione dei gas ideali:

ρ = (P × M) / (R × T)

dove:

  • P è la pressione in pascal,
  • M è la massa molare dell’acqua (18.015 g/mol),
  • R è la costante dei gas (8.314 J/mol·K),
  • T è la temperatura assoluta in Kelvin.

Calcolando:

  • a 25 °C (298.15 K) si ottiene ρ ≈ 0.02295 kg/m³;
  • a 26 °C (299.15 K) si ottiene ρ ≈ 0.02431 kg/m³.
  1. L’aumento netto di vapore

La differenza di densità è:

0.02431 − 0.02295 = 0.00136 kg/m³

Moltiplichiamo per il volume d’aria (100 000 000 m³):

0.00136 × 100 000 000 = 136.000 kg

In altre parole, un aumento di temperatura di 1 °C (da 25 a 26 °C) genera 136 tonnellate di vapore in più, solo su una superficie di 100 km² e solo nello strato d’aria immediatamente sopra l’oceano.

E se fosse tutto l’Atlantico?

Se estendiamo il calcolo all’intera superficie dell’Oceano Atlantico – circa 116 milioni di km² – otteniamo:

157 800 000 000 kg, ovvero 158 milioni di tonnellate di vapore acqueo in più.

E questo, lo ripeto, solo nello strato d’aria immediatamente sopra la superficie, per un singolo grado in più.

Ma quei numeri non restano sulla carta. Entrano in circolo nell’atmosfera, e da lì comincia il loro impatto reale.

Dall’oceano alla pioggia: il viaggio del vapore

Ma cosa succede a tutta quest’acqua una volta entrata in atmosfera?

Viene trasportata dalle correnti. Quando incontra masse d’aria più fredde, condensa formando nubi e poi pioggia. Se la quantità di vapore è anomala, lo saranno anche le precipitazioni: brevi, violente, improvvise.

Inoltre, il vapore acqueo è attivo nell’infrarosso: è un gas serra molto più potente della CO₂, anche se molto più effimero. In climatologia si parla di feedback positivo: l’aumento della temperatura fa evaporare più acqua → il vapore trattiene più calore → aumenta ancora la temperatura → e così via.

Quella pioggia non è “contro” il riscaldamento: è il riscaldamento

Piogge torrenziali, grandinate e cali locali della temperatura non smentiscono il riscaldamento globale. Al contrario, ne sono una conseguenza. Il sistema Terra si scalda in media, ma localmente può produrre raffreddamenti temporanei proprio in risposta a squilibri energetici più ampi.

Conclusioni

Il calcolo che ho presentato è, ovviamente, una semplificazione. Non tiene conto del vento, della turbolenza, della salinità, né della reale dinamica verticale dell’atmosfera. Non pretende di descrivere con esattezza tutto ciò che accade nell’interazione tra oceano e cielo. Ma ha un obiettivo chiaro: rendere visibile, con i numeri, una verità che l’intuizione fatica a cogliere.

Perché la logica scientifica non coincide con il senso comune.

Come ho già scritto, nel nostro vissuto quotidiano, un solo grado in più non è nulla. Non percepiamo differenze tra 0 °C e -1 °C, tra 70 °C e 71 °C. Ma il sistema Terra non funziona secondo ciò che sentiamo sulla pelle: funziona secondo leggi fisiche. E in fisica, un solo grado può significare miliardi di tonnellate d’acqua in più nell’atmosfera. Significa più energia, più instabilità, più violenza meteorologica.

Paradossalmente, quello che percepiamo come una smentita del riscaldamento globale – la grandine, il temporale, il crollo improvviso delle temperature – ne è invece una manifestazione diretta.

Il clima risponde con intensità e disordine proprio perché è fuori equilibrio. E lo è, in parte, per colpa di quell’apparente “piccolo” grado in più.

La scienza ci dà gli strumenti per misurare, per capire, per anticipare.

Sta a noi scegliere se vogliamo continuare a confondere il temporale con una tregua, o iniziare a leggere in quelle piogge il segnale di un sistema che sta cambiando – e lo sta facendo sotto i nostri occhi.

Quella pioggia che ti ha fatto dire “ma quale riscaldamento globale?” è esattamente il motivo per cui dovremmo iniziare a preoccuparci.

Microplastiche, lavastoviglie e fake news: come orientarsi tra dati e paure

Già in un mio precedente articolo avevo affrontato il tema delle microplastiche, cercando di distinguere tra rischi reali, ipotesi ancora in fase di studio e allarmismi infondati. Se volete rinfrescarvi la memoria o approfondire meglio il quadro generale, potete leggerlo qui:
👉 Microplastiche: i rischi che conosciamo, le sorprese che non ti aspetti

In questa sede voglio, invece, portare alla vostra attenzione il pericolo della divulgazione basata sull’allarmismo.

33 milioni di micro- e nanoplastiche? Cosa c’è davvero dietro le notizie virali

Negli ultimi giorni si è diffusa online una notizia allarmante: le lavastoviglie sarebbero una fonte importante di microplastiche, con milioni di particelle rilasciate ad ogni ciclo di lavaggio. Su siti come HDBlog (vedi screenshot qui sotto) si parla addirittura di 33 milioni di nanoplastiche generate da un solo ciclo di lavaggio, dipingendo un quadro piuttosto drammatico per l’ambiente domestico e urbano.

Immagine presa dal sito HDBlog

Tuttavia, analizzando con attenzione lo studio scientifico originale su cui si basa questa notizia, emergono diversi aspetti importanti e ben diversi da quelli riportati in modo semplicistico e sensazionalistico da molti siti di “pseudo divulgazione”.

Innanzitutto, lo studio mostra che sì, le lavastoviglie rilasciano micro- e nanoplastiche, ma la quantità è estremamente bassa: meno di 6 milligrammi di plastica all’anno per persona, cioè meno del peso di un chicco di riso. Paragonare questo dato numerico alla dichiarazione di milioni di particelle è fuorviante, perché il numero di particelle non dice nulla sulla massa o sull’impatto reale, che rimane trascurabile su base individuale.

Inoltre, la tipologia di plastica e la dimensione delle particelle variano in base al tipo di articolo lavato (polietilene, polipropilene, nylon, ecc.), e i materiali più “vecchi” o usurati rilasciano più frammenti. Lo studio suggerisce quindi che sia importante approfondire come l’invecchiamento della plastica influisca sulla generazione di microplastiche, cosa che non viene mai menzionata nei titoli allarmistici.

Dal punto di vista ambientale, sebbene i sistemi di trattamento delle acque reflue trattengano circa il 95% delle microplastiche, la quantità complessiva globale rilasciata nell’ambiente sta crescendo con l’aumento dell’uso della plastica. Tuttavia, le lavastoviglie domestiche rappresentano solo una piccola fonte rispetto ad altre.

Un articolo più attendibile e chiaro sull’argomento, che riporta fedelmente i risultati della ricerca, è quello di Phys.org, sito scientifico noto per l’accuratezza e la qualità della divulgazione. Vi consiglio di leggere anche lì per avere un quadro completo e serio della situazione.

Come riconoscere le fake news ambientali?

Molto spesso mi chiedono: “Se non sono esperto, come faccio a capire se una notizia è attendibile”? La risposta non è semplice, ma c’è una regola d’oro: non fermatevi mai alla prima fonte che conferma ciò che già pensate o che alimenta le vostre paure o convinzioni. Spesso chi cerca notizie sensazionalistiche cade nel cosiddetto cherry picking, ovvero sceglie solo quei dati o informazioni che supportano la propria idea, ignorando tutto il resto. Questo atteggiamento è comune a chi si sente “rivoluzionario” o “antisistema”, ma in realtà non ha le competenze scientifiche per comprendere a fondo la questione.

Per evitare di cadere in queste trappole, è fondamentale confrontare le informazioni con fonti diverse e affidabili, preferendo siti di divulgazione scientifica consolidata, che spiegano dati, metodi e limiti delle ricerche. Ma come riconoscere un sito davvero affidabile? Ecco alcuni indicatori:

  • Chiarezza e trasparenza delle fonti: i siti seri riportano sempre riferimenti precisi agli studi scientifici originali o a istituti riconosciuti, spesso con link diretti alle pubblicazioni o informazioni sugli autori.

  • Presentazione equilibrata dei dati: non si limitano a enfatizzare solo risultati sensazionalistici, ma spiegano anche i limiti delle ricerche e le diverse interpretazioni possibili.

  • Assenza di titoli esagerati o clickbait: i titoli sono informativi, senza allarmismi o esagerazioni mirate solo a catturare l’attenzione.

  • Autori qualificati e trasparenza: i contenuti sono scritti o revisionati da esperti o giornalisti scientifici con esperienza e il sito fornisce informazioni su chi li produce.

  • Aggiornamenti regolari e dialogo con i lettori: i siti affidabili aggiornano le informazioni con nuovi studi, correggono eventuali errori e talvolta rispondono alle domande o ai commenti.

  • Scopo divulgativo ed educativo: l’obiettivo è informare e spiegare con rigore, non vendere prodotti o promuovere agende ideologiche.

Le testate generaliste o i siti di pseudo divulgazione spesso puntano più al click facile e all’effetto emotivo che a un’informazione rigorosa e bilanciata. Il risultato è un circolo vizioso di paure ingiustificate, confusione e disinformazione, che non aiuta né il pubblico né la causa ambientale che vogliamo davvero sostenere.

Conclusioni

La lotta all’inquinamento da plastica passa innanzitutto dal controllo e dalla prevenzione all’origine, riducendo l’uso di plastica, migliorando il riciclo e introducendo filtri efficaci nelle apparecchiature domestiche come lavatrici e lavastoviglie. Non facciamoci ingannare da titoli e numeri sensazionalistici: l’informazione corretta è il primo passo per agire con consapevolezza.

Dal ppm al femtogrammo: i pesticidi c’erano anche prima ma non li vedevamo

Ogni tanto circolano articoli dai toni allarmistici che mostrano quanto spesso oggi si trovino tracce di pesticidi negli alimenti, nell’acqua, nel suolo. “Una volta queste cose non c’erano”, si legge. Ma è davvero così? La risposta è semplice: no, non è che una volta non ci fossero, è che non eravamo in grado di vederle.

La differenza sta negli occhi, non nelle cose

In chimica analitica, quando si parla di rilevare una sostanza, non si usa mai dire con leggerezza “non c’è”. Si dice invece “non determinabile” (N.D.): vuol dire che non è rilevabile con gli strumenti disponibili, non che la sostanza non sia presente. È come cercare di vedere le stelle con un binocolo da teatro: non le vedi, ma non vuol dire che non ci siano.

E proprio come un telescopio moderno rivela galassie invisibili a Galileo, gli strumenti di oggi vedono tracce infinitesimali di sostanze che gli strumenti di ieri non riuscivano minimamente a percepire.

Un po’ di storia: quanto si vedeva ieri?

  • Anni ’50-’60: i primi gascromatografi (GC) usavano rivelatori come il TCD (rilevava a partire da 1-10 ppm, cioè parti per milione) o il più sensibile FID (circa 0.1 ppm). I pesticidi? Difficili da vedere, se non in quantità elevate.
  • Anni ’70-’80: entra in scena l’Electron Capture Detector (ECD), molto sensibile per sostanze come i pesticidi: arriva a livelli di 0.1 picogrammi, cioè un miliardesimo di milligrammo! Anche il GC-MS (gascromatografia accoppiata a spettrometria di massa) comincia a essere usato per rilevare composti in tracce.
  • Anni ’90-2000: con strumenti più raffinati come il GC-MS/MS, si scende ancora: si arriva a livelli di femtogrammi (mille miliardesimi di grammo). La sensibilità è altissima e il rumore di fondo si riduce grazie a nuove tecnologie (Figura 1).

Dal 2010 in poi: l’uso di spettrometri ad alta risoluzione (HRMS), colonne capillari e nuovi algoritmi di elaborazione dei dati ci porta a una capacità di rilevazione fino a 0.001 picogrammi.

Figure 1. il grafico mostra l'evoluzione dei limiti di rilevazione (LOD) in picogrammi, su scala logaritmica, per alcune delle tecniche analitiche più usate nella chimica analitica dal 1960 a oggi. Negli anni ’60 si vedevano solo concentrazioni nell’ordine dei ppm, oggi possiamo rilevare sostanze anche a femtogrammi, cioè mille miliardesimi di grammo.

Figura 1. il grafico mostra l’evoluzione dei limiti di rilevazione (LOD) in picogrammi, su scala logaritmica, per alcune delle tecniche analitiche più usate nella chimica analitica dal 1960 a oggi. Negli anni ’60 si vedevano solo concentrazioni nell’ordine dei ppm, oggi possiamo rilevare sostanze anche a femtogrammi, cioè mille miliardesimi di grammo.

Quindi oggi i pesticidi sono più usati?

No, non è questo il punto. È che oggi possiamo vedere concentrazioni che una volta erano semplicemente invisibili. È come se avessimo acceso una torcia in una stanza buia. Le cose nella stanza c’erano anche prima. Solo, non potevamo vederle (Figura 2).

Figura 2. Come vediamo gli analiti oggi. Il miglioramento della sensibilità strumentale ci consente di vedere cose che cinque, dieci, venti e più anni fa non eravamo in grado di rilevare.

Un esempio pratico

Un pesticida presente in un campione d’acqua nel 1970 in quantità pari a 5 picogrammi per litro non sarebbe stato rilevato da nessuno strumento allora disponibile. Oggi sì. Ma non significa che quel pesticida non ci fosse allora.

Conclusione

Quando leggiamo “oggi si trovano più pesticidi”, chiediamoci prima se si tratta di un aumento reale o semplicemente di un salto nella capacità di osservazione. La chimica analitica, nel frattempo, ha fatto un balzo gigantesco: non siamo più immersi nei veleni, siamo immersi nei dati. E questo è un enorme passo avanti.

Riferimenti

“Bella e Potente” (L. Cerruti)

Basic Gas Chromatography (H.M. McNair, J.M. Miller)

Gohlke, R.S. (1959)Analytical Chemistry, 31, 535–541.

Karayannis, M.I.; Efstathiou, C.E. (2012). Talanta, 102, 7-15

Lettera aperta ad Enrico Montesano

Avete presente le dichiarazioni di Enrico Montesano, indimenticabile protagonista di uno dei film più trash degli anni ’70 dal titolo “Febbre da cavallo”, in merito alle mascherine che dobbiamo indossare per proteggerci dal virus del Covid-19? Riporto dai giornali (qui, qui e qui, per esempio):

Le mascherine che oggi vengono usate ci fanno respirare la nostra anidride carbonica.

Ecco. È proprio per questa affermazione che desidero scrivere una lettera aperta ad Enrico Montesano.

_______________________________________________________________

Caro Enrico,

nonostante la differenza di età che ci contraddistingue o, forse, proprio per quella, mi permetto di darti del “tu” perché quando ero un bambino e poi un adolescente sei stato uno dei comici che più mi hanno messo di buon umore. Sebbene “Febbre da cavallo” io lo giudichi un trash, non posso negare che è uno dei miei film preferiti perché ogni volta che lo riguardo mi proietto in un’epoca in cui ero molto più spensierato di adesso.

Caro Enrico, quando fai certe affermazioni e citi certi figuri dei quali ti fidi in merito a problemi di ordine sanitario, non ci fai una bella figura. Ovviamente sei libero di credere in chi ti pare, ma non puoi aspettarti, poi, il rispetto che meriteresti come attore quando entri in un campo della conoscenza che non ti compete. Anche se dici di informarti, penso che le tue fonti non siano esattamente attendibili.

Lasciando perdere tutte le sciocchezze che hai detto in merito al Covid-19 ed alle mascherine, mi voglio soffermare solo su quello che hai detto in merito all’anidride carbonica. Naturalmente, come dicevo sopra, sei libero di credere in chi ti pare e ritenere che io dica sciocchezze. L’unica cosa è che le mie “sciocchezze” sono verificabili, mentre le tue e quelle dei figuri che citi non lo sono per il semplice motivo che sono ben lontane dalla realtà.

Andiamo più nel merito.

Le mascherine che indossiamo non ci fanno respirare la nostra anidride carbonica nelle normali condizioni in cui le usiamo. Vediamo perché.

Ho già scritto in merito al meccanismo di funzionamento delle mascherine. Basta cliccare qui sotto

Come funzionano le maschere filtranti

In questo articolo ho messo in evidenza che le dimensioni dei pori delle mascherine sono dell’ordine dei micrometri. Prendiamo solo i pori più piccoli delle mascherine più efficaci: 0.2 μm, ovvero la 0.2 milionesima parte del metro, in altre parole 0.2 x 10-6 m. Sembra una dimensione molto piccola, vero Enrico?

Ed ora ti invito a scaricare un programmino di chimica computazionale che io uso sul tablet. Si chiama WebMO. La versione per iPad che uso io costa solo circa 5 €. Non penso che l’acquisto sia impossibile per te. Grazie a questo programmino è possibile disegnare la molecola di anidride carbonica e studiarla in tutte le sue caratteristiche. È un programmino estremamente intuitivo e facile da usare. Superato il panico di chi non conosce la chimica vedrai che lo apprezzerai molto.

Ebbene, caro Enrico, grazie a questo programmino, la molecola di anidride carbonica è quella che ti riporto qui sotto:

Ho evidenziato gli atomi di ossigeno e di carbonio in modo da permettere al programmino di fornire la distanza tra questi due atomi. Come leggi in basso, la distanza è circa 1.275 Å, ovvero 1.275 x 10-10 m. Se consideriamo, in prima approssimazione, la molecola di anidride carbonica in continua rotazione, possiamo considerarla come una sfera del diametro pari a 2 x 1.275 x 10-10 m, ovvero una sfera del diametro di 2.550 x 10-10 m.

Adesso, come si faceva alle scuole elementari, facciamo il rapporto tra le dimensioni di un poro di una mascherina e quella del diametro della sfera suddetta:

0.2 x 10-6 m/2.55 x 10-10 m = 784

In altre parole, mio caro Enrico, il poro più piccolo della mascherina più efficace è circa 800 volte più grande della molecola di anidride carbonica.

Sai cosa vuol dire questo?

Leggo da Wikipedia che tu sei alto 1.73 m. Se immagini di essere la molecola di anidride carbonica, devi moltiplicare la tua altezza per 784 ed ottieni la larghezza del tunnel nel quale decidi di passare. Si tratta, cioè, di un tunnel la cui larghezza è di circa 1356 m, ovvero 1 km e circa 400 m. Non mi vorrai mica far credere che non riesci ad attraversare un buco di questa larghezza?

Capisci, adesso, caro Enrico, perché hai detto una sciocchezza sesquipedale?

Ti saluto affettuosamente ricordando sempre con enorme piacere, oltre che tanta nostalgia per il tempo passato, i tuoi film ed il tuo famoso Rugantino.

Tuo,

Rino

Fonte dell’immagine di copertina

Share