Biodinamica e scienza: smontare i miti non è mai facile

Negli ultimi anni la biodinamica è tornata con forza nel dibattito pubblico, presentata come un’agricoltura “più naturale”, capace di riconnettere l’uomo con la terra attraverso antichi rituali e influssi cosmici. Ma quando si scava nei lavori scientifici che dovrebbero darle credibilità, il castello crolla.

In un precedente articolo, Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci, avevo già mostrato come l’apparente incontro tra ricerca e pratiche steineriane sia in realtà un dialogo ingannevole. Oggi raccolgo e sintetizzo delle analisi critiche di studi pubblicati su riviste scientifiche, spesso citati a sostegno della biodinamica. Il risultato è un quadro chiaro: tanta tecnologia, poca scienza, e un mare di suggestioni travestite da rigore.

Il mito del Preparato 500

Al centro della biodinamica c’è il Preparato 500, letame fermentato in corna di vacca, elevato a elisir magico. Uno studio del 2013 su Journal of Microbiology and Biotechnology ha tentato di dargli dignità scientifica. Il risultato? Una sequenza di prove deboli: assenza di controlli, attività biologiche senza legame con benefici concreti, repliche non documentate.

Gli stessi autori, del resto, offrono materiale sufficiente per smontare ogni pretesa di scientificità. Non hanno inserito veri controlli: “Different commercial samples of BD Preparation 500… were studied” (p. 645). In pratica, hanno confrontato solo diversi lotti dello stesso preparato, senza mai verificare se i risultati differissero da un letame ordinario.

Le attività enzimatiche riportate sono descritte come promettenti, ma senza legame con effetti pratici: “Preparation 500 displays high specific levels of activity… A high alkaline phosphatase activity indicates its potential” (p. 648). Potenziale, non prova.

Una volta estratto dalle corna, il Preparato viene applicato in campo dopo diluizioni omeopatiche: 200 grammi in decine di litri d’acqua per ettaro. Gli autori non si limitano a descriverne le caratteristiche microbiologiche e chimiche, ma cercano anche di giustificare questa pratica con un ragionamento per analogia: “…they will already be delivered at a 10¹⁰ M concentration… well within their expected windows of biological activity (p. 649). Ma si tratta di pura speculazione: nessuna prova sperimentale mostra che quelle diluizioni abbiano davvero un effetto.

Il linguaggio stesso tradisce l’incertezza. Ovunque compaiono formule ipotetiche: “could possibly contribute” (p. 648), “may account for the biostimulations” (p. 649), “it cannot be excluded that it might act” (p. 650). Non dimostrazioni, ma tentativi di rivestire di retorica ciò che rimane un rituale agronomico.

Qui la scienza si ferma e subentra il wishful thinking. Non c’è alcun dato che dimostri l’efficacia di quelle diluizioni: è una speculazione posticcia, un tentativo di dare un’aura scientifica a un rituale. In sostanza, la giustificazione proposta non è ricerca: è retorica. Nessun esperimento serio ha mai mostrato che spruzzare tracce infinitesimali di letame fermentato possa produrre effetti concreti su un sistema agricolo complesso.

Corna, letame e spettrometri: la scienza usata per dare lustro al mito

Nel paragrafo precedente è stato introdotto il Preparato 500, gioia degli attivisti della biodinamica. Ebbene, esso è stato analizzato mediante risonanza magnetica nucleare (NMR) e gas-cromatografia con pirolisi (pyrolysis-TMAH-GC-MS) in un lavoro pubblicato su Environmental Science and Pollution Research nel 2012. Questo studio si presenta come la “prima caratterizzazione molecolare” del Preparato 500: una vetrina tecnologica impressionante, che tuttavia poggia su fondamenta fragilissime. Una sfilata di strumenti sofisticati al servizio non della conoscenza, ma della legittimazione di un mito. Vediamo perché.

Gli autori hanno analizzato tre lotti di Preparato 500 (“three samples of horn manure… were collected from different European farms”, p. 2558). Tutto qui. Nessun confronto con compost ordinario o letame tradizionale. Senza un vero controllo, attribuire “peculiarità biodinamiche” diventa arbitrario: come distinguere l’effetto del corno interrato da quello della normale fermentazione del letame?

Le analisi rivelano componenti come lignina, carboidrati, lipidi vegetali e marcatori microbici. Gli stessi autori ammettono che “the chemical composition of HM was consistent with that of natural organic materials” (p. 2564). In altre parole, il Preparato 500 non mostra alcuna unicità sorprendente: è esattamente ciò che ci si aspetta da una biomassa organica parzialmente decomposta.

Il paper suggerisce che la presenza di frazioni labili e lignina parzialmente decomposta possa conferire al Preparato 500 una particolare bioattività: “HM was characterized by a relatively high content of labile compounds that might account for its claimed biostimulant properties” (p. 2565). Ma questa è pura congettura: nessun dato in campo supporta l’idea che tali caratteristiche abbiano effetti agronomici specifici.

Le conclusioni parlano di “a higher bioactivity with respect to mature composts” (p. 2565). Ma il solo risultato tangibile è che il Preparato 500 risulta meno stabilizzato e più ricco di composti facilmente degradabili rispetto a un compost maturo. Un’osservazione banale, trasformata in presunta “prova” di efficacia biodinamica.

In altre parole, il lavoro appena analizzato non dimostra alcuna unicità del Preparato 500. Mostra soltanto che un letame lasciato fermentare in condizioni anossiche dentro un corno ha una composizione chimica simile a quella di altri ammendanti poco maturi. L’uso di strumenti spettroscopici di alto livello serve più a conferire prestigio alla pratica biodinamica che a produrre nuova conoscenza. È un’operazione di maquillage scientifico: dati corretti, ma interpretazione piegata all’ideologia.

Strumenti sofisticati, interpretazioni esoteriche

In uno studio apparso su Chemical and Biological Technologies in Agriculture, gli autori hanno applicato tecniche avanzatissime – MRI (risonanza magnetica per immagini) per la struttura interna delle bacche e HR-MAS NMR per il metaboloma – a uve Fiano e Pallagrello trattate con il celebre Preparato 500. Dal punto di vista tecnico nulla da eccepire: “MRI and HR-MAS NMR provided detailed information on berry structure and metabolite profiles” (p. 3).

Il problema nasce subito dopo. Gli autori collegano direttamente i risultati“a significant decrease in sugars and an increase in total phenolics and antioxidant activity in biodynamically treated grapes” (p. 5) – all’applicazione del Preparato 500. Ma senza un adeguato controllo placebo questo salto logico è insostenibile: come distinguere l’effetto della “pozione biodinamica” da quello di fattori molto più concreti e plausibili come microclima, esposizione solare, variabilità del suolo o semplici disomogeneità nell’irrigazione?

Gli stessi autori ammettono che la variabilità ambientale è enorme: “soil heterogeneity and microclimatic differences strongly influenced metabolite composition” (p. 6). Eppure, attribuiscono al trattamento biodinamico differenze che potrebbero essere spiegate benissimo da questi fattori.

Ecco il nodo: la biodinamica viene trattata come variabile determinante quando, in realtà, manca la dimostrazione del nesso causale. Si confonde la correlazione con la causa, sostituendo la fatica della verifica sperimentale con il fascino della narrazione esoterica. In altre parole, strumenti scientifici tra i più potenti oggi disponibili vengono usati correttamente per produrre dati robusti, ma poi piegati a interpretazioni che appartengono più al mito che alla scienza. È come se un telescopio di ultima generazione fosse puntato verso il cielo non per studiare le galassie, ma per cercare gli influssi astrali di cui parlano gli oroscopi.

Quando i numeri non tornano

Tra i lavori più citati a sostegno della biodinamica c’è l’articolo di Zaller e Köpke pubblicato su Biology and Fertility of Soils nel 2004, che confronta letame compostato tradizionale e letame compostato con “preparati” biodinamici in un esperimento pluriennale. Sulla carta, il disegno sperimentale sembra solido: rotazioni colturali, repliche, parametri chimici e biologici del suolo.

Ma basta entrare nei dettagli per accorgersi delle crepe. Innanzitutto, gli autori parlano di quattro trattamenti, ma l’unico vero confronto rilevante – biodinamico vs tradizionale – è reso ambiguo dal fatto che manca un controllo cruciale: il letame senza alcuna applicazione (no FYM) è incluso, ma non permette di distinguere se le differenze dipendano dalle preparazioni biodinamiche o, banalmente, dalla sostanza organica. In altre parole, non è possibile stabilire se l’“effetto” sia biodinamico o semplicemente concimante.

In secondo luogo, molte delle differenze riportate sono minime, al limite della significatività statistica, e oscillano addirittura in direzioni opposte tra i diversi strati di suolo (es. la respirazione microbica più bassa con tutti i preparati a 0–10 cm, ma più alta col solo Achillea a 10–20 cm: Fig. 1). Questo non è un segnale di coerenza biologica, ma di rumore sperimentale.

E poi ci sono le rese: tabella 3 mostra chiaramente che le differenze tra preparati e non-preparati non sono mai significative. In pratica, dopo nove anni di sperimentazione, la produttività dei sistemi resta identica, indipendentemente dall’uso o meno dei preparati.

Il colpo finale arriva dall’interpretazione: gli autori ammettono che “how those very low-dose preparations can affect soil processes is still not clear” (p. 228), ma subito dopo ipotizzano meccanismi fumosi come “microbial efficiency” o “stress reduction” senza fornire prove solide. Non sorprende che l’articolo sia diventato un riferimento per i sostenitori della biodinamica: fornisce grafici, tabelle e un lessico tecnico, ma dietro la facciata la sostanza è debole.

In sintesi, questo lavoro non dimostra affatto l’efficacia dei preparati biodinamici: mostra soltanto che il letame fa bene al suolo, una banalità agronomica travestita da scoperta.

Mappatura, non validazione

Giusto per concludere questa breve revisione critica di qualche lavoro sulla biodinamica, prendo in considerazione una review pubblicata su Organic Agriculture che ha analizzato 68 studi sull’agricoltura biodinamica. Gli autori segnalano effetti positivi su suolo e biodiversità, soprattutto in aree temperate, sostenendo che “most studies reported improvements in soil quality parameters, biodiversity, and crop quality under biodynamic management” (p. 3).

Il problema è che si tratta di una rassegna descrittiva, non critica. Gli stessi autori ammettono che “we did not perform a formal quality assessment of the included studies” (p. 2). In altre parole, nessuna valutazione della robustezza metodologica, della significatività statistica o della replicabilità dei risultati. Non hanno fatto, insomma, quello che ho fatto io con le critiche riportate nei paragrafi precedenti.

Non solo: la review mette nello stesso calderone pratiche agricole consolidate (rotazioni, compost, minore uso di chimica) e l’uso dei preparati biodinamici, facendo apparire i benefici come frutto della biodinamica tout court. Un artificio retorico che sposta l’attenzione dall’agronomia alla magia.

Il risultato è esattamente quello che Enrico Bucci definì su Il Foglio una “eterna review”: un elenco di lavori, non una loro valutazione critica. Utile come catalogo, ma totalmente inutile come prova di validazione scientifica. Insomma, un inventario ordinato, non una prova di efficacia: la scienza qui rimane alla porta, mentre la retorica magica occupa la scena.

La fatica della demistificazione scientifica

Arrivati a questo punto, vale la pena sottolineare un aspetto che spesso sfugge a chi guarda la scienza dall’esterno. Smontare lavori che si travestono da scienza non è un passatempo da tastiera né un esercizio da poltrona. È un percorso lungo, faticoso e a tratti logorante. Perché?

Per prima cosa bisogna leggere gli articoli nella loro interezza, riga dopo riga, spesso decifrando un linguaggio tecnico volutamente denso. Poi serve una conoscenza approfondita delle metodologie: saper distinguere un NMR da una cromatografia, sapere cosa può misurare davvero un test enzimatico e cosa invece viene gonfiato nell’interpretazione. Infine, è indispensabile una robusta esperienza nella progettazione sperimentale: senza questa non ci si accorge dei bias nascosti, dei controlli mancanti, delle conclusioni che vanno ben oltre i dati.

E tutto ciò richiede tempo, pazienza e un certo spirito combattivo.  La scienza procede per tentativi ed errori. Un lavoro pubblicato non necessariamente è validoLa pubblicazione è solo il primo gradino. La vera prova arriva dopo, quando la comunità scientifica lo sottopone a un esame collettivo, minuzioso, implacabile: esperti che “fanno le pulci” a ogni cifra, a ogni tabella, a ogni esperimento. Se il lavoro è solido, resiste e diventa pietra miliare. Se è fragile, si sgretola in fretta e viene dimenticato.

Ecco perché la demistificazione è così importante e così dura: perché si combatte con armi scientifiche contro narrazioni che usano il fascino del mito. E i lavori sulla biodinamica, quando passano sotto questo setaccio, puntualmente crollano.

Conclusione: un fallimento annunciato

Il quadro che emerge è inequivocabile. Studi ben confezionati ma concettualmente vuoti, prove senza controlli, numeri sbagliati, review che confondono agronomia con magia. Tutto ciò che funziona nelle aziende biodinamiche non è esclusivo della biodinamica: è semplice agronomia, già consolidata nel biologico e perfezionata nell’integrato.

Il resto – corna interrate, cicli cosmici, preparati miracolosi – non resiste alla prova della scienza. La biodinamica cerca da oltre un secolo legittimazione, ma ogni volta che la ricerca prova a verificarla seriamente, la sua fragilità diventa evidente. Non è agricoltura del futuro, ma un mito che il tempo ha già smentito.

A questo punto, un lettore non addetto potrebbe chiedersi: “Ma se è così fragile, come mai questi studi vengono pubblicati? Possibile che i revisori non se ne accorgano? E come faccio io, dall’esterno, a non fidarmi di ciò che appare su riviste qualificate, persino con un buon Impact Factor?”

La risposta è meno misteriosa di quanto sembri. Come ho già scritto nel paragrafo precedente, la pubblicazione è solo il primo passo: significa che un articolo ha superato un filtro minimo di qualità, non che sia una verità scolpita nel marmo. La peer review non è un tribunale infallibile: è fatta da esseri umani, spesso con tempi stretti e competenze specifiche. Alcuni errori sfuggono, altre volte ci si concentra più sulla tecnica che sulla sostanza. Succede che un lavoro ben scritto e infarcito di strumentazioni sofisticate riesca a passare, anche se le conclusioni sono deboli.

La differenza la fa il tempo e la comunità scientifica. È il vaglio collettivo, fatto di discussioni, repliche, critiche, tentativi di replica sperimentale, che separa ciò che rimane da ciò che evapora. Ed è un processo lento e faticoso, che richiede esperienza, attenzione e anche una certa dose di ostinazione.

Ecco perché non basta fidarsi di un titolo altisonante o di una rivista con un buon IF. Bisogna guardare dentro i lavori, leggerli, pesarli, verificarli. Lo facciamo noi scienziati, ed è una parte del nostro mestiere che non fa notizia, ma è essenziale: distinguere i dati solidi dai castelli di carta.

E ogni volta che la biodinamica entra in questo setaccio, il risultato è lo stesso: crolla.

Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci

Ci risiamo! Più volte ho parlato di biodinamica, ma, come sempre accade, questa pratica sembra risorgere dalle ceneri come la fenice, un essere mitologico che ben rappresenta l’impianto fantastico da cui trae origine. Stavolta a riproporla in chiave “scientifica” è un articolo apparso su Terra & Vita l’11 agosto 2025 a firma di Carlo Triarico, presidente dell’Associazione per l’Agricoltura Biodinamica:
👉 Agricoltura biodinamica e ricerca scientifica, il dialogo continua

Come al solito, ci troviamo di fronte a un testo che cerca di accreditare la biodinamica usando il linguaggio della scienza e richiamando collaborazioni con enti di ricerca. Vale la pena analizzare punto per punto le affermazioni contenute nell’articolo, per capire cosa c’è di sostanza e cosa invece è pura retorica.

La premessa retorica

“La crisi ambientale impone nuove pratiche rigenerative, accompagnate da un solido impianto di validazione scientifica.”

Che la crisi ambientale e climatica sia una realtà innegabile è fuori discussione. Nessuno scienziato serio la nega. Ma proprio perché la crisi è reale, il richiamo a essa non può essere usato come cavallo di Troia per giustificare qualunque pratica, tanto meno quelle nate da premesse esoteriche. È un classico espediente retorico: evocare un problema grave e condiviso per darsi legittimità, senza però dimostrare che la soluzione proposta sia davvero efficace.

Il termine “pratiche rigenerative” è suggestivo ma vago. Rigenerare cosa? In che modo? Con quali meccanismi verificabili? Senza una definizione chiara, si resta nell’ambito dello slogan. La biodinamica viene così presentata come medicina miracolosa, ma senza che siano forniti protocolli scientifici in grado di dimostrare causalità tra pratiche e risultati.

Infine, parlare di “validazione scientifica” è improprio. La scienza non “valida” come fosse un ente certificatore che mette bollini di approvazione. La scienza funziona per ipotesi sottoposte a prove, dati che devono essere replicabili, esperimenti che altri ricercatori possono confermare o smentire. Se un modello agronomico ha basi solide, non c’è bisogno di rivestirlo di retorica: i dati parlano da soli.

La verità è che quando si tratta di biodinamica, si invoca la scienza come un orpello decorativo, ma si evita accuratamente di sottoporre al vaglio critico proprio i capisaldi del metodo — i preparati, le diluizioni omeopatiche, i cicli cosmici. Su questi aspetti, che costituiscono l’anima della biodinamica, non esiste alcuna evidenza.

In altre parole: usare la crisi climatica come giustificazione per promuovere pratiche prive di fondamento non è un’operazione scientifica, ma retorica.

La “visione sistemica”

“La biodinamica, con la sua visione sistemica e la cura della terra, ha molto da offrire in termini di sostenibilità.”

Visione sistemica” è un’espressione ad alto impatto emotivo, che sembra evocare profondità e modernità di pensiero. Ma è un concetto che, applicato così, resta puramente decorativo. In agronomia la gestione integrata dei sistemi agricoli è già una realtà da decenni: rotazioni colturali, pratiche conservative, uso oculato delle risorse idriche, incremento della sostanza organica del suolo. Tutti questi approcci rientrano già da tempo nell’agricoltura biologica, nella lotta integrata e nei sistemi sostenibili, senza bisogno di ricorrere a cosmologie esoteriche.

Attribuire alla biodinamica una presunta “visione sistemica” è dunque un’operazione di maquillage: si prende un concetto scientificamente serio, lo si ammanta di suggestioni e lo si appiccica a pratiche che con la scienza hanno poco a che fare. In realtà, la biodinamica non porta alcuna innovazione metodologica: si limita a riproporre tecniche già note in agricoltura ecocompatibile, aggiungendo però un corredo rituale che nulla aggiunge né alla produttività né alla sostenibilità.

È come se qualcuno prendesse l’omeopatia e la presentasse come “medicina olistica sistemica”: un modo elegante per mascherare l’assenza di meccanismi verificabili dietro un linguaggio affascinante. Allo stesso modo, dire che la biodinamica ha “molto da offrire” in termini di sostenibilità è fuorviante: ciò che funziona non è la biodinamica, ma le stesse pratiche agronomiche già validate che essa incorpora al suo interno.

In sintesi, la “visione sistemica” non è un portato della biodinamica: è un concetto scientifico e agronomico che le viene arbitrariamente attribuito per conferirle un’aura di credibilità.

Le collaborazioni scientifiche

“Abbiamo collaborato con CREA, Università di Firenze, Università di Salerno, CERMANU, SISB…”

E qui scatta il gioco delle citazioni, un artificio retorico ben collaudato: nominare enti di ricerca e università serve a costruire una patina di autorevolezza, come se la sola menzione bastasse a trasferire credibilità scientifica. Ma la realtà è più complessa.

Che università e centri di ricerca abbiano svolto studi sulla fertilità del suolo, sulla biodiversità o sull’impatto ambientale delle pratiche agricole è un dato di fatto. Questo, però, non equivale ad aver avallato i principi fondanti della biodinamica, che restano di natura esoterica. Bisogna distinguere nettamente:

  • quando si studiano pratiche agronomiche comuni, come la riduzione dei fertilizzanti di sintesi (cioè sistemi inorganici), l’incremento della sostanza organica o la gestione integrata del terreno, si sta facendo agronomia.
  • quando invece si invocano corna di vacca interrate, preparati dinamizzati in acqua agitata ritualmente, o influssi cosmici legati alla posizione della Luna, si entra nell’ambito del rituale, non della ricerca scientifica.

Mescolare i due livelli, come avviene sistematicamente nei comunicati del mondo biodinamico, è un’operazione retorica: si confonde il rigore della scienza con il linguaggio mistico, sperando che la rispettabilità della prima copra le fragilità della seconda.

In altre parole: se un’università conduce uno studio sulla biodiversità in un’azienda biodinamica, il dato che ottiene riguarda la biodiversità in quell’azienda, non la validazione delle teorie di Steiner. Dire il contrario equivale a dire che se un medico misura la pressione a un paziente che porta un amuleto al collo, allora lo studio conferma l’efficacia dell’amuleto.

Il problema, dunque, non è la collaborazione in sé, ma il suo uso strumentale: un modo per presentare come “scientificamente supportato” ciò che resta, nei suoi fondamenti, privo di basi scientifiche.

L’azienda modello e la certificazione Demeter

“Le aziende certificate Demeter come Lacalamita Rosa mostrano risultati significativi e attraggono nuovi produttori.”

Portare ad esempio aziende di successo è una strategia comunicativa potente: un nome evocativo, qualche dato positivo e il lettore medio è portato a pensare che il merito sia tutto della biodinamica. Ma il ragionamento è fuorviante.

Il successo commerciale o l’apprezzamento dei consumatori non dimostrano di per sé la validità scientifica di un metodo. Un’azienda può prosperare per molte ragioni: la qualità intrinseca del suolo, la competenza agronomica di chi la conduce, le condizioni climatiche favorevoli, oppure semplicemente un buon posizionamento di mercato. Attribuire automaticamente questi risultati alla biodinamica equivale a confondere i fattori: è il tipico errore di scambiare correlazione per causalità.

Quanto alla certificazione Demeter, non si tratta di un riconoscimento indipendente né neutrale. È un marchio privato, gestito dal movimento biodinamico stesso, che valuta la conformità delle aziende a un disciplinare interno. E questo disciplinare, lungi dall’essere scientifico, prescrive pratiche rituali che includono i famosi preparati e le procedure esoteriche steineriane. Parlare quindi di “standard oggettivi” è improprio: non si tratta di oggettività scientifica, ma di coerenza con un regolamento autoreferenziale.

Per chiarire con un paragone: dire che un’azienda è “validata scientificamente” perché certificata Demeter è come dire che un club di astrologi garantisce l’accuratezza dell’oroscopo dei suoi membri. Vale come appartenenza a una comunità che condivide gli stessi rituali, ma non come dimostrazione di efficacia.

In definitiva, l’esempio delle aziende modello e della certificazione Demeter serve a costruire un racconto accattivante, ma non sposta di un millimetro la questione centrale: i principi fondanti della biodinamica restano privi di fondamento scientifico.

Lo studio con NMR sull’uva da tavola

“Gli studi con spettroscopia H-NMR hanno mostrato parametri qualitativi superiori nell’azienda biodinamica.”

Qui si tocca un aspetto che, letto in fretta, sembra confermare in pieno la narrazione biodinamica: un’analisi sofisticata, condotta con uno strumento scientifico avanzato, avrebbe mostrato differenze qualitative a favore dell’azienda biodinamica. Ma la realtà, ancora una volta, è diversa.

Innanzitutto, va chiarito cosa significhi “parametri qualitativi superiori”. Una differenza nei profili metabolomici non equivale automaticamente a un miglioramento. In metabolomica, infatti, i dati descrivono variazioni nella concentrazione di certi composti, ma la loro interpretazione dipende dal contesto e da ulteriori correlazioni con parametri sensoriali, nutrizionali o tecnologici. Dire che un prodotto è “migliore” perché diverso non ha alcun senso scientifico.

In secondo luogo, anche ammesso che un’azienda biodinamica mostri parametri più favorevoli, ciò non dimostra affatto che la causa sia la biodinamica in sé. Gli studi comparativi, per essere robusti, devono isolare le variabili: stesse condizioni pedoclimatiche, stesso vitigno, stessa gestione agronomica, stesso livello di esperienza dell’agricoltore. Nella realtà, però, un’azienda non è un laboratorio sterile: il suolo, il microclima, l’età delle piante, persino la cura quotidiana nella gestione possono influenzare i risultati.

Attribuire quindi le differenze osservate ai preparati steineriani o all’influenza dei cicli cosmici è un salto logico arbitrario. Sarebbe come dire che, se una squadra di calcio vince una partita, il merito è della maglia portafortuna indossata dall’allenatore. Correlazione e causalità, ancora una volta, vengono confuse deliberatamente.

Infine, l’uso stesso di tecniche avanzate come la spettroscopia NMR rischia di funzionare da “effetto scenico”: uno strumento complesso viene chiamato in causa per impressionare il lettore, non per fornire prove decisive. Ma la scienza non si misura dalla sofisticazione dello strumento, bensì dalla solidità del disegno sperimentale e dalla replicabilità dei risultati.

In sintesi: se anche uno studio rileva differenze, non è corretto attribuirle tout court alla biodinamica. La vera prova mancherebbe proprio là dove servirebbe: dimostrare che i precetti esoterici abbiano un effetto misurabile e riproducibile. E questa prova, ad oggi, non esiste.

Agroecologia e dieta mediterranea

“La biodinamica si integra con i principi dell’agroecologia e della Dieta Mediterranea sostenibile.”

Questo passaggio è un esempio chiaro di appropriazione semantica: si accostano concetti scientificamente fondati (agroecologia e Dieta Mediterranea) a un paradigma privo di basi razionali come la biodinamica, nel tentativo di trasferire prestigio dall’uno all’altro.

L’agroecologia è un approccio interdisciplinare che combina scienze agrarie, ecologia, economia e sociologia per rendere sostenibili i sistemi agricoli. La Dieta Mediterranea, invece, non è affatto un modello antico e immutato: è una costruzione recente, nata negli Stati Uniti negli anni ’50-’60 grazie agli studi di Ancel Keys, che osservò la maggiore longevità di alcune popolazioni del bacino mediterraneo. Da quelle osservazioni derivò un modello alimentare “idealizzato”, promosso poi a livello internazionale. Nonostante le sue origini moderne e in parte commerciali, la Dieta Mediterranea si è guadagnata un solido supporto scientifico: numerosi studi hanno confermato la correlazione con benefici per la salute, e l’UNESCO l’ha riconosciuta come patrimonio culturale immateriale per il suo valore sociale e culturale.

La biodinamica, al contrario, nasce da premesse esoteriche di Rudolf Steiner e non ha alcuna validazione scientifica. Metterla sullo stesso piano dell’agroecologia e della Dieta Mediterranea è quindi fuorviante: mentre le prime si fondano su dati, osservazioni e modelli riproducibili, la biodinamica resta ancorata a rituali cosmici e pratiche prive di riscontro sperimentale.

Il meccanismo comunicativo è evidente: evocare concetti positivi e consolidati per “nobilitare” la biodinamica. Ma, in realtà, tutto ciò che appare compatibile con l’agroecologia o con il modello mediterraneo (rotazioni, compostaggio, riduzione degli input chimici) non è esclusivamente biodinamico: appartiene già all’agricoltura biologica e sostenibile. L’unico elemento davvero caratterizzante della biodinamica — i preparati e i rituali steineriani — non ha alcun fondamento scientifico.

In definitiva, questo accostamento non rafforza la biodinamica: ne evidenzia piuttosto la debolezza, perché dimostra il suo costante bisogno di appoggiarsi ad altro per sembrare credibile.

Standard e protocolli “oggettivi”

“La biodinamica è identificata da standard e protocolli oggettivi e soggetti a verifica.”

Questa affermazione suona rassicurante, ma è profondamente ambigua. Nel linguaggio della scienza, “standard oggettivi” significa procedure condivise, ripetibili, verificabili da chiunque e soprattutto indipendenti da appartenenze ideologiche. Nel caso della biodinamica, invece, gli “standard” non sono altro che le regole fissate dal marchio Demeter, ovvero dall’organizzazione stessa che promuove la biodinamica.

Questi protocolli prevedono sì pratiche agronomiche comuni e sensate (rotazioni, compostaggio, attenzione alla fertilità del suolo), ma includono anche prescrizioni rituali come i preparati dinamizzati o le corna interrate seguendo cicli lunari e planetari. Non c’è nulla di scientifico in questo: sono norme interne a una comunità, autoreferenziali, che si verificano in base alla loro stessa coerenza interna, non sulla base di prove oggettive.

È come dire che l’astrologia è “oggettiva” perché esistono regole precise per calcolare un oroscopo. Certo, il calcolo segue un protocollo, ma ciò non significa che il risultato abbia validità scientifica. Allo stesso modo, rispettare il disciplinare Demeter dimostra solo che un’azienda aderisce a un regolamento, non che i principi steineriani abbiano efficacia reale.

Il vero paradosso è che il richiamo alla “verifica” finisce per essere un gioco di specchi: chi controlla la conformità non valuta i risultati scientifici delle pratiche, ma solo la fedeltà a un rituale codificato. È un sistema chiuso, che si autolegittima senza mai confrontarsi con il metodo scientifico.

In sintesi: parlare di “protocolli oggettivi” in biodinamica è un abuso del linguaggio scientifico. Non si tratta di oggettività, ma di appartenenza. Non si tratta di verifiche, ma di rituali. E questa differenza non è un dettaglio semantico: è il punto che segna la distanza tra scienza e pseudoscienza.

Conclusione

Ancora una volta la biodinamica si presenta con abiti nuovi, evocando crisi ambientali, citando enti di ricerca, richiamando agroecologia e dieta mediterranea, esibendo certificazioni e dati metabolomici. Ma al di là della patina, la sostanza resta immutata: i capisaldi steineriani non hanno alcuna validazione scientifica.

Tutto ciò che funziona nelle aziende biodinamiche non è esclusivo della biodinamica: è semplice agronomia, già consolidata nel biologico e perfezionata oggi nell’agricoltura integrata. La differenza è che qui si parla di conoscenze scientifiche, non di rituali esoterici. Ciò che resta tipicamente biodinamico non ha alcuna evidenza e non può essere considerato scienza.

La conclusione è inevitabile: la biodinamica non rappresenta un modello innovativo di sostenibilità, ma un insieme di pratiche esoteriche rivestite di retorica scientifica. E confondere scienza e rituale non aiuta l’agricoltura a diventare più sostenibile: la espone, semmai, al rischio di perdere credibilità proprio quando la società ha più bisogno di rigore, trasparenza e soluzioni reali.

Come la fenice, la biodinamica sembra risorgere dalle proprie ceneri: ma, a differenza del mito, dalle sue ceneri non nasce mai scienza.

Clima e pseudoscienza: anatomia di una discussione

Qualche giorno fa ho pubblicato il terzo e, speravo, ultimo articolo di un reportage sui cambiamenti climatici. In questo articolo, intitolato I cambiamenti climatici? Sì, siamo noi i responsabili, ho discusso delle prove oggettive – corredate da riferimenti puntuali – che hanno portato l’intera comunità scientifica alla conclusione che i responsabili di quanto sta accadendo attualmente sulla superficie terrestre, ovvero l’aumento delle temperature globali e la conseguente alterazione degli ecosistemi, siamo noi esseri umani.

In quel testo ho cercato di mostrare, in modo accessibile ma rigoroso, perché la tesi dell’origine antropica dell’attuale riscaldamento globale non sia più un’ipotesi, ma una conclusione supportata da una mole imponente di dati.

Ho parlato del ruolo dei gas serra, in particolare della CO₂ prodotta dalla combustione di combustibili fossili, la cui impronta isotopica è ben riconoscibile in atmosfera. Ho discusso anche delle fonti indipendenti che confermano il trend in atto – dalle carote glaciali agli anelli degli alberi, dai sedimenti oceanici alle misurazioni satellitari – e delle ragioni per cui né l’attività solare né le eruzioni vulcaniche possono spiegare ciò che osserviamo oggi.

Infine, ho evidenziato come la rapidità del riscaldamento attuale – oltre un grado in appena un secolo – sia senza precedenti nella storia recente del pianeta, e come l’intero corpo scientifico internazionale, sintetizzato nei report dell’IPCC, abbia ormai raggiunto un consenso solido e ben documentato su questo punto.

Non è necessario riproporre qui tutti i riferimenti bibliografici: si trovano nell’articolo appena riassunto (qui il link).

Eppure, eccomi di nuovo a scrivere sull’apporto antropico all’effetto serra. Non per aggiungere nuove evidenze, ma per riflettere sul modo estremamente fallace – e sempre più diffuso – di ragionare dei negazionisti del cambiamento climatico. Non si tratta, in questo caso, di negazionisti tout court: anche loro, ormai, devono riconoscere l’evidenza dell’aumento delle temperature globali. Si tratta piuttosto dei negazionisti dell’origine antropica, coloro che rifiutano di accettare che la causa principale del riscaldamento sia l’attività umana.

In un gruppo Facebook che aiuto a gestire – Bufale e dintorni gruppo – sono comparsi i primi commenti al mio post con cui pubblicizzavo l’articolo (potete farvene un’idea a questo link).
Poiché si tratta di un gruppo privato – quindi i post non sono visibili pubblicamente – e considerando che non tutti hanno un account Facebook attivo, riporto di seguito gli screenshot della discussione.

La Figura 1 riporta la condivisione dalla mia pagina Facebook “Rino Conte”.

Figura 1. Screenshot relativo alla condivisione del mio articolo sull’effetto antropico nei cambiamenti climatici. Questo thread ha dato la stura a una discussione con un negazionista di tale effetto.

La Figura 2 riporta (spero in modo leggibile, altrimenti è necessario da parte dei volenterosi scaricare l’immagine ed effettuarne uno zoom) la discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

Figura 2. Discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

E proprio mentre sto scrivendo questo articolo la discussione continua (Figura 3).

Figura 3. Proseguimento della discussione mentre scrivo questo articolo.

Come si evince dagli screenshot, il tutto ha inizio dall’inserimento di un link a un articolo giornalistico in cui si riporta un filmato che mostra il comportamento di certi ghiacciai negli ultimi 800 000 anni. Questo filmato è tratto da un lavoro scientifico dal titolo “Modelling last glacial cycle ice dynamics in the Alps” pubblicato nel 2018 sulla rivista The Cryosphere della European Geoscience Union, associazione per la quale anche io ho organizzato in passato dei miniconvegni nell’ambito delle attività congressuali più generali che si fanno ogni anno a Vienna in Austria (per esempio, uno è qui).

Chi ha condiviso questo studio nella discussione lo ha fatto con l’intento – più o meno esplicito – di suggerire che, dal momento che i ghiacciai alpini si sono espansi e ritirati ciclicamente nel passato, il cambiamento climatico attuale potrebbe essere semplicemente parte di una lunga variabilità naturale. È un’inferenza del tutto errata, che nasce da un fraintendimento delle finalità e dei contenuti del lavoro scientifico citato.

Infatti, lo studio in questione (Seguinot et al., 2018) non parla di cambiamenti climatici attuali né tantomeno ne discute le cause. Si tratta di un lavoro di modellizzazione numerica della dinamica glaciale delle Alpi durante l’ultimo ciclo glaciale (da 120.000 a 0 anni fa), che ha lo scopo di testare la coerenza tra ricostruzioni geologiche e simulazioni del comportamento dei ghiacciai su scala millenaria. Non c’è nel testo alcuna analisi delle cause del riscaldamento moderno, né alcun confronto con l’evoluzione recente del clima terrestre.

Quello che il mio interlocutore ha fatto è un tipico esempio di bias di conferma: ha estrapolato da un articolo tecnico una conclusione che non c’è, perché questa coincide con la propria convinzione preesistente. È un meccanismo comune tra i cosiddetti “negazionisti soft” – persone che, pur riconoscendo che il clima sta cambiando, rifiutano l’idea che l’essere umano ne sia il principale responsabile.

La dinamica della discussione su Facebook lo conferma: ogni volta che si porta un dato, una misura, una ricostruzione paleoclimatica, l’interlocutore non contesta la validità della fonte, ma sposta il piano, relativizza, introduce “dubbi” storici o filosofici. E infine si rifugia nel mito del “Galileo solitario”, come se ogni minoranza fosse destinata a diventare verità solo perché è minoranza. Ma Galileo non aveva ragione perché era solo: aveva ragione perché aveva i dati e un metodo.

Ecco il punto: il problema non è tanto avere un’opinione diversa, quanto non saper distinguere tra opinione personale e conoscenza scientifica. E non è un caso che questo tipo di retorica si ritrovi spesso in altri ambiti della disinformazione scientifica: chi si sente “eretico” rispetto al sapere ufficiale tende a sopravvalutare le proprie intuizioni e a sottovalutare il lavoro, faticoso e rigoroso, di chi fa scienza sul serio.

Discutere con chi rifiuta le conclusioni della scienza può essere faticoso, ma è anche necessario. Non per convincere chi ha già deciso di non ascoltare, ma per fornire strumenti a chi legge in silenzio, a chi cerca chiarezza in mezzo al rumore. La scienza non ha bisogno di essere difesa come un dogma: si difende da sé, con i dati, con la trasparenza dei metodi, con la disponibilità al confronto critico. Ma proprio per questo va protetta dalle distorsioni, dalle semplificazioni, e soprattutto dal relativismo delle opinioni travestite da verità.
Il cambiamento climatico attuale è un fenomeno reale, misurabile e in larga parte causato dalle attività umane. Continuare a negarlo non è esercizio di pensiero critico, ma una forma di resistenza ideologica che rischia di ritardare l’unica cosa che oggi dovremmo fare: affrontare il problema con serietà, competenza e senso di responsabilità.

EDIT

Mentre mi accingevo a pubblicare questo articolo, il mio interlocutore ha pubblicato un’ultima risposta che ho deciso di riportare integralmente per completezza. Qui sotto trovate anche la mia replica con cui ho deciso di concludere la discussione pubblica.

Interlocutore:

Pellegrino

  1. Lei stesso parla di “stime solide”; che sono appunto stime, non misurazioni dirette.
  2. “Sappiamo perché”, è un’altra forzatura. In realtà abbiamo delle interpretazioni plausibili per molte di esse, ma ciò non equivale a una certezza assoluta. Anche nelle osservazioni attuali, ci si imbatte in anomalie impreviste, tipo l’impatto dello scioglimento del permafrost, temperature previste che poi non si sono verificate… E parliamo di osservazioni dirette; figuriamoci sulle “stime” di fenomeni non osservati direttamente. Per non parlare dell’infinito dibattito su quanto influiscano o meno le macchie solari…

Stesso discorso sul fatto che le oscillazioni in passato non avvenissero in decenni, trascurando che non possiamo sapere se gli strumenti che abbiamo a disposizione siano davvero affidabili con tale precisione. Mancando l’osservazione diretta, non possiamo verificarlo.

Dire che “potrebbero esserci state” significa semplicemente dire che il modello generale è ancora soddisfatto; per dimostrare l’anomalia bisogna dimostrare che davvero non ci siano precedenti. È un discorso di presunzione d’innocenza: per dare la colpa all’uomo bisogna dimostrarla; il “ragionevole dubbio” è a favore dell’imputato. Foss’anche solo per mancanza di prove.

  1. Il moto dei pianeti era noto da sempre (“planities” significa appunto “errante”), ma lui (anzi, Copernico) fornì solo un modello di calcolo semplificato. Infatti, a dirla tutta, il sole non è affatto al centro dell’universo ma si muove pure lui… In questo ha ragione l’insegnante del prof. Barbero che diceva che il card. Bellarmino era più moderno di Galileo.
  2. A “negazionista” si potrebbe contrapporre “fideista”, ovvero uno che sposa senz’altro ciò che dice la maggioranza stigmatizzando il dubbio. Ma io continio a ricordare che la stessa comunità scientifica oggi certa del riscaldamento globale appena quarant’anni fa era ugualmente certa dell’imminenza di un’era glaciale. Un cambio di rotta di 180 gradi in meno di mezzo secolo, e si dovrebbe prendere per oro colato anche l’attribuzione di responsabilità? Anche a fronte di numerose previsioni rivelatesi poi errate?
  3. Su un punto, concordo senz’altro: sulla separazione netta tra dissertazione scientifica e azione concreta (e non potrei dire diversamente, dato che come ho già detto opero nella Protezione Civile).

Il punto certo è che vi sia in atto un cambiamento climatico che attualmente va verso un aumento delle temperature, che il problema è serio e che la cosa va affrontata. Ridurre il più possibile (e possibilmente azzerare) l’impatto antropico non ha controindicazioni, e quindi va benissimo farlo; e infatti ne sono da sempre un convinto sostenitore.

A mio modesto parere, non servirà a granché, perché se Madre Natura ha deciso che è tempo di un nuovo Eocene, Eocene sarà; che ci piaccia o no.

Quindi, oltre ad azzerare le emissioni, miglioriamo l’efficienza dei condizionatori, perché ne avremo comunque bisogno. Tutto qui.

Io:
grazie per aver chiarito ulteriormente il suo punto di vista. Le rispondo un’ultima volta, per chi ci legge e non per la soddisfazione di “avere l’ultima parola”, che non mi interessa.

Sì, le proxy sono stime, ma sono stime calibrate, validate e incrociate da molte fonti indipendenti. Nessun climatologo confonde una proxy con una misura diretta, ma la scienza lavora ogni giorno per rendere sempre più affidabili quelle stime. E il fatto che convergano tutte sul medesimo trend dà forza alla ricostruzione. Questo è il normale funzionamento della scienza, non una debolezza.

Nessuno pretende certezze assolute, né le scienze naturali le promettono. Lei invece sembra richiedere una prova “oltre ogni dubbio”, come se fossimo in un’aula di tribunale. Ma la scienza si basa sulla probabilità, sul peso delle evidenze, sulla capacità predittiva dei modelli. Oggi, la quantità di prove che puntano all’origine antropica del riscaldamento è così ampia da rendere l’ipotesi alternativa – quella esclusivamente naturale – altamente improbabile. Ed è su questo che si fondano le politiche, non sull’attesa della perfezione epistemologica.

Il paragone con Galileo e Bellarmino è affascinante ma fuori luogo. Galileo non aveva solo un modello “più semplice”: aveva anche l’evidenza delle fasi di Venere e delle lune di Giove. Il suo valore non sta nel ribellarsi alla maggioranza, ma nell’aver offerto dati e osservazioni migliori. Lei invece continua a proporre “dubbi” senza portare nessun dato nuovo, solo generalizzazioni.

La comunità scientifica non era “certa” dell’era glaciale negli anni ’70. Questa è una leggenda urbana, smentita dai dati storici: all’epoca la maggior parte degli articoli già indicava un riscaldamento, non un raffreddamento. Se guarda i paper dell’epoca, lo vede chiaramente.

Quanto agli errori previsionali: il fatto che un modello venga corretto o raffinato è normale in ogni scienza. Non è un fallimento, è progresso. Non confondiamo fallibilità con inattendibilità.

Mi fa piacere leggere che riconosce l’urgenza del problema e sostiene l’azione per ridurre le emissioni. Su questo ci troviamo d’accordo. Tuttavia, dire “tanto non servirà a nulla” è una rinuncia mascherata da fatalismo. La scienza climatica non dice che siamo condannati, ma che abbiamo una finestra temporale per ridurre gli impatti futuri. La differenza tra +1,5 °C e +4 °C non è affatto irrilevante. E anche se non possiamo evitare ogni effetto, possiamo evitare quelli peggiori. Questa è responsabilità, non fideismo.

Chiudo qui il mio intervento, perché i fatti, i dati e il consenso scientifico sono pubblici e verificabili. Il resto è opinione personale – legittima – ma non equiparabile alla conoscenza prodotta dalla scienza.

Nota finale: ho riportato per esteso questo scambio non per dare visibilità a una posizione pseudoscientifica, ma per mostrare, in modo documentato, come ragiona chi nega l’origine antropica del cambiamento climatico, e perché queste argomentazioni non reggano al vaglio della scienza.

I cambiamenti climatici? Sì, siamo noi i responsabili.

Vi siete mai trovati di fronte a un negazionista climatico? Io sì!

C’è chi dice che i cambiamenti climatici non esistono, perché “oggi piove” o “ieri faceva freddo”. A questi ho già risposto nei primi due articoli della serie, parlando del riscaldamento globale e dei suoi effetti locali – temporali compresi – e del grande rimescolamento che avviene negli oceani.

Ma poi ci sono quelli che ammettono sì, il clima sta cambiando, però non è colpa nostra. “È il Sole!”, “Sono i vulcani!”, “È sempre successo!”.

Ecco, è a loro che è dedicato questo articolo.

Perché sì, il clima è sempre cambiato: durante le ere glaciali e le fasi interglaciali, le grandi estinzioni, le migrazioni dei continenti, ma mai così, e mai così in fretta.

La temperatura media globale è aumentata di oltre un grado in poco più di un secolo. La concentrazione di CO2 nell’atmosfera ha superato le 420 parti per milione, un valore che non si era mai visto negli ultimi 800.000 anni e probabilmente nemmeno negli ultimi tre milioni.

E questo non lo dicono gli opinionisti, ma le carote di ghiaccio estratte dall’Antartide e dalla Groenlandia, dove ogni bolla d’aria intrappolata è una macchina del tempo (Staffelbach et al., 1991; Berends et al., 2021; Bauska, 2024).

La traccia dell’uomo

Quando osserviamo il passato del clima, vediamo che le sue variazioni sono state guidate da forzanti naturali: cicli orbitali (i cosiddetti cicli di Milanković), variazioni dell’attività solare, grandi eruzioni vulcaniche. Questi meccanismi hanno regolato per millenni l’alternarsi di periodi glaciali e interglaciali. Tuttavia, nessuna di queste spiegazioni è sufficiente a giustificare l’aumento repentino e marcato della temperatura media globale registrato negli ultimi 150 anni.

Solo includendo nei modelli climatici le forzanti antropiche – in particolare le emissioni di gas serra derivanti dalla combustione di combustibili fossili, la deforestazione su larga scala, l’allevamento intensivo e l’uso massiccio di fertilizzanti – è possibile riprodurre fedelmente l’andamento osservato del riscaldamento globale (Stott et al., 2000; Meehl et al., 2004; Lee et al., 2016; Abatzoglou et al., 2018; Schlunegger et al., 2019; He et al., 2023; Tjiputra et al., 2023; Abera et al., 2024; Gong et al. 2024).

Questa evidenza è stata raccolta e consolidata da decenni di ricerca, culminando nella sintesi fornita dall’Intergovernmental Panel on Climate Change (IPCC) nel suo Sesto Rapporto di Valutazione (AR6, 2021), dove si legge:

“It is unequivocal that human influence has warmed the atmosphere, ocean and land.”

È la prima volta che l’IPCC utilizza il termine “inequivocabile” per descrivere l’influenza umana sul sistema climatico. Questo non è frutto di una singola analisi o di un’interpretazione soggettiva, ma il risultato di milioni di osservazioni, migliaia di simulazioni indipendenti e centinaia di studi scientifici pubblicati su riviste peer-reviewed. Un risultato convergente, robusto e statisticamente solido, ottenuto da comunità scientifiche di tutto il mondo.

In altre parole, senza introdurre l’uomo nelle equazioni, il riscaldamento osservato non si spiega.

La firma fossile

Anche la chimica ci aiuta a riconoscere con chiarezza il responsabile. Il carbonio che proviene dai combustibili fossili ha una composizione isotopica distinta rispetto a quello attivamente scambiato tra atmosfera, biosfera e oceani. In particolare, il rapporto tra gli isotopi stabili del carbonio (13C/12C) è un indicatore chiave: i combustibili fossili, derivati dalla sostanza organica vegetale antica, sono naturalmente poveri in 13C. Quando bruciamo carbone, petrolio o gas naturale, questo carbonio “leggero” si riversa nell’atmosfera, abbassando il δ13C atmosferico in modo misurabile (Keeling et al., 1979; Francey et al., 1999).

Questo segnale isotopico rappresenta una vera e propria firma chimica dell’origine fossile della CO2 in eccesso. È come se la Terra ci stesse restituendo lo scontrino della nostra attività industriale.

Un’ulteriore conferma arriva dal monitoraggio del radiocarbonio (14C): essendo un isotopo radioattivo con un’emivita di circa 5.700 anni, è completamente assente nei combustibili fossili, che hanno milioni di anni. L’immissione massiccia di CO2 fossile diluisce il contenuto di 14C nell’atmosfera, un fenomeno noto come Suess effect (Suess, 1955; Graven et al., 2012).

Ma la CO2 non è l’unico gas climalterante in aumento. A questo si aggiungono due gas serra minori ma molto più potenti per unità di massa: il metano (CH4) e il protossido di azoto (N2O). Il metano è rilasciato da fonti naturali, ma in misura crescente anche da allevamenti intensivi, risaie e attività estrattive (Kirschke et al., 2013), mentre il protossido di azoto deriva principalmente dall’uso agricolo di fertilizzanti azotati (Syakila & Kroeze, 2011). Entrambi i gas contribuiscono in modo sostanziale al riscaldamento globale, con un potere climalterante rispettivamente 28–34 volte (CH4) e circa 265 volte (N2O) superiore a quello della CO2 su scala centennale (IPCC AR6, 2021).

La loro crescita, documentata in registrazioni atmosferiche e bolle d’aria nei ghiacci, segue l’espansione delle attività agricole e industriali umane, non eventi naturali. Anche qui, la firma è inequivocabile.

Gli alibi non reggono

C’è chi punta il dito contro i vulcani, sostenendo che siano loro a rilasciare enormi quantità di CO₂. Ma questa affermazione è smentita dai dati: le emissioni vulcaniche annue di anidride carbonica sono stimate intorno ai 0,26 gigatonnellate, contro le oltre 36 gigatonnellate prodotte ogni anno dalle attività umane (Andres et al., 2012; Burton et al., 2013). In altre parole, le emissioni antropiche superano quelle vulcaniche di almeno 100 volte. I vulcani, inoltre, spesso hanno effetti raffreddanti temporanei sul clima, a causa degli aerosol solforici che riflettono la luce solare (come accadde dopo l’eruzione del Pinatubo nel 1991; Soden et al., 2002).

Altri tirano in ballo il Sole. Ma le osservazioni satellitari dal 1978 in poi mostrano che l’irraggiamento solare totale (TSI) è rimasto sostanzialmente stabile o ha addirittura subito una lieve diminuzione. Se il Sole fosse il responsabile del riscaldamento, ci aspetteremmo un riscaldamento uniforme in tutta l’atmosfera. Invece, ciò che si osserva è un riscaldamento netto nella troposfera e un raffreddamento nella stratosfera — una firma tipica dell’effetto serra (Santer et al., 2013).

Altri ancora evocano vaghi “cicli naturali”, ma senza mai specificare quali. I cicli oceanici come El Niño o la PDO (Pacific Decadal Oscillation) possono modulare il clima a livello regionale e su scala interannuale o decadale, ma non spiegano la tendenza globale e persistente all’aumento delle temperature. Sono fluttuazioni attorno a una curva che, negli ultimi decenni, ha una pendenza chiaramente positiva.

La verità è che ogni singolo grande ente scientifico mondiale — dalla NASA alla NOAA, dal Met Office britannico fino al Centro Europeo Copernicus, e naturalmente l’IPCC — concorda su questo punto:

la causa principale del riscaldamento globale osservato dal 1850 a oggi è l’attività umana.

Non è tutta colpa nostra?

Certo, i sistemi climatici sono complessi. Una componente naturale è sempre presente.
Ma i modelli climatici sono in grado di isolare le diverse forzanti: senza introdurre le emissioni antropiche, non si riesce a riprodurre l’aumento delle temperature globali osservato nel XX e XXI secolo (Weart, 2009; IPCC AR5, 2013; Rosenzweig & Neofotis, 2013; White, 2025).
Senza l’uomo, questo riscaldamento non ci sarebbe stato. E senza l’uomo, non sarà possibile fermarlo.

Una responsabilità storica

Siamo la prima generazione a vedere, misurare e comprendere gli effetti del cambiamento climatico su scala planetaria. Ma siamo anche — con ogni probabilità — l’ultima che ha ancora tempo per intervenire e limitare i danni più gravi.
Non parliamo di proiezioni astratte o scenari lontani: le ondate di calore, gli incendi fuori scala, la fusione dei ghiacci, le migrazioni forzate per siccità o inondazioni sono già realtà, e sono il frutto diretto di decenni di emissioni accumulate.

A causare il cambiamento climatico è stata l’attività dell’uomo moderno, non l’uomo in quanto specie.
Abbiamo costruito un modello economico basato sull’uso massiccio di combustibili fossili, sull’espansione urbana, sull’agricoltura intensiva, sull’estrazione incessante di risorse. Questo sistema ci ha dato energia, mobilità, benessere. Ma ha anche rotto l’equilibrio termico del pianeta.

Il clima sta cambiando per colpa nostra. Ma proprio per questo, possiamo ancora cambiarlo noi.

Non basta più ridurre “un po’” le emissioni o piantare qualche albero. Serve una trasformazione sistemica:

  • Decarbonizzare i trasporti, l’energia e l’industria, puntando su fonti rinnovabili come l’eolico e il solare, ma senza pregiudizi ideologici nei confronti del nucleare, che – come ho già discusso nell’articolo L’atomo della pace – resta una delle poche fonti capaci di fornire energia a basse emissioni su larga scala.
  • rivedere le pratiche agricole e alimentari, riducendo l’impatto ambientale della produzione primaria attraverso un uso più razionale di risorse come acqua, fertilizzanti e suolo, e promuovendo sistemi colturali e zootecnici improntati alla sostenibilità. L’agricoltura integrata, che prevede un equilibrio tra coltivazioni e allevamenti, può contribuire a mantenere la fertilità dei suoli, ridurre le emissioni climalteranti e garantire una produzione alimentare efficiente e resiliente. Anche la lotta agli sprechi resta fondamentale lungo tutta la filiera.
  • proteggere e ripristinare gli ecosistemi naturali, perché foreste, zone umide e suoli ricchi di sostanza organica svolgono un ruolo chiave come serbatoi di carbonio. Intervenire su scala paesaggistica significa rafforzare la capacità del pianeta di tamponare gli effetti del riscaldamento globale, rallentando i feedback più pericolosi.
  • adattare città e territori agli eventi estremi già in corso, ripensando la gestione del rischio, l’urbanizzazione selvaggia e l’impermeabilizzazione del suolo. L’aumento delle temperature e la frequenza di fenomeni meteorologici estremi impongono infrastrutture più resilienti, spazi verdi urbani, reti idriche e sistemi di allerta progettati per il clima che verrà – non per quello che avevamo.

E accanto alle scelte politiche e industriali, anche le azioni individuali contano: ridurre gli sprechi, consumare meno e meglio, informarsi, partecipare, votare con consapevolezza.

Non è una colpa da espiare.
Non serve sentirsi inadeguati o sopraffatti.
È una responsabilità storica che possiamo ancora scegliere di assumerci.
Perché, se il problema è stato causato dall’uomo, la soluzione può venire solo da noi.

Caldo globale, temporali locali: l’apparente paradosso

Introduzione

Negli ultimi anni, gli eventi meteorologici estremi sono diventati sempre più frequenti, sia in Italia che nel resto del mondo.
Una mappa interattiva dell’ISPRA, consultabile online, mostra chiaramente dove questi eventi si sono verificati in Italia tra il 2020 e il 2024. Si osservano piogge torrenziali, grandinate eccezionali, ondate di calore anomale e prolungate. Tutti segnali di un sistema climatico sempre più instabile.

Come conseguenza di queste anomalie, è sempre più comune imbattersi – soprattutto sui social – in discussioni o thread in cui si afferma che fenomeni come le alluvioni, seguite da bruschi cali di temperatura, smentirebbero l’esistenza del riscaldamento globale.
Una frase ricorrente è:

“Altro che riscaldamento globale: ieri grandinava e oggi ci sono 18 gradi!”

Chi vive in zone come Palermo – dove, negli ultimi anni, si sono registrati picchi termici estremi e livelli di umidità superiori all’80%, anche in pieno giorno – tende invece a riconoscere, in modo molto concreto, la realtà del cambiamento climatico.

“Orpo… che caldo. Veramente stiamo andando verso qualcosa che non abbiamo mai vissuto.”

Ma come si concilia tutto questo?

Come può il riscaldamento globale provocare temporali violenti, grandinate e persino abbassamenti improvvisi della temperatura?

Dobbiamo innanzitutto ricordare che la logica scientifica è controintuitiva. Non possiamo applicare al metodo scientifico la logica che usiamo tutti i giorni per collegare ciò che vediamo con ciò che pensiamo sia vero: la realtà fisica spesso sorprende e non si lascia interpretare con impressioni o sensazioni.

Sulla base di queste premesse, chiediamoci cosa accade sulla superficie terrestre quando la temperatura aumenta di un solo grado Celsius. Un grado può sembrare poco. Se tocchiamo una pentola a 70 °C proviamo lo stesso bruciore che a 71 °C. E non distinguiamo tra il freddo di 0 °C e quello di -1 °C.

Ma il pianeta non è il nostro palmo, né il nostro naso.

Nel sistema Terra, un solo grado può fare una differenza gigantesca: significa più energia, più evaporazione, più acqua nell’atmosfera. E più acqua nell’aria significa, potenzialmente, più pioggia, più violenza, più squilibrio.

Per capire quanto sia concreta questa affermazione, facciamo un semplice calcolo: stimiamo quanta acqua in più evapora dagli oceani quando la loro temperatura superficiale sale di un solo grado come, per esempio, da 25 °C a 26 °C.

Effetti della temperatura sull’equilibrio H2Oliquido = H2Ovapore

Per semplicità, consideriamo solo una porzione di oceano estesa per 100 milioni di metri quadrati (pari a 100 km²) e limitiamoci al primo metro d’aria immediatamente sovrastante. Vogliamo capire quanta acqua in più finisce nell’aria subito sopra l’oceano quando la sua temperatura sale di un solo grado, da 25 °C a 26 °C.

  1. L’equazione di Antoine

Per stimare la pressione di vapore dell’acqua alle due temperature, usiamo la formula empirica di Antoine, valida tra 1 e 100 °C:

log₁₀(P) = A − B / (C + T)

dove:

  • P è la pressione di vapore in mmHg,
  • T è la temperatura in gradi Celsius,
  • A, B, C sono coefficienti specifici per ciascuna sostanza (ad esempio, acqua, etanolo, acetone…) e validi solo entro certi intervalli di temperatura. Nel caso specifico dell’acqua: A = 8.07131; B = 1730.63; C = 233.426 (valori specifici per l’acqua in questo intervallo). Il riferimento per i valori numerici di A, B e C è qui.

Convertiamo poi la pressione in Pascal (1 mmHg = 133.322 Pa).

  1. I risultati

Applicando i valori:

  • a 25 °C si ottiene P ≈ 23.76 mmHg, cioè circa 3158 Pa;
  • a 26 °C si ottiene P ≈ 25.13 mmHg, cioè circa 3351 Pa.
  1. Calcolo della densità del vapore

Convertiamo ora la pressione parziale in densità di vapore acqueo (ρ), usando l’equazione dei gas ideali:

ρ = (P × M) / (R × T)

dove:

  • P è la pressione in pascal,
  • M è la massa molare dell’acqua (18.015 g/mol),
  • R è la costante dei gas (8.314 J/mol·K),
  • T è la temperatura assoluta in Kelvin.

Calcolando:

  • a 25 °C (298.15 K) si ottiene ρ ≈ 0.02295 kg/m³;
  • a 26 °C (299.15 K) si ottiene ρ ≈ 0.02431 kg/m³.
  1. L’aumento netto di vapore

La differenza di densità è:

0.02431 − 0.02295 = 0.00136 kg/m³

Moltiplichiamo per il volume d’aria (100 000 000 m³):

0.00136 × 100 000 000 = 136.000 kg

In altre parole, un aumento di temperatura di 1 °C (da 25 a 26 °C) genera 136 tonnellate di vapore in più, solo su una superficie di 100 km² e solo nello strato d’aria immediatamente sopra l’oceano.

E se fosse tutto l’Atlantico?

Se estendiamo il calcolo all’intera superficie dell’Oceano Atlantico – circa 116 milioni di km² – otteniamo:

157 800 000 000 kg, ovvero 158 milioni di tonnellate di vapore acqueo in più.

E questo, lo ripeto, solo nello strato d’aria immediatamente sopra la superficie, per un singolo grado in più.

Ma quei numeri non restano sulla carta. Entrano in circolo nell’atmosfera, e da lì comincia il loro impatto reale.

Dall’oceano alla pioggia: il viaggio del vapore

Ma cosa succede a tutta quest’acqua una volta entrata in atmosfera?

Viene trasportata dalle correnti. Quando incontra masse d’aria più fredde, condensa formando nubi e poi pioggia. Se la quantità di vapore è anomala, lo saranno anche le precipitazioni: brevi, violente, improvvise.

Inoltre, il vapore acqueo è attivo nell’infrarosso: è un gas serra molto più potente della CO₂, anche se molto più effimero. In climatologia si parla di feedback positivo: l’aumento della temperatura fa evaporare più acqua → il vapore trattiene più calore → aumenta ancora la temperatura → e così via.

Quella pioggia non è “contro” il riscaldamento: è il riscaldamento

Piogge torrenziali, grandinate e cali locali della temperatura non smentiscono il riscaldamento globale. Al contrario, ne sono una conseguenza. Il sistema Terra si scalda in media, ma localmente può produrre raffreddamenti temporanei proprio in risposta a squilibri energetici più ampi.

Conclusioni

Il calcolo che ho presentato è, ovviamente, una semplificazione. Non tiene conto del vento, della turbolenza, della salinità, né della reale dinamica verticale dell’atmosfera. Non pretende di descrivere con esattezza tutto ciò che accade nell’interazione tra oceano e cielo. Ma ha un obiettivo chiaro: rendere visibile, con i numeri, una verità che l’intuizione fatica a cogliere.

Perché la logica scientifica non coincide con il senso comune.

Come ho già scritto, nel nostro vissuto quotidiano, un solo grado in più non è nulla. Non percepiamo differenze tra 0 °C e -1 °C, tra 70 °C e 71 °C. Ma il sistema Terra non funziona secondo ciò che sentiamo sulla pelle: funziona secondo leggi fisiche. E in fisica, un solo grado può significare miliardi di tonnellate d’acqua in più nell’atmosfera. Significa più energia, più instabilità, più violenza meteorologica.

Paradossalmente, quello che percepiamo come una smentita del riscaldamento globale – la grandine, il temporale, il crollo improvviso delle temperature – ne è invece una manifestazione diretta.

Il clima risponde con intensità e disordine proprio perché è fuori equilibrio. E lo è, in parte, per colpa di quell’apparente “piccolo” grado in più.

La scienza ci dà gli strumenti per misurare, per capire, per anticipare.

Sta a noi scegliere se vogliamo continuare a confondere il temporale con una tregua, o iniziare a leggere in quelle piogge il segnale di un sistema che sta cambiando – e lo sta facendo sotto i nostri occhi.

Quella pioggia che ti ha fatto dire “ma quale riscaldamento globale?” è esattamente il motivo per cui dovremmo iniziare a preoccuparci.

Microplastiche, lavastoviglie e fake news: come orientarsi tra dati e paure

Già in un mio precedente articolo avevo affrontato il tema delle microplastiche, cercando di distinguere tra rischi reali, ipotesi ancora in fase di studio e allarmismi infondati. Se volete rinfrescarvi la memoria o approfondire meglio il quadro generale, potete leggerlo qui:
👉 Microplastiche: i rischi che conosciamo, le sorprese che non ti aspetti

In questa sede voglio, invece, portare alla vostra attenzione il pericolo della divulgazione basata sull’allarmismo.

33 milioni di micro- e nanoplastiche? Cosa c’è davvero dietro le notizie virali

Negli ultimi giorni si è diffusa online una notizia allarmante: le lavastoviglie sarebbero una fonte importante di microplastiche, con milioni di particelle rilasciate ad ogni ciclo di lavaggio. Su siti come HDBlog (vedi screenshot qui sotto) si parla addirittura di 33 milioni di nanoplastiche generate da un solo ciclo di lavaggio, dipingendo un quadro piuttosto drammatico per l’ambiente domestico e urbano.

Immagine presa dal sito HDBlog

Tuttavia, analizzando con attenzione lo studio scientifico originale su cui si basa questa notizia, emergono diversi aspetti importanti e ben diversi da quelli riportati in modo semplicistico e sensazionalistico da molti siti di “pseudo divulgazione”.

Innanzitutto, lo studio mostra che sì, le lavastoviglie rilasciano micro- e nanoplastiche, ma la quantità è estremamente bassa: meno di 6 milligrammi di plastica all’anno per persona, cioè meno del peso di un chicco di riso. Paragonare questo dato numerico alla dichiarazione di milioni di particelle è fuorviante, perché il numero di particelle non dice nulla sulla massa o sull’impatto reale, che rimane trascurabile su base individuale.

Inoltre, la tipologia di plastica e la dimensione delle particelle variano in base al tipo di articolo lavato (polietilene, polipropilene, nylon, ecc.), e i materiali più “vecchi” o usurati rilasciano più frammenti. Lo studio suggerisce quindi che sia importante approfondire come l’invecchiamento della plastica influisca sulla generazione di microplastiche, cosa che non viene mai menzionata nei titoli allarmistici.

Dal punto di vista ambientale, sebbene i sistemi di trattamento delle acque reflue trattengano circa il 95% delle microplastiche, la quantità complessiva globale rilasciata nell’ambiente sta crescendo con l’aumento dell’uso della plastica. Tuttavia, le lavastoviglie domestiche rappresentano solo una piccola fonte rispetto ad altre.

Un articolo più attendibile e chiaro sull’argomento, che riporta fedelmente i risultati della ricerca, è quello di Phys.org, sito scientifico noto per l’accuratezza e la qualità della divulgazione. Vi consiglio di leggere anche lì per avere un quadro completo e serio della situazione.

Come riconoscere le fake news ambientali?

Molto spesso mi chiedono: “Se non sono esperto, come faccio a capire se una notizia è attendibile”? La risposta non è semplice, ma c’è una regola d’oro: non fermatevi mai alla prima fonte che conferma ciò che già pensate o che alimenta le vostre paure o convinzioni. Spesso chi cerca notizie sensazionalistiche cade nel cosiddetto cherry picking, ovvero sceglie solo quei dati o informazioni che supportano la propria idea, ignorando tutto il resto. Questo atteggiamento è comune a chi si sente “rivoluzionario” o “antisistema”, ma in realtà non ha le competenze scientifiche per comprendere a fondo la questione.

Per evitare di cadere in queste trappole, è fondamentale confrontare le informazioni con fonti diverse e affidabili, preferendo siti di divulgazione scientifica consolidata, che spiegano dati, metodi e limiti delle ricerche. Ma come riconoscere un sito davvero affidabile? Ecco alcuni indicatori:

  • Chiarezza e trasparenza delle fonti: i siti seri riportano sempre riferimenti precisi agli studi scientifici originali o a istituti riconosciuti, spesso con link diretti alle pubblicazioni o informazioni sugli autori.

  • Presentazione equilibrata dei dati: non si limitano a enfatizzare solo risultati sensazionalistici, ma spiegano anche i limiti delle ricerche e le diverse interpretazioni possibili.

  • Assenza di titoli esagerati o clickbait: i titoli sono informativi, senza allarmismi o esagerazioni mirate solo a catturare l’attenzione.

  • Autori qualificati e trasparenza: i contenuti sono scritti o revisionati da esperti o giornalisti scientifici con esperienza e il sito fornisce informazioni su chi li produce.

  • Aggiornamenti regolari e dialogo con i lettori: i siti affidabili aggiornano le informazioni con nuovi studi, correggono eventuali errori e talvolta rispondono alle domande o ai commenti.

  • Scopo divulgativo ed educativo: l’obiettivo è informare e spiegare con rigore, non vendere prodotti o promuovere agende ideologiche.

Le testate generaliste o i siti di pseudo divulgazione spesso puntano più al click facile e all’effetto emotivo che a un’informazione rigorosa e bilanciata. Il risultato è un circolo vizioso di paure ingiustificate, confusione e disinformazione, che non aiuta né il pubblico né la causa ambientale che vogliamo davvero sostenere.

Conclusioni

La lotta all’inquinamento da plastica passa innanzitutto dal controllo e dalla prevenzione all’origine, riducendo l’uso di plastica, migliorando il riciclo e introducendo filtri efficaci nelle apparecchiature domestiche come lavatrici e lavastoviglie. Non facciamoci ingannare da titoli e numeri sensazionalistici: l’informazione corretta è il primo passo per agire con consapevolezza.

Senza logica mal si cogita: intervista

Non sono sparito dal panorama della rete. Ho solo diradato i miei interventi e mi limito a considerazioni sulle cose più curiose e strane che mi possono capitare per le mani.

Qualche tempo fa Michele Totta, autore di un bellissimo libro sull’intreccio tra scienza e filosofia (qui) e gestore di un ottimo canale YouTube dal titolo “Senza logica mal si cogita” (qui), mi chiese la disponibilità per una breve intervista sulla scienza e sulle mie attività. Inutile dire che mi sono sentito onorato per una tale richiesta ed ho accettato con enorme piacere. L’unico problema è che se mettete un microfono in mano a un professore universitario, il concetto di “breve” è relativo. Ed infatti l’intervista è durata un po’ più di un’ora. Devo dire che non me ne sono accorto, ovviamente, e mi sono divertito parecchio. Abbiamo parlato di un bel po’ di cose, finendo anche sull’idea che ho io di scienza e sui motivi che mi hanno spinto a fare il chimico. Se avete voglia di passare un’oretta circa della vostra vita con Michele e me, basta cliccare qui sotto:

 

 

Parlo di biodinamica con la Senatrice Cattaneo e Gianluca Nicoletti

Oggi sono stato nella trasmissione di Gianluca Nicoletti (Melog) a parlare della biodinamica. Ho preceduto il bellissimo intervento della Senatrice Elena Cattaneo. Per ascoltare il podcast basta cliccare sull’immagine qui sotto per aprire la pagina dei podcast di Radio24 e da lì cliccare sul tastino “play”. Buon ascolto.

Il podcast si può ascoltare anche sulla pagina Facebook di Melog, qui sotto

Fonte dell’immagine di copertina

 

Parliamo di agricoltura biodinamica

“Parliamo ancora di agricoltura biodinamica?”, chiederete voi. “Ma non ti stanchi mai?”, aggiungerete. Il fatto è che se non si alza la voce, maghi e fattucchiere hanno la meglio sulla ragione e la logica.

Purtroppo è di queste ore la notizia che il Senato della Repubblica ha approvato un disegno di legge sull’agricoltura biologica (qui). Fin qui niente di strano, potrete dire. Il problema è che gli appassionati di esoterismo, che evidentemente non mancano tra quelli che siedono nei banchi del Senato, hanno approvato una legge in cui l’agricoltura biodinamica viene equiparata in tutto e per tutto all’agricoltura biologica. Quali sono le conseguenze di tutto ciò? Una tra tutte è che pagheremo con le nostre tasse gli incentivi all’agricoltura biodinamica esattamente come paghiamo quelli all’agricoltura biologica che, però, ha fondamenta scientifiche che la prima non ha.

Di questo e di altro parleremo in diretta streaming su YouTube e Twich e il 25 Maggio alle ore 20:30 assieme a Daniel Puente, che gestisce un interessantissimo canale YouTube (qui), e Valentino Riva.

Per la diretta YouTube basta cliccare qui: https://youtu.be/L26PJauNcfs

Per la diretta Twich basta cliccare qui: https://www.twitch.tv/biologic_twitch

Vi aspettiamo!

Sugli insetti e sui parabrezza

Avete mai sentito parlare del widescreen phenomenon? No? Eppure, tra gli ecologisti della domenica va per la maggiore. Si tratta della constatazione che il numero di insetti stia diminuendo perché i parabrezza delle auto non sono più così sporchi di insetti spiaccicati come quando eravamo piccoli.

Sono le classiche elucubrazioni di gente che di scienza non capisce niente e capisce ancor meno di come si realizza un disegno sperimentale per trovare una risposta alla domanda “la popolazione di insetti su scala globale sta veramente diminuendo?” oppure “esiste una relazione tra l’uso di agrofarmaci e numerosità della popolazione di insetti?”, e potrei continuare, naturalmente. È la stessa tipologia di approccio pseudoscientifico che viene usato dai fantastici fautori di quella robaccia che si chiama omeopatia e che si riassume con “su di me funziona” (ne ho già scritto qui).

La cosa bella è che queste elucubrazioni vengono diffuse da siti molto seguiti (per esempio qui e qui) che contribuiscono alla cosiddetta disinformazione o cattiva divulgazione scientifica.

Vediamo perché la relazione tra parabrezza, numero di insetti spiaccicati e popolosità degli stessi sia una bufala.

Innanzitutto, dobbiamo cominciare col dire che uno studio su scala globale relativo alla perdita di biodiversità (non solo, ma limitiamoci alla biodiversità) va disegnato in modo tale da ottenere risultati non solo replicabili, ma anche riproducibili[1]. Alla luce di quanto scritto, è possibile pensare che il numero di volte in cui puliamo il parabrezza delle nostre automobili sia un dato attendibile? La risposta è no. Il motivo è abbastanza semplice: percorriamo sempre la stessa strada? Sempre alla stessa velocità? Sempre nelle stesse condizioni climatiche? Sempre con la stessa auto?

Esistono strade di tantissime forme, dimensioni e condizioni, tutti fattori che vengono sempre ignorati quando il windscreen phenomen è usato come indice per misurare la popolazione degli insetti. Non dimentichiamoci, inoltre, che le strade generano i cosiddetti bordi nel paesaggio. Come sanno tutti quelli che si interessano di indagini analitiche di ogni tipo, gli effetti dei bordi sono sempre difficili da misurare e generalizzare.

E come facciamo il campionamento? Guidiamo verso i bordi della carreggiata? Allora ci dobbiamo aspettare di campionare una popolazione di insetti di corporatura più massiccia di quelli che potremmo rilevare sul parabrezza se guidassimo esattamente al centro della strada. E a che ora pensiamo di fare il campionamento? Persino io che non sono un entomologo so che la tipologia di insetti che vivono negli ambienti intorno alle strade differisce a seconda del periodo della giornata in cui ci muoviamo. E cosa andiamo a misurare? Il numero di resti presenti sul parabrezza? La loro densità? La forza che usiamo per staccare i poveri resti degli insetti spiaccicati?

Ma non basta. Se io guido sempre nella stessa microzona del pianeta, mi posso permettere di estrapolare le mie pseudo-osservazioni ad altre zone del pianeta? Ovviamente no, perché le mie pseudo-osservazioni sono valide solo per la strada che percorro abitualmente, non per le altre. Chi mi assicura che gli insetti non si siano evoluti in modo tale da andare a popolare le zone limitrofe a quelle che io frequento abitualmente con la mia auto, solo perché hanno imparato che la zona che frequento è quella più pericolosa del sistema in cui essi vivono?

Eh, sì. Tutte quelle elencate, ed anche di più, sono le domande a cui dobbiamo rispondere per rendere un dato attendibile. Sfido tutti gli pseudo-ambientalisti che usano il windscreen phenomenon a rispondere in modo coerente a tutte le domande sopra elencate.

Letture aggiuntive e note

The windscreen phenomenon: anecdata is not scientific evidence

More than 75 percent decline over 27 years in total flying insect biomass in protected areas

Declining abundance of beetles, moths and caddisflies in the Netherlands

Parallel declines in abundance of insects and insectivorous birds in Denmark over 22 years

[1] Replicabilità e riproducibilità non hanno lo stesso significato. La prima si riferisce alla capacità del medesimo ricercatore (o gruppo di ricerca) di ottenere i medesimi risultati nello stesso laboratorio in tempi differenti. La seconda si riferisce alla capacità di ricercatori differenti in laboratori differenti e fisicamente lontani tra loro, di ottenere i medesimi risultati di una data ricerca scientifica.

Fonte dell’immagine di copertina

Share