La Sindone e la scienza: dal Medioevo alla risonanza magnetica

Ormai lo sanno anche le pietre: mi occupo di risonanza magnetica nucleare su matrici ambientali. Tradotto per i non addetti: uso la stessa tecnica che in medicina serve a vedere dentro il corpo umano, ma applicata a tutt’altro – suoli, sostanza organica naturale, piante e materiali inerti. Ripeto: non corpi umani né animali, ma sistemi ambientali.

C’è un dettaglio curioso. I medici hanno tolto l’aggettivo “nucleare” dal nome, per non spaventare i pazienti. Peccato che, senza quell’aggettivo, l’espressione “risonanza magnetica” non significhi nulla: risonanza di cosa? elettronica, fotonica, nucleare? Io, che non ho pazienti da rassicurare, preferisco chiamare le cose con il loro nome: risonanza magnetica nucleare, perché studio la materia osservando come i nuclei atomici interagiscono con la radiazione elettromagnetica a radiofrequenza.

Non voglio dilungarmi: non è questa la sede per i dettagli tecnici. Per chi fosse curioso, rimando al mio volume The Environment in a Magnet edito dalla Royal Society of Chemistry.

Tutto questo per dire che in fatto di risonanza magnetica nucleare non sono proprio uno sprovveduto. Me ne occupo dal 1992, subito dopo la laurea in Chimica con indirizzo Organico-Biologico. All’epoca iniziai a lavorare al CNR, che aveva una sede ad Arcofelice, vicino Pozzuoli, in provincia di Napoli. È lì che cominciai a usare l’NMR per studiare la relazione struttura-attività dei metaboliti vegetali: un banco di prova perfetto per capire quanto questa tecnica potesse rivelare.

Successivamente passai all’Università degli Studi di Napoli Federico II, dove estesi l’uso della risonanza magnetica nucleare non solo alla fase liquida, ma anche a quella solida e semisolida. Non più soltanto metaboliti vegetali, dunque, ma matrici molto più complesse dal punto di vista chimico: il suolo e la sostanza organica ivi contenuta.

Con il mio trasferimento all’Università di Palermo ho potuto ampliare ulteriormente le competenze in NMR: dall’uso di strumenti a campo magnetico fisso sono passato allo studio delle stesse matrici naturali con spettrometri a campo variabile. Un passo avanti che mi ha permesso di guardare i sistemi ambientali con ancora più profondità e sfumature.

Ed eccomi qui, dopo più di trent’anni di esperienza, a spiegare perché chi immagina di usare la risonanza magnetica nucleare sulla Sindone di Torino forse ha una visione un po’… fantasiosa della tecnica.

Andiamo con ordine.

La Sindone di Torino: simbolo religioso e falso storico

La Sindone

La Sindone di Torino è un lenzuolo di lino lungo circa quattro metri che reca impressa l’immagine frontale e dorsale di un uomo crocifisso. Per il mondo cattolico rappresenta una delle reliquie più importanti: secondo la tradizione, sarebbe il sudario che avvolse il corpo di Cristo dopo la crocifissione. Attorno ad essa si è sviluppato un culto popolare immenso, fatto di pellegrinaggi e ostensioni pubbliche che ne hanno consacrato il valore spirituale.

Ma che cosa ci dice la scienza su questo straordinario manufatto?

La datazione al radiocarbonio

Il dato più solido arriva dalla datazione con il radiocarbonio. Nel 1988 tre laboratori indipendenti – Oxford, Zurigo e Tucson – pubblicarono sulla rivista Nature i risultati delle loro analisi: il lino della Sindone risale a un periodo compreso fra il 1260 e il 1390 d.C., cioè in piena epoca medievale (Damon et al., 1989). La conclusione degli autori fu inequivocabile: “evidence that the linen of the Shroud is mediaeval”.

Riproduzioni sperimentali

A rafforzare questa interpretazione è intervenuto anche il lavoro del chimico Luigi Garlaschelli, che ha realizzato una riproduzione della Sindone utilizzando tecniche compatibili con l’arte medievale: applicazione di pigmenti su un rilievo, trattamenti acidi per simulare l’invecchiamento, lavaggi parziali per attenuare il colore. Il risultato, esposto in varie conferenze e mostre, mostra come un artigiano del Trecento avrebbe potuto ottenere un’immagine con molte delle caratteristiche dell’originale (Garlaschelli, 2009).

Le conferme della storia

Anche le fonti storiche convergono. Un documento recentemente portato alla luce (datato 1370) mostra che già all’epoca un vescovo locale denunciava il telo come un artefatto, fabbricato per alimentare un culto redditizio (RaiNews, 2025). Questo si aggiunge al più noto documento del 1389, in cui il vescovo di Troyes, Pierre d’Arcis, scriveva a papa Clemente VII denunciando la falsità della reliquia.

Le contro-argomentazioni sindonologiche

Naturalmente, chi sostiene l’autenticità della Sindone non è rimasto in silenzio. Le principali obiezioni riguardano:

  1. Il campione del 1988 – secondo alcuni, la zona prelevata sarebbe stata contaminata da un rammendo medievale, o comunque non rappresentativa dell’intero telo (Karapanagiotis, 2025).
  2. L’eterogeneità dei dati – alcuni statistici hanno osservato che i tre laboratori non ottennero risultati perfettamente omogenei, segnalando possibili anomalie (Karapanagiotis, 2025).
  3. Eventi successivi – l’incendio di Chambéry del 1532, o la formazione di patine microbiche, avrebbero potuto alterare la concentrazione di carbonio-14, facendo sembrare il tessuto più giovane (Karapanagiotis, 2025).

Sono ipotesi discusse ma che non hanno mai trovato prove decisive: nessuna spiegazione è riuscita a giustificare in modo convincente come un tessuto del I secolo potesse apparire medievale a tre laboratori indipendenti.

Le nuove analisi ai raggi X

Negli ultimi anni si è parlato di nuove tecniche di datazione basate sulla diffusione di raggi X ad ampio angolo (WAXS). L’idea è di valutare il grado di cristallinità della cellulosa del lino: più il tessuto è antico, maggiore è la degradazione della sua struttura cristallina. Applicata a un singolo filo della Sindone, questa metodologia ha suggerito un’età più antica di quella medievale (De Caro et al., 2022).

Tuttavia, i limiti sono evidenti: si è analizzato un solo filo, e la cristallinità della cellulosa dipende non solo dal tempo, ma anche da condizioni ambientali come umidità, calore o contatto con sostanze chimiche. Inoltre, il metodo è recente e richiede ulteriori validazioni indipendenti. In sintesi: interessante come indicatore di degrado, ma non ancora un’alternativa solida al radiocarbonio.

Una nuova frontiera? L’NMR

Accanto a tutto ciò è emersa anche la proposta di applicare la risonanza magnetica nucleare (NMR) alla Sindone (Fanti & Winkler, 1998). Alcuni autori suggeriscono che questa tecnica possa rivelare “concentrazioni atomiche” di idrogeno, carbonio o azoto nel telo, o addirittura produrre mappe tomografiche.

Nel prossimo paragrafo entrerò nel dettaglio di questa prospettiva “NMR”, analizzando perché, alla luce dell’esperienza maturata in oltre trent’anni di lavoro su queste tecniche, considero queste proposte non solo irrealistiche, ma anche profondamente fuorvianti.

I limiti della prospettiva NMR

Tra le tante proposte avanzate negli anni, c’è anche quella di usare la risonanza magnetica nucleare per studiare la Sindone. Nel lavoro di Giulio Fanti e Ulf Winkler si ipotizza di applicare tecniche NMR per “vedere” la distribuzione di atomi come idrogeno, carbonio e persino azoto sul telo, o addirittura per ottenere mappe tomografiche simili a quelle della risonanza magnetica medica. Sulla carta può sembrare affascinante, ma nella pratica questa prospettiva presenta numerosi limiti.

Nel caso dei protoni (1H), ad esempio, gran parte del segnale in un lino asciutto deriva dall’acqua residua o da componenti volatili: un parametro che può variare fino all’80% semplicemente cambiando le condizioni ambientali. Inoltre, in un solido come il lino della Sindone, l’analisi 1H-NMR non offre risoluzione: lo spettro mostra soltanto due contributi sovrapposti, un picco stretto e intenso dovuto alle zone cristalline della cellulosa e una larga campana sottostante, tipica delle frazioni amorfe. È chiaro, quindi, che non solo è arduo quantificare i protoni, ma è del tutto irrealistico pensare di usarli per una datazione del tessuto.

Per quanto riguarda l’analisi al carbonio-13 (13C), ci sono diversi punti da sottolineare. La tecnica più usata è la CPMAS 13C-NMR: in questo caso una piccola quantità di campione, dell’ordine dei milligrammi, viene inserita in un porta-campioni invisibile all’NMR, posto nel campo magnetico secondo una geometria precisa, e il carbonio viene “visto” sfruttando l’abbondanza dei protoni. Si tratta però di una tecnica qualitativa: non consente una vera quantificazione del nucleo osservato. Inoltre, richiede tempi di misura molto lunghi, con costi elevati e il rischio concreto di non ottenere informazioni davvero utili.

L’alternativa sarebbe la DPMAS 13C-NMR. Qui, a differenza della CPMAS, non ci si appoggia ai protoni e quindi bisogna fare affidamento solo sull’abbondanza naturale del 13C, circa l’1%: troppo bassa. Di conseguenza i tempi macchina si allungano ulteriormente, con dispendio sia di tempo sia economico. E in più la tecnica è priva di risoluzione: i segnali dei diversi nuclei si sovrappongono in un unico inviluppo indistinguibile, rendendo impossibile perfino la stima del rapporto fra cellulosa cristallina e amorfa.

Quanto all’azoto-14 (14N), il nucleo è quadrupolare e produce linee larghissime e difficilmente interpretabili: in pratica, misure affidabili non sono realistiche.

Nel lavoro di Fanti e Winkler, ci sono poi anche problemi di coerenza interna. Nel testo, ad esempio, si ipotizzano tempi di rilassamento e acquisizione non compatibili con i valori sperimentali reali, e si propongono scenari come la “tomografia NMR dell’intero telo” che, per un materiale rigido e povero di mobilità come il lino secco, sono semplicemente impraticabili: i tempi di decadimento del segnale sono troppo brevi perché si possa ricostruire un’immagine come in risonanza magnetica medica.

Infine, il lavoro suggerisce di estendere le misure addirittura a mappature di radioattività con contatori Geiger o a esperimenti di irraggiamento con neutroni, ipotizzando collegamenti con la formazione dell’immagine. Si tratta di congetture prive di fondamento sperimentale, più vicine a un esercizio di fantasia che a un protocollo scientifico realistico.

In sintesi, Fanti e Winkler hanno portato il linguaggio della NMR nel dibattito sulla Sindone, ma le applicazioni che propongono si scontrano con limiti tecnici insormontabili e interpretazioni sbagliate.

L’NMR è uno strumento potentissimo per lo studio di suoli, sostanza organica e sistemi complessi, ma applicarlo alla Sindone nei termini proposti non ha basi scientifiche solide: rischia anzi di trasformare una tecnica seria in un’arma retorica al servizio di ipotesi precostituite.

Conclusioni

Alla fine dei conti, la Sindone di Torino resta ciò che la scienza ha già dimostrato da tempo: un manufatto medievale. Lo dice la datazione al radiocarbonio pubblicata su Nature; lo confermano le riproduzioni sperimentali di Luigi Garlaschelli e i documenti storici del Trecento che la denunciavano come artefatto devozionale; lo ribadiscono i limiti delle nuove tecniche “alternative” che, per quanto presentate come rivoluzionarie, non hanno mai scalfito la solidità del verdetto del 1988. Le contro-argomentazioni dei sindonologi — campioni non rappresentativi, rammendi invisibili, incendi o contaminazioni miracolose — sono ipotesi suggestive, ma prive di prove concrete e incapaci di spiegare perché tre laboratori indipendenti abbiano ottenuto lo stesso responso: Medioevo. Le proposte più recenti, come l’uso dei raggi X o addirittura della risonanza magnetica nucleare, non fanno che spostare il problema, avanzando idee tecnicamente fragili e spesso concettualmente errate.

La Sindone rimane dunque un oggetto straordinario, ma non perché testimoni la resurrezione di Cristo: straordinaria è la sua forza simbolica, straordinaria è la devozione che suscita, straordinaria è la capacità che ha avuto per secoli di alimentare fede, immaginazione e perfino business. Ma sul piano scientifico la questione è chiusa. Continuare a spacciarla per “mistero insoluto” significa ignorare le evidenze e trasformare la ricerca in propaganda. E questo, più che un atto di fede, è un insulto all’intelligenza.

Quando il rischio svanisce, cresce la paura: giudizio, percezione e vaccini

Nel mio articolo Dal Voltaren al vaccino: perché temiamo ciò che ci salva e ignoriamo ciò che ci nuoce mi sono chiesto come mai la sicurezza dei vaccini venga percepita come dubbia, quando invece le evidenze scientifiche mostrano l’opposto.

Un indizio ci arriva da un curioso fenomeno psicologico, studiato qualche anno fa da un gruppo di ricercatori di Harvard e pubblicato su Science: il prevalence-induced concept change, o, per dirla in breve, la tendenza ad ampliare i confini di un concetto man mano che il problema, cui il concetto si riferiva, diventa sempre meno visibile.

Gli autori dello studio – condotto attraverso sette esperimenti su centinaia di volontari – hanno utilizzato compiti molto diversi, dai più semplici ai più complessi. In uno di questi, ad esempio, hanno mostrato ai partecipanti migliaia di puntini colorati che variavano lungo un continuum dal viola al blu e hanno chiesto, test dopo test, di stabilire se ciascun puntino fosse blu oppure no. Al diminuire del numero di puntini blu, i soggetti cominciavano a essere più inclusivi nella definizione: anche puntini che in precedenza avrebbero classificato come viola cominciavano a essere etichettati come blu.

Lo stesso schema si è ripetuto in altri contesti. Per esempio, la valutazione delle espressioni facciali tendeva ad ampliare la definizione di minacciosità quando il numero di volti realmente minacciosi diminuiva. In altre parole, i partecipanti finivano per giudicare come “minacciose” anche espressioni neutre.

Lo stesso si è osservato quando ai volontari è stato chiesto di valutare l’eticità di proposte di ricerca: quando quelle eticamente discutibili diventavano sempre meno numerose, i volontari finivano per giudicare “non etiche” perfino proposte del tutto innocue.

Insomma, al calare della frequenza del problema reale, la mente dei volontari spostava i confini della definizione, includendo dentro la categoria situazioni che in precedenza ne sarebbero rimaste fuori.

È facile capire perché questo meccanismo, utile in altri contesti evolutivi – ad esempio nel riconoscere possibili predatori a partire da indizi minimi, nello scartare cibi anche solo vagamente simili a quelli velenosi o nell’individuare segnali di ostilità nei rapporti sociali – oggi possa giocarci brutti scherzi. Applicato ai vaccini, diventa quasi lampante. Più le malattie infettive diventano rare grazie all’immunizzazione, più tendiamo a ingigantire i rischi, anche minimi, dei vaccini stessi. Eppure, di morbillo si può morire: ancora oggi nei paesi dove la copertura vaccinale è insufficiente si registrano decessi. Il vaiolo, invece, è stato eradicato proprio grazie alla vaccinazione di massa: per secoli ha seminato terrore e morte, oggi non fa più paura solo perché non esiste più nella nostra esperienza quotidiana. Lo stesso vale per malattie come la poliomielite, che può lasciare paralisi permanenti, o la difterite, che ostruisce le vie respiratorie: patologie che i vaccini hanno reso quasi invisibili in gran parte del mondo, al punto che molti non le percepiscono più come minacce reali.

In questo vuoto di percezione, ogni piccolo segnale post-vaccinazione viene sovradimensionato. Un dolore al braccio o una febbriciattola diventano indizi di pericolo grave. Episodi rarissimi finiscono in prima pagina e assumono un peso sproporzionato rispetto all’enorme beneficio collettivo. La percezione si deforma: non vediamo più il quadro generale – la scomparsa o il contenimento di malattie mortali – ma inseguiamo il dettaglio marginale.

E qui entra in gioco la disinformazione. Basta prendere un evento raro, magari un caso clinico eccezionale, e presentarlo come se fosse frequente. L’effetto è immediato: chi legge o ascolta ha l’impressione che i vaccini siano pieni di insidie, anche se i dati mostrano l’esatto contrario. Anzi, paradossalmente la loro stessa sicurezza – dimostrata da miliardi di dosi somministrate senza conseguenze gravi – alimenta la nostra disponibilità a credere alle paure: siccome le malattie non le vediamo più, ci concentriamo sul resto.

La disinformazione, però, non è mai neutrale. C’è sempre qualcuno che ha interesse a diffonderla o, quantomeno, a cavalcarla. Cui prodest? Chi ci guadagna? A volte sono gruppi organizzati che vendono prodotti alternativi, dalle cure miracolose agli integratori “rinforzanti” da assumere al posto dei vaccini. Altre volte sono influencer e canali che cercano visibilità, like, condivisioni: la paura è un potente amplificatore di traffico. E non mancano attori politici che, agitando lo spettro di un presunto complotto, riescono a costruire consenso e identità contro il “sistema”.

Il risultato è che un successo straordinario della scienza – i vaccini che hanno ridotto poliomielite, difterite, morbillo e tante altre infezioni – rischia di apparire, nella percezione comune, come una minaccia anziché come una protezione. È l’ennesima dimostrazione che i dati, da soli, non bastano: servono anche strumenti culturali per difendersi dalla manipolazione del giudizio.

E allora, la prossima volta che qualcuno ci racconta un aneddoto allarmistico, proviamo a fermarci un istante e chiederci: sto giudicando i dati o sto cedendo a un’illusione della percezione?
Perché non sempre ciò che vediamo riflette la realtà. Spesso riflette i tranelli della nostra mente.

Ed è proprio su questi tranelli che i movimenti no-vax costruiscono la loro narrazione: ingigantiscono casi marginali, ignorano le prove scientifiche e alimentano paure che non hanno alcun fondamento. Ma i dati parlano chiaro: i vaccini salvano milioni di vite ogni anno, hanno debellato il vaiolo, ridotto la poliomielite e reso rare malattie che per secoli hanno mietuto vittime. Rifiutarli non è un atto di libertà: è un atto di incoscienza che mette a rischio non solo chi li rifiuta, ma anche chi non può vaccinarsi.

La vera libertà non è cedere a una menzogna rassicurante. La vera libertà è scegliere sulla base delle evidenze, senza farsi manipolare da chi, per interesse o ideologia, lucra sulla paura degli altri.

“Acqua che squilli, acqua che brilli, dacci l’ossigeno senza rovelli” ovvero: perché l’acqua ricca di ossigeno è una bufala

Lo ammetto: come poeta non valgo molto. Niente a che vedere con Gabriele D’Annunzio, che in pochi versi seppe rendere l’acqua una creatura viva, brillante, sempre in movimento:

Acqua di monte,
acqua di fonte,
acqua piovana,
acqua sovrana,
acqua che odo,
acqua che lodo,
acqua che squilli,
acqua che brilli,
acqua che canti e piangi,
acqua che ridi e muggi.
Tu sei la vita
e sempre sempre fuggi.

(“Acqua” di G. D’Annunzio)

Io, invece, mi fermo a un modesto gioco di rime:

“Acqua che squilli, acqua che brilli,
dacci l’ossigeno senza rovelli.”

Ma se io non sono un poeta, nel campo della chimica c’è chi riesce a fare ancora peggio di me con le parole – e soprattutto con i numeri. Nonostante la mia attività divulgativa (o forse proprio a causa di essa), mi capita ancora di imbattermi nei suggerimenti di Facebook che pubblicizzano la cosiddetta “acqua arricchita di ossigeno”, presentata come un toccasana universale.

Ora, tralasciando l’iperbole pubblicitaria, proviamo a capire: a cosa servirebbe tutta questa abbondanza di ossigeno disciolto nell’acqua.

L’ossigeno disciolto e la vita acquatica

Da un punto di vista ambientale, la presenza di ossigeno disciolto in acqua è fondamentale. I pesci, i crostacei e la maggior parte degli organismi acquatici hanno bisogno di ossigeno per vivere, proprio come noi terrestri. La differenza è che loro lo ricavano dall’acqua grazie alle branchie, mentre noi lo ricaviamo dall’aria grazie ai polmoni.

Quando un pesce respira, fa passare l’acqua attraverso sottilissime membrane branchiali: da un lato c’è l’acqua con l’ossigeno disciolto, dall’altro il sangue povero di ossigeno. Per semplice diffusione, l’ossigeno passa nelle cellule del pesce (Figura 1).

Figura 1. Meccanismo di respirazione di un pesce: l’acqua con ossigeno disciolto attraversa le branchie e, per diffusione, l’ossigeno passa nel sangue povero di O₂.

Per questo motivo, i chimici quando valutano la qualità di un’acqua non guardano solo alla sua purezza, ma anche a due parametri legati all’ossigeno:

  • il BOD (Biochemical Oxygen Demand), che indica quanta parte dell’ossigeno disciolto viene consumata dai microrganismi per decomporre la sostanza organica;
  • il COD (Chemical Oxygen Demand), che misura quanta parte dell’ossigeno è necessaria per ossidare la sostanza organica, indipendentemente dai microrganismi.

Più alti sono BOD e COD, meno ossigeno resta a disposizione degli organismi acquatici. Insomma, per un pesce l’ossigeno disciolto è questione di vita o di morte.

E per noi terrestri?

Qui arriva il punto dolente. Noi abbiamo bisogno di ossigeno come gli organismi acquatici, ma senza branchie e con un fluido diverso: i nostri polmoni catturano l’ossigeno dall’aria, lo legano all’emoglobina e lo trasportano in tutto il corpo (Figura 2). Se ci immergessimo nell’acqua tentando di respirare come un pesce, non estrarremmo neppure una molecola di ossigeno perché semplicemente non abbiamo le branchie.

Figura 2. Meccanismo della respirazione polmonare: l’ossigeno viene inspirato, catturato dai polmoni, legato all’emoglobina nei globuli rossi e trasportato in tutto il corpo.

In altre parole, l’ossigeno disciolto nell’acqua che beviamo non ci serve a nulla.

Eppure, le aziende che vendono “acqua ricca di ossigeno” promettono ogni genere di beneficio: più energia, digestione facilitata, migliore resistenza fisica, addirittura un gusto esaltato delle pietanze. Sembra quasi di leggere il bugiardino di un olio di serpente moderno.

La realtà è molto più banale: quando beviamo, l’acqua raggiunge lo stomaco e l’intestino, non i polmoni. Da lì non può passare ossigeno nel sangue: l’assorbimento avviene solo attraverso l’apparato respiratorio. Se vogliamo ossigenare i tessuti, l’unico modo resta respirare.

Quanta aria può davvero entrare nell’acqua?

La chimica ci offre uno strumento molto semplice per rispondere: la legge di Henry, secondo la quale la quantità di gas che si scioglie in un liquido dipende dalla pressione parziale del gas stesso e dalla temperatura.

Tradotto:

  • più alta è la pressione, più gas si può sciogliere;
  • più bassa è la temperatura, maggiore è la solubilità;
  • la presenza di altri soluti (come i sali) riduce la quantità di gas che può sciogliersi.

Per dare un numero concreto: a 25 °C e alla normale pressione atmosferica, la quantità massima di ossigeno che si può sciogliere in acqua pura è circa 8–9 milligrammi per litro. Anche spremendo al massimo le condizioni di pressione e temperatura, non si arriva certo a quantità “miracolose”. Eppure, non di rado, si trovano in rete percentuali di ossigeno disciolto così esagerate da sembrare uscite da un fumetto, ben oltre il 100%: numeri che la chimica smentisce senza appello.

Inoltre, una volta che apriamo una bottiglia di acqua “ossigenata” e la riportiamo alle condizioni di pressione e temperatura ambientali, l’ossigeno in eccesso tende a liberarsi, esattamente come accade con le bollicine di una bibita gassata. Ciò che resta, in definitiva, è una comunissima acqua potabile.

Conclusione: acqua arricchita o arricchita di marketing?

Possiamo anche saturare un litro d’acqua con più ossigeno del normale, ma quando la beviamo il nostro corpo non ne ricava alcun vantaggio: non abbiamo branchie e non possiamo estrarre ossigeno dall’acqua come i pesci.

Queste bevande, quindi, non sono altro che acqua — buona e potabile, certo — ma identica a quella del rubinetto o delle bottiglie del supermercato, con l’unica differenza che costano di più.

In sintesi: l’ossigeno per vivere continuiamo a prenderlo dall’aria. Per l’idratazione basta la normale acqua. Per il resto, fidiamoci dei nostri polmoni: sono molto più efficienti di qualsiasi “acqua ricca di ossigeno”.

Il fascino segreto dei complotti: tra mitologia e realtà

Chiunque navighi un po’ sui social sa che prima o poi finirà per imbattersi in una teoria del complotto. Le scie chimiche, il 5G, i vaccini, società segrete che tirerebbero i fili del mondo: racconti affascinanti che spesso viaggiano più veloci delle notizie verificate. A volte fanno sorridere, altre volte mettono i brividi. Ma il punto interessante è un altro: perché sembrano così attraenti? E perché, nonostante viviamo nell’epoca della massima disponibilità di informazioni, hanno tanto successo?

Che cos’è una teoria del complotto

Una teoria del complotto non è semplicemente un sospetto o un dubbio legittimo. È un racconto strutturato, che propone una spiegazione alternativa di eventi complessi attribuendone la responsabilità a un gruppo ristretto e potente che agirebbe nell’ombra. In sé, l’idea di complotto non è assurda: la storia è piena di trame segrete e accordi illeciti che hanno avuto un impatto reale. Basti pensare al Watergate negli Stati Uniti o a Tangentopoli in Italia, episodi che hanno mostrato come politici e imprenditori possano effettivamente cospirare per i propri interessi.

La differenza fondamentale tra un complotto reale e una teoria complottista sta nelle prove. Nel primo caso disponiamo di documenti, testimonianze, indagini giornalistiche e processi che permettono di ricostruire i fatti. Nel secondo, invece, le “prove” sono spesso vaghe: interpretazioni arbitrarie o coincidenze cucite insieme in un’unica trama.

Come si è visto, nella nostra lingua il termine complotto viene usato in entrambi i sensi, generando ambiguità. Una distinzione più chiara sarebbe parlare di cospirazione quando ci riferiamo a eventi storici reali e documentati, e riservare l’espressione teoria del complotto ai racconti speculativi privi di fondamento.

Indipendentemente dal lessico scelto, resta il fatto che il fascino delle teorie complottiste non nasce dalla loro solidità logica, ma dalla loro capacità di trasformare frammenti sparsi in storie suggestive e coinvolgenti.

Psicologia dei complotti: perché ci crediamo

Molti studiosi hanno mostrato come le teorie del complotto facciano leva su meccanismi profondi della nostra mente. Uno dei più radicati è la tendenza a riconoscere schemi anche dove non ci sono: è ciò che lo psicologo Michael Shermer ha chiamato patternicity. Collegare eventi casuali in una trama coerente ci dà l’impressione di capire meglio il mondo, anche quando in realtà stiamo solo costruendo connessioni inesistenti.

A questo si aggiunge il cosiddetto confirmation bias, il pregiudizio di conferma: una volta che abbiamo un’idea in testa, siamo portati a cercare solo le informazioni che la confermano, scartando quelle che la contraddicono. È un meccanismo che funziona inconsciamente e che rende molto difficile cambiare opinione. E non riguarda solo le persone comuni: anche scienziati illustri vi sono caduti. Linus Pauling, due volte premio Nobel, rimase convinto per decenni che la vitamina C fosse una sorta di rimedio universale, nonostante le evidenze contrarie. Luc Montagnier, scopritore del virus HIV, ha sposato in tarda carriera teorie prive di fondamento come la “memoria dell’acqua”. Perfino James Watson, co-scopritore del DNA, ha difeso posizioni discutibili sull’intelligenza e la genetica. Sono esempi che mostrano come il fascino delle proprie idee possa resistere ai dati più solidi.

Non bisogna poi dimenticare un altro aspetto fondamentale: le teorie del complotto rispondono a un bisogno psicologico di controllo. Eventi grandi e imprevedibili – come una pandemia o una crisi economica – possono generare ansia e senso di impotenza. Pensare che ci sia qualcuno “dietro le quinte” che orchestra tutto può sembrare paradossalmente più rassicurante che accettare la realtà caotica e complessa. Infine, c’è il fascino della narrazione: un complotto è, in fondo, una storia. Ha i suoi eroi, i suoi nemici, i suoi colpi di scena. E spesso, dal punto di vista narrativo, è molto più attraente della verità semplice e disordinata.

Quando sapere poco sembra sapere tanto

Un altro ingrediente che contribuisce al successo dei complotti è quello che gli psicologi David Dunning e Justin Kruger hanno descritto ormai più di vent’anni fa: il cosiddetto effetto Dunning-Kruger. Si tratta della tendenza, molto diffusa, delle persone con competenze limitate a sopravvalutare le proprie conoscenze. Chi conosce poco un argomento non ha gli strumenti per valutare la propria ignoranza e finisce per sentirsi molto più competente di quanto sia.

Sui social media questo fenomeno è evidente: chi non ha una formazione scientifica solida può mostrarsi estremamente sicuro di “aver capito” meccanismi complessi che, in realtà, studiosi con anni di esperienza trattano con cautela. È la paradossale sicurezza di chi sa poco, contrapposta al dubbio metodico di chi sa di più.

Accanto a questo, esiste un problema culturale più ampio: il cosiddetto analfabetismo di ritorno. Non significa non saper leggere o scrivere, ma non essere in grado di comprendere testi complessi, grafici, numeri, concetti logici. È un fenomeno documentato anche nei Paesi sviluppati: molte persone diplomate o laureate hanno difficoltà a interpretare correttamente un articolo scientifico o un’informazione statistica. Questo rende più facile affidarsi a slogan semplici, a video emozionali o a frasi ad effetto che non richiedono uno sforzo di analisi.

Quando la sovrastima di sé si unisce alla scarsa comprensione dei contenuti complessi, il terreno è fertile per i complotti. Una spiegazione semplice, anche se sbagliata, risulta più convincente di una realtà intricata che richiede studio e pazienza per essere compresa.

Il megafono dei social media

I social media non hanno inventato i complotti, ma li hanno resi virali come mai prima d’ora. Gli algoritmi che regolano la visibilità dei contenuti tendono a premiare ciò che suscita emozioni forti: indignazione, paura, rabbia. E poche cose funzionano meglio di una buona teoria del complotto.

Così, una voce marginale può crescere rapidamente fino a diventare un fenomeno di massa. Le comunità online che si formano intorno a queste narrazioni funzionano come camere dell’eco: chi ne fa parte trova continuamente conferme, rafforzando la propria convinzione e allontanandosi progressivamente da fonti alternative. L’effetto è quello di una polarizzazione crescente, dove chi prova a introdurre dubbi o dati correttivi viene percepito come un nemico o un ingenuo “complice del sistema”.

Quando il complotto diventa pericoloso

Le teorie del complotto non sono soltanto curiosità folkloristiche della rete: possono avere conseguenze molto concrete e spesso gravi. Un esempio evidente lo abbiamo vissuto durante la pandemia di COVID-19: la diffusione di narrazioni false sui vaccini o sull’origine del virus ha alimentato paure irrazionali, rallentato le campagne di prevenzione e, in alcuni casi, messo a rischio la salute pubblica. Ma non si tratta solo di medicina.

I complotti possono minare la fiducia nelle istituzioni democratiche, spingere le persone a rifiutare dati scientifici fondamentali – come quelli sul cambiamento climatico – e perfino fomentare conflitti sociali. Non mancano esempi in cui comunità online complottiste hanno alimentato forme di odio, radicalizzazione e violenza. In fondo, ogni complotto funziona un po’ come una lente distorta: divide il mondo in “noi” e “loro”, i pochi illuminati contro i tanti manipolati, creando una frattura che si allarga nella società reale.

La pericolosità sociale delle teorie del complotto sta proprio qui: non solo diffondono disinformazione, ma indeboliscono il tessuto di fiducia reciproca su cui si reggono le comunità. Il movimento QAnon, ad esempio, ha eroso la fiducia nelle istituzioni democratiche fino a culminare nell’assalto al Campidoglio; le false narrazioni sul cambiamento climatico hanno rallentato le politiche di mitigazione globale; durante l’epidemia di Ebola in Africa occidentale, i complotti sulla presunta origine artificiale del virus portarono a diffidenza e ostilità verso le squadre mediche. Senza fiducia, diventa molto più difficile collaborare, prendere decisioni condivise, affrontare sfide collettive.

Un problema epistemologico: critica o sfiducia?

A questo punto, il discorso si sposta su un piano più profondo: quello epistemologico, cioè del modo in cui costruiamo e valutiamo la conoscenza. Qui il pensiero di Evandro Agazzi, filosofo della scienza che ha riflettuto molto sul rapporto tra razionalità e verità, può essere illuminante. Agazzi distingue tra razionalità critica e sfiducia generalizzata.

La razionalità critica è l’atteggiamento che dovrebbe guidare ogni scienziato: dubitare, verificare, controllare le fonti. È un esercizio sano, indispensabile, che permette di correggere errori e migliorare le nostre conoscenze. La sfiducia generalizzata, invece, è un atteggiamento diverso: non è un dubbio metodico, ma un rifiuto sistematico di qualunque autorità o dato ufficiale. È l’idea che tutto ciò che viene dalle istituzioni, dagli esperti, dai ricercatori sia per definizione falso o manipolato.

La differenza è sottile, ma decisiva. La scienza vive della prima, mentre le teorie complottiste prosperano sulla seconda. In altre parole, non è lo spirito critico a generare complotti, ma la sua caricatura: una sfiducia cieca che porta a credere solo a ciò che si adatta al proprio pregiudizio.

Conclusione: la verità è meno spettacolare, ma più solida

Ridicolizzare chi crede ai complotti è una tentazione comprensibile, ma spesso controproducente. Le persone finiscono per sentirsi attaccate e si rifugiano ancora di più nelle proprie convinzioni. È più utile capire i meccanismi che portano a credere in certe narrazioni e proporre alternative: una buona educazione al pensiero critico, la capacità di distinguere tra scetticismo sano e sfiducia totale, la diffusione di una cultura scientifica accessibile ma rigorosa.

La verità, ammettiamolo, non avrà mai il fascino di un grande intrigo segreto: non promette trame lineari né colpi di scena spettacolari. È frammentaria, complessa, a volte persino noiosa. Ma ha un vantaggio che nessun complotto inventato può vantare: resiste al tempo. L’ombra seducente dei complotti svanisce alla luce dei fatti, e alla lunga, è sempre quella luce a illuminare la strada.

Dal lisenkoismo ai “fatti alternativi”: un monito per l’Italia

Introduzione

Mi accingo a scrivere questo articolo prendendo spunto da un recente pezzo del mio amico e collega Enrico Bucci, pubblicato su Il Foglio e disponibile anche sul suo blog al seguente link: Contro il populismo sanitario.

Ad Enrico va il merito di aver messo a fuoco con grande chiarezza un nodo cruciale del dibattito contemporaneo: l’uso distorto di parole come libertà e pluralismo per giustificare la presenza, nei tavoli scientifici, di opinioni che nulla hanno a che vedere con la solidità delle prove.

Partendo dalle sue riflessioni, vorrei proporre un parallelismo storico che ci aiuta a comprendere meglio la posta in gioco, ma che al tempo stesso mostra come noi italiani non abbiamo mai fatto buon uso delle lezioni che la storia ci consegna.

Non è un caso, del resto, se oggi viviamo in una realtà che, a mio avviso, ricorda la fine dell’Impero Romano e preannuncia gli anni più bui dell’alto medioevo. Pur disponendo di una tecnologia senza precedenti e di possibilità di conoscenza mai così ampie, siamo circondati da ignoranza bieca e da un populismo slogan-based che erode secoli di evoluzione culturale.

Il parallelismo di cui voglio discutere ci porta indietro di quasi un secolo, nell’Unione Sovietica di Stalin, quando un agronomo di nome Trofim Denisovič Lysenko riuscì a piegare la scienza alle esigenze della politica, con conseguenze drammatiche.

Chi era Lysenko

Trofim Denisovič Lysenko nacque in Ucraina nel 1898, in un’epoca in cui la genetica mendeliana stava già gettando basi solide in Europa e negli Stati Uniti, aprendo una nuova stagione di scoperte che avrebbe cambiato per sempre la biologia. Mentre il mondo avanzava verso la modernità scientifica, egli imboccò una via diversa: più comoda per la retorica del potere che per la verità sperimentale.

Convinto che i caratteri acquisiti dalle piante durante la loro vita – come l’adattamento al freddo – potessero essere trasmessi alle generazioni successive, Lysenko resuscitava sotto nuove vesti un lamarckismo ormai screditato. Non era innovazione, ma regressione: una costruzione ideologica spacciata per scienza, utile a chi voleva piegare la natura alla volontà politica.

La sua pratica più celebre, la cosiddetta vernalizzazione, prometteva raccolti miracolosi. “Educando” i semi al gelo, sosteneva, li si sarebbe resi più fertili e produttivi. Una favola travestita da metodo, priva di fondamento sperimentale, che però parlava il linguaggio dei sogni collettivi e delle promesse facili: quello stesso linguaggio che i regimi totalitari e i populismi di ogni epoca amano usare per sedurre le masse e zittire la scienza.

L’appoggio di Stalin

Il destino di Lysenko cambiò radicalmente nel 1935, quando presentò le sue teorie davanti al vertice del regime. In quell’occasione, Stalin lo incoraggiò pubblicamente con un secco ma inequivocabile: «Bravo, compagno Lysenko!». Quelle parole, apparentemente banali, furono in realtà una sentenza: da quel momento, la sua ascesa divenne inarrestabile.

Non contavano più le prove, non contavano i dati, non contava la comunità scientifica internazionale: ciò che contava era la fedeltà ideologica. Lysenko incarnava perfettamente il messaggio che Stalin voleva trasmettere al popolo: la natura, come l’uomo sovietico, era malleabile, poteva essere piegata e trasformata a piacere dal potere politico.

In un Paese dove il dissenso significava prigione o morte, l’agronomo ucraino divenne il simbolo della “scienza ufficiale”, il vessillo di una biologia che non cercava la verità, ma l’approvazione del dittatore. La fedeltà alla linea sostituiva la fedeltà ai fatti: e da quel momento, in URSS, non era più la scienza a guidare la politica, ma la politica a decidere che cosa fosse scienza.

Il crimine contro la ragione

Il prezzo di questa deriva fu immenso, pagato non solo dalla comunità scientifica ma da milioni di cittadini sovietici.

La genetica mendeliana venne bandita come “scienza borghese” e i libri che la insegnavano finirono al macero. Le cattedre universitarie furono svuotate, i laboratori costretti ad abbandonare ricerche rigorose per piegarsi alle direttive di regime. In un colpo solo, l’Unione Sovietica si amputò di decenni di progresso scientifico.

Gli scienziati che osavano resistere pagarono un prezzo terribile. Il caso più emblematico fu quello di Nikolaj Vavilov, uno dei più grandi genetisti del XX secolo, che aveva dedicato la vita a raccogliere semi da ogni angolo del pianeta per assicurare all’umanità la sicurezza alimentare. Arrestato, processato come “nemico del popolo” e internato in un gulag, morì di stenti nel 1943. La sua fine è il simbolo di una scienza libera sacrificata sull’altare della fedeltà ideologica.

Le pratiche agricole di Lysenko, prive di fondamento, furono applicate su larga scala e condannarono intere regioni alla fame. Le promesse di raccolti miracolosi si infransero nella realtà dei campi sterili, e carestie devastanti falciarono milioni di vite.

Così, nel nome di un dogma politico, la verità fu soffocata, la scienza ridotta a propaganda e la popolazione trasformata in vittima sacrificale. Il lisenkoismo non fu soltanto un errore scientifico: fu un crimine storico contro la ragione e contro il popolo.

Le ombre di casa nostra

Il fascismo italiano

E non è necessario guardare soltanto a Mosca per cogliere questo meccanismo. Anche l’Italia fascista impose il suo controllo alle università attraverso il giuramento di fedeltà al regime. Solo dodici professori ebbero il coraggio di rifiutare: un numero esiguo, che mostra quanto fragile diventi la libertà accademica quando il potere politico pretende obbedienza invece di pensiero critico.

Il fascismo non si fermò lì: con il Manifesto della razza, firmato da accademici italiani compiacenti, la scienza fu ridotta a strumento di propaganda, piegata a giustificare l’ideologia razzista del regime. È un precedente che dovrebbe farci rabbrividire, perché dimostra che anche nel nostro Paese la comunità scientifica può essere sedotta, intimidita o resa complice.

L’Italia di oggi

E oggi? Il controllo non passa più attraverso giuramenti di fedeltà o manifesti infami, ma attraverso nuove forme di ingerenza: la burocratizzazione estrema, la trasformazione dell’università in un apparato amministrativo svuotato di senso critico, e persino la proposta – inquietante – di introdurre i servizi segreti all’interno degli atenei (Servizi segreti nelle università: i rischi del ddl sicurezza; Ricerca pubblica, servizi segreti: il ddl sicurezza e l’università). Cambiano le forme, ma la logica resta la stessa: soffocare la libertà del sapere sotto il peso del controllo politico.

Pluralismo o propaganda?

Oggi nessuno rischia più il gulag, ma il meccanismo che vediamo riproporsi ha la stessa logica corrosiva.

Ieri, in Unione Sovietica, l’accesso al dibattito scientifico era subordinato alla fedeltà ideologica al regime.
Oggi, in Italia e in altre democrazie occidentali, il rischio è che l’accesso ai tavoli scientifici sia garantito non dalla forza delle prove ma dalla forza delle pressioni politiche e mediatiche, camuffate sotto la parola rassicurante di pluralismo.

Qui sta l’inganno: confondere due piani radicalmente diversi.

  • Il pluralismo politico è un pilastro della democrazia: rappresenta valori, interessi, visioni del mondo.
  • Il pluralismo scientifico invece non è questione di sensibilità o di opinioni: è confronto tra ipotesi sottoposte allo stesso vaglio, alla stessa verifica, alla stessa brutalità dei fatti.

Se i due piani vengono confusi, allora ogni opinione – per quanto priva di fondamento – reclama pari dignità. È così che la pseudoscienza trova la sua sedia accanto alla scienza: l’omeopatia diventa “alternativa terapeutica”, la biodinamica “agricoltura innovativa”, il no-vax “voce da ascoltare”. È il falso equilibrio, l’illusione che esista sempre una “controparte” legittima anche quando le prove hanno già da tempo pronunciato il loro verdetto.

Ecco il punto: quando la politica impone la par condicio delle opinioni in campo scientifico, non difende la democrazia, ma la tradisce. Toglie ai cittadini la bussola della conoscenza verificata e li abbandona in balìa delle narrazioni. È la stessa logica che portò Lysenko al trionfo: non contavano i dati, contava il gradimento del potere.

Oggi, in un’Italia soffocata da slogan e da populismi che si travestono di democrazia mentre erodono la cultura, questo monito pesa come un macigno. La lezione di Lysenko ci dice che non esiste compromesso tra scienza e ideologia: o la scienza resta fedele al metodo e ai fatti, o smette di essere scienza e diventa propaganda.

Conclusione

La vicenda di Lysenko non è un reperto da manuale di storia della scienza: è un monito vivo, che parla a noi, oggi. Ci ricorda che ogni volta che la politica pretende di piegare la scienza a logiche di consenso, ogni volta che si invoca il “pluralismo” per spalancare le porte a tesi già smentite, ogni volta che l’evidenza viene relativizzata in nome della rappresentanza, non stiamo ampliando la democrazia: stiamo segando il ramo su cui essa stessa si regge.

La scienza non è perfetta, ma è l’unico strumento che l’umanità abbia costruito per distinguere il vero dal falso in campo naturale. Se la sostituiamo con il gioco delle opinioni, ci ritroveremo non in una società più libera, ma in una società più fragile, più manipolabile, più esposta all’arbitrio dei potenti di turno.

Ecco perché il parallelismo con il lisenkoismo non è un eccesso retorico, ma un allarme. Allora furono milioni le vittime della fame; oggi rischiamo vittime diverse, più silenziose ma non meno gravi: la salute pubblica, l’ambiente, la fiducia stessa nelle istituzioni.

La domanda che dobbiamo porci, senza ipocrisie, è semplice:
vogliamo una scienza libera che guidi la politica, o una politica che fabbrica la sua scienza di comodo?

La storia ci ha già mostrato cosa accade quando si sceglie la seconda strada. Ignorarlo, oggi, sarebbe un crimine non meno grave di quello commesso ieri. Oggi l’Italia deve scegliere se vuole una scienza libera o un nuovo lisenkoismo democratico

 

«I really believe deeply in science; it is my life and the purpose of my life. I do not hesitate to give my life even for the smallest bit of science.»
– Nikolai Vavilov, parole attribuite a Vavilov durante la prigionia

Così parlò Bellavite: quando la retorica si traveste da scienza

Introduzione

Di recente Paolo Bellavite, professore associato presso l’Università di Verona, in pensione dal 2017 e noto per le sue posizioni critiche verso le vaccinazioni e per la promozione dell’omeopatia, ha pubblicato un post sui social (Figura 1) in cui denuncia presunte “censure” e un rifiuto del confronto scientifico da parte delle istituzioni sanitarie. Il pretesto è lo scioglimento del comitato NITAG (National Immunization Technical Advisory Group) da parte del Ministero della Salute.

Il NITAG fornisce indicazioni basate su prove per le strategie vaccinali a livello nazionale, valutando costantemente rischi e benefici in relazione a età, condizioni di salute e contesto epidemiologico. Di questo tema ho già parlato in un mio precedente articolo (Nomine e cortocircuiti: quando l’antiscienza entra nei comitati scientifici).

Al di là della cronaca, però, il post di Bellavite si rivela soprattutto un insieme di slogan e artifici retorici non supportati da evidenze scientifiche solide, costruito sui più classici argomenti cari ai critici delle vaccinazioni. Ed è proprio qui che torna utile un altro parallelismo: le stesse strategie comunicative – indipendentemente dal campo, che si tratti di vaccini o di agricoltura – le ritroviamo nell’universo della “scienza alternativa”. Ne ho dato esempio in un altro articolo, Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci.

I toni retorici possono apparire convincenti a chi non ha dimestichezza con il metodo scientifico ma non reggono alla prova dei fatti. Proviamo dunque a smontare, punto per punto, le argomentazioni dell’ex professore Paolo Bellavite.

Figura 1. Screenshot dalla pagina facebook del Dr. Bellavite.

Il mito della “censura”

Uno degli argomenti più frequenti nella retorica tipica dei critici dei vaccini è l’idea che la comunità scientifica “censuri” le voci “fuori dal coro” per paura o per difendere interessi di un qualche tipo.

Per rafforzare questa immagine, viene spesso evocata la vicenda di Ignác Semmelweis, il medico che nell’Ottocento intuì l’importanza dell’igiene delle mani per ridurre la febbre puerperale. Il paragone, però, è fuorviante. Semmelweis non fu osteggiato perché considerato “eretico” ma perché il contesto scientifico dell’epoca non disponeva ancora degli strumenti teorici e sperimentali necessari a comprendere e verificare le sue osservazioni. La teoria dei germi non era stata ancora formulata e l’idea che “qualcosa di invisibile” potesse trasmettere la malattia appariva inconcepibile. Nonostante ciò, i dati raccolti da Semmelweis erano solidi e difficilmente confutabili: nelle cliniche in cui introdusse il lavaggio delle mani la mortalità scese in maniera drastica. Quei numeri, alla lunga, hanno avuto la meglio.

Oggi, il confronto scientifico avviene tramite peer-review, conferenze specialistiche e comitati di valutazione sistematica delle evidenze (ne ho parlato qualche tempo fa in un articolo semiserio dal titolo Fortuna o bravura? osservazioni inusuali sul metodo scientifico). In definitiva, la scienza non mette a tacere: filtra. Ogni idea può essere proposta e discussa, ma per sopravvivere deve poggiare su dati riproducibili, verificabili e coerenti con l’insieme delle conoscenze disponibili. In mancanza di queste condizioni, non viene esclusa per censura, bensì perché non regge al vaglio delle prove.

Trasformare questo processo di selezione in un racconto di “persecuzione” significa confondere il metodo scientifico con un tribunale ideologico, quando in realtà è solo il meccanismo che permette alla conoscenza di avanzare.

La falsa richiesta di “prove definitive”

Un espediente retorico molto diffuso tra chi vuole mettere in discussione i vaccini è quello di pretendere “prove definitive” – come se esistesse una singola evidenza in grado di dimostrare in modo assoluto l’utilità di un vaccino. La verità è che nessuna terapia medica è vantaggiosa sempre e comunque, ma le raccomandazioni vaccinali si basano su analisi robuste e ben documentate di rapporto rischio/beneficio.
Ecco alcuni esempi concreti e supportati da fonti autorevoli:

Chiedere quindi una singola prova assoluta significa distogliere l’attenzione da un ampio corpus di evidenze solide e riproducibili, e puntare invece su un vuoto nella narrazione che non corrisponde alla realtà scientifica.

“I bambini vaccinati non sono più sani”

Alcuni insinuano che non esistano prove che i bambini vaccinati siano “più sani” o addirittura suggeriscono l’opposto. Ma qui il trucco retorico sta nella vaghezza del concetto di “salute” che può essere interpretato in molti modi.
I dati concreti parlano chiaro: i bambini vaccinati hanno un rischio nettamente ridotto di contrarre malattie infettive gravi e le evidenze epidemiologiche mostrano riduzioni significative della mortalità, delle complicanze e degli accessi ospedalieri.

Questi dati si legano strettamente al paragrafo precedente in cui si evidenziava che vaccinare i bambini – come con il caso del vaccino anti-COVID e la prevenzione del morbillo – non solo limita le infezioni specifiche, ma contribuisce a migliorare la salute complessiva della popolazione infantile.

La retorica dei “vaccini meno tossici”

Un argomento ricorrente tra chi mette in dubbio le vaccinazioni è l’appello a “vaccini meno tossici, monovalenti e senza alluminio”. In realtà, gli adiuvanti a base di alluminio – utilizzati da oltre 90 anni per potenziare la risposta immunitaria – sono presenti in quantità molto inferiori a quelle assunte quotidianamente con l’alimentazione: tra 7 e 117 mg nei primi 6 mesi di vita, a seconda dell’alimentazione, mentre un singolo vaccino ne contiene tra 0.125 e 0.85 mg. In particolare, numerosi studi e monitoraggi hanno evidenziato che, sebbene possano causare arrossamento, dolore o un piccolo nodulo nel sito di iniezione, non esistono evidenze di tossicità grave o effetti duraturi legati ai sali di alluminio. Anche la Fondazione Veronesi conferma: non c’è motivo di dubitare della sicurezza degli adiuvanti, che hanno superato con successo gli studi di sicurezza.

Va, inoltre, sottolineato che proporre vaccini monovalenti (cioè che proteggono da una sola malattia) in alternativa a quelli combinati riduce l’efficacia complessiva delle campagne vaccinali. Le formulazioni polivalenti (come l’esavalente) permettono di proteggere contemporaneamente da più malattie con meno somministrazioni, semplificando i calendari vaccinali e migliorando la copertura.

Questo si traduce in una maggiore efficienza delle campagne, minori costi logistici e un impatto complessivo più forte sulla salute pubblica. Lo confermano anche diversi studi su riviste di settore. Per esempio, un trial pubblicato su Lancet ha documentato un’efficacia del 94.9 % contro la varicella e fino al 99.5 % contro altre forme virali moderate o severe, mentre una meta-analisi del 2015 ha evidenziato che le formulazioni combinate mantengono un profilo di sicurezza e immunogenicità paragonabile, ma più efficiente rispetto alle somministrazioni separate. Infine, in un recente studio caso-controllo, il vaccino Priorix‑Tetra (MMRV) ha mostrato un’efficacia dell’88‑93 % contro la varicella dopo una sola o due dosi, e del 96 % contro le ospedalizzazioni.

Come ogni farmaco, i vaccini possono avere effetti collaterali, ma sono rari e attentamente monitorati tramite sistemi di farmacovigilanza che possono intervenire tempestivamente in caso di sospetti. Definire i vaccini “tossici” senza distinguere fra effetti lievi e transitori (come febbre o gonfiore locale) e eventi gravi, ma estremamente rari, è un artificio retorico che induce confusione. In realtà, i benefici delle vaccinazioni – prevenire malattie gravi, complicanze e morti – superano di gran lunga i rischi, grazie anche a un sistema di sicurezza ben strutturato.

Le “analisi pre-vaccinali”

Uno dei cavalli di battaglia dei critici dei vaccini è l’utilizzo di analisi pre‑vaccinali – come test genetici, tipizzazione HLA o dosaggi di anticorpi – per valutare il rischio individuale o l’immunità naturale. A prima vista può sembrare una precauzione intelligente ma in realtà è un’idea infondata e controproducente. Gli eventi avversi gravi legati alle vaccinazioni sono estremamente rari e non correlabili a marcatori genetici o immunologici conosciuti. Al momento non esistono esami in grado di prevedere in anticipo chi potrebbe sviluppare una reazione avversa significativa.

Studi su varianti genetiche e reazioni avverse da vaccino (come studi su polimorfismi MTHFR o antigeni HLA) hanno dimostrato che l’uso di questi test non è scientificamente rilevante, né affidabile per prevenire eventi avversi.
La Federazione Nazionale degli Ordini dei Medici ha ribadito con forza che:
«La richiesta di esami diagnostici da eseguire di routine prima della vaccinazione non ha alcuna giustificazione scientifica».
In altre parole, valutare il rischio da vaccinazione è responsabilità del medico curante, basata su anamnesi e valutazioni cliniche, non su test di laboratorio preliminari.

Nel suo magazine di divulgazione, la Fondazione Veronesi – attraverso l’esperto Pier Luigi Lopalco – risponde chiaramente alla domanda “Esistono test pre‑vaccinali per valutare possibili effetti collaterali?”, la risposta è netta: non esistono.

L’introduzione obbligatoria di esami prevaccinali renderebbe logisticamente impossibili le campagne, ostacolando la copertura diffusa necessaria per l’immunità di gregge. Le vaccinazioni funzionano proprio perché applicate su larga scala, creando uno scudo comunitario che riduce la circolazione dei patogeni.

L’inversione retorica: “noi siamo la vera scienza”

Un tratto distintivo della comunicazione di chi contesta le vaccinazioni è la pretesa di incarnare la “vera scienza”, accusando al tempo stesso le istituzioni di rifiutare il confronto. È un vero rovesciamento di prospettiva: si imputa alla comunità scientifica un atteggiamento dogmatico, mentre ci si propone come gli unici detentori delle “vere prove”. In pratica, si pretende di cambiare le regole del gioco scientifico, così che affermazioni prive di fondamento possano essere messe sullo stesso piano delle evidenze prodotte e validate dall’intera comunità. È come voler riscrivere le regole del Monopoli per far sì che a vincere non sia chi accumula dati e dimostrazioni, ma chi urla di più o pesca la carta giusta al momento opportuno.

La realtà è un’altra: il confronto scientifico non si svolge sui social o nei talk show, ma nelle riviste peer-reviewed, nei congressi specialistici e nei comitati di valutazione delle evidenze. Ed è in questi contesti che certe tesi non trovano spazio, non per censura, ma per una ragione molto più semplice: mancano dati solidi che le sostengano.

Conclusione: la scienza contro gli slogan

Il caso Bellavite mostra come il linguaggio della scienza possa essere piegato e trasformato in uno strumento di retorica ideologica: un lessico apparentemente tecnico usato non per chiarire ma per confondere; non per spiegare ma per insinuare dubbi e paure privi di basi reali.

I vaccini rimangono uno dei più grandi successi della medicina moderna. Hanno ridotto o eliminato malattie che per secoli hanno decimato intere popolazioni. Certo, come ogni atto medico comportano rischi, ma il rapporto rischi/benefici è da decenni valutato e aggiornato con metodi rigorosi ed è incontrovertibile: il beneficio collettivo e individuale supera enormemente i rari effetti collaterali.

In politica, come nei discorsi attraverso cui si criticano le vaccinazioni, accade spesso che a prevalere siano slogan facili e interpretazioni personali. Il dibattito si trasforma così in un’arena di opinioni precostituite, dove il volume della voce sembra contare più della solidità delle prove. Ma la scienza non funziona in questo modo: non si piega alle opinioni, non segue le mode e non obbedisce agli slogan. È un processo collettivo, autocorrettivo e guidato dai dati, che avanza proprio perché seleziona ciò che resiste alla verifica e scarta ciò che non regge all’evidenza.

Chi tenta di manipolare questo processo dimentica un punto essenziale: la verità scientifica non appartiene a chi urla più forte, ma a chi misura, dimostra e sottopone i risultati al vaglio della comunità. È questo meccanismo che, tra errori e correzioni, consente alla scienza di progredire e di migliorare la vita di tutti.

Nota a margine dell’articolo

Sono perfettamente consapevole che questo scritto non convincerà chi è già persuaso che i vaccini siano dannosi o chi si rifugia dietro un malinteso concetto di “libertà di vaccinazione”. Desidero però ricordare ai miei quattro lettori che l’Art. 32 della nostra Costituzione recita:

“La Repubblica tutela la salute come fondamentale diritto dell’individuo e interesse della collettività, e garantisce cure gratuite agli indigenti. Nessuno può essere obbligato a un determinato trattamento sanitario se non per disposizione di legge. La legge non può in nessun caso violare i limiti imposti dal rispetto della persona umana”.

La Corte Costituzionale, interpretando questo articolo, ha più volte ribadito che la salute pubblica può prevalere su quella individuale. Già con la sentenza n. 307/1990 e la n. 218/1994 ha chiarito che l’obbligo vaccinale è compatibile con la Costituzione se proporzionato e giustificato dall’interesse collettivo. La sentenza n. 282/2002, pur riguardando i trattamenti sanitari obbligatori in ambito psichiatrico, ribadisce il principio generale: un trattamento sanitario può essere imposto per legge, purché rispettoso della dignità della persona. Infine, la più recente sentenza n. 5/2018 ha confermato la piena discrezionalità del legislatore nell’introdurre obblighi vaccinali a tutela della salute pubblica.

Il mio intento non è convincere chi non vuole ascoltare, ma offrire strumenti a chi esita, a chi è spaventato. La paura è umana, comprensibile, ma non ha fondamento: i dati dimostrano che vaccinarsi significa proteggere sé stessi e, soprattutto, la comunità di cui facciamo parte. È questo il senso profondo dell’art. 32: la salute non è mai solo un fatto privato, ma un bene comune.

Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci

Ci risiamo! Più volte ho parlato di biodinamica, ma, come sempre accade, questa pratica sembra risorgere dalle ceneri come la fenice, un essere mitologico che ben rappresenta l’impianto fantastico da cui trae origine. Stavolta a riproporla in chiave “scientifica” è un articolo apparso su Terra & Vita l’11 agosto 2025 a firma di Carlo Triarico, presidente dell’Associazione per l’Agricoltura Biodinamica:
? Agricoltura biodinamica e ricerca scientifica, il dialogo continua

Come al solito, ci troviamo di fronte a un testo che cerca di accreditare la biodinamica usando il linguaggio della scienza e richiamando collaborazioni con enti di ricerca. Vale la pena analizzare punto per punto le affermazioni contenute nell’articolo, per capire cosa c’è di sostanza e cosa invece è pura retorica.

La premessa retorica

“La crisi ambientale impone nuove pratiche rigenerative, accompagnate da un solido impianto di validazione scientifica.”

Che la crisi ambientale e climatica sia una realtà innegabile è fuori discussione. Nessuno scienziato serio la nega. Ma proprio perché la crisi è reale, il richiamo a essa non può essere usato come cavallo di Troia per giustificare qualunque pratica, tanto meno quelle nate da premesse esoteriche. È un classico espediente retorico: evocare un problema grave e condiviso per darsi legittimità, senza però dimostrare che la soluzione proposta sia davvero efficace.

Il termine “pratiche rigenerative” è suggestivo ma vago. Rigenerare cosa? In che modo? Con quali meccanismi verificabili? Senza una definizione chiara, si resta nell’ambito dello slogan. La biodinamica viene così presentata come medicina miracolosa, ma senza che siano forniti protocolli scientifici in grado di dimostrare causalità tra pratiche e risultati.

Infine, parlare di “validazione scientifica” è improprio. La scienza non “valida” come fosse un ente certificatore che mette bollini di approvazione. La scienza funziona per ipotesi sottoposte a prove, dati che devono essere replicabili, esperimenti che altri ricercatori possono confermare o smentire. Se un modello agronomico ha basi solide, non c’è bisogno di rivestirlo di retorica: i dati parlano da soli.

La verità è che quando si tratta di biodinamica, si invoca la scienza come un orpello decorativo, ma si evita accuratamente di sottoporre al vaglio critico proprio i capisaldi del metodo — i preparati, le diluizioni omeopatiche, i cicli cosmici. Su questi aspetti, che costituiscono l’anima della biodinamica, non esiste alcuna evidenza.

In altre parole: usare la crisi climatica come giustificazione per promuovere pratiche prive di fondamento non è un’operazione scientifica, ma retorica.

La “visione sistemica”

“La biodinamica, con la sua visione sistemica e la cura della terra, ha molto da offrire in termini di sostenibilità.”

Visione sistemica” è un’espressione ad alto impatto emotivo, che sembra evocare profondità e modernità di pensiero. Ma è un concetto che, applicato così, resta puramente decorativo. In agronomia la gestione integrata dei sistemi agricoli è già una realtà da decenni: rotazioni colturali, pratiche conservative, uso oculato delle risorse idriche, incremento della sostanza organica del suolo. Tutti questi approcci rientrano già da tempo nell’agricoltura biologica, nella lotta integrata e nei sistemi sostenibili, senza bisogno di ricorrere a cosmologie esoteriche.

Attribuire alla biodinamica una presunta “visione sistemica” è dunque un’operazione di maquillage: si prende un concetto scientificamente serio, lo si ammanta di suggestioni e lo si appiccica a pratiche che con la scienza hanno poco a che fare. In realtà, la biodinamica non porta alcuna innovazione metodologica: si limita a riproporre tecniche già note in agricoltura ecocompatibile, aggiungendo però un corredo rituale che nulla aggiunge né alla produttività né alla sostenibilità.

È come se qualcuno prendesse l’omeopatia e la presentasse come “medicina olistica sistemica”: un modo elegante per mascherare l’assenza di meccanismi verificabili dietro un linguaggio affascinante. Allo stesso modo, dire che la biodinamica ha “molto da offrire” in termini di sostenibilità è fuorviante: ciò che funziona non è la biodinamica, ma le stesse pratiche agronomiche già validate che essa incorpora al suo interno.

In sintesi, la “visione sistemica” non è un portato della biodinamica: è un concetto scientifico e agronomico che le viene arbitrariamente attribuito per conferirle un’aura di credibilità.

Le collaborazioni scientifiche

“Abbiamo collaborato con CREA, Università di Firenze, Università di Salerno, CERMANU, SISB…”

E qui scatta il gioco delle citazioni, un artificio retorico ben collaudato: nominare enti di ricerca e università serve a costruire una patina di autorevolezza, come se la sola menzione bastasse a trasferire credibilità scientifica. Ma la realtà è più complessa.

Che università e centri di ricerca abbiano svolto studi sulla fertilità del suolo, sulla biodiversità o sull’impatto ambientale delle pratiche agricole è un dato di fatto. Questo, però, non equivale ad aver avallato i principi fondanti della biodinamica, che restano di natura esoterica. Bisogna distinguere nettamente:

  • quando si studiano pratiche agronomiche comuni, come la riduzione dei fertilizzanti di sintesi (cioè sistemi inorganici), l’incremento della sostanza organica o la gestione integrata del terreno, si sta facendo agronomia.
  • quando invece si invocano corna di vacca interrate, preparati dinamizzati in acqua agitata ritualmente, o influssi cosmici legati alla posizione della Luna, si entra nell’ambito del rituale, non della ricerca scientifica.

Mescolare i due livelli, come avviene sistematicamente nei comunicati del mondo biodinamico, è un’operazione retorica: si confonde il rigore della scienza con il linguaggio mistico, sperando che la rispettabilità della prima copra le fragilità della seconda.

In altre parole: se un’università conduce uno studio sulla biodiversità in un’azienda biodinamica, il dato che ottiene riguarda la biodiversità in quell’azienda, non la validazione delle teorie di Steiner. Dire il contrario equivale a dire che se un medico misura la pressione a un paziente che porta un amuleto al collo, allora lo studio conferma l’efficacia dell’amuleto.

Il problema, dunque, non è la collaborazione in sé, ma il suo uso strumentale: un modo per presentare come “scientificamente supportato” ciò che resta, nei suoi fondamenti, privo di basi scientifiche.

L’azienda modello e la certificazione Demeter

“Le aziende certificate Demeter come Lacalamita Rosa mostrano risultati significativi e attraggono nuovi produttori.”

Portare ad esempio aziende di successo è una strategia comunicativa potente: un nome evocativo, qualche dato positivo e il lettore medio è portato a pensare che il merito sia tutto della biodinamica. Ma il ragionamento è fuorviante.

Il successo commerciale o l’apprezzamento dei consumatori non dimostrano di per sé la validità scientifica di un metodo. Un’azienda può prosperare per molte ragioni: la qualità intrinseca del suolo, la competenza agronomica di chi la conduce, le condizioni climatiche favorevoli, oppure semplicemente un buon posizionamento di mercato. Attribuire automaticamente questi risultati alla biodinamica equivale a confondere i fattori: è il tipico errore di scambiare correlazione per causalità.

Quanto alla certificazione Demeter, non si tratta di un riconoscimento indipendente né neutrale. È un marchio privato, gestito dal movimento biodinamico stesso, che valuta la conformità delle aziende a un disciplinare interno. E questo disciplinare, lungi dall’essere scientifico, prescrive pratiche rituali che includono i famosi preparati e le procedure esoteriche steineriane. Parlare quindi di “standard oggettivi” è improprio: non si tratta di oggettività scientifica, ma di coerenza con un regolamento autoreferenziale.

Per chiarire con un paragone: dire che un’azienda è “validata scientificamente” perché certificata Demeter è come dire che un club di astrologi garantisce l’accuratezza dell’oroscopo dei suoi membri. Vale come appartenenza a una comunità che condivide gli stessi rituali, ma non come dimostrazione di efficacia.

In definitiva, l’esempio delle aziende modello e della certificazione Demeter serve a costruire un racconto accattivante, ma non sposta di un millimetro la questione centrale: i principi fondanti della biodinamica restano privi di fondamento scientifico.

Lo studio con NMR sull’uva da tavola

“Gli studi con spettroscopia H-NMR hanno mostrato parametri qualitativi superiori nell’azienda biodinamica.”

Qui si tocca un aspetto che, letto in fretta, sembra confermare in pieno la narrazione biodinamica: un’analisi sofisticata, condotta con uno strumento scientifico avanzato, avrebbe mostrato differenze qualitative a favore dell’azienda biodinamica. Ma la realtà, ancora una volta, è diversa.

Innanzitutto, va chiarito cosa significhi “parametri qualitativi superiori”. Una differenza nei profili metabolomici non equivale automaticamente a un miglioramento. In metabolomica, infatti, i dati descrivono variazioni nella concentrazione di certi composti, ma la loro interpretazione dipende dal contesto e da ulteriori correlazioni con parametri sensoriali, nutrizionali o tecnologici. Dire che un prodotto è “migliore” perché diverso non ha alcun senso scientifico.

In secondo luogo, anche ammesso che un’azienda biodinamica mostri parametri più favorevoli, ciò non dimostra affatto che la causa sia la biodinamica in sé. Gli studi comparativi, per essere robusti, devono isolare le variabili: stesse condizioni pedoclimatiche, stesso vitigno, stessa gestione agronomica, stesso livello di esperienza dell’agricoltore. Nella realtà, però, un’azienda non è un laboratorio sterile: il suolo, il microclima, l’età delle piante, persino la cura quotidiana nella gestione possono influenzare i risultati.

Attribuire quindi le differenze osservate ai preparati steineriani o all’influenza dei cicli cosmici è un salto logico arbitrario. Sarebbe come dire che, se una squadra di calcio vince una partita, il merito è della maglia portafortuna indossata dall’allenatore. Correlazione e causalità, ancora una volta, vengono confuse deliberatamente.

Infine, l’uso stesso di tecniche avanzate come la spettroscopia NMR rischia di funzionare da “effetto scenico”: uno strumento complesso viene chiamato in causa per impressionare il lettore, non per fornire prove decisive. Ma la scienza non si misura dalla sofisticazione dello strumento, bensì dalla solidità del disegno sperimentale e dalla replicabilità dei risultati.

In sintesi: se anche uno studio rileva differenze, non è corretto attribuirle tout court alla biodinamica. La vera prova mancherebbe proprio là dove servirebbe: dimostrare che i precetti esoterici abbiano un effetto misurabile e riproducibile. E questa prova, ad oggi, non esiste.

Agroecologia e dieta mediterranea

“La biodinamica si integra con i principi dell’agroecologia e della Dieta Mediterranea sostenibile.”

Questo passaggio è un esempio chiaro di appropriazione semantica: si accostano concetti scientificamente fondati (agroecologia e Dieta Mediterranea) a un paradigma privo di basi razionali come la biodinamica, nel tentativo di trasferire prestigio dall’uno all’altro.

L’agroecologia è un approccio interdisciplinare che combina scienze agrarie, ecologia, economia e sociologia per rendere sostenibili i sistemi agricoli. La Dieta Mediterranea, invece, non è affatto un modello antico e immutato: è una costruzione recente, nata negli Stati Uniti negli anni ’50-’60 grazie agli studi di Ancel Keys, che osservò la maggiore longevità di alcune popolazioni del bacino mediterraneo. Da quelle osservazioni derivò un modello alimentare “idealizzato”, promosso poi a livello internazionale. Nonostante le sue origini moderne e in parte commerciali, la Dieta Mediterranea si è guadagnata un solido supporto scientifico: numerosi studi hanno confermato la correlazione con benefici per la salute, e l’UNESCO l’ha riconosciuta come patrimonio culturale immateriale per il suo valore sociale e culturale.

La biodinamica, al contrario, nasce da premesse esoteriche di Rudolf Steiner e non ha alcuna validazione scientifica. Metterla sullo stesso piano dell’agroecologia e della Dieta Mediterranea è quindi fuorviante: mentre le prime si fondano su dati, osservazioni e modelli riproducibili, la biodinamica resta ancorata a rituali cosmici e pratiche prive di riscontro sperimentale.

Il meccanismo comunicativo è evidente: evocare concetti positivi e consolidati per “nobilitare” la biodinamica. Ma, in realtà, tutto ciò che appare compatibile con l’agroecologia o con il modello mediterraneo (rotazioni, compostaggio, riduzione degli input chimici) non è esclusivamente biodinamico: appartiene già all’agricoltura biologica e sostenibile. L’unico elemento davvero caratterizzante della biodinamica — i preparati e i rituali steineriani — non ha alcun fondamento scientifico.

In definitiva, questo accostamento non rafforza la biodinamica: ne evidenzia piuttosto la debolezza, perché dimostra il suo costante bisogno di appoggiarsi ad altro per sembrare credibile.

Standard e protocolli “oggettivi”

“La biodinamica è identificata da standard e protocolli oggettivi e soggetti a verifica.”

Questa affermazione suona rassicurante, ma è profondamente ambigua. Nel linguaggio della scienza, “standard oggettivi” significa procedure condivise, ripetibili, verificabili da chiunque e soprattutto indipendenti da appartenenze ideologiche. Nel caso della biodinamica, invece, gli “standard” non sono altro che le regole fissate dal marchio Demeter, ovvero dall’organizzazione stessa che promuove la biodinamica.

Questi protocolli prevedono sì pratiche agronomiche comuni e sensate (rotazioni, compostaggio, attenzione alla fertilità del suolo), ma includono anche prescrizioni rituali come i preparati dinamizzati o le corna interrate seguendo cicli lunari e planetari. Non c’è nulla di scientifico in questo: sono norme interne a una comunità, autoreferenziali, che si verificano in base alla loro stessa coerenza interna, non sulla base di prove oggettive.

È come dire che l’astrologia è “oggettiva” perché esistono regole precise per calcolare un oroscopo. Certo, il calcolo segue un protocollo, ma ciò non significa che il risultato abbia validità scientifica. Allo stesso modo, rispettare il disciplinare Demeter dimostra solo che un’azienda aderisce a un regolamento, non che i principi steineriani abbiano efficacia reale.

Il vero paradosso è che il richiamo alla “verifica” finisce per essere un gioco di specchi: chi controlla la conformità non valuta i risultati scientifici delle pratiche, ma solo la fedeltà a un rituale codificato. È un sistema chiuso, che si autolegittima senza mai confrontarsi con il metodo scientifico.

In sintesi: parlare di “protocolli oggettivi” in biodinamica è un abuso del linguaggio scientifico. Non si tratta di oggettività, ma di appartenenza. Non si tratta di verifiche, ma di rituali. E questa differenza non è un dettaglio semantico: è il punto che segna la distanza tra scienza e pseudoscienza.

Conclusione

Ancora una volta la biodinamica si presenta con abiti nuovi, evocando crisi ambientali, citando enti di ricerca, richiamando agroecologia e dieta mediterranea, esibendo certificazioni e dati metabolomici. Ma al di là della patina, la sostanza resta immutata: i capisaldi steineriani non hanno alcuna validazione scientifica.

Tutto ciò che funziona nelle aziende biodinamiche non è esclusivo della biodinamica: è semplice agronomia, già consolidata nel biologico e perfezionata oggi nell’agricoltura integrata. La differenza è che qui si parla di conoscenze scientifiche, non di rituali esoterici. Ciò che resta tipicamente biodinamico non ha alcuna evidenza e non può essere considerato scienza.

La conclusione è inevitabile: la biodinamica non rappresenta un modello innovativo di sostenibilità, ma un insieme di pratiche esoteriche rivestite di retorica scientifica. E confondere scienza e rituale non aiuta l’agricoltura a diventare più sostenibile: la espone, semmai, al rischio di perdere credibilità proprio quando la società ha più bisogno di rigore, trasparenza e soluzioni reali.

Come la fenice, la biodinamica sembra risorgere dalle proprie ceneri: ma, a differenza del mito, dalle sue ceneri non nasce mai scienza.

Clima e pseudoscienza: anatomia di una discussione

Qualche giorno fa ho pubblicato il terzo e, speravo, ultimo articolo di un reportage sui cambiamenti climatici. In questo articolo, intitolato I cambiamenti climatici? Sì, siamo noi i responsabili, ho discusso delle prove oggettive – corredate da riferimenti puntuali – che hanno portato l’intera comunità scientifica alla conclusione che i responsabili di quanto sta accadendo attualmente sulla superficie terrestre, ovvero l’aumento delle temperature globali e la conseguente alterazione degli ecosistemi, siamo noi esseri umani.

In quel testo ho cercato di mostrare, in modo accessibile ma rigoroso, perché la tesi dell’origine antropica dell’attuale riscaldamento globale non sia più un’ipotesi, ma una conclusione supportata da una mole imponente di dati.

Ho parlato del ruolo dei gas serra, in particolare della CO₂ prodotta dalla combustione di combustibili fossili, la cui impronta isotopica è ben riconoscibile in atmosfera. Ho discusso anche delle fonti indipendenti che confermano il trend in atto – dalle carote glaciali agli anelli degli alberi, dai sedimenti oceanici alle misurazioni satellitari – e delle ragioni per cui né l’attività solare né le eruzioni vulcaniche possono spiegare ciò che osserviamo oggi.

Infine, ho evidenziato come la rapidità del riscaldamento attuale – oltre un grado in appena un secolo – sia senza precedenti nella storia recente del pianeta, e come l’intero corpo scientifico internazionale, sintetizzato nei report dell’IPCC, abbia ormai raggiunto un consenso solido e ben documentato su questo punto.

Non è necessario riproporre qui tutti i riferimenti bibliografici: si trovano nell’articolo appena riassunto (qui il link).

Eppure, eccomi di nuovo a scrivere sull’apporto antropico all’effetto serra. Non per aggiungere nuove evidenze, ma per riflettere sul modo estremamente fallace – e sempre più diffuso – di ragionare dei negazionisti del cambiamento climatico. Non si tratta, in questo caso, di negazionisti tout court: anche loro, ormai, devono riconoscere l’evidenza dell’aumento delle temperature globali. Si tratta piuttosto dei negazionisti dell’origine antropica, coloro che rifiutano di accettare che la causa principale del riscaldamento sia l’attività umana.

In un gruppo Facebook che aiuto a gestire – Bufale e dintorni gruppo – sono comparsi i primi commenti al mio post con cui pubblicizzavo l’articolo (potete farvene un’idea a questo link).
Poiché si tratta di un gruppo privato – quindi i post non sono visibili pubblicamente – e considerando che non tutti hanno un account Facebook attivo, riporto di seguito gli screenshot della discussione.

La Figura 1 riporta la condivisione dalla mia pagina Facebook “Rino Conte”.

Figura 1. Screenshot relativo alla condivisione del mio articolo sull’effetto antropico nei cambiamenti climatici. Questo thread ha dato la stura a una discussione con un negazionista di tale effetto.

La Figura 2 riporta (spero in modo leggibile, altrimenti è necessario da parte dei volenterosi scaricare l’immagine ed effettuarne uno zoom) la discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

Figura 2. Discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

E proprio mentre sto scrivendo questo articolo la discussione continua (Figura 3).

Figura 3. Proseguimento della discussione mentre scrivo questo articolo.

Come si evince dagli screenshot, il tutto ha inizio dall’inserimento di un link a un articolo giornalistico in cui si riporta un filmato che mostra il comportamento di certi ghiacciai negli ultimi 800 000 anni. Questo filmato è tratto da un lavoro scientifico dal titolo “Modelling last glacial cycle ice dynamics in the Alps” pubblicato nel 2018 sulla rivista The Cryosphere della European Geoscience Union, associazione per la quale anche io ho organizzato in passato dei miniconvegni nell’ambito delle attività congressuali più generali che si fanno ogni anno a Vienna in Austria (per esempio, uno è qui).

Chi ha condiviso questo studio nella discussione lo ha fatto con l’intento – più o meno esplicito – di suggerire che, dal momento che i ghiacciai alpini si sono espansi e ritirati ciclicamente nel passato, il cambiamento climatico attuale potrebbe essere semplicemente parte di una lunga variabilità naturale. È un’inferenza del tutto errata, che nasce da un fraintendimento delle finalità e dei contenuti del lavoro scientifico citato.

Infatti, lo studio in questione (Seguinot et al., 2018) non parla di cambiamenti climatici attuali né tantomeno ne discute le cause. Si tratta di un lavoro di modellizzazione numerica della dinamica glaciale delle Alpi durante l’ultimo ciclo glaciale (da 120.000 a 0 anni fa), che ha lo scopo di testare la coerenza tra ricostruzioni geologiche e simulazioni del comportamento dei ghiacciai su scala millenaria. Non c’è nel testo alcuna analisi delle cause del riscaldamento moderno, né alcun confronto con l’evoluzione recente del clima terrestre.

Quello che il mio interlocutore ha fatto è un tipico esempio di bias di conferma: ha estrapolato da un articolo tecnico una conclusione che non c’è, perché questa coincide con la propria convinzione preesistente. È un meccanismo comune tra i cosiddetti “negazionisti soft” – persone che, pur riconoscendo che il clima sta cambiando, rifiutano l’idea che l’essere umano ne sia il principale responsabile.

La dinamica della discussione su Facebook lo conferma: ogni volta che si porta un dato, una misura, una ricostruzione paleoclimatica, l’interlocutore non contesta la validità della fonte, ma sposta il piano, relativizza, introduce “dubbi” storici o filosofici. E infine si rifugia nel mito del “Galileo solitario”, come se ogni minoranza fosse destinata a diventare verità solo perché è minoranza. Ma Galileo non aveva ragione perché era solo: aveva ragione perché aveva i dati e un metodo.

Ecco il punto: il problema non è tanto avere un’opinione diversa, quanto non saper distinguere tra opinione personale e conoscenza scientifica. E non è un caso che questo tipo di retorica si ritrovi spesso in altri ambiti della disinformazione scientifica: chi si sente “eretico” rispetto al sapere ufficiale tende a sopravvalutare le proprie intuizioni e a sottovalutare il lavoro, faticoso e rigoroso, di chi fa scienza sul serio.

Discutere con chi rifiuta le conclusioni della scienza può essere faticoso, ma è anche necessario. Non per convincere chi ha già deciso di non ascoltare, ma per fornire strumenti a chi legge in silenzio, a chi cerca chiarezza in mezzo al rumore. La scienza non ha bisogno di essere difesa come un dogma: si difende da sé, con i dati, con la trasparenza dei metodi, con la disponibilità al confronto critico. Ma proprio per questo va protetta dalle distorsioni, dalle semplificazioni, e soprattutto dal relativismo delle opinioni travestite da verità.
Il cambiamento climatico attuale è un fenomeno reale, misurabile e in larga parte causato dalle attività umane. Continuare a negarlo non è esercizio di pensiero critico, ma una forma di resistenza ideologica che rischia di ritardare l’unica cosa che oggi dovremmo fare: affrontare il problema con serietà, competenza e senso di responsabilità.

EDIT

Mentre mi accingevo a pubblicare questo articolo, il mio interlocutore ha pubblicato un’ultima risposta che ho deciso di riportare integralmente per completezza. Qui sotto trovate anche la mia replica con cui ho deciso di concludere la discussione pubblica.

Interlocutore:

Pellegrino

  1. Lei stesso parla di “stime solide”; che sono appunto stime, non misurazioni dirette.
  2. “Sappiamo perché”, è un’altra forzatura. In realtà abbiamo delle interpretazioni plausibili per molte di esse, ma ciò non equivale a una certezza assoluta. Anche nelle osservazioni attuali, ci si imbatte in anomalie impreviste, tipo l’impatto dello scioglimento del permafrost, temperature previste che poi non si sono verificate… E parliamo di osservazioni dirette; figuriamoci sulle “stime” di fenomeni non osservati direttamente. Per non parlare dell’infinito dibattito su quanto influiscano o meno le macchie solari…

Stesso discorso sul fatto che le oscillazioni in passato non avvenissero in decenni, trascurando che non possiamo sapere se gli strumenti che abbiamo a disposizione siano davvero affidabili con tale precisione. Mancando l’osservazione diretta, non possiamo verificarlo.

Dire che “potrebbero esserci state” significa semplicemente dire che il modello generale è ancora soddisfatto; per dimostrare l’anomalia bisogna dimostrare che davvero non ci siano precedenti. È un discorso di presunzione d’innocenza: per dare la colpa all’uomo bisogna dimostrarla; il “ragionevole dubbio” è a favore dell’imputato. Foss’anche solo per mancanza di prove.

  1. Il moto dei pianeti era noto da sempre (“planities” significa appunto “errante”), ma lui (anzi, Copernico) fornì solo un modello di calcolo semplificato. Infatti, a dirla tutta, il sole non è affatto al centro dell’universo ma si muove pure lui… In questo ha ragione l’insegnante del prof. Barbero che diceva che il card. Bellarmino era più moderno di Galileo.
  2. A “negazionista” si potrebbe contrapporre “fideista”, ovvero uno che sposa senz’altro ciò che dice la maggioranza stigmatizzando il dubbio. Ma io continio a ricordare che la stessa comunità scientifica oggi certa del riscaldamento globale appena quarant’anni fa era ugualmente certa dell’imminenza di un’era glaciale. Un cambio di rotta di 180 gradi in meno di mezzo secolo, e si dovrebbe prendere per oro colato anche l’attribuzione di responsabilità? Anche a fronte di numerose previsioni rivelatesi poi errate?
  3. Su un punto, concordo senz’altro: sulla separazione netta tra dissertazione scientifica e azione concreta (e non potrei dire diversamente, dato che come ho già detto opero nella Protezione Civile).

Il punto certo è che vi sia in atto un cambiamento climatico che attualmente va verso un aumento delle temperature, che il problema è serio e che la cosa va affrontata. Ridurre il più possibile (e possibilmente azzerare) l’impatto antropico non ha controindicazioni, e quindi va benissimo farlo; e infatti ne sono da sempre un convinto sostenitore.

A mio modesto parere, non servirà a granché, perché se Madre Natura ha deciso che è tempo di un nuovo Eocene, Eocene sarà; che ci piaccia o no.

Quindi, oltre ad azzerare le emissioni, miglioriamo l’efficienza dei condizionatori, perché ne avremo comunque bisogno. Tutto qui.

Io:
grazie per aver chiarito ulteriormente il suo punto di vista. Le rispondo un’ultima volta, per chi ci legge e non per la soddisfazione di “avere l’ultima parola”, che non mi interessa.

Sì, le proxy sono stime, ma sono stime calibrate, validate e incrociate da molte fonti indipendenti. Nessun climatologo confonde una proxy con una misura diretta, ma la scienza lavora ogni giorno per rendere sempre più affidabili quelle stime. E il fatto che convergano tutte sul medesimo trend dà forza alla ricostruzione. Questo è il normale funzionamento della scienza, non una debolezza.

Nessuno pretende certezze assolute, né le scienze naturali le promettono. Lei invece sembra richiedere una prova “oltre ogni dubbio”, come se fossimo in un’aula di tribunale. Ma la scienza si basa sulla probabilità, sul peso delle evidenze, sulla capacità predittiva dei modelli. Oggi, la quantità di prove che puntano all’origine antropica del riscaldamento è così ampia da rendere l’ipotesi alternativa – quella esclusivamente naturale – altamente improbabile. Ed è su questo che si fondano le politiche, non sull’attesa della perfezione epistemologica.

Il paragone con Galileo e Bellarmino è affascinante ma fuori luogo. Galileo non aveva solo un modello “più semplice”: aveva anche l’evidenza delle fasi di Venere e delle lune di Giove. Il suo valore non sta nel ribellarsi alla maggioranza, ma nell’aver offerto dati e osservazioni migliori. Lei invece continua a proporre “dubbi” senza portare nessun dato nuovo, solo generalizzazioni.

La comunità scientifica non era “certa” dell’era glaciale negli anni ’70. Questa è una leggenda urbana, smentita dai dati storici: all’epoca la maggior parte degli articoli già indicava un riscaldamento, non un raffreddamento. Se guarda i paper dell’epoca, lo vede chiaramente.

Quanto agli errori previsionali: il fatto che un modello venga corretto o raffinato è normale in ogni scienza. Non è un fallimento, è progresso. Non confondiamo fallibilità con inattendibilità.

Mi fa piacere leggere che riconosce l’urgenza del problema e sostiene l’azione per ridurre le emissioni. Su questo ci troviamo d’accordo. Tuttavia, dire “tanto non servirà a nulla” è una rinuncia mascherata da fatalismo. La scienza climatica non dice che siamo condannati, ma che abbiamo una finestra temporale per ridurre gli impatti futuri. La differenza tra +1,5 °C e +4 °C non è affatto irrilevante. E anche se non possiamo evitare ogni effetto, possiamo evitare quelli peggiori. Questa è responsabilità, non fideismo.

Chiudo qui il mio intervento, perché i fatti, i dati e il consenso scientifico sono pubblici e verificabili. Il resto è opinione personale – legittima – ma non equiparabile alla conoscenza prodotta dalla scienza.

Nota finale: ho riportato per esteso questo scambio non per dare visibilità a una posizione pseudoscientifica, ma per mostrare, in modo documentato, come ragiona chi nega l’origine antropica del cambiamento climatico, e perché queste argomentazioni non reggano al vaglio della scienza.

Parlo di biodinamica con la Senatrice Cattaneo e Gianluca Nicoletti

Oggi sono stato nella trasmissione di Gianluca Nicoletti (Melog) a parlare della biodinamica. Ho preceduto il bellissimo intervento della Senatrice Elena Cattaneo. Per ascoltare il podcast basta cliccare sull’immagine qui sotto per aprire la pagina dei podcast di Radio24 e da lì cliccare sul tastino “play”. Buon ascolto.

Il podcast si può ascoltare anche sulla pagina Facebook di Melog, qui sotto

Fonte dell’immagine di copertina

 

Parliamo di agricoltura biodinamica

“Parliamo ancora di agricoltura biodinamica?”, chiederete voi. “Ma non ti stanchi mai?”, aggiungerete. Il fatto è che se non si alza la voce, maghi e fattucchiere hanno la meglio sulla ragione e la logica.

Purtroppo è di queste ore la notizia che il Senato della Repubblica ha approvato un disegno di legge sull’agricoltura biologica (qui). Fin qui niente di strano, potrete dire. Il problema è che gli appassionati di esoterismo, che evidentemente non mancano tra quelli che siedono nei banchi del Senato, hanno approvato una legge in cui l’agricoltura biodinamica viene equiparata in tutto e per tutto all’agricoltura biologica. Quali sono le conseguenze di tutto ciò? Una tra tutte è che pagheremo con le nostre tasse gli incentivi all’agricoltura biodinamica esattamente come paghiamo quelli all’agricoltura biologica che, però, ha fondamenta scientifiche che la prima non ha.

Di questo e di altro parleremo in diretta streaming su YouTube e Twich e il 25 Maggio alle ore 20:30 assieme a Daniel Puente, che gestisce un interessantissimo canale YouTube (qui), e Valentino Riva.

Per la diretta YouTube basta cliccare qui: https://youtu.be/L26PJauNcfs

Per la diretta Twich basta cliccare qui: https://www.twitch.tv/biologic_twitch

Vi aspettiamo!

Share