Un indizio ci arriva da un curioso fenomeno psicologico, studiato qualche anno fa da un gruppo di ricercatori di Harvard e pubblicato su Science: il prevalence-induced concept change, o, per dirla in breve, la tendenza ad ampliare i confini di un concetto man mano che il problema, cui il concetto si riferiva, diventa sempre meno visibile.
Gli autori dello studio – condotto attraverso sette esperimenti su centinaia di volontari – hanno utilizzato compiti molto diversi, dai più semplici ai più complessi. In uno di questi, ad esempio, hanno mostrato ai partecipanti migliaia di puntini colorati che variavano lungo un continuum dal viola al blu e hanno chiesto, test dopo test, di stabilire se ciascun puntino fosse blu oppure no. Al diminuire del numero di puntini blu, i soggetti cominciavano a essere più inclusivi nella definizione: anche puntini che in precedenza avrebbero classificato come viola cominciavano a essere etichettati come blu.
Lo stesso schema si è ripetuto in altri contesti. Per esempio, la valutazione delle espressioni facciali tendeva ad ampliare la definizione di minacciosità quando il numero di volti realmente minacciosi diminuiva. In altre parole, i partecipanti finivano per giudicare come “minacciose” anche espressioni neutre.
Lo stesso si è osservato quando ai volontari è stato chiesto di valutare l’eticità di proposte di ricerca: quando quelle eticamente discutibili diventavano sempre meno numerose, i volontari finivano per giudicare “non etiche” perfino proposte del tutto innocue.
Insomma, al calare della frequenza del problema reale, la mente dei volontari spostava i confini della definizione, includendo dentro la categoria situazioni che in precedenza ne sarebbero rimaste fuori.
In questo vuoto di percezione, ogni piccolo segnale post-vaccinazione viene sovradimensionato. Un dolore al braccio o una febbriciattola diventano indizi di pericolo grave. Episodi rarissimi finiscono in prima pagina e assumono un peso sproporzionato rispetto all’enorme beneficio collettivo. La percezione si deforma: non vediamo più il quadro generale – la scomparsa o il contenimento di malattie mortali – ma inseguiamo il dettaglio marginale.
E qui entra in gioco la disinformazione. Basta prendere un evento raro, magari un caso clinico eccezionale, e presentarlo come se fosse frequente. L’effetto è immediato: chi legge o ascolta ha l’impressione che i vaccini siano pieni di insidie, anche se i dati mostrano l’esatto contrario. Anzi, paradossalmente la loro stessa sicurezza – dimostrata da miliardi di dosi somministrate senza conseguenze gravi – alimenta la nostra disponibilità a credere alle paure: siccome le malattie non le vediamo più, ci concentriamo sul resto.
La disinformazione, però, non è mai neutrale. C’è sempre qualcuno che ha interesse a diffonderla o, quantomeno, a cavalcarla. Cui prodest? Chi ci guadagna? A volte sono gruppi organizzati che vendono prodotti alternativi, dalle cure miracolose agli integratori “rinforzanti” da assumere al posto dei vaccini. Altre volte sono influencer e canali che cercano visibilità, like, condivisioni: la paura è un potente amplificatore di traffico. E non mancano attori politici che, agitando lo spettro di un presunto complotto, riescono a costruire consenso e identità contro il “sistema”.
Il risultato è che un successo straordinario della scienza – i vaccini che hanno ridotto poliomielite, difterite, morbillo e tante altre infezioni – rischia di apparire, nella percezione comune, come una minaccia anziché come una protezione. È l’ennesima dimostrazione che i dati, da soli, non bastano: servono anche strumenti culturali per difendersi dalla manipolazione del giudizio.
E allora, la prossima volta che qualcuno ci racconta un aneddoto allarmistico, proviamo a fermarci un istante e chiederci: sto giudicando i dati o sto cedendo a un’illusione della percezione?
Perché non sempre ciò che vediamo riflette la realtà. Spesso riflette i tranelli della nostra mente.
Ed è proprio su questi tranelli che i movimenti no-vax costruiscono la loro narrazione: ingigantiscono casi marginali, ignorano le prove scientifiche e alimentano paure che non hanno alcun fondamento. Ma i dati parlano chiaro: i vaccini salvano milioni di vite ogni anno, hanno debellato il vaiolo, ridotto la poliomielite e reso rare malattie che per secoli hanno mietuto vittime. Rifiutarli non è un atto di libertà: è un atto di incoscienza che mette a rischio non solo chi li rifiuta, ma anche chi non può vaccinarsi.
La vera libertà non è cedere a una menzogna rassicurante. La vera libertà è scegliere sulla base delle evidenze, senza farsi manipolare da chi, per interesse o ideologia, lucra sulla paura degli altri.
Uno dei cavalli di battaglia degli antivaccinisti, soprattutto durante la pandemia di Covid, è stato: “Non sappiamo cosa ci iniettano”. Una frase che sembra prudente, ma che in realtà nasconde il vuoto più assoluto. In rete, e purtroppo anche in certi palchi mediatici, si sono lette e ascoltate fandonie indegne: vaccini pieni di grafene, di materiale “fetale”, di microchip. Panzane. Bufale. Balle cosmiche spacciate per verità scomode.
Il punto è che la percezione del rischio, quando si parla di vaccini, viene distorta fino al ridicolo. Gli stessi che si indignano davanti a una fiala di vaccino non si fanno problemi ad abusare di Voltaren per un mal di schiena, di Tachipirina per un raffreddore o di Aspirina a stomaco vuoto. Farmaci che, se presi male o in dosi eccessive, hanno effetti collaterali ben documentati e tutt’altro che lievi. Ma nessuno apre gruppi Telegram per denunciare il “complotto della Tachipirina”.
E allora torniamo alle basi. La differenza tra pericolo e rischio.
Il pericolo è una proprietà intrinseca di una sostanza: la candeggina, per esempio, è pericolosa. Ma il rischio dipende dall’uso: se non la bevi, se non la respiri, la candeggina non ti ammazza. Lo stesso vale per i farmaci. Aspirina e Tachipirina hanno pericoli reali, ma li consideriamo a basso rischio perché li usiamo con buon senso.
Con i vaccini si è creata la tempesta perfetta: un farmaco nuovo, un’emergenza sanitaria mondiale e un esercito di disinformatori pronti a manipolare la paura. Eppure, i dati clinici erano chiari già nel 2021: i vaccini anti-Covid erano molto più sicuri di tanti farmaci da banco. I rischi di complicazioni gravi erano rarissimi, infinitamente inferiori rispetto a quelli legati alla malattia. Ma invece di guardare i numeri, ci si è lasciati spaventare dai fantasmi.
C’è chi liquida la pandemia come una “farsa”, chi parla di “censura” e di “virostar” in televisione. È il classico copione: invece di discutere sui dati, si attacca chi li porta. Roberto Burioni e altri virologi sono stati accusati di essere “ospiti fissi” senza contraddittorio. Ma davvero serve un contraddittorio tra chi studia i virus da decenni e chi diffonde complotti sui microchip nei vaccini? Sarebbe come chiedere di contrapporre un astrologo a un astronomo quando si parla di orbite planetarie.
La realtà è che i dati c’erano, e chiunque poteva consultarli: studi clinici, report di farmacovigilanza, pubblicazioni scientifiche. Non erano nascosti – erano ignorati. La vera censura è quella che gli antivaccinisti applicano a se stessi e ai loro seguaci: censura dei numeri, censura dei fatti, censura del pensiero critico.
Il risultato? Una percezione capovolta: farmaci familiari diventano “innocui per definizione”, mentre vaccini che hanno salvato milioni di vite vengono descritti come “veleni sperimentali”. Non è prudenza, è ignoranza travestita da saggezza.
Chiariamo una volta per tutte: i vaccini non sono perfetti, ma nessun farmaco lo è. La differenza è che i vaccini non curano soltanto: prevengono, riducono i contagi, salvano intere comunità. Attaccarli con menzogne non è opinione, è irresponsabilità sociale.
In fondo, la chimica e la farmacologia ci dicono una cosa semplice: nessuna sostanza è innocua, nemmeno l’acqua. È il contesto, la dose, l’uso che fanno la differenza. Non capirlo – o, peggio, fingere di non capirlo per ideologia – significa giocare con la salute propria e quella altrui.
Il vero pericolo, oggi, non sono i vaccini. Sono gli antivaccinisti.
Lo ammetto: come poeta non valgo molto. Niente a che vedere con Gabriele D’Annunzio, che in pochi versi seppe rendere l’acqua una creatura viva, brillante, sempre in movimento:
Acqua di monte,
acqua di fonte,
acqua piovana,
acqua sovrana,
acqua che odo,
acqua che lodo,
acqua che squilli,
acqua che brilli,
acqua che canti e piangi,
acqua che ridi e muggi.
Tu sei la vita
e sempre sempre fuggi.
“Acqua che squilli, acqua che brilli,
dacci l’ossigeno senza rovelli.”
Ma se io non sono un poeta, nel campo della chimica c’è chi riesce a fare ancora peggio di me con le parole – e soprattutto con i numeri. Nonostante la mia attività divulgativa (o forse proprio a causa di essa), mi capita ancora di imbattermi nei suggerimenti di Facebook che pubblicizzano la cosiddetta “acqua arricchita di ossigeno”, presentata come un toccasana universale.
Ora, tralasciando l’iperbole pubblicitaria, proviamo a capire: a cosa servirebbe tutta questa abbondanza di ossigeno disciolto nell’acqua.
L’ossigeno disciolto e la vita acquatica
Da un punto di vista ambientale, la presenza di ossigeno disciolto in acqua è fondamentale. I pesci, i crostacei e la maggior parte degli organismi acquatici hanno bisogno di ossigeno per vivere, proprio come noi terrestri. La differenza è che loro lo ricavano dall’acqua grazie alle branchie, mentre noi lo ricaviamo dall’aria grazie ai polmoni.
Quando un pesce respira, fa passare l’acqua attraverso sottilissime membrane branchiali: da un lato c’è l’acqua con l’ossigeno disciolto, dall’altro il sangue povero di ossigeno. Per semplice diffusione, l’ossigeno passa nelle cellule del pesce (Figura 1).
Figura 1. Meccanismo di respirazione di un pesce: l’acqua con ossigeno disciolto attraversa le branchie e, per diffusione, l’ossigeno passa nel sangue povero di O₂.
Per questo motivo, i chimici quando valutano la qualità di un’acqua non guardano solo alla sua purezza, ma anche a due parametri legati all’ossigeno:
il BOD (Biochemical Oxygen Demand), che indica quanta parte dell’ossigeno disciolto viene consumata dai microrganismi per decomporre la sostanza organica;
il COD (Chemical Oxygen Demand), che misura quanta parte dell’ossigeno è necessaria per ossidare la sostanza organica, indipendentemente dai microrganismi.
Più alti sono BOD e COD, meno ossigeno resta a disposizione degli organismi acquatici. Insomma, per un pesce l’ossigeno disciolto è questione di vita o di morte.
E per noi terrestri?
Qui arriva il punto dolente. Noi abbiamo bisogno di ossigeno come gli organismi acquatici, ma senza branchie e con un fluido diverso: i nostri polmoni catturano l’ossigeno dall’aria, lo legano all’emoglobina e lo trasportano in tutto il corpo (Figura 2). Se ci immergessimo nell’acqua tentando di respirare come un pesce, non estrarremmo neppure una molecola di ossigeno perché semplicemente non abbiamo le branchie.
Figura 2. Meccanismo della respirazione polmonare: l’ossigeno viene inspirato, catturato dai polmoni, legato all’emoglobina nei globuli rossi e trasportato in tutto il corpo.
In altre parole, l’ossigeno disciolto nell’acqua che beviamo non ci serve a nulla.
Eppure, le aziende che vendono “acqua ricca di ossigeno” promettono ogni genere di beneficio: più energia, digestione facilitata, migliore resistenza fisica, addirittura un gusto esaltato delle pietanze. Sembra quasi di leggere il bugiardino di un olio di serpente moderno.
La realtà è molto più banale: quando beviamo, l’acqua raggiunge lo stomaco e l’intestino, non i polmoni. Da lì non può passare ossigeno nel sangue: l’assorbimento avviene solo attraverso l’apparato respiratorio. Se vogliamo ossigenare i tessuti, l’unico modo resta respirare.
Quanta aria può davvero entrare nell’acqua?
La chimica ci offre uno strumento molto semplice per rispondere: la legge di Henry, secondo la quale la quantità di gas che si scioglie in un liquido dipende dalla pressione parziale del gas stesso e dalla temperatura.
Tradotto:
più alta è la pressione, più gas si può sciogliere;
più bassa è la temperatura, maggiore è la solubilità;
la presenza di altri soluti (come i sali) riduce la quantità di gas che può sciogliersi.
Per dare un numero concreto: a 25 °C e alla normale pressione atmosferica, la quantità massima di ossigeno che si può sciogliere in acqua pura è circa 8–9 milligrammi per litro. Anche spremendo al massimo le condizioni di pressione e temperatura, non si arriva certo a quantità “miracolose”. Eppure, non di rado, si trovano in rete percentuali di ossigeno disciolto così esagerate da sembrare uscite da un fumetto, ben oltre il 100%: numeri che la chimica smentisce senza appello.
Inoltre, una volta che apriamo una bottiglia di acqua “ossigenata” e la riportiamo alle condizioni di pressione e temperatura ambientali, l’ossigeno in eccesso tende a liberarsi, esattamente come accade con le bollicine di una bibita gassata. Ciò che resta, in definitiva, è una comunissima acqua potabile.
Conclusione: acqua arricchita o arricchita di marketing?
Possiamo anche saturare un litro d’acqua con più ossigeno del normale, ma quando la beviamo il nostro corpo non ne ricava alcun vantaggio: non abbiamo branchie e non possiamo estrarre ossigeno dall’acqua come i pesci.
Queste bevande, quindi, non sono altro che acqua — buona e potabile, certo — ma identica a quella del rubinetto o delle bottiglie del supermercato, con l’unica differenza che costano di più.
In sintesi: l’ossigeno per vivere continuiamo a prenderlo dall’aria. Per l’idratazione basta la normale acqua. Per il resto, fidiamoci dei nostri polmoni: sono molto più efficienti di qualsiasi “acqua ricca di ossigeno”.
Negli ultimi anni la biodinamica è tornata con forza nel dibattito pubblico, presentata come un’agricoltura “più naturale”, capace di riconnettere l’uomo con la terra attraverso antichi rituali e influssi cosmici. Ma quando si scava nei lavori scientifici che dovrebbero darle credibilità, il castello crolla.
In un precedente articolo, Agricoltura biodinamica e scienza: il dialogo continua… con i soliti equivoci, avevo già mostrato come l’apparente incontro tra ricerca e pratiche steineriane sia in realtà un dialogo ingannevole. Oggi raccolgo e sintetizzo delle analisi critiche di studi pubblicati su riviste scientifiche, spesso citati a sostegno della biodinamica. Il risultato è un quadro chiaro: tanta tecnologia, poca scienza, e un mare di suggestioni travestite da rigore.
Il mito del Preparato 500
Al centro della biodinamica c’è il Preparato 500, letame fermentato in corna di vacca, elevato a elisir magico. Uno studio del 2013 su Journal of Microbiology and Biotechnology ha tentato di dargli dignità scientifica. Il risultato? Una sequenza di prove deboli: assenza di controlli, attività biologiche senza legame con benefici concreti, repliche non documentate.
Gli stessi autori, del resto, offrono materiale sufficiente per smontare ogni pretesa di scientificità. Non hanno inserito veri controlli: “Different commercial samples of BD Preparation 500… were studied” (p. 645). In pratica, hanno confrontato solo diversi lotti dello stesso preparato, senza mai verificare se i risultati differissero da un letame ordinario.
Le attività enzimatiche riportate sono descritte come promettenti, ma senza legame con effetti pratici: “Preparation 500 displays high specific levels of activity… A high alkaline phosphatase activity indicates its potential” (p. 648). Potenziale, non prova.
Una volta estratto dalle corna, il Preparato viene applicato in campo dopo diluizioni omeopatiche: 200 grammi in decine di litri d’acqua per ettaro. Gli autori non si limitano a descriverne le caratteristiche microbiologiche e chimiche, ma cercano anche di giustificare questa pratica con un ragionamento per analogia: “…they will already be delivered at a 10⁻¹⁰ M concentration… well within their expected windows of biological activity” (p. 649). Ma si tratta di pura speculazione: nessuna prova sperimentale mostra che quelle diluizioni abbiano davvero un effetto.
Il linguaggio stesso tradisce l’incertezza. Ovunque compaiono formule ipotetiche: “could possibly contribute” (p. 648), “may account for the biostimulations” (p. 649), “it cannot be excluded that it might act” (p. 650). Non dimostrazioni, ma tentativi di rivestire di retorica ciò che rimane un rituale agronomico.
Qui la scienza si ferma e subentra il wishful thinking. Non c’è alcun dato che dimostri l’efficacia di quelle diluizioni: è una speculazione posticcia, un tentativo di dare un’aura scientifica a un rituale. In sostanza, la giustificazione proposta non è ricerca: è retorica. Nessun esperimento serio ha mai mostrato che spruzzare tracce infinitesimali di letame fermentato possa produrre effetti concreti su un sistema agricolo complesso.
Corna, letame e spettrometri: la scienza usata per dare lustro al mito
Nel paragrafo precedente è stato introdotto il Preparato 500, gioia degli attivisti della biodinamica. Ebbene, esso è stato analizzato mediante risonanza magnetica nucleare (NMR) e gas-cromatografia con pirolisi (pyrolysis-TMAH-GC-MS) in un lavoro pubblicato su Environmental Science and Pollution Research nel 2012. Questo studio si presenta come la “prima caratterizzazione molecolare” del Preparato 500: una vetrina tecnologica impressionante, che tuttavia poggia su fondamenta fragilissime. Una sfilata di strumenti sofisticati al servizio non della conoscenza, ma della legittimazione di un mito. Vediamo perché.
Gli autori hanno analizzato tre lotti di Preparato 500 (“three samples of horn manure… were collected from different European farms”, p. 2558). Tutto qui. Nessun confronto con compost ordinario o letame tradizionale. Senza un vero controllo, attribuire “peculiarità biodinamiche” diventa arbitrario: come distinguere l’effetto del corno interrato da quello della normale fermentazione del letame?
Le analisi rivelano componenti come lignina, carboidrati, lipidi vegetali e marcatori microbici. Gli stessi autori ammettono che “the chemical composition of HM was consistent with that of natural organic materials” (p. 2564). In altre parole, il Preparato 500 non mostra alcuna unicità sorprendente: è esattamente ciò che ci si aspetta da una biomassa organica parzialmente decomposta.
Il paper suggerisce che la presenza di frazioni labili e lignina parzialmente decomposta possa conferire al Preparato 500 una particolare bioattività: “HM was characterized by a relatively high content of labile compounds that might account for its claimed biostimulant properties” (p. 2565). Ma questa è pura congettura: nessun dato in campo supporta l’idea che tali caratteristiche abbiano effetti agronomici specifici.
Le conclusioni parlano di “a higher bioactivity with respect to mature composts” (p. 2565). Ma il solo risultato tangibile è che il Preparato 500 risulta meno stabilizzato e più ricco di composti facilmente degradabili rispetto a un compost maturo. Un’osservazione banale, trasformata in presunta “prova” di efficacia biodinamica.
In altre parole, il lavoro appena analizzato non dimostra alcuna unicità del Preparato 500. Mostra soltanto che un letame lasciato fermentare in condizioni anossiche dentro un corno ha una composizione chimica simile a quella di altri ammendanti poco maturi. L’uso di strumenti spettroscopici di alto livello serve più a conferire prestigio alla pratica biodinamica che a produrre nuova conoscenza. È un’operazione di maquillage scientifico: dati corretti, ma interpretazione piegata all’ideologia.
Strumenti sofisticati, interpretazioni esoteriche
In uno studio apparso su Chemical and Biological Technologies in Agriculture, gli autori hanno applicato tecniche avanzatissime – MRI (risonanza magnetica per immagini) per la struttura interna delle bacche e HR-MAS NMR per il metaboloma – a uve Fiano e Pallagrello trattate con il celebre Preparato 500. Dal punto di vista tecnico nulla da eccepire: “MRI and HR-MAS NMR provided detailed information on berry structure and metabolite profiles” (p. 3).
Il problema nasce subito dopo. Gli autori collegano direttamente i risultati – “a significant decrease in sugars and an increase in total phenolics and antioxidant activity in biodynamically treated grapes” (p. 5) – all’applicazione del Preparato 500. Ma senza un adeguato controllo placebo questo salto logico è insostenibile: come distinguere l’effetto della “pozione biodinamica” da quello di fattori molto più concreti e plausibili come microclima, esposizione solare, variabilità del suolo o semplici disomogeneità nell’irrigazione?
Gli stessi autori ammettono che la variabilità ambientale è enorme: “soil heterogeneity and microclimatic differences strongly influenced metabolite composition” (p. 6). Eppure, attribuiscono al trattamento biodinamico differenze che potrebbero essere spiegate benissimo da questi fattori.
Ecco il nodo: la biodinamica viene trattata come variabile determinante quando, in realtà, manca la dimostrazione del nesso causale. Si confonde la correlazione con la causa, sostituendo la fatica della verifica sperimentale con il fascino della narrazione esoterica. In altre parole, strumenti scientifici tra i più potenti oggi disponibili vengono usati correttamente per produrre dati robusti, ma poi piegati a interpretazioni che appartengono più al mito che alla scienza. È come se un telescopio di ultima generazione fosse puntato verso il cielo non per studiare le galassie, ma per cercare gli influssi astrali di cui parlano gli oroscopi.
Quando i numeri non tornano
Tra i lavori più citati a sostegno della biodinamica c’è l’articolo di Zaller e Köpke pubblicato su Biology and Fertility of Soils nel 2004, che confronta letame compostato tradizionale e letame compostato con “preparati” biodinamici in un esperimento pluriennale. Sulla carta, il disegno sperimentale sembra solido: rotazioni colturali, repliche, parametri chimici e biologici del suolo.
Ma basta entrare nei dettagli per accorgersi delle crepe. Innanzitutto, gli autori parlano di quattro trattamenti, ma l’unico vero confronto rilevante – biodinamico vs tradizionale – è reso ambiguo dal fatto che manca un controllo cruciale: il letame senza alcuna applicazione (no FYM) è incluso, ma non permette di distinguere se le differenze dipendano dalle preparazioni biodinamiche o, banalmente, dalla sostanza organica. In altre parole, non è possibile stabilire se l’“effetto” sia biodinamico o semplicemente concimante.
In secondo luogo, molte delle differenze riportate sono minime, al limite della significatività statistica, e oscillano addirittura in direzioni opposte tra i diversi strati di suolo (es. la respirazione microbica più bassa con tutti i preparati a 0–10 cm, ma più alta col solo Achillea a 10–20 cm: Fig. 1). Questo non è un segnale di coerenza biologica, ma di rumore sperimentale.
E poi ci sono le rese: tabella 3 mostra chiaramente che le differenze tra preparati e non-preparati non sono mai significative. In pratica, dopo nove anni di sperimentazione, la produttività dei sistemi resta identica, indipendentemente dall’uso o meno dei preparati.
Il colpo finale arriva dall’interpretazione: gli autori ammettono che “how those very low-dose preparations can affect soil processes is still not clear” (p. 228), ma subito dopo ipotizzano meccanismi fumosi come “microbial efficiency” o “stress reduction” senza fornire prove solide. Non sorprende che l’articolo sia diventato un riferimento per i sostenitori della biodinamica: fornisce grafici, tabelle e un lessico tecnico, ma dietro la facciata la sostanza è debole.
In sintesi, questo lavoro non dimostra affatto l’efficacia dei preparati biodinamici: mostra soltanto che il letame fa bene al suolo, una banalità agronomica travestita da scoperta.
Mappatura, non validazione
Giusto per concludere questa breve revisione critica di qualche lavoro sulla biodinamica, prendo in considerazione una review pubblicata su Organic Agriculture che ha analizzato 68 studi sull’agricoltura biodinamica. Gli autori segnalano effetti positivi su suolo e biodiversità, soprattutto in aree temperate, sostenendo che “most studies reported improvements in soil quality parameters, biodiversity, and crop quality under biodynamic management” (p. 3).
Il problema è che si tratta di una rassegna descrittiva, non critica. Gli stessi autori ammettono che “we did not perform a formal quality assessment of the included studies”(p. 2). In altre parole, nessuna valutazione della robustezza metodologica, della significatività statistica o della replicabilità dei risultati. Non hanno fatto, insomma, quello che ho fatto io con le critiche riportate nei paragrafi precedenti.
Non solo: la review mette nello stesso calderone pratiche agricole consolidate (rotazioni, compost, minore uso di chimica) e l’uso dei preparati biodinamici, facendo apparire i benefici come frutto della biodinamica tout court. Un artificio retorico che sposta l’attenzione dall’agronomia alla magia.
Il risultato è esattamente quello che Enrico Bucci definì su Il Foglio una “eterna review”: “un elenco di lavori, non una loro valutazione critica”. Utile come catalogo, ma totalmente inutile come prova di validazione scientifica. Insomma, un inventario ordinato, non una prova di efficacia: la scienza qui rimane alla porta, mentre la retorica magica occupa la scena.
La fatica della demistificazione scientifica
Arrivati a questo punto, vale la pena sottolineare un aspetto che spesso sfugge a chi guarda la scienza dall’esterno. Smontare lavori che si travestono da scienza non è un passatempo da tastiera né un esercizio da poltrona. È un percorso lungo, faticoso e a tratti logorante. Perché?
Per prima cosa bisogna leggere gli articoli nella loro interezza, riga dopo riga, spesso decifrando un linguaggio tecnico volutamente denso. Poi serve una conoscenza approfondita delle metodologie: saper distinguere un NMR da una cromatografia, sapere cosa può misurare davvero un test enzimatico e cosa invece viene gonfiato nell’interpretazione. Infine, è indispensabile una robusta esperienza nella progettazione sperimentale: senza questa non ci si accorge dei bias nascosti, dei controlli mancanti, delle conclusioni che vanno ben oltre i dati.
E tutto ciò richiede tempo, pazienza e un certo spirito combattivo. La scienza procede per tentativi ed errori. Un lavoro pubblicato non necessariamente è valido. La pubblicazione è solo il primo gradino. La vera prova arriva dopo, quando la comunità scientifica lo sottopone a un esame collettivo, minuzioso, implacabile: esperti che “fanno le pulci” a ogni cifra, a ogni tabella, a ogni esperimento. Se il lavoro è solido, resiste e diventa pietra miliare. Se è fragile, si sgretola in fretta e viene dimenticato.
Ecco perché la demistificazione è così importante e così dura: perché si combatte con armi scientifiche contro narrazioni che usano il fascino del mito. E i lavori sulla biodinamica, quando passano sotto questo setaccio, puntualmente crollano.
Conclusione: un fallimento annunciato
Il quadro che emerge è inequivocabile. Studi ben confezionati ma concettualmente vuoti, prove senza controlli, numeri sbagliati, review che confondono agronomia con magia. Tutto ciò che funziona nelle aziende biodinamiche non è esclusivo della biodinamica: è semplice agronomia, già consolidata nel biologico e perfezionata nell’integrato.
Il resto – corna interrate, cicli cosmici, preparati miracolosi – non resiste alla prova della scienza. La biodinamica cerca da oltre un secolo legittimazione, ma ogni volta che la ricerca prova a verificarla seriamente, la sua fragilità diventa evidente. Non è agricoltura del futuro, ma un mito che il tempo ha già smentito.
A questo punto, un lettore non addetto potrebbe chiedersi: “Ma se è così fragile, come mai questi studi vengono pubblicati? Possibile che i revisori non se ne accorgano? E come faccio io, dall’esterno, a non fidarmi di ciò che appare su riviste qualificate, persino con un buon Impact Factor?”
La risposta è meno misteriosa di quanto sembri. Come ho già scritto nel paragrafo precedente, la pubblicazione è solo il primo passo: significa che un articolo ha superato un filtro minimo di qualità, non che sia una verità scolpita nel marmo. La peer review non è un tribunale infallibile: è fatta da esseri umani, spesso con tempi stretti e competenzespecifiche. Alcuni errori sfuggono, altre volte ci si concentra più sulla tecnica che sulla sostanza. Succede che un lavoro ben scritto e infarcito di strumentazioni sofisticate riesca a passare, anche se le conclusioni sono deboli.
La differenza la fa il tempo e la comunità scientifica. È il vaglio collettivo, fatto di discussioni, repliche, critiche, tentativi di replica sperimentale, che separa ciò che rimane da ciò che evapora. Ed è un processo lento e faticoso, che richiede esperienza, attenzione e anche una certa dose di ostinazione.
Ecco perché non basta fidarsi di un titolo altisonante o di una rivista con un buon IF. Bisogna guardare dentro i lavori, leggerli, pesarli, verificarli. Lo facciamo noi scienziati, ed è una parte del nostro mestiere che non fa notizia, ma è essenziale: distinguere i dati solidi dai castelli di carta.
E ogni volta che la biodinamica entra in questo setaccio, il risultato è lo stesso: crolla.
Lasciata Parigi, dove ho avuto l’onore di dialogare con Antoine Lavoisier, faccio rotta verso l’Inghilterra. È il 1831 — almeno, così mi piace pensare — e la bruma londinese avvolge i sobborghi di Newington Butts. Qui, in una piccola casa modesta, mi attende Michael Faraday: chimico, fisico, autodidatta, uomo dalla curiosità inesauribile. Dai suoi esperimenti nascono concetti e scoperte che hanno plasmato la chimico-fisica moderna: l’elettromagnetismo, le leggi dell’elettrolisi, l’introduzione di termini come “anodo” e “catodo”, e quell’inimitabile ciclo di lezioni che raccolse in The Chemical History of a Candle. Un uomo che, pur privo di studi matematici formali, ha saputo leggere nel linguaggio segreto della natura e tradurlo in esperimenti chiari e affascinanti.
— Buongiorno, Professor Faraday. Sono onorato che lei abbia voluto incontrarmi.
— Buongiorno a lei, e benvenuto a Londra. Sono lieto di parlare con chi mostra curiosità per la scienza, perché la curiosità è la fiamma che accende ogni scoperta.
— Professor Faraday, il suo nome è legato a scoperte epocali in campi diversi. Partiamo dall’elettrochimica: come nacquero le sue famose leggi dell’elettrolisi?
— Tutto è cominciato facendo esperimenti, con tanta pazienza e un po’ di ostinazione. L’elettrolisi, per dirla semplice, è quando si fa passare corrente elettrica in un liquido — come una soluzione salina — e agli elettrodi avvengono reazioni chimiche: si formano gas, si depositano metalli, o si liberano altre sostanze. Mi resi conto che la quantità di sostanza prodotta non era mai a caso: più elettricità facevo passare, più materia ottenevo. Questo è il cuore della mia prima legge. Poi, cambiando sostanza — oro, rame, idrogeno, ossigeno… — vidi che, se facevo passare sempre la stessa “dose” di elettricità, ottenevo quantità diverse di materiale, ma sempre in proporzione a un valore caratteristico di quella sostanza, il cosiddetto “peso equivalente”. In fondo, quelle regole erano già lì, scritte nella natura: io ho solo avuto la pazienza di osservarle e metterle nero su bianco.
— Questo è quanto hanno affermato, tra le righe, anche il Professor Boyle e Monsieur Lavoisier che, immagino, lei conosca.
— Eccome se li conosco! Boyle, con il suo modo rigoroso di sperimentare, ha aperto la strada a tutti noi: era convinto che le leggi della natura fossero lì da scoprire, non da inventare. E Lavoisier… be’, lui ha saputo dare un ordine e un linguaggio alla chimica. Ha dimostrato che nulla si crea e nulla si distrugge, e che il compito dello scienziato è trovare il filo che lega ogni trasformazione. Io ho solo continuato quel lavoro, seguendo il filo della corrente elettrica.
— Quindi, lei ha seguito le orme di monsieur Lavoisier, dimostrando in modo indipendente che aveva ragione.
— Direi piuttosto che ho camminato su un sentiero che lui aveva già tracciato, ma guardando dettagli che, ai suoi tempi, erano nascosti. Lavoisier aveva ragione nel dire che la materia si conserva e che le reazioni seguono leggi precise. Io ho potuto vedere quelle stesse leggi in azione nei processi elettrici, e mostrarne il funzionamento quantitativo. In un certo senso, la mia elettrochimica è stata la prova sperimentale di un’idea che lui aveva reso universale.
— E come ha detto monsieur Lavoisier, la scienza è un gioco corale…
— …esattamente. Non c’è un singolo musicista che possa suonare tutta la sinfonia da solo. Ognuno aggiunge una nota, un tema, un’armonia. Boyle ha messo le fondamenta del metodo sperimentale, Lavoisier ha dato ordine e linguaggio alla chimica, e io ho avuto la fortuna di inserirvi l’elettricità come nuova voce. La scienza avanza così: un’idea ispira un’altra, un esperimento ne provoca cento nuovi. È un lavoro che attraversa generazioni, senza gelosie — o almeno, così dovrebbe essere.
— E in questo coro, lei ha introdotto un tema che ha cambiato per sempre la fisica: l’induzione elettromagnetica.
— Fu una delle mie scoperte più care. E nacque da una domanda molto semplice: se una corrente elettrica può generare un campo magnetico, come aveva mostrato Oersted, non sarà possibile anche il contrario? Mi misi al banco di lavoro con fili di rame, bobine, magneti e molta pazienza. Scoprii che muovendo un magnete vicino a un circuito, o variando il campo magnetico che lo attraversa, in quel circuito compare una corrente. Una corrente “indotta”. Non serviva contatto diretto: il cambiamento del campo era sufficiente.
— Un principio che oggi è alla base dei generatori e dei trasformatori elettrici…
— All’epoca non pensavo certo alle centrali elettriche: vedevo solo un nuovo modo in cui natura e movimento dialogano. Ma la bellezza della scienza è che ciò che nasce da curiosità pura, un giorno, può cambiare il mondo.
— Questa è l’idea della ricerca di base, un tipo di ricerca che, come avrà sicuramente saputo, oggi viene ritenuta inutile. Oggi, nella stesura dei progetti per ottenere finanziamenti, occorre anche descrivere i risultati attesi e le possibili applicazioni…
— Ah, capisco. Ma vede, la ricerca di base è come seminare in un terreno fertile: non si può sempre sapere in anticipo quale frutto crescerà, né quando. Se nel 1831 mi avessero chiesto quali applicazioni pratiche avrei tratto dall’induzione elettromagnetica, avrei potuto solo dire: “Ancora non lo so, ma è un fenomeno reale e va compreso”. Eppure, da quella curiosità oggi nascono la produzione e la distribuzione dell’elettricità. La scienza che cerca soltanto risultati immediati rischia di accontentarsi di frutti già noti, rinunciando a scoprire nuove specie di alberi.
— Bellissimo ciò che ha detto… la scienza che cerca soltanto risultati immediati rischia di accontentarsi di frutti già noti, rinunciando a scoprire nuove specie di alberi.
— E glielo posso raccontare con un piccolo episodio personale. Quando iniziai a parlare dei miei esperimenti sull’elettricità, alcuni colleghi mi chiesero: “Ma a cosa serve tutto questo? Cosa produrrà di utile?” Io risposi semplicemente: “Non lo so ancora… ma quando lo scoprirò, sarà più utile di qualsiasi risposta affrettata”. Ridono ancora, quando lo racconto, perché nessuno allora poteva immaginare che quei giochi con fili e magneti un giorno avrebbero illuminato case, fabbriche e città intere. La curiosità pura è stata il mio unico motore. Non ho mai pensato che l’utilità pratica dovesse precedere la comprensione; credo fermamente che le leggi della natura si rivelino meglio a chi le osserva con meraviglia e senza fretta.
— È davvero straordinario come la curiosità pura abbia portato a scoperte così rivoluzionarie… eppure, lei non si è fermato all’elettricità: ha anche esplorato la luce.
— Sì, e anche qui è stata la stessa curiosità a guidarmi. Nel 1845, mentre studiavo l’influenza dei campi magnetici sulla materia, mi venne in mente di verificare se la luce potesse essere influenzata da un campo magnetico. Preparai un esperimento semplice: un raggio di luce che passava attraverso una sostanza trasparente immersa in un campo magnetico. Con grande stupore, notai che il piano di polarizzazione della luce ruotava leggermente.
— Questo è ciò che oggi chiamiamo effetto Faraday…
— È il primo esempio noto di interazione tra luce e magnetismo, e dimostrò che la luce e il magnetismo non sono fenomeni separati, ma legati da un principio comune. All’epoca non conoscevo l’equazione di Maxwell — che sarebbe arrivata solo qualche decennio dopo — ma intuivo che elettricità, magnetismo e luce fossero fili di uno stesso tessuto. Il mio compito era solo tirare uno di quei fili per vedere come vibrava l’intero intreccio.
— Professor Faraday, lei ha dimostrato di saper fare scoperte enormi senza una formazione matematica formale. Come ci è riuscito?
— Non ho mai considerato la matematica un ostacolo insormontabile, ma uno strumento che, se necessario, avrei potuto imparare. La mia forza era nel laboratorio, nell’osservazione meticolosa, nell’immaginare esperimenti semplici che potessero dare risposte chiare. Credevo — e credo ancora — che il pensiero sperimentale sia universale: se la natura ti mostra un fenomeno, puoi comprenderlo anche senza formule complesse, purché tu abbia pazienza, rigore e umiltà.
— A proposito di umiltà, lei ha spesso rifiutato titoli e onori…
— Sì, perché il vero riconoscimento per uno scienziato non è una medaglia, ma vedere che le sue scoperte entrano a far parte della vita di tutti. Ho sempre pensato che la scienza debba restare al servizio dell’uomo, non dell’ego dello scienziato.
— …che non è esattamente quello che accade oggi, quando molti di noi — me compreso — provano un certo piacere a stare sotto i riflettori. E glielo confesso: quando lo dico ai colleghi, vengo anche preso per pazzo.
— Forse perché oggi la visibilità non porta solo applausi, ma anche finanziamenti. E questi, lo so bene, possono arrivare da ogni direzione, compresa quella di chi vende illusioni ben confezionate: omeopatia, biodinamica e altre amenità. Ai miei tempi, la fama non apriva così facilmente le casse di mecenati o aziende; e comunque, il rischio di piegare la scienza a interessi di parte era sempre in agguato. Il punto è ricordare che il palcoscenico passa, mentre la verità scientifica resta — e che oggi, troppo spesso, la dignità e l’autorevolezza scientifica vengono barattate per un piatto di lenticchie.
— Professor Faraday, molti la ricordano anche per le sue celebri Christmas Lectures alla Royal Institution. Come nacque l’idea de La storia chimica di una candela?
— Ogni anno, a Natale, tenevo delle lezioni per i ragazzi. Volevo offrire loro un’esperienza che fosse insieme semplice e affascinante. Scelsi la candela perché è un oggetto comune, familiare a tutti, ma dietro la sua fiamma si nasconde un mondo di fenomeni fisici e chimici.
— Qual era il suo obiettivo nel parlare di una cosa così quotidiana?
— Dimostrare che la scienza non è confinata nei laboratori: è dappertutto. Una candela, accendendosi, mette in scena combustione, convezione, cambiamenti di stato, reazioni chimiche complesse. Volevo che i giovani capissero che anche un gesto banale può essere una porta verso grandi scoperte.
— Qual è il primo segreto che una candela rivela?
— Che la fiamma non è materia, ma energia in azione. La cera, riscaldata, diventa liquida, poi gassosa; il gas brucia liberando calore e luce. È un ciclo continuo di trasformazioni: solido, liquido, gas, e di nuovo energia.
— Lei parlava spesso di osservare prima di spiegare. Come lo applicò in queste lezioni?
— Invitavo i ragazzi a guardare: il colore della fiamma, il fumo che si sprigiona quando si spegne la candela, la forma della goccia di cera che si scioglie. Solo dopo passavamo a spiegare il perché di ciò che avevano visto. La curiosità nasce dall’osservazione diretta.
— In fondo, è un po’ la stessa filosofia della sua ricerca…
— Sia che studi l’elettromagnetismo, sia che guardi una candela, l’approccio è lo stesso: osservare con attenzione, porre domande, non dare nulla per scontato.
— Cosa pensa che La chimica di una candela possa insegnare ancora oggi?
— Che la scienza è nelle mani di chi sa guardare. Non importa se il laboratorio è una stanza piena di strumenti o il tavolo di cucina: ciò che conta è la capacità di meravigliarsi e di cercare risposte.
— Sa che queste sue parole potrebbero essere usate oggi, nella mia epoca, da complottisti di ogni risma? Gente che si riempie la bocca di “pensiero indipendente”, “Galilei era uno contro tutti” e così via cantando…
— Oh, conosco bene il rischio. Ma vede, c’è una differenza sostanziale: il vero pensiero indipendente nasce dallo studio rigoroso e dall’osservazione onesta della realtà; quello dei complottisti nasce spesso dal rifiuto pregiudiziale delle prove. Galilei non era “uno contro tutti” perché amava contraddire: era uno che portava dati, misure, esperimenti ripetibili. Se oggi qualcuno brandisce il suo nome per giustificare opinioni infondate, sta confondendo la curiosità con l’arroganza e il metodo scientifico con la chiacchiera da taverna. E guardi che lo stesso vale per una candela. Posso raccontare che la fiamma è alimentata da minuscole fate luminose che ballano nell’aria: suona poetico, e qualcuno potrebbe pure crederci. Ma basta un semplice esperimento per dimostrare che la luce e il calore vengono dalla combustione di vapori di cera. La scienza non è negare la fantasia — è verificarla.
— Professor Faraday, se dovesse riassumere in poche parole il senso del suo lavoro, cosa direbbe?
— Direi che ho passato la vita a inseguire scintille: alcune erano letterali, altre metaforiche. Ma ogni scintilla, se seguita con attenzione, può accendere una fiamma di conoscenza.
Mentre lascio la sua casa, il cielo di Londra è ancora avvolto nella bruma, ma nella mia mente resta accesa una piccola luce: quella di una candela che, sotto lo sguardo paziente di Michael Faraday, si trasforma da semplice oggetto quotidiano in una lezione eterna di curiosità, rigore e meraviglia.
Mi avvio verso il prossimo appuntamento impossibile. Lì, tra fili di rame e campi invisibili, scopriremo che la scienza può unire fenomeni che sembravano mondi separati, guidata dalla stessa curiosità che accende una fiamma e illumina una mente.
Come i miei quattro lettori sanno, sono un appassionato di chimica. Ne ho fatto la mia professione, unendo la passione per la ricerca – il mio giocattolo preferito, con cui smonto la realtà, ne indago i segreti e poi la rimonto – a quella per la didattica che, nel tempo, mi ha rivelato un lato inatteso: la voglia di rendere “digeribili” agli studenti concetti chimici anche molto complessi.
C’è poi un’altra passione: la storia della chimica. Sono convinto che solo conoscendo ciò che è accaduto in passato si possa capire come e perché una disciplina si sia sviluppata in una direzione piuttosto che in un’altra.
Da queste premesse nasce questa rubrica dal titolo: Le interviste impossibili. Si tratta una serie di incontri – ovviamente immaginari – con grandi scienziati del passato, principalmente chimici, con i quali intavolerò discussioni che potranno spaziare dalla scienza alla politica, dall’etica ad altre questioni che il dialogo potrà far emergere. Saranno conversazioni interamente frutto della mia immaginazione, ispirate alla filosofia scientifica e al pensiero della persona intervistata.
E per cominciare, chi meglio di Robert Boyle? Un uomo che, nel 1661, con Il chimico scettico, ha segnato la nascita della chimica moderna, abbandonando le nebbie dell’alchimia per abbracciare la luce della sperimentazione. Sarà lui il primo ospite di questa serie, e vi assicuro che, nonostante i suoi 400 anni portati con una certa eleganza, ha ancora parecchie cose da dire.
_______________________
Buongiorno, professor Boyle.
— Buongiorno a lei, signore. Mi perdoni se non mi alzo: questa pompa pneumatica è un po’ capricciosa e non vorrei perdere il vuoto proprio adesso.
— Vedo che la tratta con grande cura.
— Cura? Direi venerazione. È stata la mia chiave per scardinare vecchie idee. Con essa ho mostrato che l’aria non è un concetto filosofico, ma una sostanza reale, con peso, volume, pressione. Ai miei tempi, molti pensavano che la natura fosse governata da qualità misteriose, imponderabili. Io ho voluto misurare, pesare, verificare.
— E questo cambiò la chimica?
— Cambiò il modo di guardare alla materia. Prima si parlava di “aria”, “fuoco”, “acqua” e “terra” come entità quasi mistiche. Io ho voluto trattarle come sostanze concrete. Senza questa svolta, dubito che la chimica avrebbe potuto diventare lo strumento potente – e pericoloso – che è oggi.
— Pericoloso?
— Oh, sì. Ai miei tempi, il pericolo era limitato dal ritmo lento della ricerca: poche persone, pochi strumenti, pochi esperimenti. Oggi vedo una velocità inaudita: sintetizzate composti che non esistono in natura e li disperdete nell’ambiente prima ancora di comprenderne a fondo le conseguenze. Pensate alla plastica: una meraviglia della chimica moderna, ma anche un nuovo sistema chimico, onnipresente nei mari e nei corpi degli animali. Noi scienziati dobbiamo ricordare che ogni “creazione” lascia un’impronta.
— Quindi anche nel XVII secolo si poteva parlare di impatto ambientale?
— Certo, ma in forme diverse. I metallurgi avvelenavano i fiumi con le scorie, nelle città si bruciava carbone liberando fumi tossici. Noi non usavamo la parola “inquinamento”, ma ne sentivamo gli effetti: miniere abbandonate, aria irrespirabile nelle botteghe, malattie croniche tra i lavoratori. Solo che nessuno collegava questi effetti alle cause chimiche: mancava il concetto stesso di “responsabilità scientifica verso l’ambiente”.
— E come ci si è arrivati?
— È stato un percorso lento, nato dall’osservazione e dall’accumulo di prove. Con l’Ottocento e la rivoluzione industriale, l’aumento di fumi e scorie divenne innegabile; nel Novecento, con la chimica capace di produrre composti mai visti in natura, si cominciò a capire che ogni reazione ha conseguenze non solo in laboratorio, ma anche nei fiumi, nei campi e nei corpi. Gli esempi non mancano: le piogge acide dovute alle emissioni industriali, il DDT che si accumulava nelle catene alimentari, il buco nello strato di ozono causato dai clorofluorocarburi. Fu allora che l’umanità iniziò a capire che l’ambiente non era un contenitore infinito, ma un sistema delicato, capace di spezzarsi sotto il peso delle nostre stesse invenzioni. Oggi chiamate questo approccio “valutazione dell’impatto ambientale”: è la naturale estensione del metodo scientifico. Osservare, misurare e trarre conclusioni, ma applicato non solo all’esperimento, bensì alle sue conseguenze sul mondo reale. E, cosa ancora più importante, farlo prima di introdurre su larga scala una nuova sostanza o tecnologia. Tanto che in molti Paesi questo esame preventivo è diventato un obbligo di legge: un modo per ricordare che la prudenza non è un freno al progresso, ma la sua assicurazione.
— Come vede il rapporto tra scienza e politica oggi?
— Non troppo diverso da allora: la politica ama la scienza quando porta vantaggi immediati, ma la ignora – o la ostacola – quando chiede pazienza e prudenza. Ai miei tempi, un re o un mecenate finanziava un esperimento se prometteva ricchezza o prestigio; oggi, un governo o un’azienda lo finanziano se promette profitto o consenso. La differenza è che oggi gli effetti sono globali, non locali.
— E anche la scienza stessa è cambiata.
— Oh, sì. Mi avete parlato di questa massima: publish or perish, pubblica o scompari. Ai miei tempi pubblicare era un atto ponderato, spesso il lavoro di una vita. Ora vedo un’esplosione di articoli, ma molti sono come bolle di sapone: luccicanti per un attimo, poi svaniscono. Alcuni dicono poco o niente, altri celano errori gravi, e vi sono perfino casi di falsità intenzionali. Mi avete raccontato di un certo Jan Hendrik Schön, che riempì riviste prestigiose di risultati entusiasmanti sui transistor molecolari… peccato che fossero artefatti. Grafici identici per esperimenti diversi, dati “cancellati” per mancanza di spazio…
— E la comunità scientifica?
— Ha fatto ciò che doveva: ha verificato, smascherato e ritirato quegli studi. Ma il danno d’immagine resta: basta un imbroglione per far credere a molti che tutta la scienza sia marcia.
— E non è solo un problema di chi scrive articoli. Anche chi siede nei comitati scientifici ha responsabilità enormi.
— Certamente. Mettere in un comitato tecnico persone che rifiutano le basi stesse della disciplina che dovrebbero consigliare è come nominare un astrologo direttore di un osservatorio astronomico, o un alchimista a capo di un laboratorio chimico. Ai miei tempi, la Royal Society aveva un motto: Nullius in verba, “non fidarti della parola di nessuno”. Oggi dovreste aggiungere: “ma fidati dei dati”.
— E invece?
— Invece vedo che talvolta si preferisce dare spazio a voci che piacciono al pubblico, o che creano polemica, piuttosto che a quelle fondate sulla prova. È un cortocircuito pericoloso: si confonde il dibattito scientifico, che nasce dall’evidenza, con l’opinione personale, che nasce dal pregiudizio.
— Torniamo un attimo al suo Chimico scettico: il suo invito era a dubitare, a verificare.
— Sì. Lo scetticismo è la virtù cardinale dello scienziato. Senza di esso, si scivola nell’illusione. Oggi, a quanto vedo, convivono scoperte straordinarie e credenze assurde: si creano vaccini in pochi mesi e allo stesso tempo si vendono boccette di acqua “miracolosa” che pretendono di curare tutto.
— Omeopatia.
— Già. La chiamerei “chimica dell’assenza”: meno sostanza c’è, più miracoli si promettono. È un concetto che mi lascia perplesso: ho passato la vita a misurare e qui si celebra ciò che non si può misurare.
— Se potesse dare un consiglio agli scienziati di oggi?
— Non dimenticate che ogni molecola che “create” entrerà in qualche ciclo della natura. E ricordatevi che la scienza non è una collezione di verità scolpite nella pietra, ma un cantiere aperto, dove ogni scoperta deve essere messa alla prova, anche – e soprattutto – quando sembra troppo bella per essere vera.
— Ultima domanda, professore: se le offrissi un bicchiere di acqua “omeopatica” per la salute?
— (Sorride) Lo accetterei… ma solo se avessi sete.
_______________________
Saluto il professor Boyle e mi avvio verso il prossimo appuntamento impossibile. Il mio interlocutore, ghigliottinato nel 1794, aveva una convinzione incrollabile: nulla si crea, nulla si distrugge. Ma, come scopriremo presto, non tutto si conserva…
È di queste ore la notizia che il ministro della salute, Orazio Schillaci, ha nominato nel Gruppo Tecnico Consultivo Nazionale sulle Vaccinazioni (NITAG) due tecnici, Paolo Bellavite ed Eugenio Serravalle, dalle posizioni, in più occasioni espresse pubblicamente, in contrasto con quanto riportato nella letteratura scientifica più accreditata (quest’ultima può essere rappresentata dagli articoli riportati qui, qui, qui e qui).
Che cos’è il NITAG?
Dal sito del Ministero della Salute apprendiamo che: Il NITAG è un Organo indipendente col compito di supportare, dietro specifica richiesta e su problematiche specifiche, il Ministero della Salute nella formulazione di raccomandazioni “evidence-based” sulle questioni relative alle vaccinazioni e alle politiche vaccinali, raccogliendo, analizzando e valutando prove scientifiche.
In altre parole, si tratta di un comitato scientifico che, sulla base di prove scientifiche inoppugnabili, consente al Ministero della Salute e, quindi, al Governo di prendere decisioni importantissime in merito a problematiche relative alla salute pubblica.
Chi è Paolo Bellavite
Bellavite è un medico che fino a qualche anno fa ha ricoperto il ruolo di Professore Associato in Patologia Generale presso l’Università di Verona. Le sue posizioni in merito ai vaccini sono riportate sia in interviste che nei libri che ha scritto e pubblicato. In particolare, egli dice di non essere contrario ai vaccini in quanto tali, ma critica duramente quella che definisce una “ideologia vaccinista”. A suo avviso, la narrazione dominante che presenta i vaccini come soluzione unica e infallibile si configura come un dogma che soffoca il dibattito scientifico e il pensiero critico. “Non ha nulla a che fare con la scienza”, ha affermato in un’intervista, parlando di un clima in cui “l’odio vaccinale è la tomba della medicina”.
Dal punto di vista immunologico, Bellavite mette in guardia contro le possibili conseguenze di una stimolazione eccessiva del sistema immunitario attraverso dosi ripetute. E sull’aspetto etico sottolinea: “Siamo ancora nella fase sperimentale. Ha ragione chi ha paura”.
Naturalmente, egli è anche un forte sostenitore della pratica omeopatica. Infatti, Paolo Bellavite sostiene che l’omeopatia non sia una moda passeggera, ma l’espressione di un profondo cambiamento culturale e scientifico che mette in discussione i limiti dell’attuale paradigma medico meccanicistico e molecolare. Questo approccio tradizionale, pur avendo ottenuto importanti risultati, non ha saputo affrontare efficacemente la complessità biologica e clinica, spesso riducendo la medicina a una frammentazione iperspecialistica. L’omeopatia, al contrario, propone una visione sistemica del paziente, centrata sull’individualità, sulla totalità dei sintomi e sulla stimolazione dei processi endogeni di guarigione, concetti che si allineano con la scienza della complessità. Bellavite rivendica per l’omeopatia una dignità scientifica, sostenendo che essa possa essere studiata con metodi sperimentali avanzati e integrata razionalmente nella medicina moderna. Si oppone con forza a ciò che definisce una campagna denigratoria nei confronti dell’omeopatia da parte dei media e di alcuni esponenti del mondo accademico, accusandoli di diffondere affermazioni false senza consentire un contraddittorio serio e competente. Pur riconoscendo il valore di farmaci convenzionali e vaccini in determinate circostanze, Bellavite li considera soluzioni alternative da adottare solo dopo aver tentato approcci più naturali e fisiologici, come omeopatia, fitoterapia, agopuntura, corretta alimentazione e igiene. In questa visione, l’omeopatia non è solo una medicina possibile, ma una medicina vera e prioritaria, da contrapporre a un uso troppo disinvolto e sintomatico della farmacologia convenzionale.
Chi è Eugenio Serravalle
Serravalle è laureato in Medicina e Chirurgia e specializzato in Pediatria Preventiva, Puericultura e Patologia Neonatale. Egli ha più volte preso posizione contro la vaccinazione di massa dei bambini, soprattutto in relazione al Covid-19. Secondo lui, l’infezione da SARS-CoV-2 non rappresenta un’emergenza sanitaria tra i più piccoli e i potenziali rischi della vaccinazione superano i benefici. “Tutti gli studi scientifici affermano che non vi è alcuna emergenza Covid tra i bambini”, ha dichiarato in un’intervista.
“Abbiamo una regolare laurea in medicina… e se abbiamo adottato la terapia omeopatica è perché, evidentemente, ne abbiamo sperimentato l’efficacia.”
“Non si può essere venditori di fumo quando si curano pazienti… e tra questi pazienti sono numerosi i bambini e gli animali che non sono influenzabili dall’effetto placebo.”
Con questa risposta, Serravalle rigetta la critica secondo cui l’omeopatia sarebbe solo “fumo” o priva di efficacia, affermando invece di aver osservato personalmente risultati tangibili, anche in soggetti difficilmente influenzabili da placebo.
Quando i conti non tornano
A leggere le dichiarazioni dei due nominati, si potrebbe pensare di essere davanti a voci “fuori dal coro” che invitano alla cautela. Ma basta andare oltre la superficie per capire che non si tratta di sano scetticismo scientifico: siamo, piuttosto, di fronte a posizioni che, alla luce delle evidenze scientifiche disponibili, risultano in contrasto con il consenso della comunità scientifica. Ed è qui che inizia il vero problema.
Il punto centrale è che un organismo tecnico chiamato a esprimere pareri qualificati in materia di salute pubblica deve basarsi su conoscenze aggiornate e scientificamente inoppugnabili. Non può diventare il ricettacolo di discussioni inutili fatte in nome di una presunta “pluralità di opinioni”. Il concetto di democrazia politica è completamente diverso – e molto lontano –da quello di democrazia scientifica. In una democrazia politica è legittimo avere opinioni diverse su come affrontare un problema di gestione della res publica. In ambito tecnico-scientifico, invece, un’opinione non qualificata non ha lo stesso peso di quella di chi possiede competenze specifiche e fondate sull’evidenza.
A mio avviso, il Ministro ha preso decisioni discutibili, in nome di una pluralità di opinioni che, in ambito scientifico, non ha alcun senso. Sta ora tentando di mettere delle pezze a questa scelta, dimenticando che anche lui è un medico e ha responsabilità che vanno ben oltre la sua funzione politica.
Se mai un responsabile istituzionale si trovasse nella condizione di dover cedere a compromessi, la scelta più coerente con la difesa della scienza sarebbe quella di rassegnare le dimissioni. Servirebbe, come nel caso della biodinamica, una sollevazione compatta del mondo scientifico e medico. Nel frattempo, nel mio piccolo, continuo a far sentire la mia voce e auspico che tutti gli organismi professionali – dagli ordini alle società scientifiche – facciano sentire la loro, in difesa della medicina basata sulle prove e della salute pubblica.
Il cortocircuito dell’antiscienza
Le posizioni di Paolo Bellavite ed Eugenio Serravalle non sono semplicemente “opinioni alternative” in un dibattito tra pari. Non si tratta di ricercatori che presentano dati nuovi, pronti a essere vagliati e discussi dalla comunità scientifica: qui non c’è nessun dato nuovo. C’è, piuttosto, un riciclo di tesi contestate e smentite dalla letteratura scientifica, che riaffiorano come vecchie erbacce tra le crepe del discorso pubblico.
Con l’omeopatia il copione lo conosciamo bene: una pratica nata oltre due secoli fa, costruita su concetti come “similia similibus curentur” e “dinamizzazione”, mai dimostrati in modo riproducibile. Nei miei articoli – dalla presunta memoria dell’acqua (link) alle più recenti fantasie agronomiche (link) – ho mostrato come la letteratura scientifica di qualità non abbia mai trovato un effetto dell’omeopatia superiore al placebo. Chi la difende, spesso, non lo fa su basi sperimentali, ma su convinzioni personali, esperienze aneddotiche o richiami a un presunto “cambiamento di paradigma” che non trova riscontro in alcun dato.
Sul fronte dei vaccini, il meccanismo è simile: si selezionano singoli studi, si estrapolano dati fuori contesto, si enfatizzano le incertezze inevitabili di ogni processo scientifico per far passare l’idea che “non sappiamo abbastanza” o che “i rischi superano i benefici”. Nei miei pezzi – da antivaccinisti ed immunità di gregge a vaccini e corretta informazione scientifica – ho spiegato come l’evidenza accumulata su milioni di dosi mostri una riduzione netta di ospedalizzazioni e decessi.
Quando Bellavite parla di “fase sperimentale” per i vaccini anti-Covid, non sta facendo un’osservazione prudente: formula un’affermazione che non trova riscontro nei dati scientifici, perché quei vaccini hanno completato tutte le fasi di sperimentazione necessarie per l’autorizzazione. Quando Serravalle afferma che “i vaccinati si infettano più dei non vaccinati”, non menziona i dati che mostrano come, pur con una protezione dall’infezione che diminuisce nel tempo, la vaccinazione resti una barriera fondamentale contro le forme patologiche gravi e le loro complicanze.
La contraddizione diventa lampante quando entrambi propongono l’omeopatia come alternativa o complemento “prioritario” alla farmacologia. Il mandato del NITAG è basato sull’evidence-based medicine, e l’omeopatia non rientra in alcuna linea guida internazionale sul trattamento o la prevenzione di malattie infettive. È paragonabile, per incoerenza, a nominare un negazionista del cambiamento climatico in un comitato per la transizione ecologica: il risultato è solo quello di minare la credibilità dell’organo stesso.
Il problema, però, non è solo tecnico. È culturale. Dare spazio istituzionale a posizioni non supportate da dati scientifici significa legittimare un messaggio pericoloso: che le evidenze scientifiche siano opinioni e che la sanità pubblica possa essere guidata da convinzioni personali. È il cortocircuito dell’antiscienza: quando la politica apre la porta a teorie già confutate, la fiducia nelle istituzioni si sgretola e i cittadini restano più esposti a bufale e disinformazione. Come ho scritto altrove – qui e qui – quando la pseudoscienza entra dalla porta principale, la salute pubblica rischia di uscire dalla finestra.
Recentemente Nature Communications ha pubblicato un articolo che ha fatto il giro del web: la scoperta di una molecola ritenuta “impossibile” secondo la chimica classica. Si tratta del methanetetrol, con formula C(OH)₄, cioè un atomo di carbonio legato a quattro gruppi ossidrilici. Se avete familiarità con la chimica organica, vi sarà già scattato un campanello d’allarme.
Un carbonio, quattro ossidrili
In chimica organica, anche due gruppi -OH sullo stesso carbonio (dioli germinali) sono instabili: tendono a disidratarsi spontaneamente, formando un carbonile più stabile. Con quattro ossidrili, il carbonio è sottoposto a forte repulsione elettronica e alta reattività: la molecola è intrinsecamente instabile nelle condizioni terrestri.
esposizione a radiazione energetica, simile a quella dei raggi cosmici.
In queste condizioni la molecola non riceve abbastanza energia per reagire o disidratarsi. Resta quindi “congelata” in uno stato metastabile, come se fosse bloccata nel tempo.
Instabile ≠ impossibile
Il methanetetrol non è “impossibile”: è semplicemente troppo instabile per durare a lungo alle condizioni ambientali della Terra. Ma nel vuoto cosmico, dove le collisioni tra molecole sono rarissime e la temperatura è prossima allo zero assoluto, anche le molecole più reattive possono esistere per tempi lunghissimi.
Un esempio quotidiano: l’acqua sovraraffreddata
Un buon esempio di metastabilità è l’acqua sovraraffreddata: se si raffredda dell’acqua molto pura lentamente e senza disturbarla, può restare liquida anche sotto gli 0 °C. Basta però un urto o l’aggiunta di un cristallo di ghiaccio perché si congeli all’istante, liberando calore.
Il methanetetrol nello spazio si comporta allo stesso modo: esiste in uno stato “delicato”, che può durare milioni di anni solo finché non interviene qualcosa a modificarlo.
Un’eredità cosmica
È importante ricordare che le molecole presenti oggi sulla Terra — comprese quelle che hanno contribuito all’origine della vita — sono in parte eredi di queste molecole “cosmiche”. Nei primi miliardi di anni, comete, meteoriti e polveri interstellari hanno portato sulla Terra materiali formatisi in ambienti estremi, spesso metastabili.
Queste molecole, una volta inglobate nel giovane pianeta, si sono trasformate: alcune sono sopravvissute, altre si sono degradate, altre ancora hanno reagito dando origine a sistemi sempre più complessi. La chimica della vita, in questo senso, è figlia della chimica dello spazio, anche se si è evoluta in condizioni molto diverse.
Anche la Terra ha i suoi estremi
Non dobbiamo però pensare che condizioni “impossibili” esistano solo nello spazio. Anche sulla Terra troviamo ambienti estremi in cui si manifestano forme di chimica — e persino di biologia — del tutto inattese.
Nellesaline di Trapani, ad esempio, vivono microrganismi capaci di resistere a concentrazioni di sale che ucciderebbero qualsiasi cellula “normale”.
Nei pressi delle bocche vulcaniche sottomarine, dove temperature e pressioni sono altissime, esistono comunità microbiche che metabolizzano zolfo e metalli.
In ambienti acidi, alcalini, radioattivi o privi di ossigeno, prosperano organismi estremofiliche mettono in crisi i nostri criteri su cosa è “compatibile con la vita”.
Anche qui la natura ci insegna che la stabilità è relativa: ciò che sembra impossibile in una condizione può essere perfettamente normale in un’altra.
Uno sguardo all’origine della complessità
L’interesse principale di questa scoperta non è nella molecola in sé, ma nei meccanismi di formazione. L’esperimento ha mostrato che partendo da semplici ghiacci di CO₂ e H₂O si possono generare:
I calcoli teorici confermano che, se c’è sufficiente CO₂ nello spazio, il methanetetrol potrebbe già esistere là fuori — congelato nei ghiacci cosmici, in attesa di una nuova reazione.
Conclusione
La chimica nello spazio non viola le regole: le applica in modo diverso. Il methanetetrol ci ricorda che non possiamo giudicare la plausibilità di una molecola solo dalle condizioni terrestri. E ci insegna una lezione ancora più importante: la chimica, come la vita, nasce dove trova spazio per esistere — anche se quel luogo è a 10 Kelvin, nel vuoto cosmico o in una salina siciliana.
Qualche giorno fa ho pubblicato il terzo e, speravo, ultimo articolo di un reportage sui cambiamenti climatici. In questo articolo, intitolato “I cambiamenti climatici? Sì, siamo noi i responsabili”, ho discusso delle prove oggettive – corredate da riferimenti puntuali – che hanno portato l’intera comunità scientifica alla conclusione che i responsabili di quanto sta accadendo attualmente sulla superficie terrestre, ovvero l’aumento delle temperature globali e la conseguente alterazione degli ecosistemi, siamo noi esseri umani.
In quel testo ho cercato di mostrare, in modo accessibile ma rigoroso, perché la tesi dell’origine antropica dell’attuale riscaldamento globale non sia più un’ipotesi, ma una conclusione supportata da una mole imponente di dati.
Ho parlato del ruolo dei gas serra, in particolare della CO₂ prodotta dalla combustione di combustibili fossili, la cui impronta isotopica è ben riconoscibile in atmosfera. Ho discusso anche delle fonti indipendenti che confermano il trend in atto – dalle carote glaciali agli anelli degli alberi, dai sedimenti oceanici alle misurazioni satellitari – e delle ragioni per cui né l’attività solare né le eruzioni vulcaniche possono spiegare ciò che osserviamo oggi.
Infine, ho evidenziato come la rapidità del riscaldamento attuale – oltre un grado in appena un secolo – sia senza precedenti nella storia recente del pianeta, e come l’intero corpo scientifico internazionale, sintetizzato nei report dell’IPCC, abbia ormai raggiunto un consenso solido e ben documentato su questo punto.
Non è necessario riproporre qui tutti i riferimenti bibliografici: si trovano nell’articolo appena riassunto (qui il link).
Eppure, eccomi di nuovo a scrivere sull’apporto antropico all’effetto serra. Non per aggiungere nuove evidenze, ma per riflettere sul modo estremamente fallace – e sempre più diffuso – di ragionare dei negazionisti del cambiamento climatico. Non si tratta, in questo caso, di negazionisti tout court: anche loro, ormai, devono riconoscere l’evidenza dell’aumento delle temperature globali. Si tratta piuttosto dei negazionisti dell’origine antropica, coloro che rifiutano di accettare che la causa principale del riscaldamento sia l’attività umana.
In un gruppo Facebook che aiuto a gestire – Bufale e dintorni gruppo – sono comparsi i primi commenti al mio post con cui pubblicizzavo l’articolo (potete farvene un’idea a questo link).
Poiché si tratta di un gruppo privato – quindi i post non sono visibili pubblicamente – e considerando che non tutti hanno un account Facebook attivo, riporto di seguito gli screenshot della discussione.
La Figura 1 riporta la condivisione dalla mia pagina Facebook “Rino Conte”.
Figura 1. Screenshot relativo alla condivisione del mio articolo sull’effetto antropico nei cambiamenti climatici. Questo thread ha dato la stura a una discussione con un negazionista di tale effetto.
La Figura 2 riporta (spero in modo leggibile, altrimenti è necessario da parte dei volenterosi scaricare l’immagine ed effettuarne uno zoom) la discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.
Figura 2. Discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.
E proprio mentre sto scrivendo questo articolo la discussione continua (Figura 3).
Figura 3. Proseguimento della discussione mentre scrivo questo articolo.
Come si evince dagli screenshot, il tutto ha inizio dall’inserimento di un link a un articolo giornalistico in cui si riporta un filmato che mostra il comportamento di certi ghiacciai negli ultimi 800 000 anni. Questo filmato è tratto da un lavoro scientifico dal titolo “Modelling last glacial cycle ice dynamics in the Alps” pubblicato nel 2018 sulla rivista The Cryosphere della European Geoscience Union, associazione per la quale anche io ho organizzato in passato dei miniconvegni nell’ambito delle attività congressuali più generali che si fanno ogni anno a Vienna in Austria (per esempio, uno è qui).
Chi ha condiviso questo studio nella discussione lo ha fatto con l’intento – più o meno esplicito – di suggerire che, dal momento che i ghiacciai alpini si sono espansi e ritirati ciclicamente nel passato, il cambiamento climatico attuale potrebbe essere semplicemente parte di una lunga variabilità naturale. È un’inferenza del tutto errata, che nasce da un fraintendimento delle finalità e dei contenuti del lavoro scientifico citato.
Infatti, lo studio in questione (Seguinot et al., 2018) non parla di cambiamenti climatici attuali né tantomeno ne discute le cause. Si tratta di un lavoro di modellizzazione numerica della dinamica glaciale delle Alpi durante l’ultimo ciclo glaciale (da 120.000 a 0 anni fa), che ha lo scopo di testare la coerenza tra ricostruzioni geologiche e simulazioni del comportamento dei ghiacciai su scala millenaria. Non c’è nel testo alcuna analisi delle cause del riscaldamento moderno, né alcun confronto con l’evoluzione recente del clima terrestre.
Quello che il mio interlocutore ha fatto è un tipico esempio di bias di conferma: ha estrapolato da un articolo tecnico una conclusione che non c’è, perché questa coincide con la propria convinzione preesistente. È un meccanismo comune tra i cosiddetti “negazionisti soft” – persone che, pur riconoscendo che il clima sta cambiando, rifiutano l’idea che l’essere umano ne sia il principale responsabile.
La dinamica della discussione su Facebook lo conferma: ogni volta che si porta un dato, una misura, una ricostruzione paleoclimatica, l’interlocutore non contesta la validità della fonte, ma sposta il piano, relativizza, introduce “dubbi” storici o filosofici. E infine si rifugia nel mito del “Galileo solitario”, come se ogni minoranza fosse destinata a diventare verità solo perché è minoranza. Ma Galileo non aveva ragione perché era solo: aveva ragione perché aveva i dati e un metodo.
Ecco il punto: il problema non è tanto avere un’opinione diversa, quanto non saper distinguere tra opinione personale e conoscenza scientifica. E non è un caso che questo tipo di retorica si ritrovi spesso in altri ambiti della disinformazione scientifica: chi si sente “eretico” rispetto al sapere ufficiale tende a sopravvalutare le proprie intuizioni e a sottovalutare il lavoro, faticoso e rigoroso, di chi fa scienza sul serio.
Discutere con chi rifiuta le conclusioni della scienza può essere faticoso, ma è anche necessario. Non per convincere chi ha già deciso di non ascoltare, ma per fornire strumenti a chi legge in silenzio, a chi cerca chiarezza in mezzo al rumore. La scienza non ha bisogno di essere difesa come un dogma: si difende da sé, con i dati, con la trasparenza dei metodi, con la disponibilità al confronto critico. Ma proprio per questo va protetta dalle distorsioni, dalle semplificazioni, e soprattutto dal relativismo delle opinioni travestite da verità.
Il cambiamento climatico attuale è un fenomeno reale, misurabile e in larga parte causato dalle attività umane. Continuare a negarlo non è esercizio di pensiero critico, ma una forma di resistenza ideologica che rischia di ritardare l’unica cosa che oggi dovremmo fare: affrontare il problema con serietà, competenza e senso di responsabilità.
EDIT
Mentre mi accingevo a pubblicare questo articolo, il mio interlocutore ha pubblicato un’ultima risposta che ho deciso di riportare integralmente per completezza. Qui sotto trovate anche la mia replica con cui ho deciso di concludere la discussione pubblica.
Interlocutore:
Pellegrino…
Lei stesso parla di “stime solide”; che sono appunto stime, non misurazioni dirette.
“Sappiamo perché”, è un’altra forzatura. In realtà abbiamo delle interpretazioni plausibili per molte di esse, ma ciò non equivale a una certezza assoluta. Anche nelle osservazioni attuali, ci si imbatte in anomalie impreviste, tipo l’impatto dello scioglimento del permafrost, temperature previste che poi non si sono verificate… E parliamo di osservazioni dirette; figuriamoci sulle “stime” di fenomeni non osservati direttamente. Per non parlare dell’infinito dibattito su quanto influiscano o meno le macchie solari…
Stesso discorso sul fatto che le oscillazioni in passato non avvenissero in decenni, trascurando che non possiamo sapere se gli strumenti che abbiamo a disposizione siano davvero affidabili con tale precisione. Mancando l’osservazione diretta, non possiamo verificarlo.
Dire che “potrebbero esserci state” significa semplicemente dire che il modello generale è ancora soddisfatto; per dimostrare l’anomalia bisogna dimostrare che davvero non ci siano precedenti. È un discorso di presunzione d’innocenza: per dare la colpa all’uomo bisogna dimostrarla; il “ragionevole dubbio” è a favore dell’imputato. Foss’anche solo per mancanza di prove.
Il moto dei pianeti era noto da sempre (“planities” significa appunto “errante”), ma lui (anzi, Copernico) fornì solo un modello di calcolo semplificato. Infatti, a dirla tutta, il sole non è affatto al centro dell’universo ma si muove pure lui… In questo ha ragione l’insegnante del prof. Barbero che diceva che il card. Bellarmino era più moderno di Galileo.
A “negazionista” si potrebbe contrapporre “fideista”, ovvero uno che sposa senz’altro ciò che dice la maggioranza stigmatizzando il dubbio. Ma io continio a ricordare che la stessa comunità scientifica oggi certa del riscaldamento globale appena quarant’anni fa era ugualmente certa dell’imminenza di un’era glaciale. Un cambio di rotta di 180 gradi in meno di mezzo secolo, e si dovrebbe prendere per oro colato anche l’attribuzione di responsabilità? Anche a fronte di numerose previsioni rivelatesi poi errate?
Su un punto, concordo senz’altro: sulla separazione netta tra dissertazione scientifica e azione concreta (e non potrei dire diversamente, dato che come ho già detto opero nella Protezione Civile).
Il punto certo è che vi sia in atto un cambiamento climatico che attualmente va verso un aumento delle temperature, che il problema è serio e che la cosa va affrontata. Ridurre il più possibile (e possibilmente azzerare) l’impatto antropico non ha controindicazioni, e quindi va benissimo farlo; e infatti ne sono da sempre un convinto sostenitore.
A mio modesto parere, non servirà a granché, perché se Madre Natura ha deciso che è tempo di un nuovo Eocene, Eocene sarà; che ci piaccia o no.
Quindi, oltre ad azzerare le emissioni, miglioriamo l’efficienza dei condizionatori, perché ne avremo comunque bisogno. Tutto qui.
Io:
grazie per aver chiarito ulteriormente il suo punto di vista. Le rispondo un’ultima volta, per chi ci legge e non per la soddisfazione di “avere l’ultima parola”, che non mi interessa.
Sì, le proxy sono stime, ma sono stime calibrate, validate e incrociate da molte fonti indipendenti. Nessun climatologo confonde una proxy con una misura diretta, ma la scienza lavora ogni giorno per rendere sempre più affidabili quelle stime. E il fatto che convergano tutte sul medesimo trend dà forza alla ricostruzione. Questo è il normale funzionamento della scienza, non una debolezza.
Nessuno pretende certezze assolute, né le scienze naturali le promettono. Lei invece sembra richiedere una prova “oltre ogni dubbio”, come se fossimo in un’aula di tribunale. Ma la scienza si basa sulla probabilità, sul peso delle evidenze, sulla capacità predittiva dei modelli. Oggi, la quantità di prove che puntano all’origine antropica del riscaldamento è così ampia da rendere l’ipotesi alternativa – quella esclusivamente naturale – altamente improbabile. Ed è su questo che si fondano le politiche, non sull’attesa della perfezione epistemologica.
Il paragone con Galileo e Bellarmino è affascinante ma fuori luogo. Galileo non aveva solo un modello “più semplice”: aveva anche l’evidenza delle fasi di Venere e delle lune di Giove. Il suo valore non sta nel ribellarsi alla maggioranza, ma nell’aver offerto dati e osservazioni migliori. Lei invece continua a proporre “dubbi” senza portare nessun dato nuovo, solo generalizzazioni.
La comunità scientifica non era “certa” dell’era glaciale negli anni ’70. Questa è una leggenda urbana, smentita dai dati storici: all’epoca la maggior parte degli articoli già indicava un riscaldamento, non un raffreddamento. Se guarda i paper dell’epoca, lo vede chiaramente.
Quanto agli errori previsionali: il fatto che un modello venga corretto o raffinato è normale in ogni scienza. Non è un fallimento, è progresso. Non confondiamo fallibilità con inattendibilità.
Mi fa piacere leggere che riconosce l’urgenza del problema e sostiene l’azione per ridurre le emissioni. Su questo ci troviamo d’accordo. Tuttavia, dire “tanto non servirà a nulla” è una rinuncia mascherata da fatalismo. La scienza climatica non dice che siamo condannati, ma che abbiamo una finestra temporale per ridurre gli impatti futuri. La differenza tra +1,5 °C e +4 °C non è affatto irrilevante. E anche se non possiamo evitare ogni effetto, possiamo evitare quelli peggiori. Questa è responsabilità, non fideismo.
Chiudo qui il mio intervento, perché i fatti, i dati e il consenso scientifico sono pubblici e verificabili. Il resto è opinione personale – legittima – ma non equiparabile alla conoscenza prodotta dalla scienza.
Nota finale: ho riportato per esteso questo scambio non per dare visibilità a una posizione pseudoscientifica, ma per mostrare, in modo documentato, come ragiona chi nega l’origine antropica del cambiamento climatico, e perché queste argomentazioni non reggano al vaglio della scienza.
Che cosa possono raccontarci i nostri capelli? Molto più di quanto immaginiamo. Non sono soltanto un segno di identità o di stile personale, ma vere e proprie architetture biologiche capaci di custodire informazioni preziose: sulla nostra salute, sulle sostanze a cui siamo stati esposti e persino sulle tracce lasciate da trattamenti cosmetici.
È proprio per raccontare questa dimensione scientifica, spesso trascurata, che voglio parlare di tricochimica: uno studio chimico del capello in tutti i suoi aspetti, dall’estetica alla tossicologia e fino all’analisi forense.
La chimica, infatti, non è una disciplina astratta. È uno strumento concreto per capire fenomeni quotidiani. Capire come funzionano le tinture, le permanenti o i trattamenti liscianti significa comprendere reazioni chimiche precise. Allo stesso modo, analizzare i capelli per individuare droghe o metalli pesanti richiede metodiche chimico-analitiche raffinate, fondamentali in medicina legale e nelle indagini forensi.
In questo articolo proverò a esplorare questo campo affascinante e multidisciplinare. Vedremo come sono fatti i capelli, quali trasformazioni chimiche possono subire e come la chimica ci aiuta a leggerne la storia. Un viaggio che unisce bellezza e scienza, con uno sguardo attento anche alle implicazioni sociali ed etiche di queste conoscenze.
Il significato evoluzionistico dei capelli
Per affrontare la chimica dei capelli in modo completo è utile partire da una domanda più profonda: perché l’essere umano ha ancora i capelli sulla testa? A differenza della maggior parte dei mammiferi, che conservano un pelame diffuso sul corpo, la nostra specie si caratterizza per una pelle glabra salvo alcune aree strategiche, come il cuoio capelluto.
Le ipotesi evolutive più accreditate interpretano i capelli come una reliquia evolutiva che ha progressivamente perso molte delle funzioni originarie di isolamento termico. Tuttavia, la loro conservazione sul cranio potrebbe aver offerto vantaggi adattativi. Un ruolo plausibile è la protezione dal surriscaldamento diretto, agendo da schermo contro la radiazione solare intensa, specialmente in climi aperti e soleggiati. Allo stesso tempo, il cuoio capelluto riccamente vascolarizzato favorisce la dispersione di calore in eccesso. La distribuzione e la densità dei capelli umani sono quindi il risultato di una pressione selettiva che ha equilibrato protezione e termoregolazione.
Inoltre, il capello ha mantenuto importanti valenze sociali e sessuali. Il colore, la forma e la consistenza dei capelli variano tra individui e popolazioni, diventando segnali di riconoscimento, età, salute e persino desiderabilità sessuale. Queste caratteristiche hanno stimolato la selezione sessuale e culturale, contribuendo a fare del capello un elemento centrale dell’identità personale.
A conferma della sua rilevanza evolutiva, studi recenti hanno identificato correlazioni genetiche di fine scala con la morfologia del capello, evidenziando la selezione naturale e la divergenza adattativa in diverse popolazioni umane.
Comprendere queste dimensioni evolutive non è solo una curiosità: ci ricorda che la chimica del capello studia un tessuto vivo di storia biologica e culturale. Anche la tricochimica si deve confrontare con questa eredità evolutiva, che plasma le caratteristiche fisiche e chimiche della fibra capillare così come le funzioni sociali che ancora oggi attribuiamo ai nostri capelli.
Nascita e crescita del capello: la biologia del follicolo pilifero
Per comprendere davvero la chimica del capello – la tricochimica – è fondamentale partire dalla sua biologia. Il capello non è soltanto la fibra che vediamo spuntare dalla cute, ma il risultato di un processo di crescita complesso che avviene all’interno del follicolo pilifero, una struttura specializzata immersa nella pelle.
Il follicolo pilifero è una piccola tasca di epitelio che avvolge la parte viva del capello e ne dirige la formazione. Al suo interno si trova la papilla dermica, ricca di vasi sanguigni, che fornisce nutrienti, ossigeno e, non meno importante, trasporta farmaci e metalli pesanti che possono incorporarsi nella fibra in formazione. È proprio grazie a questa connessione vascolare che il capello diventa un archivio biologico capace di registrare, nel tempo, esposizioni a sostanze esterne.
Tradizionalmente, il ciclo di vita del capello si suddivide in tre fasi principali:
Anagen: fase di crescita attiva, che può durare anni. In questa fase le cellule della matrice germinativa si moltiplicano rapidamente e si cheratinizzano progressivamente, formando il fusto del capello che emerge dalla cute. È qui che avviene l’incorporazione più stabile di sostanze esogene, rendendo questa fase cruciale per l’analisi tossicologica.
Catagen: breve fase di regressione (2–3 settimane) in cui l’attività proliferativa si arresta e il follicolo si contrae.
Telogen: fase di riposo (2–6 mesi) al termine della quale il capello smette di crescere e rimane “in attesa” prima di essere espulso.
Un altro aspetto importante del follicolo è la presenza di strutture di supporto come la guaina epiteliale interna, che avvolge la fibra nelle sue prime fasi di formazione. In questa guaina si esprime la trichohyalin(in italiano la tradurrei come tricoialina), una proteina ricca di glutammina che svolge un ruolo cruciale nel conferire resistenza meccanica e nell’ordinare la cheratinizzazione delle cellule. Questa proteina agisce come una sorta di “impalcatura molecolare”, indispensabile per ottenere la struttura finale della fibra capillare.
Capire la biologia del follicolo è dunque essenziale per spiegare non solo la struttura del capello che osserviamo a occhio nudo, ma anche la sua capacità di registrare esposizioni chimiche durante la crescita. Solo conoscendo questo processo si possono comprendere appieno sia la chimica cosmetica (che deve penetrare e modificare la fibra), sia le analisi tossicologiche (che leggono la storia di queste incorporazioni).
Struttura e composizione del capello
Un capello non è un semplice “filo” uniforme: è un materiale biologico complesso, progettato per resistere, proteggere e comunicare caratteristiche individuali come colore, forma e lucentezza.
Architettura della fibra: cuticola, corteccia e midollo
Il capello è costituito da tre parti principali (Figura 1). All’esterno si trova la cuticola, formata da cellule appiattite e sovrapposte a tegola, che proteggono gli strati interni e conferiscono lucentezza grazie alla loro disposizione ordinata. Subito sotto si trova la corteccia, la parte più voluminosa, composta da fibre di cheratina organizzate in macrofibrille e pigmenti melanici che determinano il colore. Qui si stabiliscono i legami chimici (come i ponti disolfuro) che influenzano la forma del capello. Al centro si trova il midollo, una regione meno definita e spesso discontinua nei capelli più fini, che contribuisce all’isolamento termico e alla rigidità.
Figura 1. Struttura schematica di un capello umano.
Composizione chimica: membrana interna, cheratina, lipidi e acqua
A livello chimico, la fibra capillare è un materiale stratificato e sofisticato. La componente principale è la cheratina, una proteina fibrosa costituita da filamenti polipeptidici ricchi di cisteina, che si organizzano in strutture a coiled-coil di tipo α-elica. Queste eliche si associano in filamenti intermedi, che a loro volta formano macro-fibrille, dando alla corteccia un’architettura gerarchica e resistente. Studi recenti di diffrazione a raggi X hanno confermato questa architettura gerarchica, evidenziando distanze caratteristiche tra filamenti intermedi (90, 45 e 27 Å) che si mantengono costanti in individui con tipi di capelli diversi.
Tra le cellule della corteccia e della cuticola si interpone il Cell Membrane Complex (CMC), una struttura lipidica e proteica laminare che funge da collante idrofobo, regolando la coesione cellulare e la permeabilità all’acqua e alle sostanze chimiche. Esperimenti di microdiffrazione hanno dimostrato che il CMC è sensibile all’umidità, mostrando rigonfiamento al contatto con l’acqua: un aspetto che spiega la sua importanza nei trattamenti cosmetici e nella penetrazione di agenti idrosolubili.
La cuticola, oltre alla funzione protettiva, contiene lamelle ben stratificate che includono β-cheratina, distinta dall’α-cheratina della corteccia, conferendole maggiore compattezza e impermeabilità. Inoltre, la composizione chimica complessiva del capello include lipidi liberi (circa 1-9%), acqua (10-15% circa in condizioni normali), minerali come magnesio, zinco, ferro e rame, oltre a tracce di aminoacidi e vitamine. Questa miscela complessa fornisce al capello proprietà di robustezza, elasticità e resistenza agli stress ambientali, anche se può essere danneggiata in modo irreversibile da trattamenti cosmetici aggressivi, calore e radiazioni UV.
Le proprietà fisiche e cosmetiche del capello dipendono infine dai legami chimici che ne stabilizzano la struttura. I legami a idrogeno sono deboli ma numerosi, si rompono e si riformano facilmente con umidità o calore, ed è grazie a loro che si ottiene l’effetto temporaneo della piega (phon, piastra). Per approfondire la natura e la forza di questi legami nell’acqua e nelle soluzioni, è possibile leggere due articoli che ho scritto sul blog: qui e qui. I legami salini, di tipo ionico, dipendono dall’interazione tra cariche opposte presenti sulle catene laterali degli amminoacidi e sono sensibili al pH. I legami disolfuro, molto più forti, uniscono in modo stabile le catene di cheratina grazie ai ponti tra residui di cisteina e sono i bersagli principali dei trattamenti chimici come permanenti o lisciature.
Conoscere questa struttura complessa è fondamentale per capire come e perché i capelli reagiscono ai trattamenti cosmetici, all’umidità ambientale o ai processi analitici usati in tossicologia e scienze forensi. È il primo passo del nostro viaggio nella tricochimica.
Ulteriori approfondimenti sono disponibili anche qui.
La chimica cosmetica del capello
La chimica cosmetica applicata ai capelli è un settore complesso e affascinante che si occupa di trasformare la fibra capillare attraverso reazioni controllate, con l’obiettivo di modificare colore, forma e aspetto. Uno degli esempi più noti è la colorazione permanente, che si basa su un processo di ossidazione ben studiato. In questo caso si usano due componenti principali: un agente alcalino (come l’ammoniaca o la etanolammina) e un ossidante (generalmente perossido di idrogeno o acqua ossigenata). Il composto alcalino serve ad aprire le squame della cuticola, permettendo al perossido e ai precursori del colore (come la p-fenilendiammina) di penetrare nella corteccia. Lì, il perossido ossida i precursori in intermedi reattivi che, legandosi a opportuni “couplers” (come il resorcinolo), formano grandi molecole di colorante intrafibra, responsabili della tonalità stabile e duratura. Questo processo, come ricorda anche la letteratura recente, è pressoché invariato da oltre un secolo, ma rimane il più efficace per coprire i capelli bianchi e schiarire tonalità naturali. La Figura 2 mostra le strutture chimiche di alcune molecole usate per il trattamento di colorazione permanente.
Figura 2. Molecole usate nei processi di colorazione permanente dei capelli.
I trattamenti per permanenti e lisciature chimiche agiscono invece modificando i legami disolfuro tra le catene di cheratina all’interno della corteccia. Nelle permanenti tradizionali si usa un riducente (come l’acido tioglicolico, Figura 3) per rompere questi ponti, consentendo di avvolgere i capelli su bigodini e fissare la nuova forma. Successivamente si applica un ossidante (solitamente ancora perossido di idrogeno) per riformare i legami disolfuro nella configurazione desiderata. Anche le lisciature chimiche sfruttano lo stesso principio, ma con tecniche e formulazioni diverse per spezzare i ponti disolfuro e fissare una fibra capillare più lineare. Questi processi, pur efficaci, indeboliscono la struttura del capello e ne aumentano la porosità, con conseguenze estetiche e meccaniche rilevanti.
Figura 3. Struttura dell’acido tioglicolico.
Un capitolo delicato è quello dei trattamenti liscianti con formaldeide (Figura 4) o con rilascio di formaldeide, molto discussi per i potenziali rischi per la salute. Il cosiddetto “Brazilian Blowout” e trattamenti simili usano formaldeide (o precursori che la rilasciano a caldo) per creare ponti metilenici tra le catene di cheratina, bloccandole in configurazioni lisce. Tuttavia, l’esposizione ai vapori di formaldeide è un noto rischio cancerogeno e può causare irritazioni acute e sensibilizzazioni. Per questo motivo, normative come quelle dell’Unione Europea vietano o limitano severamente l’uso di formaldeide libera o rilasciata oltre soglie minime, imponendo test e dichiarazioni specifiche sui cosmetici (riferimenti qui, qui e qui).
Figura 4. Struttura della formaldeide.
La cosmetica dei capelli si muove così su un crinale tecnico e normativo importante: da un lato c’è la ricerca di prodotti sempre più efficaci e personalizzati, dall’altro la crescente attenzione alla sicurezza dell’utilizzatore e del professionista. Negli ultimi anni, inoltre, si osserva un forte interesse per alternative più delicate e sostenibili, come colorazioni a basso contenuto di ammoniaca o a base di derivati naturali, e trattamenti liscianti privi di formaldeide, che sfruttano polimeri cationici o derivati di aminoacidi per un effetto condizionante e disciplinante meno aggressivo (riferimenti qui e qui).
I farmaci e i metalli pesanti si depositano nel capello principalmente durante la fase di crescita (anagen), grazie alla circolazione sanguigna che porta le molecole fino al follicolo, la piccola struttura immersa nella cute dove le cellule del capello si formano, si moltiplicano e si cheratinizzano. Una volta incorporate nella matrice di cheratina in formazione, queste sostanze restano stabilmente legate alla struttura del fusto, resistendo alla degradazione per lungo tempo. Altri percorsi di incorporazione includono il sebo, il sudore e in misura minore l’assorbimento ambientale. Tuttavia, i moderni protocolli di lavaggio e decontaminazione riducono il rischio di contaminazione esterna falsamente positiva.
Dal punto di vista analitico, l’analisi tossicologica del capello richiede tecniche di estrazione sofisticate. La fibra capillare, costituita per il 65–95% da cheratina, oltre che da lipidi, acqua e pigmenti, deve essere digerita o frammentata in modo controllato per liberare i composti target senza degradarli. Tra le tecniche più comuni di preparazione ci sono l’idrolisi acida o enzimatica, l’estrazione in solventi organici e la digestione assistita da ultrasuoni. Dopo l’estrazione, le sostanze vengono analizzate con metodi ad alta sensibilità e specificità come la spettrometria di massa accoppiata alla gascromatografia (GC–MS) o alla cromatografia liquida (LC–MS). Queste metodiche consentono di rilevare quantitativi nell’ordine dei picogrammi di numerosi farmaci e metaboliti, inclusi oppiacei, cocaina, cannabis, amfetamine e benzodiazepine, così come metalli pesanti analizzabili via spettroscopia di assorbimento atomico (AAS).
Uno dei principali vantaggi dell’analisi sul capello è la sua “finestra temporale estesa”: ogni centimetro di lunghezza corrisponde approssimativamente a un mese di crescita, permettendo di segmentare il campione per ricostruire una cronologia dettagliata delle esposizioni. Tuttavia, esistono anche limiti e criticità. Trattamenti cosmetici aggressivi come tinture, decolorazioni o permanenti possono ridurre la concentrazione di sostanze depositate o alterarne la distribuzione, rendendo più difficile l’interpretazione. Anche la variabilità individuale (colore, contenuto di melanina, porosità) può influenzare l’assorbimento dei farmaci, rendendo complessa la traduzione quantitativa dei dati in dosi assunte.
Nonostante queste sfide, l’analisi tossicologica del capello rappresenta uno strumento fondamentale in ambito forense e clinico per la sua capacità di documentare l’esposizione remota a sostanze psicoattive o tossiche, offrendo informazioni preziose che integrano e completano quelle ricavabili da sangue o urina.
Conclusioni, prospettive e sfide future
La tricochimica si propone come un campo di studio davvero interdisciplinare, capace di unire la conoscenza chimica della fibra capillare con esigenze estetiche, implicazioni tossicologiche e applicazioni forensi. Comprendere la composizione, la struttura e le trasformazioni chimiche dei capelli significa poter progettare trattamenti cosmetici più efficaci e sicuri, interpretare correttamente le analisi tossicologiche e persino ricostruire storie di consumo di sostanze o dinamiche criminali.
Tra le sfide principali spicca la necessità di una maggiore standardizzazione delle analisi tossicologiche: solventi, protocolli di estrazione, metodi di decontaminazione e tecniche strumentali richiedono armonizzazione per garantire risultati confrontabili e robusti. Anche i trattamenti cosmetici pongono questioni complesse: mentre il mercato cerca prodotti sempre più performanti e personalizzati, resta fondamentale valutarne l’efficacia in relazione alla salute del capello e della persona, evitando ingredienti aggressivi o potenzialmente dannosi.
Il futuro della tricochimica si muove verso un’integrazione sempre più stretta tra cosmetica e tossicologia: l’obiettivo è sviluppare prodotti “smart” e sicuri, capaci di interagire con la fibra capillare in modo controllato, rispettandone la biologia e la chimica. In questo senso, la ricerca multidisciplinare – che unisce chimica organica, biochimica, tossicologia analitica e scienza dei materiali – sarà essenziale per innovare e rispondere alle nuove esigenze di consumatori, professionisti e legislatori.
La tricochimica non è dunque un semplice esercizio accademico: è una disciplina viva e applicata, che tocca la nostra quotidianità, dalla cura estetica all’identità personale, dalla salute alla sicurezza pubblica. Riconoscerne l’importanza e investire nella sua evoluzione significa contribuire a un approccio più consapevole, informato e sostenibile al mondo dei capelli.
Questo sito usa i cookie per migliorare la tua esperienza di navigazione. Viene assunto che tu sia d'accordo. Tuttavia, puoi annullare i cookie se lo desideri cliccando su “cookie settings” e deselezionando i cookie non necessari. Cookie settingsACCEPT
Privacy & Cookies Policy
Privacy Overview
Questo sito Web utilizza i cookie per migliorare la tua esperienza durante la navigazione. Tra questi, i cookie classificati come necessari vengono memorizzati nel browser in quanto sono essenziali per il funzionamento base del sito. Si utilizzano anche cookie di terze parti che aiutano ad analizzare e comprendere come si utilizza il sito. Questi cookie sono memorizzati nel tuo browser solo con il tuo consenso. Hai anche la possibilità di disattivarli. La disattivazione di alcuni cookie può, tuttavia, influire sulla tua esperienza di navigazione.
I cookie cosiddetti necessari sono essenziali per il funzionamento corretto del sito Web. Questa categoria include solo i cookie che assicurano le funzionalità di base e la sicurezza del sito Web. Non viene conservata alcuna informazione personale.