Nomine e cortocircuiti: quando l’antiscienza entra nei comitati scientifici

È di queste ore la notizia che il ministro della salute, Orazio Schillaci, ha nominato nel Gruppo Tecnico Consultivo Nazionale sulle Vaccinazioni (NITAG) due tecnici, Paolo Bellavite ed Eugenio Serravalle, dalle posizioni, in più occasioni espresse pubblicamente, in contrasto con quanto riportato nella letteratura scientifica più accreditata (quest’ultima può essere rappresentata dagli articoli riportati qui, qui, qui e qui).

Che cos’è il NITAG?

Dal sito del Ministero della Salute apprendiamo che: Il NITAG è un Organo indipendente col compito di supportare, dietro specifica richiesta e su problematiche specifiche, il Ministero della Salute nella formulazione di raccomandazioni “evidence-based” sulle questioni relative alle vaccinazioni e alle politiche vaccinali, raccogliendo, analizzando e valutando prove scientifiche.

In altre parole, si tratta di un comitato scientifico che, sulla base di prove scientifiche inoppugnabili, consente al Ministero della Salute e, quindi, al Governo di prendere decisioni importantissime in merito a problematiche relative alla salute pubblica.

Chi è Paolo Bellavite

Bellavite è un medico che fino a qualche anno fa ha ricoperto il ruolo di Professore Associato in Patologia Generale presso l’Università di Verona. Le sue posizioni in merito ai vaccini sono riportate sia in interviste che nei libri che ha scritto e pubblicato. In particolare, egli dice di non essere contrario ai vaccini in quanto tali, ma critica duramente quella che definisce una “ideologia vaccinista”. A suo avviso, la narrazione dominante che presenta i vaccini come soluzione unica e infallibile si configura come un dogma che soffoca il dibattito scientifico e il pensiero critico. “Non ha nulla a che fare con la scienza”, ha affermato in un’intervista, parlando di un clima in cui “l’odio vaccinale è la tomba della medicina”.

Autore del libro “Vaccini sì, obblighi no”, Bellavite contesta soprattutto l’obbligatorietà della vaccinazione, sostenendo che il consenso informato debba restare alla base di ogni trattamento sanitario. Il professore ha anche espresso dubbi sull’efficacia a lungo termine dei vaccini anti-Covid e sulla loro capacità di limitare la diffusione del virus, ricordando che “i vaccinati possono infettarsi e trasmettere il virus, a volte anche più dei non vaccinati”.

Dal punto di vista immunologico, Bellavite mette in guardia contro le possibili conseguenze di una stimolazione eccessiva del sistema immunitario attraverso dosi ripetute. E sull’aspetto etico sottolinea: “Siamo ancora nella fase sperimentale. Ha ragione chi ha paura”.

Naturalmente, egli è anche un forte sostenitore della pratica omeopatica. Infatti, Paolo Bellavite sostiene che l’omeopatia non sia una moda passeggera, ma l’espressione di un profondo cambiamento culturale e scientifico che mette in discussione i limiti dell’attuale paradigma medico meccanicistico e molecolare. Questo approccio tradizionale, pur avendo ottenuto importanti risultati, non ha saputo affrontare efficacemente la complessità biologica e clinica, spesso riducendo la medicina a una frammentazione iperspecialistica. L’omeopatia, al contrario, propone una visione sistemica del paziente, centrata sull’individualità, sulla totalità dei sintomi e sulla stimolazione dei processi endogeni di guarigione, concetti che si allineano con la scienza della complessità. Bellavite rivendica per l’omeopatia una dignità scientifica, sostenendo che essa possa essere studiata con metodi sperimentali avanzati e integrata razionalmente nella medicina moderna. Si oppone con forza a ciò che definisce una campagna denigratoria nei confronti dell’omeopatia da parte dei media e di alcuni esponenti del mondo accademico, accusandoli di diffondere affermazioni false senza consentire un contraddittorio serio e competente. Pur riconoscendo il valore di farmaci convenzionali e vaccini in determinate circostanze, Bellavite li considera soluzioni alternative da adottare solo dopo aver tentato approcci più naturali e fisiologici, come omeopatia, fitoterapia, agopuntura, corretta alimentazione e igiene. In questa visione, l’omeopatia non è solo una medicina possibile, ma una medicina vera e prioritaria, da contrapporre a un uso troppo disinvolto e sintomatico della farmacologia convenzionale.

Chi è Eugenio Serravalle

Serravalle è laureato in Medicina e Chirurgia e specializzato in Pediatria Preventiva, Puericultura e Patologia Neonatale. Egli ha più volte preso posizione contro la vaccinazione di massa dei bambini, soprattutto in relazione al Covid-19. Secondo lui, l’infezione da SARS-CoV-2 non rappresenta un’emergenza sanitaria tra i più piccoli e i potenziali rischi della vaccinazione superano i benefici. “Tutti gli studi scientifici affermano che non vi è alcuna emergenza Covid tra i bambini”, ha dichiarato in un’intervista.

Serravalle contesta anche l’efficacia dei vaccini nel prevenire il contagio, soprattutto con l’avvento delle varianti come Omicron. Secondo la sua analisi, in alcuni casi i vaccinati si infettano più dei non vaccinati e l’immunità acquisita naturalmente sarebbe più duratura. Per questo, a suo dire, non sussistono i presupposti per raggiungere l’immunità di gregge né per giustificare obblighi o pressioni vaccinali.

Oltre ad essere un medico, Eugenio Serravalle risulta diplomato in Omeopatia Classica presso la Scuola Omeopatica di Livorno e svolge attività didattica come professore presso l’Accademia di Omeopatia Classica Hahnemanniana di Firenze.

Come Bellavite, quindi, anche Serravalle è un forte sostenitore dell’omeopatia.

In un articolo intitolato “Il Dr. Eugenio Serravalle risponde a Maurizio Crozza sull’Omeopatia”, Serravalle replica alle battute ironiche del comico Crozza sostenendo con fermezza l’efficacia e la correttezza della pratica omeopatica. Scrive:

“Abbiamo una regolare laurea in medicina… e se abbiamo adottato la terapia omeopatica è perché, evidentemente, ne abbiamo sperimentato l’efficacia.”

“Non si può essere venditori di fumo quando si curano pazienti… e tra questi pazienti sono numerosi i bambini e gli animali che non sono influenzabili dall’effetto placebo.”

Con questa risposta, Serravalle rigetta la critica secondo cui l’omeopatia sarebbe solo “fumo” o priva di efficacia, affermando invece di aver osservato personalmente risultati tangibili, anche in soggetti difficilmente influenzabili da placebo.

Quando i conti non tornano

A leggere le dichiarazioni dei due nominati, si potrebbe pensare di essere davanti a voci “fuori dal coro” che invitano alla cautela. Ma basta andare oltre la superficie per capire che non si tratta di sano scetticismo scientifico: siamo, piuttosto, di fronte a posizioni che, alla luce delle evidenze scientifiche disponibili, risultano in contrasto con il consenso della comunità scientifica. Ed è qui che inizia il vero problema.

Il punto centrale è che un organismo tecnico chiamato a esprimere pareri qualificati in materia di salute pubblica deve basarsi su conoscenze aggiornate e scientificamente inoppugnabili. Non può diventare il ricettacolo di discussioni inutili fatte in nome di una presunta “pluralità di opinioni”. Il concetto di democrazia politica è completamente diverso  – e molto lontano – da quello di democrazia scientifica. In una democrazia politica è legittimo avere opinioni diverse su come affrontare un problema di gestione della res publica. In ambito tecnico-scientifico, invece, un’opinione non qualificata non ha lo stesso peso di quella di chi possiede competenze specifiche e fondate sull’evidenza.

Ecco perché, per esempio, ci fu la levata di scudi del mondo accademico agrario quando si paventò l’ingresso di esponenti della biodinamica in tavoli tecnici per l’assegnazione di fondi all’agricoltura.

A mio avviso, il Ministro ha preso decisioni discutibili, in nome di una pluralità di opinioni che, in ambito scientifico, non ha alcun senso. Sta ora tentando di mettere delle pezze a questa scelta, dimenticando che anche lui è un medico e ha responsabilità che vanno ben oltre la sua funzione politica.

Se mai un responsabile istituzionale si trovasse nella condizione di dover cedere a compromessi, la scelta più coerente con la difesa della scienza sarebbe quella di rassegnare le dimissioni. Servirebbe, come nel caso della biodinamica, una sollevazione compatta del mondo scientifico e medico. Nel frattempo, nel mio piccolo, continuo a far sentire la mia voce e auspico che tutti gli organismi professionali – dagli ordini alle società scientifiche – facciano sentire la loro, in difesa della medicina basata sulle prove e della salute pubblica.

Il cortocircuito dell’antiscienza

Le posizioni di Paolo Bellavite ed Eugenio Serravalle non sono semplicemente “opinioni alternative” in un dibattito tra pari. Non si tratta di ricercatori che presentano dati nuovi, pronti a essere vagliati e discussi dalla comunità scientifica: qui non c’è nessun dato nuovo. C’è, piuttosto, un riciclo di tesi contestate e smentite dalla letteratura scientifica, che riaffiorano come vecchie erbacce tra le crepe del discorso pubblico.

Con l’omeopatia il copione lo conosciamo bene: una pratica nata oltre due secoli fa, costruita su concetti come “similia similibus curentur” e “dinamizzazione”, mai dimostrati in modo riproducibile. Nei miei articoli – dalla presunta memoria dell’acqua (link) alle più recenti fantasie agronomiche (link) – ho mostrato come la letteratura scientifica di qualità non abbia mai trovato un effetto dell’omeopatia superiore al placebo. Chi la difende, spesso, non lo fa su basi sperimentali, ma su convinzioni personali, esperienze aneddotiche o richiami a un presunto “cambiamento di paradigma” che non trova riscontro in alcun dato.

Sul fronte dei vaccini, il meccanismo è simile: si selezionano singoli studi, si estrapolano dati fuori contesto, si enfatizzano le incertezze inevitabili di ogni processo scientifico per far passare l’idea che “non sappiamo abbastanza” o che “i rischi superano i benefici”. Nei miei pezzi – da antivaccinisti ed immunità di gregge a vaccini e corretta informazione scientifica – ho spiegato come l’evidenza accumulata su milioni di dosi mostri una riduzione netta di ospedalizzazioni e decessi.

Quando Bellavite parla di “fase sperimentale” per i vaccini anti-Covid, non sta facendo un’osservazione prudente: formula un’affermazione che non trova riscontro nei dati scientifici, perché quei vaccini hanno completato tutte le fasi di sperimentazione necessarie per l’autorizzazione. Quando Serravalle afferma che “i vaccinati si infettano più dei non vaccinati”, non menziona i dati che mostrano come, pur con una protezione dall’infezione che diminuisce nel tempo, la vaccinazione resti una barriera fondamentale contro le forme patologiche gravi e le loro complicanze.

La contraddizione diventa lampante quando entrambi propongono l’omeopatia come alternativa o complemento “prioritario” alla farmacologia. Il mandato del NITAG è basato sull’evidence-based medicine, e l’omeopatia non rientra in alcuna linea guida internazionale sul trattamento o la prevenzione di malattie infettive. È paragonabile, per incoerenza, a nominare un negazionista del cambiamento climatico in un comitato per la transizione ecologica: il risultato è solo quello di minare la credibilità dell’organo stesso.

Il problema, però, non è solo tecnico. È culturale. Dare spazio istituzionale a posizioni non supportate da dati scientifici significa legittimare un messaggio pericoloso: che le evidenze scientifiche siano opinioni e che la sanità pubblica possa essere guidata da convinzioni personali. È il cortocircuito dell’antiscienza: quando la politica apre la porta a teorie già confutate, la fiducia nelle istituzioni si sgretola e i cittadini restano più esposti a bufale e disinformazione. Come ho scritto altrove  – qui e qui – quando la pseudoscienza entra dalla porta principale, la salute pubblica rischia di uscire dalla finestra.

Quando l’impossibile è solo improbabile: la cosmochimica ci insegna a essere umili

Recentemente Nature Communications ha pubblicato un articolo che ha fatto il giro del web: la scoperta di una molecola ritenuta “impossibile” secondo la chimica classica. Si tratta del methanetetrol, con formula C(OH)₄, cioè un atomo di carbonio legato a quattro gruppi ossidrilici. Se avete familiarità con la chimica organica, vi sarà già scattato un campanello d’allarme.

Un carbonio, quattro ossidrili

In chimica organica, anche due gruppi -OH sullo stesso carbonio (dioli germinali) sono instabili: tendono a disidratarsi spontaneamente, formando un carbonile più stabile. Con quattro ossidrili, il carbonio è sottoposto a forte repulsione elettronica e alta reattività: la molecola è intrinsecamente instabile nelle condizioni terrestri.

Ma lo spazio è tutta un’altra storia

L’esperimento condotto da Joshua H. Marks e colleghi ha simulato condizioni interstellari:

  • temperatura di circa 10 K (~ –263 °C);
  • pressione ultra-bassa (10⁻¹⁰ atm);
  • esposizione a radiazione energetica, simile a quella dei raggi cosmici.

In queste condizioni la molecola non riceve abbastanza energia per reagire o disidratarsi. Resta quindi “congelata” in uno stato metastabile, come se fosse bloccata nel tempo.

Instabile ≠ impossibile

Il methanetetrol non è “impossibile”: è semplicemente troppo instabile per durare a lungo alle condizioni ambientali della Terra. Ma nel vuoto cosmico, dove le collisioni tra molecole sono rarissime e la temperatura è prossima allo zero assoluto, anche le molecole più reattive possono esistere per tempi lunghissimi.

Un esempio quotidiano: l’acqua sovraraffreddata

Un buon esempio di metastabilità è l’acqua sovraraffreddata: se si raffredda dell’acqua molto pura lentamente e senza disturbarla, può restare liquida anche sotto gli 0 °C. Basta però un urto o l’aggiunta di un cristallo di ghiaccio perché si congeli all’istante, liberando calore.

Il methanetetrol nello spazio si comporta allo stesso modo: esiste in uno stato “delicato”, che può durare milioni di anni solo finché non interviene qualcosa a modificarlo.

Un’eredità cosmica

È importante ricordare che le molecole presenti oggi sulla Terra — comprese quelle che hanno contribuito all’origine della vita — sono in parte eredi di queste molecole “cosmiche”. Nei primi miliardi di anni, comete, meteoriti e polveri interstellari hanno portato sulla Terra materiali formatisi in ambienti estremi, spesso metastabili.

Queste molecole, una volta inglobate nel giovane pianeta, si sono trasformate: alcune sono sopravvissute, altre si sono degradate, altre ancora hanno reagito dando origine a sistemi sempre più complessi. La chimica della vita, in questo senso, è figlia della chimica dello spazio, anche se si è evoluta in condizioni molto diverse.

Anche la Terra ha i suoi estremi

Non dobbiamo però pensare che condizioni “impossibili” esistano solo nello spazio. Anche sulla Terra troviamo ambienti estremi in cui si manifestano forme di chimica — e persino di biologia — del tutto inattese.

  • Nelle saline di Trapani, ad esempio, vivono microrganismi capaci di resistere a concentrazioni di sale che ucciderebbero qualsiasi cellula “normale”.
  • Nei pressi delle bocche vulcaniche sottomarine, dove temperature e pressioni sono altissime, esistono comunità microbiche che metabolizzano zolfo e metalli.
  • In ambienti acidi, alcalini, radioattivi o privi di ossigeno, prosperano organismi estremofili che mettono in crisi i nostri criteri su cosa è “compatibile con la vita”.

Anche qui la natura ci insegna che la stabilità è relativa: ciò che sembra impossibile in una condizione può essere perfettamente normale in un’altra.

Uno sguardo all’origine della complessità

L’interesse principale di questa scoperta non è nella molecola in sé, ma nei meccanismi di formazione. L’esperimento ha mostrato che partendo da semplici ghiacci di CO₂ e H₂O si possono generare:

I calcoli teorici confermano che, se c’è sufficiente CO₂ nello spazio, il methanetetrol potrebbe già esistere là fuori — congelato nei ghiacci cosmici, in attesa di una nuova reazione.

Conclusione

La chimica nello spazio non viola le regole: le applica in modo diverso. Il methanetetrol ci ricorda che non possiamo giudicare la plausibilità di una molecola solo dalle condizioni terrestri. E ci insegna una lezione ancora più importante:
la chimica, come la vita, nasce dove trova spazio per esistere — anche se quel luogo è a 10 Kelvin, nel vuoto cosmico o in una salina siciliana.

Clima e pseudoscienza: anatomia di una discussione

Qualche giorno fa ho pubblicato il terzo e, speravo, ultimo articolo di un reportage sui cambiamenti climatici. In questo articolo, intitolato I cambiamenti climatici? Sì, siamo noi i responsabili, ho discusso delle prove oggettive – corredate da riferimenti puntuali – che hanno portato l’intera comunità scientifica alla conclusione che i responsabili di quanto sta accadendo attualmente sulla superficie terrestre, ovvero l’aumento delle temperature globali e la conseguente alterazione degli ecosistemi, siamo noi esseri umani.

In quel testo ho cercato di mostrare, in modo accessibile ma rigoroso, perché la tesi dell’origine antropica dell’attuale riscaldamento globale non sia più un’ipotesi, ma una conclusione supportata da una mole imponente di dati.

Ho parlato del ruolo dei gas serra, in particolare della CO₂ prodotta dalla combustione di combustibili fossili, la cui impronta isotopica è ben riconoscibile in atmosfera. Ho discusso anche delle fonti indipendenti che confermano il trend in atto – dalle carote glaciali agli anelli degli alberi, dai sedimenti oceanici alle misurazioni satellitari – e delle ragioni per cui né l’attività solare né le eruzioni vulcaniche possono spiegare ciò che osserviamo oggi.

Infine, ho evidenziato come la rapidità del riscaldamento attuale – oltre un grado in appena un secolo – sia senza precedenti nella storia recente del pianeta, e come l’intero corpo scientifico internazionale, sintetizzato nei report dell’IPCC, abbia ormai raggiunto un consenso solido e ben documentato su questo punto.

Non è necessario riproporre qui tutti i riferimenti bibliografici: si trovano nell’articolo appena riassunto (qui il link).

Eppure, eccomi di nuovo a scrivere sull’apporto antropico all’effetto serra. Non per aggiungere nuove evidenze, ma per riflettere sul modo estremamente fallace – e sempre più diffuso – di ragionare dei negazionisti del cambiamento climatico. Non si tratta, in questo caso, di negazionisti tout court: anche loro, ormai, devono riconoscere l’evidenza dell’aumento delle temperature globali. Si tratta piuttosto dei negazionisti dell’origine antropica, coloro che rifiutano di accettare che la causa principale del riscaldamento sia l’attività umana.

In un gruppo Facebook che aiuto a gestire – Bufale e dintorni gruppo – sono comparsi i primi commenti al mio post con cui pubblicizzavo l’articolo (potete farvene un’idea a questo link).
Poiché si tratta di un gruppo privato – quindi i post non sono visibili pubblicamente – e considerando che non tutti hanno un account Facebook attivo, riporto di seguito gli screenshot della discussione.

La Figura 1 riporta la condivisione dalla mia pagina Facebook “Rino Conte”.

Figura 1. Screenshot relativo alla condivisione del mio articolo sull’effetto antropico nei cambiamenti climatici. Questo thread ha dato la stura a una discussione con un negazionista di tale effetto.

La Figura 2 riporta (spero in modo leggibile, altrimenti è necessario da parte dei volenterosi scaricare l’immagine ed effettuarne uno zoom) la discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

Figura 2. Discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

E proprio mentre sto scrivendo questo articolo la discussione continua (Figura 3).

Figura 3. Proseguimento della discussione mentre scrivo questo articolo.

Come si evince dagli screenshot, il tutto ha inizio dall’inserimento di un link a un articolo giornalistico in cui si riporta un filmato che mostra il comportamento di certi ghiacciai negli ultimi 800 000 anni. Questo filmato è tratto da un lavoro scientifico dal titolo “Modelling last glacial cycle ice dynamics in the Alps” pubblicato nel 2018 sulla rivista The Cryosphere della European Geoscience Union, associazione per la quale anche io ho organizzato in passato dei miniconvegni nell’ambito delle attività congressuali più generali che si fanno ogni anno a Vienna in Austria (per esempio, uno è qui).

Chi ha condiviso questo studio nella discussione lo ha fatto con l’intento – più o meno esplicito – di suggerire che, dal momento che i ghiacciai alpini si sono espansi e ritirati ciclicamente nel passato, il cambiamento climatico attuale potrebbe essere semplicemente parte di una lunga variabilità naturale. È un’inferenza del tutto errata, che nasce da un fraintendimento delle finalità e dei contenuti del lavoro scientifico citato.

Infatti, lo studio in questione (Seguinot et al., 2018) non parla di cambiamenti climatici attuali né tantomeno ne discute le cause. Si tratta di un lavoro di modellizzazione numerica della dinamica glaciale delle Alpi durante l’ultimo ciclo glaciale (da 120.000 a 0 anni fa), che ha lo scopo di testare la coerenza tra ricostruzioni geologiche e simulazioni del comportamento dei ghiacciai su scala millenaria. Non c’è nel testo alcuna analisi delle cause del riscaldamento moderno, né alcun confronto con l’evoluzione recente del clima terrestre.

Quello che il mio interlocutore ha fatto è un tipico esempio di bias di conferma: ha estrapolato da un articolo tecnico una conclusione che non c’è, perché questa coincide con la propria convinzione preesistente. È un meccanismo comune tra i cosiddetti “negazionisti soft” – persone che, pur riconoscendo che il clima sta cambiando, rifiutano l’idea che l’essere umano ne sia il principale responsabile.

La dinamica della discussione su Facebook lo conferma: ogni volta che si porta un dato, una misura, una ricostruzione paleoclimatica, l’interlocutore non contesta la validità della fonte, ma sposta il piano, relativizza, introduce “dubbi” storici o filosofici. E infine si rifugia nel mito del “Galileo solitario”, come se ogni minoranza fosse destinata a diventare verità solo perché è minoranza. Ma Galileo non aveva ragione perché era solo: aveva ragione perché aveva i dati e un metodo.

Ecco il punto: il problema non è tanto avere un’opinione diversa, quanto non saper distinguere tra opinione personale e conoscenza scientifica. E non è un caso che questo tipo di retorica si ritrovi spesso in altri ambiti della disinformazione scientifica: chi si sente “eretico” rispetto al sapere ufficiale tende a sopravvalutare le proprie intuizioni e a sottovalutare il lavoro, faticoso e rigoroso, di chi fa scienza sul serio.

Discutere con chi rifiuta le conclusioni della scienza può essere faticoso, ma è anche necessario. Non per convincere chi ha già deciso di non ascoltare, ma per fornire strumenti a chi legge in silenzio, a chi cerca chiarezza in mezzo al rumore. La scienza non ha bisogno di essere difesa come un dogma: si difende da sé, con i dati, con la trasparenza dei metodi, con la disponibilità al confronto critico. Ma proprio per questo va protetta dalle distorsioni, dalle semplificazioni, e soprattutto dal relativismo delle opinioni travestite da verità.
Il cambiamento climatico attuale è un fenomeno reale, misurabile e in larga parte causato dalle attività umane. Continuare a negarlo non è esercizio di pensiero critico, ma una forma di resistenza ideologica che rischia di ritardare l’unica cosa che oggi dovremmo fare: affrontare il problema con serietà, competenza e senso di responsabilità.

EDIT

Mentre mi accingevo a pubblicare questo articolo, il mio interlocutore ha pubblicato un’ultima risposta che ho deciso di riportare integralmente per completezza. Qui sotto trovate anche la mia replica con cui ho deciso di concludere la discussione pubblica.

Interlocutore:

Pellegrino

  1. Lei stesso parla di “stime solide”; che sono appunto stime, non misurazioni dirette.
  2. “Sappiamo perché”, è un’altra forzatura. In realtà abbiamo delle interpretazioni plausibili per molte di esse, ma ciò non equivale a una certezza assoluta. Anche nelle osservazioni attuali, ci si imbatte in anomalie impreviste, tipo l’impatto dello scioglimento del permafrost, temperature previste che poi non si sono verificate… E parliamo di osservazioni dirette; figuriamoci sulle “stime” di fenomeni non osservati direttamente. Per non parlare dell’infinito dibattito su quanto influiscano o meno le macchie solari…

Stesso discorso sul fatto che le oscillazioni in passato non avvenissero in decenni, trascurando che non possiamo sapere se gli strumenti che abbiamo a disposizione siano davvero affidabili con tale precisione. Mancando l’osservazione diretta, non possiamo verificarlo.

Dire che “potrebbero esserci state” significa semplicemente dire che il modello generale è ancora soddisfatto; per dimostrare l’anomalia bisogna dimostrare che davvero non ci siano precedenti. È un discorso di presunzione d’innocenza: per dare la colpa all’uomo bisogna dimostrarla; il “ragionevole dubbio” è a favore dell’imputato. Foss’anche solo per mancanza di prove.

  1. Il moto dei pianeti era noto da sempre (“planities” significa appunto “errante”), ma lui (anzi, Copernico) fornì solo un modello di calcolo semplificato. Infatti, a dirla tutta, il sole non è affatto al centro dell’universo ma si muove pure lui… In questo ha ragione l’insegnante del prof. Barbero che diceva che il card. Bellarmino era più moderno di Galileo.
  2. A “negazionista” si potrebbe contrapporre “fideista”, ovvero uno che sposa senz’altro ciò che dice la maggioranza stigmatizzando il dubbio. Ma io continio a ricordare che la stessa comunità scientifica oggi certa del riscaldamento globale appena quarant’anni fa era ugualmente certa dell’imminenza di un’era glaciale. Un cambio di rotta di 180 gradi in meno di mezzo secolo, e si dovrebbe prendere per oro colato anche l’attribuzione di responsabilità? Anche a fronte di numerose previsioni rivelatesi poi errate?
  3. Su un punto, concordo senz’altro: sulla separazione netta tra dissertazione scientifica e azione concreta (e non potrei dire diversamente, dato che come ho già detto opero nella Protezione Civile).

Il punto certo è che vi sia in atto un cambiamento climatico che attualmente va verso un aumento delle temperature, che il problema è serio e che la cosa va affrontata. Ridurre il più possibile (e possibilmente azzerare) l’impatto antropico non ha controindicazioni, e quindi va benissimo farlo; e infatti ne sono da sempre un convinto sostenitore.

A mio modesto parere, non servirà a granché, perché se Madre Natura ha deciso che è tempo di un nuovo Eocene, Eocene sarà; che ci piaccia o no.

Quindi, oltre ad azzerare le emissioni, miglioriamo l’efficienza dei condizionatori, perché ne avremo comunque bisogno. Tutto qui.

Io:
grazie per aver chiarito ulteriormente il suo punto di vista. Le rispondo un’ultima volta, per chi ci legge e non per la soddisfazione di “avere l’ultima parola”, che non mi interessa.

Sì, le proxy sono stime, ma sono stime calibrate, validate e incrociate da molte fonti indipendenti. Nessun climatologo confonde una proxy con una misura diretta, ma la scienza lavora ogni giorno per rendere sempre più affidabili quelle stime. E il fatto che convergano tutte sul medesimo trend dà forza alla ricostruzione. Questo è il normale funzionamento della scienza, non una debolezza.

Nessuno pretende certezze assolute, né le scienze naturali le promettono. Lei invece sembra richiedere una prova “oltre ogni dubbio”, come se fossimo in un’aula di tribunale. Ma la scienza si basa sulla probabilità, sul peso delle evidenze, sulla capacità predittiva dei modelli. Oggi, la quantità di prove che puntano all’origine antropica del riscaldamento è così ampia da rendere l’ipotesi alternativa – quella esclusivamente naturale – altamente improbabile. Ed è su questo che si fondano le politiche, non sull’attesa della perfezione epistemologica.

Il paragone con Galileo e Bellarmino è affascinante ma fuori luogo. Galileo non aveva solo un modello “più semplice”: aveva anche l’evidenza delle fasi di Venere e delle lune di Giove. Il suo valore non sta nel ribellarsi alla maggioranza, ma nell’aver offerto dati e osservazioni migliori. Lei invece continua a proporre “dubbi” senza portare nessun dato nuovo, solo generalizzazioni.

La comunità scientifica non era “certa” dell’era glaciale negli anni ’70. Questa è una leggenda urbana, smentita dai dati storici: all’epoca la maggior parte degli articoli già indicava un riscaldamento, non un raffreddamento. Se guarda i paper dell’epoca, lo vede chiaramente.

Quanto agli errori previsionali: il fatto che un modello venga corretto o raffinato è normale in ogni scienza. Non è un fallimento, è progresso. Non confondiamo fallibilità con inattendibilità.

Mi fa piacere leggere che riconosce l’urgenza del problema e sostiene l’azione per ridurre le emissioni. Su questo ci troviamo d’accordo. Tuttavia, dire “tanto non servirà a nulla” è una rinuncia mascherata da fatalismo. La scienza climatica non dice che siamo condannati, ma che abbiamo una finestra temporale per ridurre gli impatti futuri. La differenza tra +1,5 °C e +4 °C non è affatto irrilevante. E anche se non possiamo evitare ogni effetto, possiamo evitare quelli peggiori. Questa è responsabilità, non fideismo.

Chiudo qui il mio intervento, perché i fatti, i dati e il consenso scientifico sono pubblici e verificabili. Il resto è opinione personale – legittima – ma non equiparabile alla conoscenza prodotta dalla scienza.

Nota finale: ho riportato per esteso questo scambio non per dare visibilità a una posizione pseudoscientifica, ma per mostrare, in modo documentato, come ragiona chi nega l’origine antropica del cambiamento climatico, e perché queste argomentazioni non reggano al vaglio della scienza.

Il grande mescolamento: il ruolo vitale degli oceani e le conseguenze del riscaldamento globale

Per capire davvero cosa significhi “riscaldamento globale”, dobbiamo prima capire come funziona il sistema che, da sempre, modera il clima della Terra: gli oceani. Sono loro, infatti, il gigantesco ingranaggio nascosto che regola la distribuzione del calore, l’equilibrio dell’umidità e la circolazione dell’energia termica sul nostro pianeta.

Le acque oceaniche non stanno mai ferme. Si muovono in superficie, spinte dai venti; si muovono in profondità, guidate da variazioni di temperatura e salinità. In questo continuo rimescolamento – silenzioso, ma potentissimo – si nasconde il segreto della nostra stabilità climatica. Ogni corrente trasporta calore dai tropici verso i poli e viceversa, mitiga le temperature, distribuisce nutrienti e sostiene la vita marina.

È un equilibrio delicato, raffinato, essenziale. E proprio per questo vulnerabile.

Se le acque si muovono meno, se non si mescolano più come dovrebbero, l’intero sistema comincia a rallentare, a scompensarsi. Il clima si fa più estremo, le piogge più irregolari, le stagioni meno distinguibili.

Ecco perché non possiamo davvero comprendere il cambiamento climatico senza prima esplorare i meccanismi che governano il movimento delle acque nei grandi corpi idrici: oceani, mari, fiumi, laghi.

A partire da qui, cercherò di spiegare – con l’aiuto della fisica e della chimica – come funzionano i movimenti orizzontali e verticali delle acque e perché sono così importanti per la regolazione del clima. Solo dopo, potremo affrontare il nodo centrale: cosa succede quando, a causa dell’aumento delle temperature globali, questi meccanismi si inceppano.

Le grandi correnti: il vento comanda

Partiamo dalla superficie. Le acque degli oceani sono spinte dai venti, ma non in modo casuale. Intorno all’equatore, ad esempio, gli Alisei soffiano da est verso ovest e trascinano con sé le acque superficiali. Alle latitudini medie (tra 30° e 60°), i venti occidentali spingono invece le correnti verso est.

Quando queste correnti incontrano i continenti, vengono deviate. Ed è qui che entra in gioco la forza di Coriolis: un effetto legato alla rotazione terrestre che curva i flussi d’acqua verso destra nell’emisfero nord e verso sinistra in quello sud. Il risultato? Enormi vortici oceanici che formano veri e propri “nastri trasportatori” d’acqua calda e fredda.

Uno degli esempi più noti è la Corrente del Golfo, che trasporta acque tropicali lungo la costa orientale del Nord America fino all’Europa occidentale, regalando inverni miti a paesi come il Regno Unito e la Norvegia.

Come illustrato in Figura 1, le acque superficiali degli oceani (fino a circa 100 metri di profondità) si muovono orizzontalmente, spinte soprattutto dai venti. La presenza dei continenti ne modifica il percorso, generando ampie correnti che si piegano e si avvolgono in vortici permanenti, visibili in tutti i principali bacini oceanici.

Figura 1. Rappresentazione delle principali correnti oceaniche superficiali. A causa della presenza dei continenti, le correnti deviano dal loro percorso originale, generando grandi vortici oceanici. Immagine scaricata liberamente da: https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Le correnti profonde: il ruolo del sale e della temperatura

Ma c’è un altro motore, più lento, silenzioso e profondo: il rimescolamento verticale. È un processo meno visibile rispetto alle correnti superficiali, ma non meno importante. In alcune regioni del pianeta, come le zone tropicali aride o le aree polari, l’acqua in superficie subisce trasformazioni che ne modificano profondamente la densità.

Nelle aree calde, per esempio, l’evaporazione intensa concentra i sali nell’acqua residua. Più sale significa maggiore densità: e un’acqua più densa tende naturalmente ad affondare verso gli strati profondi dell’oceano.
Al contrario, in altre zone l’acqua può essere diluita da piogge abbondanti o dallo scioglimento dei ghiacci, diventando più dolce e meno densa, e quindi destinata a risalire.

Anche la temperatura gioca un ruolo cruciale. Quando l’acqua marina si raffredda intensamente – come accade ai poli – tende a ghiacciarsi. Durante il congelamento, però, il ghiaccio espelle i sali: ciò che resta intorno ai blocchi di ghiaccio è un’acqua estremamente salina e fredda. Questo liquido denso sprofonda verso il fondo oceanico, innescando così un flusso verticale che alimenta la circolazione delle acque a grandi profondità.

Questo meccanismo prende il nome di circolazione termoalina: un termine che unisce l’effetto della temperatura (“termo”) a quello del sale (“alina”, dal greco halos). È grazie a questa lenta ma continua danza tra acque fredde, salate e profonde, e acque più calde e superficiali, che l’oceano riesce a rimescolarsi in profondità, mantenendo in equilibrio il trasporto di calore, nutrienti e anidride carbonica tra gli strati più esterni e quelli abissali.

Il grande nastro trasportatore globale

Combinando i movimenti orizzontali delle acque – spinti dai venti – con quelli verticali – governati da differenze di temperatura e salinità – si ottiene un colossale circuito planetario che i climatologi chiamano Global Conveyor Belt, ovvero nastro trasportatore oceanico globale.

È un sistema mastodontico, profondo e lentissimo. Le acque che oggi affondano nel Nord Atlantico, gelide e ricche di sale, possono impiegare fino a mille anni per completare il loro viaggio nei fondali oceanici e riaffiorare in superficie dall’altra parte del mondo. Una corrente profonda che scorre a pochi centimetri al secondo, eppure fondamentale per la vita sul pianeta.

Quello che si viene a creare è un ciclo continuo: le correnti calde e superficiali (come la Corrente del Golfo) trasportano calore dai tropici verso i poli; lì, l’acqua si raffredda e sprofonda, diventando corrente fredda e profonda che scivola silenziosamente nei meandri degli oceani, fino a riemergere in zone tropicali o subtropicali, dove riprende il viaggio in superficie.
Questo meccanismo globale è illustrato nella Figura 2.

Figura 2. Rappresentazione semplificata della circolazione termoalina, nota anche come Global Conveyor Belt. Le correnti calde e superficiali (in rosso) scorrono verso le regioni polari, dove l’acqua raffreddata e più salina sprofonda, originando correnti fredde profonde (in blu) che si muovono attraverso gli oceani fino a riemergere nelle regioni tropicali, completando il ciclo. Immagine liberamente disponibile su https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Quando il nastro si inceppa

Tutto questo sistema – perfetto, lento, ma vitale – può essere compromesso. Il riscaldamento globale sta alterando proprio quei meccanismi che regolano la circolazione termoalina, interferendo con la densità delle acque superficiali nelle zone chiave del pianeta.

Nelle regioni dove si formano le acque profonde, come il Nord Atlantico, il processo dipende dalla capacità dell’acqua superficiale di diventare abbastanza densa da affondare. Ma con l’aumento delle temperature globali, entrano in gioco due fattori destabilizzanti:

  • lo scioglimento dei ghiacci artici immette enormi quantità di acqua dolce nei mari;
  • l’intensificarsi delle precipitazioni diluisce ulteriormente le acque superficiali.

Il risultato? L’acqua resta più dolce, più calda, e quindi meno densa. Non affonda più come dovrebbe. E se non affonda, il motore si spegne.

Questo porta a un fenomeno ben noto in oceanografia: la stratificazione delle acque. Gli strati superficiali diventano sempre più stabili, separati da quelli profondi da un gradiente di densità così marcato da impedire ogni rimescolamento. È come se l’oceano fosse “bloccato a strati”, con uno strato leggero e caldo che galleggia sopra uno freddo e denso, ma senza più scambi attivi tra i due (Figura 3).

Le conseguenze sono profonde:

  • Il nastro trasportatore globale rallenta o si indebolisce, fino al rischio – non solo teorico – di un blocco parziale o totale.
  • Il calore non viene più redistribuito: i tropici si surriscaldano, le regioni temperate (come l’Europa nord-occidentale) rischiano un paradossale raffreddamento.
  • L’acqua profonda non riceve più ossigeno né nutrienti, danneggiando la vita marina.
  • In superficie, mancano i nutrienti che sostengono il plancton: cala la produttività biologica degli oceani.
  • E soprattutto: l’oceano assorbe meno anidride carbonica per due motivi. Da un lato, l’aumento della temperatura riduce la solubilità della CO₂ in acqua; dall’altro, la stratificazione blocca il rimescolamento, impedendo il trasporto della CO₂ in profondità. Il risultato è che più CO₂ resta nell’atmosfera, accelerando ulteriormente il riscaldamento globale.

È una spirale pericolosa, un meccanismo di retroazione in cui l’effetto rafforza la causa: più caldo → più stratificazione → meno rimescolamento → meno assorbimento di CO₂ → ancora più caldo.
Un classico cane che si morde la coda, ma su scala planetaria.

Figura 3. Meccanismo della stratificazione degli oceani. Il riscaldamento globale, lo scioglimento dei ghiacci e l’aumento delle precipitazioni rendono l’acqua superficiale più calda e dolce, quindi meno densa. Questo riduce il rimescolamento verticale con gli strati profondi, limitando lo scambio di calore, nutrienti e la capacità dell’oceano di assorbire CO₂.

Conclusioni

Gli oceani non sono solo grandi riserve d’acqua: sono ingranaggi dinamici e complessi che regolano il clima terrestre, trasportano calore, rimescolano nutrienti e assorbono anidride carbonica. La loro capacità di farlo dipende dal delicato equilibrio tra venti, salinità e temperatura. Quando questo equilibrio si spezza — a causa dell’aumento delle temperature globali — il sistema si inceppa: le acque si stratificano, il rimescolamento si blocca, la circolazione rallenta.

Le conseguenze, anche se lente a manifestarsi, sono profonde: clima più estremo, ecosistemi marini impoveriti e maggiore accumulo di CO₂ in atmosfera. È una crisi silenziosa, ma già in atto.
Per capire e affrontare il cambiamento climatico, non basta guardare al cielo: dobbiamo guardare al mare, e comprendere come funziona — e come sta cambiando — il grande mescolamento degli oceani.

Questo articolo è parte di un percorso dedicato al riscaldamento climatico.
Nel primo appuntamento ci siamo chiesti perché, in un mondo sempre più caldo, possano verificarsi fenomeni estremi come piogge torrenziali e temporali improvvisi (leggi qui).
Oggi abbiamo esplorato il ruolo nascosto ma fondamentale degli oceani nella regolazione del clima.

Nel prossimo articolo parleremo invece di come l’attività umana stia alterando questi equilibri, e perché il riscaldamento globale non può più essere considerato un semplice fenomeno naturale.

 

Caldo globale, temporali locali: l’apparente paradosso

Introduzione

Negli ultimi anni, gli eventi meteorologici estremi sono diventati sempre più frequenti, sia in Italia che nel resto del mondo.
Una mappa interattiva dell’ISPRA, consultabile online, mostra chiaramente dove questi eventi si sono verificati in Italia tra il 2020 e il 2024. Si osservano piogge torrenziali, grandinate eccezionali, ondate di calore anomale e prolungate. Tutti segnali di un sistema climatico sempre più instabile.

Come conseguenza di queste anomalie, è sempre più comune imbattersi – soprattutto sui social – in discussioni o thread in cui si afferma che fenomeni come le alluvioni, seguite da bruschi cali di temperatura, smentirebbero l’esistenza del riscaldamento globale.
Una frase ricorrente è:

“Altro che riscaldamento globale: ieri grandinava e oggi ci sono 18 gradi!”

Chi vive in zone come Palermo – dove, negli ultimi anni, si sono registrati picchi termici estremi e livelli di umidità superiori all’80%, anche in pieno giorno – tende invece a riconoscere, in modo molto concreto, la realtà del cambiamento climatico.

“Orpo… che caldo. Veramente stiamo andando verso qualcosa che non abbiamo mai vissuto.”

Ma come si concilia tutto questo?

Come può il riscaldamento globale provocare temporali violenti, grandinate e persino abbassamenti improvvisi della temperatura?

Dobbiamo innanzitutto ricordare che la logica scientifica è controintuitiva. Non possiamo applicare al metodo scientifico la logica che usiamo tutti i giorni per collegare ciò che vediamo con ciò che pensiamo sia vero: la realtà fisica spesso sorprende e non si lascia interpretare con impressioni o sensazioni.

Sulla base di queste premesse, chiediamoci cosa accade sulla superficie terrestre quando la temperatura aumenta di un solo grado Celsius. Un grado può sembrare poco. Se tocchiamo una pentola a 70 °C proviamo lo stesso bruciore che a 71 °C. E non distinguiamo tra il freddo di 0 °C e quello di -1 °C.

Ma il pianeta non è il nostro palmo, né il nostro naso.

Nel sistema Terra, un solo grado può fare una differenza gigantesca: significa più energia, più evaporazione, più acqua nell’atmosfera. E più acqua nell’aria significa, potenzialmente, più pioggia, più violenza, più squilibrio.

Per capire quanto sia concreta questa affermazione, facciamo un semplice calcolo: stimiamo quanta acqua in più evapora dagli oceani quando la loro temperatura superficiale sale di un solo grado come, per esempio, da 25 °C a 26 °C.

Effetti della temperatura sull’equilibrio H2Oliquido = H2Ovapore

Per semplicità, consideriamo solo una porzione di oceano estesa per 100 milioni di metri quadrati (pari a 100 km²) e limitiamoci al primo metro d’aria immediatamente sovrastante. Vogliamo capire quanta acqua in più finisce nell’aria subito sopra l’oceano quando la sua temperatura sale di un solo grado, da 25 °C a 26 °C.

  1. L’equazione di Antoine

Per stimare la pressione di vapore dell’acqua alle due temperature, usiamo la formula empirica di Antoine, valida tra 1 e 100 °C:

log₁₀(P) = A − B / (C + T)

dove:

  • P è la pressione di vapore in mmHg,
  • T è la temperatura in gradi Celsius,
  • A, B, C sono coefficienti specifici per ciascuna sostanza (ad esempio, acqua, etanolo, acetone…) e validi solo entro certi intervalli di temperatura. Nel caso specifico dell’acqua: A = 8.07131; B = 1730.63; C = 233.426 (valori specifici per l’acqua in questo intervallo). Il riferimento per i valori numerici di A, B e C è qui.

Convertiamo poi la pressione in Pascal (1 mmHg = 133.322 Pa).

  1. I risultati

Applicando i valori:

  • a 25 °C si ottiene P ≈ 23.76 mmHg, cioè circa 3158 Pa;
  • a 26 °C si ottiene P ≈ 25.13 mmHg, cioè circa 3351 Pa.
  1. Calcolo della densità del vapore

Convertiamo ora la pressione parziale in densità di vapore acqueo (ρ), usando l’equazione dei gas ideali:

ρ = (P × M) / (R × T)

dove:

  • P è la pressione in pascal,
  • M è la massa molare dell’acqua (18.015 g/mol),
  • R è la costante dei gas (8.314 J/mol·K),
  • T è la temperatura assoluta in Kelvin.

Calcolando:

  • a 25 °C (298.15 K) si ottiene ρ ≈ 0.02295 kg/m³;
  • a 26 °C (299.15 K) si ottiene ρ ≈ 0.02431 kg/m³.
  1. L’aumento netto di vapore

La differenza di densità è:

0.02431 − 0.02295 = 0.00136 kg/m³

Moltiplichiamo per il volume d’aria (100 000 000 m³):

0.00136 × 100 000 000 = 136.000 kg

In altre parole, un aumento di temperatura di 1 °C (da 25 a 26 °C) genera 136 tonnellate di vapore in più, solo su una superficie di 100 km² e solo nello strato d’aria immediatamente sopra l’oceano.

E se fosse tutto l’Atlantico?

Se estendiamo il calcolo all’intera superficie dell’Oceano Atlantico – circa 116 milioni di km² – otteniamo:

157 800 000 000 kg, ovvero 158 milioni di tonnellate di vapore acqueo in più.

E questo, lo ripeto, solo nello strato d’aria immediatamente sopra la superficie, per un singolo grado in più.

Ma quei numeri non restano sulla carta. Entrano in circolo nell’atmosfera, e da lì comincia il loro impatto reale.

Dall’oceano alla pioggia: il viaggio del vapore

Ma cosa succede a tutta quest’acqua una volta entrata in atmosfera?

Viene trasportata dalle correnti. Quando incontra masse d’aria più fredde, condensa formando nubi e poi pioggia. Se la quantità di vapore è anomala, lo saranno anche le precipitazioni: brevi, violente, improvvise.

Inoltre, il vapore acqueo è attivo nell’infrarosso: è un gas serra molto più potente della CO₂, anche se molto più effimero. In climatologia si parla di feedback positivo: l’aumento della temperatura fa evaporare più acqua → il vapore trattiene più calore → aumenta ancora la temperatura → e così via.

Quella pioggia non è “contro” il riscaldamento: è il riscaldamento

Piogge torrenziali, grandinate e cali locali della temperatura non smentiscono il riscaldamento globale. Al contrario, ne sono una conseguenza. Il sistema Terra si scalda in media, ma localmente può produrre raffreddamenti temporanei proprio in risposta a squilibri energetici più ampi.

Conclusioni

Il calcolo che ho presentato è, ovviamente, una semplificazione. Non tiene conto del vento, della turbolenza, della salinità, né della reale dinamica verticale dell’atmosfera. Non pretende di descrivere con esattezza tutto ciò che accade nell’interazione tra oceano e cielo. Ma ha un obiettivo chiaro: rendere visibile, con i numeri, una verità che l’intuizione fatica a cogliere.

Perché la logica scientifica non coincide con il senso comune.

Come ho già scritto, nel nostro vissuto quotidiano, un solo grado in più non è nulla. Non percepiamo differenze tra 0 °C e -1 °C, tra 70 °C e 71 °C. Ma il sistema Terra non funziona secondo ciò che sentiamo sulla pelle: funziona secondo leggi fisiche. E in fisica, un solo grado può significare miliardi di tonnellate d’acqua in più nell’atmosfera. Significa più energia, più instabilità, più violenza meteorologica.

Paradossalmente, quello che percepiamo come una smentita del riscaldamento globale – la grandine, il temporale, il crollo improvviso delle temperature – ne è invece una manifestazione diretta.

Il clima risponde con intensità e disordine proprio perché è fuori equilibrio. E lo è, in parte, per colpa di quell’apparente “piccolo” grado in più.

La scienza ci dà gli strumenti per misurare, per capire, per anticipare.

Sta a noi scegliere se vogliamo continuare a confondere il temporale con una tregua, o iniziare a leggere in quelle piogge il segnale di un sistema che sta cambiando – e lo sta facendo sotto i nostri occhi.

Quella pioggia che ti ha fatto dire “ma quale riscaldamento globale?” è esattamente il motivo per cui dovremmo iniziare a preoccuparci.

Tricochimica: un viaggio tra bellezza, scienza e indagini

Introduzione

Che cosa possono raccontarci i nostri capelli? Molto più di quanto immaginiamo. Non sono soltanto un segno di identità o di stile personale, ma vere e proprie architetture biologiche capaci di custodire informazioni preziose: sulla nostra salute, sulle sostanze a cui siamo stati esposti e persino sulle tracce lasciate da trattamenti cosmetici.

È proprio per raccontare questa dimensione scientifica, spesso trascurata, che voglio parlare di tricochimica: uno studio chimico del capello in tutti i suoi aspetti, dall’estetica alla tossicologia e fino all’analisi forense.

Il termine tricochimica non è nuovo: è stato proposto già anni fa dal collega Lucio Campanella, che lo ha usato per descrivere la chimica applicata ai capelli. Riprendo volentieri questo nome, perché lo trovo perfetto per raccontare – in modo serio ma accessibile – i tanti aspetti che uniscono bellezza, scienza e indagini.

La chimica, infatti, non è una disciplina astratta. È uno strumento concreto per capire fenomeni quotidiani. Capire come funzionano le tinture, le permanenti o i trattamenti liscianti significa comprendere reazioni chimiche precise. Allo stesso modo, analizzare i capelli per individuare droghe o metalli pesanti richiede metodiche chimico-analitiche raffinate, fondamentali in medicina legale e nelle indagini forensi.

In questo articolo proverò a esplorare questo campo affascinante e multidisciplinare. Vedremo come sono fatti i capelli, quali trasformazioni chimiche possono subire e come la chimica ci aiuta a leggerne la storia. Un viaggio che unisce bellezza e scienza, con uno sguardo attento anche alle implicazioni sociali ed etiche di queste conoscenze.

Il significato evoluzionistico dei capelli

Per affrontare la chimica dei capelli in modo completo è utile partire da una domanda più profonda: perché l’essere umano ha ancora i capelli sulla testa? A differenza della maggior parte dei mammiferi, che conservano un pelame diffuso sul corpo, la nostra specie si caratterizza per una pelle glabra salvo alcune aree strategiche, come il cuoio capelluto.

Le ipotesi evolutive più accreditate interpretano i capelli come una reliquia evolutiva che ha progressivamente perso molte delle funzioni originarie di isolamento termico. Tuttavia, la loro conservazione sul cranio potrebbe aver offerto vantaggi adattativi. Un ruolo plausibile è la protezione dal surriscaldamento diretto, agendo da schermo contro la radiazione solare intensa, specialmente in climi aperti e soleggiati. Allo stesso tempo, il cuoio capelluto riccamente vascolarizzato favorisce la dispersione di calore in eccesso. La distribuzione e la densità dei capelli umani sono quindi il risultato di una pressione selettiva che ha equilibrato protezione e termoregolazione.

Inoltre, il capello ha mantenuto importanti valenze sociali e sessuali. Il colore, la forma e la consistenza dei capelli variano tra individui e popolazioni, diventando segnali di riconoscimento, età, salute e persino desiderabilità sessuale. Queste caratteristiche hanno stimolato la selezione sessuale e culturale, contribuendo a fare del capello un elemento centrale dell’identità personale.

A conferma della sua rilevanza evolutiva, studi recenti hanno identificato correlazioni genetiche di fine scala con la morfologia del capello, evidenziando la selezione naturale e la divergenza adattativa in diverse popolazioni umane.

Comprendere queste dimensioni evolutive non è solo una curiosità: ci ricorda che la chimica del capello studia un tessuto vivo di storia biologica e culturale. Anche la tricochimica si deve confrontare con questa eredità evolutiva, che plasma le caratteristiche fisiche e chimiche della fibra capillare così come le funzioni sociali che ancora oggi attribuiamo ai nostri capelli.

Nascita e crescita del capello: la biologia del follicolo pilifero

Per comprendere davvero la chimica del capello – la tricochimica – è fondamentale partire dalla sua biologia. Il capello non è soltanto la fibra che vediamo spuntare dalla cute, ma il risultato di un processo di crescita complesso che avviene all’interno del follicolo pilifero, una struttura specializzata immersa nella pelle.

Il follicolo pilifero è una piccola tasca di epitelio che avvolge la parte viva del capello e ne dirige la formazione. Al suo interno si trova la papilla dermica, ricca di vasi sanguigni, che fornisce nutrienti, ossigeno e, non meno importante, trasporta farmaci e metalli pesanti che possono incorporarsi nella fibra in formazione. È proprio grazie a questa connessione vascolare che il capello diventa un archivio biologico capace di registrare, nel tempo, esposizioni a sostanze esterne.

Tradizionalmente, il ciclo di vita del capello si suddivide in tre fasi principali:

Anagen: fase di crescita attiva, che può durare anni. In questa fase le cellule della matrice germinativa si moltiplicano rapidamente e si cheratinizzano progressivamente, formando il fusto del capello che emerge dalla cute. È qui che avviene l’incorporazione più stabile di sostanze esogene, rendendo questa fase cruciale per l’analisi tossicologica.

Catagen: breve fase di regressione (2–3 settimane) in cui l’attività proliferativa si arresta e il follicolo si contrae.

Telogen: fase di riposo (2–6 mesi) al termine della quale il capello smette di crescere e rimane “in attesa” prima di essere espulso.

Vale la pena segnalare che la letteratura più recente tende a riconoscere anche una quarta fase, detta exogen, che descrive in modo più specifico il distacco vero e proprio e la caduta del capello ormai morto dal follicolo. Questa distinzione, pur non essendo sempre adottata in modo uniforme, riflette un approccio più moderno e dettagliato alla biologia del ciclo pilifero.

Un altro aspetto importante del follicolo è la presenza di strutture di supporto come la guaina epiteliale interna, che avvolge la fibra nelle sue prime fasi di formazione. In questa guaina si esprime la trichohyalin (in italiano la tradurrei come tricoialina), una proteina ricca di glutammina che svolge un ruolo cruciale nel conferire resistenza meccanica e nell’ordinare la cheratinizzazione delle cellule. Questa proteina agisce come una sorta di “impalcatura molecolare”, indispensabile per ottenere la struttura finale della fibra capillare.

Capire la biologia del follicolo è dunque essenziale per spiegare non solo la struttura del capello che osserviamo a occhio nudo, ma anche la sua capacità di registrare esposizioni chimiche durante la crescita. Solo conoscendo questo processo si possono comprendere appieno sia la chimica cosmetica (che deve penetrare e modificare la fibra), sia le analisi tossicologiche (che leggono la storia di queste incorporazioni).

Struttura e composizione del capello

Un capello non è un semplice “filo” uniforme: è un materiale biologico complesso, progettato per resistere, proteggere e comunicare caratteristiche individuali come colore, forma e lucentezza.

Architettura della fibra: cuticola, corteccia e midollo

Il capello è costituito da tre parti principali (Figura 1). All’esterno si trova la cuticola, formata da cellule appiattite e sovrapposte a tegola, che proteggono gli strati interni e conferiscono lucentezza grazie alla loro disposizione ordinata. Subito sotto si trova la corteccia, la parte più voluminosa, composta da fibre di cheratina organizzate in macrofibrille e pigmenti melanici che determinano il colore. Qui si stabiliscono i legami chimici (come i ponti disolfuro) che influenzano la forma del capello. Al centro si trova il midollo, una regione meno definita e spesso discontinua nei capelli più fini, che contribuisce all’isolamento termico e alla rigidità.

Figura 1. Struttura schematica di un capello umano.

Composizione chimica: membrana interna, cheratina, lipidi e acqua

A livello chimico, la fibra capillare è un materiale stratificato e sofisticato. La componente principale è la cheratina, una proteina fibrosa costituita da filamenti polipeptidici ricchi di cisteina, che si organizzano in strutture a coiled-coil di tipo α-elica. Queste eliche si associano in filamenti intermedi, che a loro volta formano macro-fibrille, dando alla corteccia un’architettura gerarchica e resistente.  Studi recenti di diffrazione a raggi X hanno confermato questa architettura gerarchica, evidenziando distanze caratteristiche tra filamenti intermedi (90, 45 e 27 Å) che si mantengono costanti in individui con tipi di capelli diversi.

Tra le cellule della corteccia e della cuticola si interpone il Cell Membrane Complex (CMC), una struttura lipidica e proteica laminare che funge da collante idrofobo, regolando la coesione cellulare e la permeabilità all’acqua e alle sostanze chimiche. Esperimenti di microdiffrazione hanno dimostrato che il CMC è sensibile all’umidità, mostrando rigonfiamento al contatto con l’acqua: un aspetto che spiega la sua importanza nei trattamenti cosmetici e nella penetrazione di agenti idrosolubili.

La cuticola, oltre alla funzione protettiva, contiene lamelle ben stratificate che includono β-cheratina, distinta dall’α-cheratina della corteccia, conferendole maggiore compattezza e impermeabilità. Inoltre, la composizione chimica complessiva del capello include lipidi liberi (circa 1-9%), acqua (10-15% circa in condizioni normali), minerali come magnesio, zinco, ferro e rame, oltre a tracce di aminoacidi e vitamine. Questa miscela complessa fornisce al capello proprietà di robustezza, elasticità e resistenza agli stress ambientali, anche se può essere danneggiata in modo irreversibile da trattamenti cosmetici aggressivi, calore e radiazioni UV.

Le proprietà fisiche e cosmetiche del capello dipendono infine dai legami chimici che ne stabilizzano la struttura. I legami a idrogeno sono deboli ma numerosi, si rompono e si riformano facilmente con umidità o calore, ed è grazie a loro che si ottiene l’effetto temporaneo della piega (phon, piastra). Per approfondire la natura e la forza di questi legami nell’acqua e nelle soluzioni, è possibile leggere due articoli che ho scritto sul blog: qui e qui. I legami salini, di tipo ionico, dipendono dall’interazione tra cariche opposte presenti sulle catene laterali degli amminoacidi e sono sensibili al pH. I legami disolfuro, molto più forti, uniscono in modo stabile le catene di cheratina grazie ai ponti tra residui di cisteina e sono i bersagli principali dei trattamenti chimici come permanenti o lisciature.

Conoscere questa struttura complessa è fondamentale per capire come e perché i capelli reagiscono ai trattamenti cosmetici, all’umidità ambientale o ai processi analitici usati in tossicologia e scienze forensi. È il primo passo del nostro viaggio nella tricochimica.

Ulteriori approfondimenti sono disponibili anche qui.

La chimica cosmetica del capello

La chimica cosmetica applicata ai capelli è un settore complesso e affascinante che si occupa di trasformare la fibra capillare attraverso reazioni controllate, con l’obiettivo di modificare colore, forma e aspetto. Uno degli esempi più noti è la colorazione permanente, che si basa su un processo di ossidazione ben studiato. In questo caso si usano due componenti principali: un agente alcalino (come l’ammoniaca o la etanolammina) e un ossidante (generalmente perossido di idrogeno o acqua ossigenata). Il composto alcalino serve ad aprire le squame della cuticola, permettendo al perossido e ai precursori del colore (come la p-fenilendiammina) di penetrare nella corteccia. Lì, il perossido ossida i precursori in intermedi reattivi che, legandosi a opportuni “couplers” (come il resorcinolo), formano grandi molecole di colorante intrafibra, responsabili della tonalità stabile e duratura. Questo processo, come ricorda anche la letteratura recente, è pressoché invariato da oltre un secolo, ma rimane il più efficace per coprire i capelli bianchi e schiarire tonalità naturali. La Figura 2 mostra le strutture chimiche di alcune molecole usate per il trattamento di colorazione permanente.

Figura 2. Molecole usate nei processi di colorazione permanente dei capelli.

I trattamenti per permanenti e lisciature chimiche agiscono invece modificando i legami disolfuro tra le catene di cheratina all’interno della corteccia. Nelle permanenti tradizionali si usa un riducente (come l’acido tioglicolico, Figura 3) per rompere questi ponti, consentendo di avvolgere i capelli su bigodini e fissare la nuova forma. Successivamente si applica un ossidante (solitamente ancora perossido di idrogeno) per riformare i legami disolfuro nella configurazione desiderata. Anche le lisciature chimiche sfruttano lo stesso principio, ma con tecniche e formulazioni diverse per spezzare i ponti disolfuro e fissare una fibra capillare più lineare. Questi processi, pur efficaci, indeboliscono la struttura del capello e ne aumentano la porosità, con conseguenze estetiche e meccaniche rilevanti.

Figura 3. Struttura dell’acido tioglicolico.

Un capitolo delicato è quello dei trattamenti liscianti con formaldeide (Figura 4) o con rilascio di formaldeide, molto discussi per i potenziali rischi per la salute. Il cosiddetto “Brazilian Blowout” e trattamenti simili usano formaldeide (o precursori che la rilasciano a caldo) per creare ponti metilenici tra le catene di cheratina, bloccandole in configurazioni lisce. Tuttavia, l’esposizione ai vapori di formaldeide è un noto rischio cancerogeno e può causare irritazioni acute e sensibilizzazioni. Per questo motivo, normative come quelle dell’Unione Europea vietano o limitano severamente l’uso di formaldeide libera o rilasciata oltre soglie minime, imponendo test e dichiarazioni specifiche sui cosmetici (riferimenti qui, qui e qui).

Figura 4. Struttura della formaldeide.

La cosmetica dei capelli si muove così su un crinale tecnico e normativo importante: da un lato c’è la ricerca di prodotti sempre più efficaci e personalizzati, dall’altro la crescente attenzione alla sicurezza dell’utilizzatore e del professionista. Negli ultimi anni, inoltre, si osserva un forte interesse per alternative più delicate e sostenibili, come colorazioni a basso contenuto di ammoniaca o a base di derivati naturali, e trattamenti liscianti privi di formaldeide, che sfruttano polimeri cationici o derivati di aminoacidi per un effetto condizionante e disciplinante meno aggressivo (riferimenti qui e qui).

L’analisi tossicologica del capello

L’analisi tossicologica del capello è una tecnica consolidata e molto apprezzata in ambito clinico e forense, grazie alla capacità unica di registrare l’esposizione a droghe o metalli pesanti su una scala temporale estesa. A differenza di sangue e urina, che rilevano l’assunzione di sostanze solo per pochi giorni, il capello funziona come un archivio biologico che conserva tracce di esposizione per settimane o mesi, a seconda della lunghezza del campione. Questa proprietà lo rende particolarmente utile per ricostruire storie di abuso cronico, monitorare la terapia sostitutiva, verificare la compliance in percorsi di disintossicazione o per valutazioni legali, come l’idoneità alla guida o l’affidamento dei minori.

I farmaci e i metalli pesanti si depositano nel capello principalmente durante la fase di crescita (anagen), grazie alla circolazione sanguigna che porta le molecole fino al follicolo, la piccola struttura immersa nella cute dove le cellule del capello si formano, si moltiplicano e si cheratinizzano. Una volta incorporate nella matrice di cheratina in formazione, queste sostanze restano stabilmente legate alla struttura del fusto, resistendo alla degradazione per lungo tempo. Altri percorsi di incorporazione includono il sebo, il sudore e in misura minore l’assorbimento ambientale. Tuttavia, i moderni protocolli di lavaggio e decontaminazione riducono il rischio di contaminazione esterna falsamente positiva.

Dal punto di vista analitico, l’analisi tossicologica del capello richiede tecniche di estrazione sofisticate. La fibra capillare, costituita per il 65–95% da cheratina, oltre che da lipidi, acqua e pigmenti, deve essere digerita o frammentata in modo controllato per liberare i composti target senza degradarli. Tra le tecniche più comuni di preparazione ci sono l’idrolisi acida o enzimatica, l’estrazione in solventi organici e la digestione assistita da ultrasuoni. Dopo l’estrazione, le sostanze vengono analizzate con metodi ad alta sensibilità e specificità come la spettrometria di massa accoppiata alla gascromatografia (GC–MS) o alla cromatografia liquida (LC–MS). Queste metodiche consentono di rilevare quantitativi nell’ordine dei picogrammi di numerosi farmaci e metaboliti, inclusi oppiacei, cocaina, cannabis, amfetamine e benzodiazepine, così come metalli pesanti analizzabili via spettroscopia di assorbimento atomico (AAS).

Uno dei principali vantaggi dell’analisi sul capello è la sua “finestra temporale estesa”: ogni centimetro di lunghezza corrisponde approssimativamente a un mese di crescita, permettendo di segmentare il campione per ricostruire una cronologia dettagliata delle esposizioni. Tuttavia, esistono anche limiti e criticità. Trattamenti cosmetici aggressivi come tinture, decolorazioni o permanenti possono ridurre la concentrazione di sostanze depositate o alterarne la distribuzione, rendendo più difficile l’interpretazione. Anche la variabilità individuale (colore, contenuto di melanina, porosità) può influenzare l’assorbimento dei farmaci, rendendo complessa la traduzione quantitativa dei dati in dosi assunte.

Nonostante queste sfide, l’analisi tossicologica del capello rappresenta uno strumento fondamentale in ambito forense e clinico per la sua capacità di documentare l’esposizione remota a sostanze psicoattive o tossiche, offrendo informazioni preziose che integrano e completano quelle ricavabili da sangue o urina.

Conclusioni, prospettive e sfide future

La tricochimica si propone come un campo di studio davvero interdisciplinare, capace di unire la conoscenza chimica della fibra capillare con esigenze estetiche, implicazioni tossicologiche e applicazioni forensi. Comprendere la composizione, la struttura e le trasformazioni chimiche dei capelli significa poter progettare trattamenti cosmetici più efficaci e sicuri, interpretare correttamente le analisi tossicologiche e persino ricostruire storie di consumo di sostanze o dinamiche criminali.

Tra le sfide principali spicca la necessità di una maggiore standardizzazione delle analisi tossicologiche: solventi, protocolli di estrazione, metodi di decontaminazione e tecniche strumentali richiedono armonizzazione per garantire risultati confrontabili e robusti. Anche i trattamenti cosmetici pongono questioni complesse: mentre il mercato cerca prodotti sempre più performanti e personalizzati, resta fondamentale valutarne l’efficacia in relazione alla salute del capello e della persona, evitando ingredienti aggressivi o potenzialmente dannosi.

Il futuro della tricochimica si muove verso un’integrazione sempre più stretta tra cosmetica e tossicologia: l’obiettivo è sviluppare prodotti “smart” e sicuri, capaci di interagire con la fibra capillare in modo controllato, rispettandone la biologia e la chimica. In questo senso, la ricerca multidisciplinare – che unisce chimica organica, biochimica, tossicologia analitica e scienza dei materiali – sarà essenziale per innovare e rispondere alle nuove esigenze di consumatori, professionisti e legislatori.

La tricochimica non è dunque un semplice esercizio accademico: è una disciplina viva e applicata, che tocca la nostra quotidianità, dalla cura estetica all’identità personale, dalla salute alla sicurezza pubblica. Riconoscerne l’importanza e investire nella sua evoluzione significa contribuire a un approccio più consapevole, informato e sostenibile al mondo dei capelli.

Glifosato e cancro: nuovo studio, molti titoli… pochi fatti

di Enrico Bucci & Pellegrino Conte

Se c’è una cosa che la scienza dovrebbe insegnarci, è che non tutti gli studi hanno la stessa valenza e importanza. Alcuni sono ben progettati, trasparenti e ci aiutano a capire meglio il mondo; altri, invece, presentano fragilità nelle premesse, nel metodo o nell’interpretazione dei dati.

L’ultimo studio pubblicato nel 2025 su Environmental Health da un gruppo di ricerca dell’Istituto Ramazzini ha fatto molto discutere, sostenendo che anche dosi di glifosato ritenute sicure possano aumentare il rischio di tumori nei ratti. Da qui è nato il timore che, se aumenta la possibilità di avere tumori nei ratti, anche l’essere umano possa correre lo stesso rischio. Tuttavia, un’analisi attenta rivela numerosi limiti sull’effettiva rilevanza dei risultati.

Vediamo perché.

Dosi scelte e perché non sono realistiche

Lo studio ha previsto tre dosi di glifosato somministrate ai ratti:

  • 0.5 mg/kg al giorno (l’ADI, ovvero la dose giornaliera accettabile in Europa)
  • 5 mg/kg al giorno (10 volte l’ADI)
  • 50 mg/kg al giorno (NOAEL, che corrisponde alla dose massima senza effetti osservati).

A prima vista, trovare effetti anche alla dose più bassa potrebbe sembrare preoccupante. Ma c’è un dettaglio importante: l’ADI non è una soglia tossicologica, ma un limite iper-cautelativo. Come viene calcolata?

  1. Si prende la dose più alta che non ha causato effetti negli animali (es. 50 mg/kg).
  2. Si divide per 100: 10 per la variabilità interspecie (topo vs uomo) e 10 per la variabilità intraspecie (uomo vs uomo).
  3. Si ottiene l’ADI (0.5 mg/kg).

Quindi, se uno studio trova effetti giusto all’ADI, non è un fallimento del sistema: è la conferma che il sistema di sicurezza funziona.

E nella vita reale? L’EFSA ha stimato che l’esposizione reale della popolazione è centinaia di volte inferiore all’ADI. Per raggiungere 0.5 mg/kg, un adulto di 70 kg dovrebbe mangiare 10 kg di soia OGM al giorno, tutti i giorni. E anche gli agricoltori professionisti non si avvicinano a quei livelli.

Discrepanze tra dosi dichiarate e dosi realmente usate

Come si può facilmente immaginare, il lavoro che stiamo valutando non è passato inosservato. La comunità scientifica si è subito attivata per verificare se quanto riportato fosse attendibile, e questo è un aspetto cruciale. In un contesto saturo di informazioni, dove distinguere il falso dal vero o dal verosimile è sempre più difficile, avere dei riferimenti affidabili per valutare la solidità di uno studio è fondamentale. Dimostra anche che la scienza non resta chiusa in una torre d’avorio: controlla, discute e, se necessario, corregge.

Un’analisi particolarmente accurata pubblicata su PubPeer  ha evidenziato come gli autori dello studio mirassero a somministrare ai ratti tre livelli “target” di esposizione giornaliera al glifosato, corrispondenti, come già indicato nel paragrafo precedente, all’ADI europea di 0,5 mg per chilo di peso corporeo, a 5 mg/kg e infine al NOAEL di 50 mg/kg, calibrando la concentrazione del principio attivo nell’acqua da bere sulla base di un consumo medio di 40 mL e di un peso medio di 400 g. Tuttavia, nei grafici relativi al peso e al consumo d’acqua, visibili già a partire dalla quinta settimana di vita, si nota chiaramente che i ratti più giovani, ancora ben al di sotto dei 400 g, continuano a bere quantità di acqua vicine a quelle stimate per gli adulti. Questo significa che, anziché ricevere esattamente i dosaggi “target”, i cuccioli assumono in realtà molto più glifosato, spesso oltre il doppio di quanto previsto per l’ADI, proprio nel momento in cui la loro vulnerabilità ai possibili effetti tossici è maggiore.

Colpisce poi il fatto che i pannelli che riportano l’effettiva assunzione giornaliera di glifosato inizino soltanto alla tredicesima settimana, escludendo dalla visualizzazione le prime dieci settimane successive allo svezzamento, quando il sovradosaggio è più pronunciato. In questo modo il lettore non ha modo di rendersi conto di quanto i ratti più giovani abbiano effettivamente superato i livelli di riferimento, né di valutare eventuali conseguenze sulla salute in questa fase critica dello sviluppo.

La mancanza di qualsiasi discussione nel testo centrale su questa esposizione eccessiva nei cuccioli rappresenta una lacuna significativa, perché proprio nei primi mesi di vita gli organismi mostrano una sensibilità maggiore a sostanze tossiche. Sarebbe stato opportuno non soltanto estendere i grafici dell’assunzione fin dalla quinta settimana, ma anche accompagnarli con un’analisi dedicata a quei dati, per capire se fenomeni di tossicità precoce possano essere correlati proprio al superamento dei dosaggi prefissati. In assenza di questa trasparenza, resta un interrogativo aperto sul reale profilo di sicurezza del glifosato nei soggetti in accrescimento.

Statistiche creative: quando un “aumento significativo” è solo rumore

Uno dei problemi più comuni negli studi tossicologici è quando si prendono in considerazione troppi parametri. In queste circostanze, prima o poi, qualcosa risulterà “statisticamente significativo”… ma per puro caso.

Lo studio ha esaminato tumori in:

  • fegato
  • pelle
  • tiroide
  • sistema nervoso
  • reni
  • mammelle
  • ovaie
  • pancreas
  • ghiandole surrenali
  • milza
  • osso
  • vescica

Statisticamente parlando, più confronti si fanno, più aumenta il rischio di falsi positivi: è il noto problema dei confronti multipli. E in questo caso non è stata applicata nessuna correzione (come Bonferroni o FDR), nonostante le decine di test effettuati.

Per esempio:

  • Un solo caso di carcinoma follicolare tiroideo (1,96%) viene presentato come “aumento significativo”, nonostante un’incidenza storica dello 0,09%.
  • Leucemie rarissime (0 casi nei controlli) diventano improvvisamente “frequenti” se appaiono in uno o due animali.

E proprio perché si lavora con numeri minuscoli (gruppi da 51 ratti), anche un singolo caso in più può far sembrare enorme un effetto che in realtà è solo rumore statistico.

Non a caso, un commentatore su PubPeer ha fatto notare che, nella versione pubblicata rispetto al preprint è stato aggiunto un caso di leucemia monocitica in un ratto femmina trattato con 50 mg/kg/die, assente nella versione preprint. Nessuna spiegazione è stata data per questo cambiamento. Ma in gruppi così piccoli, un solo caso in più può bastare a far emergere o sparire un “aumento significativo”. E la mancanza di trasparenza su come sia stato deciso questo aggiornamento rende ancora più difficile fidarsi delle conclusioni.

Statistiche fragili: come un’analisi più corretta fa crollare i risultati

Gli autori dello studio dicono di aver usato il test di Cochrane-Armitage per verificare se aumentando le dosi di glifosato aumentasse anche il numero di tumori nei ratti: insomma, per valutare se esistesse un trend “dose-risposta” significativo.

Fin qui, tutto regolare. Ma leggendo le osservazioni pubblicate su PubPeer emerge un problema serio: gli autori hanno usato la versione asintotica del test, che diventa poco affidabile quando si analizzano eventi rari – come accade quasi sempre negli studi di cancerogenicità a lungo termine, dove molti tumori osservati sono davvero pochi.

Chi ha commentato ha quindi rifatto i calcoli usando la versione esatta del test (disponibile grazie al software del DKFZ) e il risultato è stato sorprendente: i p-value, che nello studio originale erano inferiori a 0.05 (e quindi dichiarati “significativi”), sono saliti ben oltre 0.25, diventando del tutto non significativi.

In pratica: gli stessi dati, analizzati in modo più corretto, perdono completamente la significatività statistica.

E questo non è un dettaglio secondario: lo stesso errore potrebbe riguardare anche altre analisi statistiche e tabelle pubblicate, mettendo seriamente in discussione la solidità complessiva delle conclusioni dello studio.

Glifosato puro vs formulazioni commerciali: un confronto incompleto

Lo studio testa anche due erbicidi commerciali (Roundup Bioflow e RangerPro), sostenendo che siano più tossici del glifosato puro. Ma:

È un po’ come dire:

“La vodka è tossica!”
Senza specificare se il problema è l’alcol o l’acqua in essa contenuta.

Trasparenza e potenziali conflitti d’interesse

Gli autori dello studio dichiarano esplicitamente di non avere conflitti di interesse. Tuttavia, come segnalato su PubPeer, emergono diverse criticità. L’Istituto Ramazzini che ha condotto la ricerca riceve fondi da organizzazioni e soggetti che hanno preso pubblicamente posizione contro l’uso del glifosato. Tra questi finanziatori troviamo:

  1. la Heartland Health Research Alliance, già criticata da diverse fonti per sostenere ricerche orientate contro i pesticidi;
  2. l’Institute for Preventive Health, fondato da Henry Rowlands, che è anche l’ideatore della certificazione “Glyphosate Residue Free”;
  3. Coop Reno, una cooperativa italiana che promuove attivamente la riduzione dei pesticidi nei propri prodotti;
  4. Coopfond, che ha dichiarato pubblicamente il proprio sostegno alla ricerca contro il glifosato.

Tutti questi elementi non sono banali, perché vanno in direzione opposta alla dichiarazione “no competing interests” fornita dagli autori.

Dichiarare questi legami non significa necessariamente che i risultati siano falsati, ma consente ai lettori di valutare meglio la possibile influenza dei finanziatori.

IARC, hazard e risk: una distinzione fondamentale

Lo studio si richiama alla classificazione dello IARC, che nel 2015 ha definito il glifosato “probabile cancerogeno” (Gruppo 2A). Ma attenzione: l’IARC valuta l’hazard, non il rischio.

  • Hazard: “Il glifosato può causare il cancro in certe condizioni ideali”.
  • Risk: “Il glifosato causa il cancro nelle condizioni reali di esposizione?”

Lo IARC ha incluso nel gruppo 2A anche:

  • la carne rossa,
  • il lavoro da parrucchiere,
  • il turno di notte.

Le principali agenzie che valutano il rischio reale non hanno trovato evidenze sufficienti per considerare il glifosato cancerogeno:

Agenzia Conclusione Anno
EFSA (UE) Non cancerogeno 2023
EPA (USA) Non cancerogeno 2020
JMPR (FAO/OMS) Non cancerogeno 2016
IARC Probabile cancerogeno 2015

Conclusione: il glifosato non è innocente, ma nemmeno un mostro

Il nuovo studio del 2025 mostra che, se si cercano abbastanza tumori rari in tanti tessuti, qualcosa prima o poi emerge. Ma:

  • Le dosi utilizzate sono lontanissime dalla realtà umana, e persino più alte del previsto nei ratti giovani;
  • I risultati sono fragili, non replicati, e statisticamente poco robusti;
  • I meccanismi di azione non sono spiegati;
  • La trasparenza sui dati e sui conflitti di interesse è carente;
  • Le conclusioni si basano su metodi statistici che vanno messi in discussione.

Non si tratta di negazionismo scientifico ma di scetticismo informato, che è il cuore del metodo scientifico. Sebbene questo studio sollevi questioni interessanti, trarre conclusioni definitive su un legame causale tra glifosato e cancro basandosi su dati così fragili e dosi irrealistiche è prematuro. La scienza richiede prove solide, replicabili e trasparenti.

Per questo, le agenzie regolatorie continuano a considerare il glifosato sicuro se usato nei limiti stabiliti. Restiamo aperti a nuove evidenze, ma diffidiamo dei titoli allarmistici che spesso accompagnano studi con così tante ombre.

EDIT

A dimostrazione del fatto che il metodo scientifico si basa sull’autocorrezione, sia Enrico Bucci che io desideriamo ringraziare l’Ing. Dario Passafiume per essersi accorto di un errore che abbiamo commesso nell’interpretare i dati di PubPeer. La sostanza non cambia: cambiano solo i valori assoluti dei numeri che avevamo preso in considerazione. Il testo che abbiamo rieditato per effetto dell’errore di cui ci siamo accorti grazie all’ingegnere è il seguente:

Un’analisi particolarmente accurata pubblicata su PubPeer ha evidenziato una discrepanza rilevante: le figure riportate nello studio non si riferiscono alle dosi dichiarate (quelle indicate nel primo paragrafo), ma a dosi circa dieci volte superiori. In pratica, mentre gli autori affermano di aver usato 0.5, 5 e 50 mg/kg/die, i grafici mostrano dati ottenuti con 5, 50 e 500 mg/kg/die. Si tratta – come già evidenziato – di concentrazioni del tutto inconcepibili nella vita reale dove per arrivare all’assunzione di soli 0.5 mg/kg/die bisogna ingurgitare circa 70 kg di soia OGM al giorno, tutti i giorni.

Microplastiche, lavastoviglie e fake news: come orientarsi tra dati e paure

Già in un mio precedente articolo avevo affrontato il tema delle microplastiche, cercando di distinguere tra rischi reali, ipotesi ancora in fase di studio e allarmismi infondati. Se volete rinfrescarvi la memoria o approfondire meglio il quadro generale, potete leggerlo qui:
? Microplastiche: i rischi che conosciamo, le sorprese che non ti aspetti

In questa sede voglio, invece, portare alla vostra attenzione il pericolo della divulgazione basata sull’allarmismo.

33 milioni di micro- e nanoplastiche? Cosa c’è davvero dietro le notizie virali

Negli ultimi giorni si è diffusa online una notizia allarmante: le lavastoviglie sarebbero una fonte importante di microplastiche, con milioni di particelle rilasciate ad ogni ciclo di lavaggio. Su siti come HDBlog (vedi screenshot qui sotto) si parla addirittura di 33 milioni di nanoplastiche generate da un solo ciclo di lavaggio, dipingendo un quadro piuttosto drammatico per l’ambiente domestico e urbano.

Immagine presa dal sito HDBlog

Tuttavia, analizzando con attenzione lo studio scientifico originale su cui si basa questa notizia, emergono diversi aspetti importanti e ben diversi da quelli riportati in modo semplicistico e sensazionalistico da molti siti di “pseudo divulgazione”.

Innanzitutto, lo studio mostra che sì, le lavastoviglie rilasciano micro- e nanoplastiche, ma la quantità è estremamente bassa: meno di 6 milligrammi di plastica all’anno per persona, cioè meno del peso di un chicco di riso. Paragonare questo dato numerico alla dichiarazione di milioni di particelle è fuorviante, perché il numero di particelle non dice nulla sulla massa o sull’impatto reale, che rimane trascurabile su base individuale.

Inoltre, la tipologia di plastica e la dimensione delle particelle variano in base al tipo di articolo lavato (polietilene, polipropilene, nylon, ecc.), e i materiali più “vecchi” o usurati rilasciano più frammenti. Lo studio suggerisce quindi che sia importante approfondire come l’invecchiamento della plastica influisca sulla generazione di microplastiche, cosa che non viene mai menzionata nei titoli allarmistici.

Dal punto di vista ambientale, sebbene i sistemi di trattamento delle acque reflue trattengano circa il 95% delle microplastiche, la quantità complessiva globale rilasciata nell’ambiente sta crescendo con l’aumento dell’uso della plastica. Tuttavia, le lavastoviglie domestiche rappresentano solo una piccola fonte rispetto ad altre.

Un articolo più attendibile e chiaro sull’argomento, che riporta fedelmente i risultati della ricerca, è quello di Phys.org, sito scientifico noto per l’accuratezza e la qualità della divulgazione. Vi consiglio di leggere anche lì per avere un quadro completo e serio della situazione.

Come riconoscere le fake news ambientali?

Molto spesso mi chiedono: “Se non sono esperto, come faccio a capire se una notizia è attendibile”? La risposta non è semplice, ma c’è una regola d’oro: non fermatevi mai alla prima fonte che conferma ciò che già pensate o che alimenta le vostre paure o convinzioni. Spesso chi cerca notizie sensazionalistiche cade nel cosiddetto cherry picking, ovvero sceglie solo quei dati o informazioni che supportano la propria idea, ignorando tutto il resto. Questo atteggiamento è comune a chi si sente “rivoluzionario” o “antisistema”, ma in realtà non ha le competenze scientifiche per comprendere a fondo la questione.

Per evitare di cadere in queste trappole, è fondamentale confrontare le informazioni con fonti diverse e affidabili, preferendo siti di divulgazione scientifica consolidata, che spiegano dati, metodi e limiti delle ricerche. Ma come riconoscere un sito davvero affidabile? Ecco alcuni indicatori:

  • Chiarezza e trasparenza delle fonti: i siti seri riportano sempre riferimenti precisi agli studi scientifici originali o a istituti riconosciuti, spesso con link diretti alle pubblicazioni o informazioni sugli autori.

  • Presentazione equilibrata dei dati: non si limitano a enfatizzare solo risultati sensazionalistici, ma spiegano anche i limiti delle ricerche e le diverse interpretazioni possibili.

  • Assenza di titoli esagerati o clickbait: i titoli sono informativi, senza allarmismi o esagerazioni mirate solo a catturare l’attenzione.

  • Autori qualificati e trasparenza: i contenuti sono scritti o revisionati da esperti o giornalisti scientifici con esperienza e il sito fornisce informazioni su chi li produce.

  • Aggiornamenti regolari e dialogo con i lettori: i siti affidabili aggiornano le informazioni con nuovi studi, correggono eventuali errori e talvolta rispondono alle domande o ai commenti.

  • Scopo divulgativo ed educativo: l’obiettivo è informare e spiegare con rigore, non vendere prodotti o promuovere agende ideologiche.

Le testate generaliste o i siti di pseudo divulgazione spesso puntano più al click facile e all’effetto emotivo che a un’informazione rigorosa e bilanciata. Il risultato è un circolo vizioso di paure ingiustificate, confusione e disinformazione, che non aiuta né il pubblico né la causa ambientale che vogliamo davvero sostenere.

Conclusioni

La lotta all’inquinamento da plastica passa innanzitutto dal controllo e dalla prevenzione all’origine, riducendo l’uso di plastica, migliorando il riciclo e introducendo filtri efficaci nelle apparecchiature domestiche come lavatrici e lavastoviglie. Non facciamoci ingannare da titoli e numeri sensazionalistici: l’informazione corretta è il primo passo per agire con consapevolezza.

Una buccia vi sfamerà

Dalla fame di guerra al valore nascosto negli scarti: viaggio scientifico e umano nella buccia di patata.

Mi sto avvicinando ai sessant’anni. È più il tempo che ho vissuto che quello che ancora mi resta e, con la vecchiaia, certe volte vengo sommerso dai ricordi di quando ero piccolo. Entrambi i miei genitori hanno vissuto la guerra. Mia madre come bambina. Nata nel 1938, aveva circa un anno quando Hitler invase la Polonia e circa due quando l’Italia entrò in guerra. Ora non c’è più. È scomparsa nel 2016 per le conseguenze di un tumore ai polmoni. Ma mi ricordo che di tanto in tanto le venivano dei flash grazie ai quali ricordava di quando i suoi fratelli (lei era l’ultima di quattro; ben 22 anni la separavano dal fratello più grande) la prendevano in braccio cercando di non terrorizzarla per accompagnarla nei rifugi anti aerei. Un po’ come nel film “La vita è bella” che ha valso a Roberto Benigni il premio Oscar.

Mio padre, invece, di sedici anni più anziano di mia madre, ha passato l’intera guerra come POW (prisoner of war) in Africa. Si era trasferito in Etiopia per lavorare assieme agli zii quando aveva circa 16 anni e si trovava ad Adis Abeba come impiegato civile quando gli inglesi sconfissero gli italiani. Fu imprigionato per cinque anni in vari campi di prigionia sparsi per il continente africano e ha sempre raccontato degli stenti che ha dovuto sopportare per poter sopravvivere: dagli incontri di pugilato contro pugili professionisti per poter racimolare qualche alimento per tenersi in vita, alle fosse scavate nella sabbia nelle quali si seppelliva per sopravvivere al caldo dei deserti africani. Anche mio padre non c’è più. È scomparso nel 1998 ed anche lui per le conseguenze di tumori ai polmoni.

Non sto scrivendo questa storia per intenerire, ma solo per creare il contesto di quanto mi accingo a raccontare.

Sia dai racconti dei miei genitori, sia da quelli che faceva mia nonna, la madre di mio padre – l’unica nonna che ho conosciuto, ho sempre saputo che la guerra è una brutta bestia. Lo sanno benissimo tutti quelli che ancora oggi sono sotto i bombardamenti: il cibo scarseggia, la fame, quella vera, non quella da “buco allo stomaco” di noi viziati che le guerre non le abbiamo mai vissute e viviamo, sostanzialmente, nell’opulenza, si fa sentire. E quando la fame si fa sentire si mangia qualunque cosa, altro che “questo non mi piace” o “ho una lieve intolleranza al glutine”. Quando la fame avanza, ci mangeremmo qualsiasi cosa. Ed è quello che accadeva durante la guerra: anche quelli che per noi oggi sono scarti, venivano usati per alimentarsi. E sapete quali scarti venivano usati, tra gli altri? Le bucce di patata.

Quando me lo raccontavano non riuscivo a immaginarlo. Le bucce? Quelle che si buttano via senza pensarci? Eppure, col tempo, e forse anche grazie al mio lavoro, ho imparato che il racconto di mia nonna e dei miei genitori era molto più che una memoria di sopravvivenza: era un piccolo spaccato di biochimica popolare.

Le bucce non sono rifiuti

Dal punto di vista nutrizionale, le bucce di patata non sono uno scarto. Al contrario: rappresentano una parte preziosa del tubero. Contengono una quantità significativa di fibre alimentari, vitamine e sali minerali, spesso superiore a quella della polpa stessa. In particolare, la vitamina C, le vitamine del gruppo B e il potassio si concentrano proprio vicino alla superficie esterna. Inoltre, la buccia ospita una varietà di polifenoli, composti antiossidanti come l’acido clorogenico, che oggi studiamo per il loro ruolo nella protezione cellulare.

Dal punto di vista energetico, le bucce non sono ricche quanto la polpa amidacea, ma in tempi di carestia potevano comunque offrire un contributo calorico importante. Se bollite o fritte, conservavano buona parte dei micronutrienti ed erano capaci di saziare. Non è un caso, infatti, che in molte parti d’Europa, dalla Germania alla Russia, le bucce siano state cucinate, essiccate o addirittura ridotte in farina nei periodi più difficili.

Un equilibrio delicato

C’è però un lato oscuro: le bucce di patata contengono anche glicoalcaloidi naturali, come la solanina e la chaconina, che le piante producono come difesa contro funghi e insetti. In piccole dosi non rappresentano un pericolo, ma in alte concentrazioni possono causare disturbi gastrointestinali e neurologici. Le bucce verdi, germogliate o esposte alla luce sono le più ricche di solanina, e vanno evitate. Ma le bucce sane, ben cotte, erano, e sono ancora, sicure, specie se trattate con il buon senso tramandato più che con la chimica.

Una lezione dal passato

Oggi, in un mondo che produce più rifiuti alimentari di quanto possa giustificare, quella vecchia storia di bucce mangiate per fame mi torna alla mente con una sfumatura diversa. Non solo come testimonianza di resilienza, ma come invito a riconsiderare il valore del cibo in ogni sua parte. In laboratorio, so bene quanto lavoro ci sia dietro l’estrazione di un antiossidante da una buccia. Ma forse il sapere contadino, quello di mia nonna o dei miei genitori, aveva già intuito tutto: che in una buccia c’è più nutrimento di quanto sembri, e che a volte, per sopravvivere bisogna imparare a guardare il cibo con occhi diversi.

E così, mentre il ricordo di quelle storie si fa ogni giorno più tenue, mi piace pensare che un pezzetto di chimica, di biologia e di dignità sia rimasto impigliato in quella buccia sottile. E che valga ancora la pena raccontarlo.

Riferimenti

Potato Skin: Nutrition Facts and Calories for 100 Grams

A comparative study on proximate and mineral composition of coloured potato peel and flesh

Composition of phenolic compounds and glycoalkaloids alpha-solanine and alpha-chaconine during commercial potato processing

The Best & Edible Fruit and Vegetable Skins You Need to Try

Risk assessment of glycoalkaloids in feed and food, in particular in potatoes and potato‐derived products

 

Parabrezza puliti e insetti scomparsi: ma davvero davvero?

Nel 2020, durante la pandemia, pubblicai una breve nota sul cosiddetto “windscreen phenomenon“. Per chi volesse rileggerla, ecco il link:

Sugli insetti e sui parabrezza – www.pellegrinoconte.com

Negli ultimi anni, questa teoria ha continuato a circolare. L’idea che il numero di insetti stia diminuendo drasticamente perché i parabrezza delle auto si sporcano meno rispetto al passato è oggi più attendibile di quanto non lo fosse cinque anni fa?

Osservazioni aneddotiche vs. evidenze scientifiche

È importante distinguere tra osservazioni personali e dati scientifici. Il fatto che oggi i parabrezza sembrino più puliti non costituisce una prova concreta del declino globale degli insetti. Le variabili in gioco sono molteplici: cambiamenti nei modelli di traffico, aerodinamica delle auto moderne, variazioni climatiche locali e stagionali, per citarne alcune.

Studi recenti sul declino degli insetti

Diversi studi scientifici hanno documentato un effettivo declino delle popolazioni di insetti:

Il problema del “windscreen phenomenon” come indicatore

Utilizzare il numero di insetti sul parabrezza come misura del declino globale presenta diverse problematiche:

  • Variabilità delle condizioni di guida: percorsi, velocità, condizioni climatiche e tipologie di veicoli influenzano significativamente il numero di insetti che colpiscono il parabrezza.
  • Effetti di bordo e distribuzione degli insetti: le strade creano discontinuità nel paesaggio, influenzando la distribuzione degli insetti e rendendo difficile generalizzare le osservazioni.
  • Bias di campionamento: le osservazioni sono spesso limitate a determinate aree e periodi, non rappresentando accuratamente la situazione globale.

Conclusione

Come scrivevo già nel 2020, anche oggi è necessario ribadire che, sebbene il declino degli insetti sia un fenomeno reale ed allarmante, le conclusioni devono basarsi su studi scientifici solidi, non su impressioni personali. Il “windscreen phenomenon” può forse stimolare la curiosità o fornire uno spunto iniziale, ma non rappresenta in alcun modo una prova scientifica.

L’aneddotica non è probante e il “lo dicono tutti” non è – né sarà mai – un metodo scientificamente valido.

Come disse un celebre divulgatore: la scienza non si fa per alzata di mano.

La democrazia scientifica non funziona come quella politica: non tutte le opinioni hanno lo stesso peso. E, a ben vedere, nemmeno in politica tutte le opinioni sono uguali – quelle che negano i diritti fondamentali dell’uomo non possono e non devono essere considerate accettabili.

In ambito scientifico, il confronto è possibile solo tra persone con un background adeguato, perché solo così si può parlare la stessa lingua: quella del metodo.

Share