Il grande mescolamento: il ruolo vitale degli oceani e le conseguenze del riscaldamento globale

Per capire davvero cosa significhi “riscaldamento globale”, dobbiamo prima capire come funziona il sistema che, da sempre, modera il clima della Terra: gli oceani. Sono loro, infatti, il gigantesco ingranaggio nascosto che regola la distribuzione del calore, l’equilibrio dell’umidità e la circolazione dell’energia termica sul nostro pianeta.

Le acque oceaniche non stanno mai ferme. Si muovono in superficie, spinte dai venti; si muovono in profondità, guidate da variazioni di temperatura e salinità. In questo continuo rimescolamento – silenzioso, ma potentissimo – si nasconde il segreto della nostra stabilità climatica. Ogni corrente trasporta calore dai tropici verso i poli e viceversa, mitiga le temperature, distribuisce nutrienti e sostiene la vita marina.

È un equilibrio delicato, raffinato, essenziale. E proprio per questo vulnerabile.

Se le acque si muovono meno, se non si mescolano più come dovrebbero, l’intero sistema comincia a rallentare, a scompensarsi. Il clima si fa più estremo, le piogge più irregolari, le stagioni meno distinguibili.

Ecco perché non possiamo davvero comprendere il cambiamento climatico senza prima esplorare i meccanismi che governano il movimento delle acque nei grandi corpi idrici: oceani, mari, fiumi, laghi.

A partire da qui, cercherò di spiegare – con l’aiuto della fisica e della chimica – come funzionano i movimenti orizzontali e verticali delle acque e perché sono così importanti per la regolazione del clima. Solo dopo, potremo affrontare il nodo centrale: cosa succede quando, a causa dell’aumento delle temperature globali, questi meccanismi si inceppano.

Le grandi correnti: il vento comanda

Partiamo dalla superficie. Le acque degli oceani sono spinte dai venti, ma non in modo casuale. Intorno all’equatore, ad esempio, gli Alisei soffiano da est verso ovest e trascinano con sé le acque superficiali. Alle latitudini medie (tra 30° e 60°), i venti occidentali spingono invece le correnti verso est.

Quando queste correnti incontrano i continenti, vengono deviate. Ed è qui che entra in gioco la forza di Coriolis: un effetto legato alla rotazione terrestre che curva i flussi d’acqua verso destra nell’emisfero nord e verso sinistra in quello sud. Il risultato? Enormi vortici oceanici che formano veri e propri “nastri trasportatori” d’acqua calda e fredda.

Uno degli esempi più noti è la Corrente del Golfo, che trasporta acque tropicali lungo la costa orientale del Nord America fino all’Europa occidentale, regalando inverni miti a paesi come il Regno Unito e la Norvegia.

Come illustrato in Figura 1, le acque superficiali degli oceani (fino a circa 100 metri di profondità) si muovono orizzontalmente, spinte soprattutto dai venti. La presenza dei continenti ne modifica il percorso, generando ampie correnti che si piegano e si avvolgono in vortici permanenti, visibili in tutti i principali bacini oceanici.

Figura 1. Rappresentazione delle principali correnti oceaniche superficiali. A causa della presenza dei continenti, le correnti deviano dal loro percorso originale, generando grandi vortici oceanici. Immagine scaricata liberamente da: https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Le correnti profonde: il ruolo del sale e della temperatura

Ma c’è un altro motore, più lento, silenzioso e profondo: il rimescolamento verticale. È un processo meno visibile rispetto alle correnti superficiali, ma non meno importante. In alcune regioni del pianeta, come le zone tropicali aride o le aree polari, l’acqua in superficie subisce trasformazioni che ne modificano profondamente la densità.

Nelle aree calde, per esempio, l’evaporazione intensa concentra i sali nell’acqua residua. Più sale significa maggiore densità: e un’acqua più densa tende naturalmente ad affondare verso gli strati profondi dell’oceano.
Al contrario, in altre zone l’acqua può essere diluita da piogge abbondanti o dallo scioglimento dei ghiacci, diventando più dolce e meno densa, e quindi destinata a risalire.

Anche la temperatura gioca un ruolo cruciale. Quando l’acqua marina si raffredda intensamente – come accade ai poli – tende a ghiacciarsi. Durante il congelamento, però, il ghiaccio espelle i sali: ciò che resta intorno ai blocchi di ghiaccio è un’acqua estremamente salina e fredda. Questo liquido denso sprofonda verso il fondo oceanico, innescando così un flusso verticale che alimenta la circolazione delle acque a grandi profondità.

Questo meccanismo prende il nome di circolazione termoalina: un termine che unisce l’effetto della temperatura (“termo”) a quello del sale (“alina”, dal greco halos). È grazie a questa lenta ma continua danza tra acque fredde, salate e profonde, e acque più calde e superficiali, che l’oceano riesce a rimescolarsi in profondità, mantenendo in equilibrio il trasporto di calore, nutrienti e anidride carbonica tra gli strati più esterni e quelli abissali.

Il grande nastro trasportatore globale

Combinando i movimenti orizzontali delle acque – spinti dai venti – con quelli verticali – governati da differenze di temperatura e salinità – si ottiene un colossale circuito planetario che i climatologi chiamano Global Conveyor Belt, ovvero nastro trasportatore oceanico globale.

È un sistema mastodontico, profondo e lentissimo. Le acque che oggi affondano nel Nord Atlantico, gelide e ricche di sale, possono impiegare fino a mille anni per completare il loro viaggio nei fondali oceanici e riaffiorare in superficie dall’altra parte del mondo. Una corrente profonda che scorre a pochi centimetri al secondo, eppure fondamentale per la vita sul pianeta.

Quello che si viene a creare è un ciclo continuo: le correnti calde e superficiali (come la Corrente del Golfo) trasportano calore dai tropici verso i poli; lì, l’acqua si raffredda e sprofonda, diventando corrente fredda e profonda che scivola silenziosamente nei meandri degli oceani, fino a riemergere in zone tropicali o subtropicali, dove riprende il viaggio in superficie.
Questo meccanismo globale è illustrato nella Figura 2.

Figura 2. Rappresentazione semplificata della circolazione termoalina, nota anche come Global Conveyor Belt. Le correnti calde e superficiali (in rosso) scorrono verso le regioni polari, dove l’acqua raffreddata e più salina sprofonda, originando correnti fredde profonde (in blu) che si muovono attraverso gli oceani fino a riemergere nelle regioni tropicali, completando il ciclo. Immagine liberamente disponibile su https://www.freepik.com/free-photos-vectors/ocean-currents-map.

Quando il nastro si inceppa

Tutto questo sistema – perfetto, lento, ma vitale – può essere compromesso. Il riscaldamento globale sta alterando proprio quei meccanismi che regolano la circolazione termoalina, interferendo con la densità delle acque superficiali nelle zone chiave del pianeta.

Nelle regioni dove si formano le acque profonde, come il Nord Atlantico, il processo dipende dalla capacità dell’acqua superficiale di diventare abbastanza densa da affondare. Ma con l’aumento delle temperature globali, entrano in gioco due fattori destabilizzanti:

  • lo scioglimento dei ghiacci artici immette enormi quantità di acqua dolce nei mari;
  • l’intensificarsi delle precipitazioni diluisce ulteriormente le acque superficiali.

Il risultato? L’acqua resta più dolce, più calda, e quindi meno densa. Non affonda più come dovrebbe. E se non affonda, il motore si spegne.

Questo porta a un fenomeno ben noto in oceanografia: la stratificazione delle acque. Gli strati superficiali diventano sempre più stabili, separati da quelli profondi da un gradiente di densità così marcato da impedire ogni rimescolamento. È come se l’oceano fosse “bloccato a strati”, con uno strato leggero e caldo che galleggia sopra uno freddo e denso, ma senza più scambi attivi tra i due (Figura 3).

Le conseguenze sono profonde:

  • Il nastro trasportatore globale rallenta o si indebolisce, fino al rischio – non solo teorico – di un blocco parziale o totale.
  • Il calore non viene più redistribuito: i tropici si surriscaldano, le regioni temperate (come l’Europa nord-occidentale) rischiano un paradossale raffreddamento.
  • L’acqua profonda non riceve più ossigeno né nutrienti, danneggiando la vita marina.
  • In superficie, mancano i nutrienti che sostengono il plancton: cala la produttività biologica degli oceani.
  • E soprattutto: l’oceano assorbe meno anidride carbonica per due motivi. Da un lato, l’aumento della temperatura riduce la solubilità della CO₂ in acqua; dall’altro, la stratificazione blocca il rimescolamento, impedendo il trasporto della CO₂ in profondità. Il risultato è che più CO₂ resta nell’atmosfera, accelerando ulteriormente il riscaldamento globale.

È una spirale pericolosa, un meccanismo di retroazione in cui l’effetto rafforza la causa: più caldo → più stratificazione → meno rimescolamento → meno assorbimento di CO₂ → ancora più caldo.
Un classico cane che si morde la coda, ma su scala planetaria.

Figura 3. Meccanismo della stratificazione degli oceani. Il riscaldamento globale, lo scioglimento dei ghiacci e l’aumento delle precipitazioni rendono l’acqua superficiale più calda e dolce, quindi meno densa. Questo riduce il rimescolamento verticale con gli strati profondi, limitando lo scambio di calore, nutrienti e la capacità dell’oceano di assorbire CO₂.

Conclusioni

Gli oceani non sono solo grandi riserve d’acqua: sono ingranaggi dinamici e complessi che regolano il clima terrestre, trasportano calore, rimescolano nutrienti e assorbono anidride carbonica. La loro capacità di farlo dipende dal delicato equilibrio tra venti, salinità e temperatura. Quando questo equilibrio si spezza — a causa dell’aumento delle temperature globali — il sistema si inceppa: le acque si stratificano, il rimescolamento si blocca, la circolazione rallenta.

Le conseguenze, anche se lente a manifestarsi, sono profonde: clima più estremo, ecosistemi marini impoveriti e maggiore accumulo di CO₂ in atmosfera. È una crisi silenziosa, ma già in atto.
Per capire e affrontare il cambiamento climatico, non basta guardare al cielo: dobbiamo guardare al mare, e comprendere come funziona — e come sta cambiando — il grande mescolamento degli oceani.

Questo articolo è parte di un percorso dedicato al riscaldamento climatico.
Nel primo appuntamento ci siamo chiesti perché, in un mondo sempre più caldo, possano verificarsi fenomeni estremi come piogge torrenziali e temporali improvvisi (leggi qui).
Oggi abbiamo esplorato il ruolo nascosto ma fondamentale degli oceani nella regolazione del clima.

Nel prossimo articolo parleremo invece di come l’attività umana stia alterando questi equilibri, e perché il riscaldamento globale non può più essere considerato un semplice fenomeno naturale.

 

Caldo globale, temporali locali: l’apparente paradosso

Introduzione

Negli ultimi anni, gli eventi meteorologici estremi sono diventati sempre più frequenti, sia in Italia che nel resto del mondo.
Una mappa interattiva dell’ISPRA, consultabile online, mostra chiaramente dove questi eventi si sono verificati in Italia tra il 2020 e il 2024. Si osservano piogge torrenziali, grandinate eccezionali, ondate di calore anomale e prolungate. Tutti segnali di un sistema climatico sempre più instabile.

Come conseguenza di queste anomalie, è sempre più comune imbattersi – soprattutto sui social – in discussioni o thread in cui si afferma che fenomeni come le alluvioni, seguite da bruschi cali di temperatura, smentirebbero l’esistenza del riscaldamento globale.
Una frase ricorrente è:

“Altro che riscaldamento globale: ieri grandinava e oggi ci sono 18 gradi!”

Chi vive in zone come Palermo – dove, negli ultimi anni, si sono registrati picchi termici estremi e livelli di umidità superiori all’80%, anche in pieno giorno – tende invece a riconoscere, in modo molto concreto, la realtà del cambiamento climatico.

“Orpo… che caldo. Veramente stiamo andando verso qualcosa che non abbiamo mai vissuto.”

Ma come si concilia tutto questo?

Come può il riscaldamento globale provocare temporali violenti, grandinate e persino abbassamenti improvvisi della temperatura?

Dobbiamo innanzitutto ricordare che la logica scientifica è controintuitiva. Non possiamo applicare al metodo scientifico la logica che usiamo tutti i giorni per collegare ciò che vediamo con ciò che pensiamo sia vero: la realtà fisica spesso sorprende e non si lascia interpretare con impressioni o sensazioni.

Sulla base di queste premesse, chiediamoci cosa accade sulla superficie terrestre quando la temperatura aumenta di un solo grado Celsius. Un grado può sembrare poco. Se tocchiamo una pentola a 70 °C proviamo lo stesso bruciore che a 71 °C. E non distinguiamo tra il freddo di 0 °C e quello di -1 °C.

Ma il pianeta non è il nostro palmo, né il nostro naso.

Nel sistema Terra, un solo grado può fare una differenza gigantesca: significa più energia, più evaporazione, più acqua nell’atmosfera. E più acqua nell’aria significa, potenzialmente, più pioggia, più violenza, più squilibrio.

Per capire quanto sia concreta questa affermazione, facciamo un semplice calcolo: stimiamo quanta acqua in più evapora dagli oceani quando la loro temperatura superficiale sale di un solo grado come, per esempio, da 25 °C a 26 °C.

Effetti della temperatura sull’equilibrio H2Oliquido = H2Ovapore

Per semplicità, consideriamo solo una porzione di oceano estesa per 100 milioni di metri quadrati (pari a 100 km²) e limitiamoci al primo metro d’aria immediatamente sovrastante. Vogliamo capire quanta acqua in più finisce nell’aria subito sopra l’oceano quando la sua temperatura sale di un solo grado, da 25 °C a 26 °C.

  1. L’equazione di Antoine

Per stimare la pressione di vapore dell’acqua alle due temperature, usiamo la formula empirica di Antoine, valida tra 1 e 100 °C:

log₁₀(P) = A − B / (C + T)

dove:

  • P è la pressione di vapore in mmHg,
  • T è la temperatura in gradi Celsius,
  • A, B, C sono coefficienti specifici per ciascuna sostanza (ad esempio, acqua, etanolo, acetone…) e validi solo entro certi intervalli di temperatura. Nel caso specifico dell’acqua: A = 8.07131; B = 1730.63; C = 233.426 (valori specifici per l’acqua in questo intervallo). Il riferimento per i valori numerici di A, B e C è qui.

Convertiamo poi la pressione in Pascal (1 mmHg = 133.322 Pa).

  1. I risultati

Applicando i valori:

  • a 25 °C si ottiene P ≈ 23.76 mmHg, cioè circa 3158 Pa;
  • a 26 °C si ottiene P ≈ 25.13 mmHg, cioè circa 3351 Pa.
  1. Calcolo della densità del vapore

Convertiamo ora la pressione parziale in densità di vapore acqueo (ρ), usando l’equazione dei gas ideali:

ρ = (P × M) / (R × T)

dove:

  • P è la pressione in pascal,
  • M è la massa molare dell’acqua (18.015 g/mol),
  • R è la costante dei gas (8.314 J/mol·K),
  • T è la temperatura assoluta in Kelvin.

Calcolando:

  • a 25 °C (298.15 K) si ottiene ρ ≈ 0.02295 kg/m³;
  • a 26 °C (299.15 K) si ottiene ρ ≈ 0.02431 kg/m³.
  1. L’aumento netto di vapore

La differenza di densità è:

0.02431 − 0.02295 = 0.00136 kg/m³

Moltiplichiamo per il volume d’aria (100 000 000 m³):

0.00136 × 100 000 000 = 136.000 kg

In altre parole, un aumento di temperatura di 1 °C (da 25 a 26 °C) genera 136 tonnellate di vapore in più, solo su una superficie di 100 km² e solo nello strato d’aria immediatamente sopra l’oceano.

E se fosse tutto l’Atlantico?

Se estendiamo il calcolo all’intera superficie dell’Oceano Atlantico – circa 116 milioni di km² – otteniamo:

157 800 000 000 kg, ovvero 158 milioni di tonnellate di vapore acqueo in più.

E questo, lo ripeto, solo nello strato d’aria immediatamente sopra la superficie, per un singolo grado in più.

Ma quei numeri non restano sulla carta. Entrano in circolo nell’atmosfera, e da lì comincia il loro impatto reale.

Dall’oceano alla pioggia: il viaggio del vapore

Ma cosa succede a tutta quest’acqua una volta entrata in atmosfera?

Viene trasportata dalle correnti. Quando incontra masse d’aria più fredde, condensa formando nubi e poi pioggia. Se la quantità di vapore è anomala, lo saranno anche le precipitazioni: brevi, violente, improvvise.

Inoltre, il vapore acqueo è attivo nell’infrarosso: è un gas serra molto più potente della CO₂, anche se molto più effimero. In climatologia si parla di feedback positivo: l’aumento della temperatura fa evaporare più acqua → il vapore trattiene più calore → aumenta ancora la temperatura → e così via.

Quella pioggia non è “contro” il riscaldamento: è il riscaldamento

Piogge torrenziali, grandinate e cali locali della temperatura non smentiscono il riscaldamento globale. Al contrario, ne sono una conseguenza. Il sistema Terra si scalda in media, ma localmente può produrre raffreddamenti temporanei proprio in risposta a squilibri energetici più ampi.

Conclusioni

Il calcolo che ho presentato è, ovviamente, una semplificazione. Non tiene conto del vento, della turbolenza, della salinità, né della reale dinamica verticale dell’atmosfera. Non pretende di descrivere con esattezza tutto ciò che accade nell’interazione tra oceano e cielo. Ma ha un obiettivo chiaro: rendere visibile, con i numeri, una verità che l’intuizione fatica a cogliere.

Perché la logica scientifica non coincide con il senso comune.

Come ho già scritto, nel nostro vissuto quotidiano, un solo grado in più non è nulla. Non percepiamo differenze tra 0 °C e -1 °C, tra 70 °C e 71 °C. Ma il sistema Terra non funziona secondo ciò che sentiamo sulla pelle: funziona secondo leggi fisiche. E in fisica, un solo grado può significare miliardi di tonnellate d’acqua in più nell’atmosfera. Significa più energia, più instabilità, più violenza meteorologica.

Paradossalmente, quello che percepiamo come una smentita del riscaldamento globale – la grandine, il temporale, il crollo improvviso delle temperature – ne è invece una manifestazione diretta.

Il clima risponde con intensità e disordine proprio perché è fuori equilibrio. E lo è, in parte, per colpa di quell’apparente “piccolo” grado in più.

La scienza ci dà gli strumenti per misurare, per capire, per anticipare.

Sta a noi scegliere se vogliamo continuare a confondere il temporale con una tregua, o iniziare a leggere in quelle piogge il segnale di un sistema che sta cambiando – e lo sta facendo sotto i nostri occhi.

Quella pioggia che ti ha fatto dire “ma quale riscaldamento globale?” è esattamente il motivo per cui dovremmo iniziare a preoccuparci.

Tricochimica: un viaggio tra bellezza, scienza e indagini

Introduzione

Che cosa possono raccontarci i nostri capelli? Molto più di quanto immaginiamo. Non sono soltanto un segno di identità o di stile personale, ma vere e proprie architetture biologiche capaci di custodire informazioni preziose: sulla nostra salute, sulle sostanze a cui siamo stati esposti e persino sulle tracce lasciate da trattamenti cosmetici.

È proprio per raccontare questa dimensione scientifica, spesso trascurata, che voglio parlare di tricochimica: uno studio chimico del capello in tutti i suoi aspetti, dall’estetica alla tossicologia e fino all’analisi forense.

Il termine tricochimica non è nuovo: è stato proposto già anni fa dal collega Lucio Campanella, che lo ha usato per descrivere la chimica applicata ai capelli. Riprendo volentieri questo nome, perché lo trovo perfetto per raccontare – in modo serio ma accessibile – i tanti aspetti che uniscono bellezza, scienza e indagini.

La chimica, infatti, non è una disciplina astratta. È uno strumento concreto per capire fenomeni quotidiani. Capire come funzionano le tinture, le permanenti o i trattamenti liscianti significa comprendere reazioni chimiche precise. Allo stesso modo, analizzare i capelli per individuare droghe o metalli pesanti richiede metodiche chimico-analitiche raffinate, fondamentali in medicina legale e nelle indagini forensi.

In questo articolo proverò a esplorare questo campo affascinante e multidisciplinare. Vedremo come sono fatti i capelli, quali trasformazioni chimiche possono subire e come la chimica ci aiuta a leggerne la storia. Un viaggio che unisce bellezza e scienza, con uno sguardo attento anche alle implicazioni sociali ed etiche di queste conoscenze.

Il significato evoluzionistico dei capelli

Per affrontare la chimica dei capelli in modo completo è utile partire da una domanda più profonda: perché l’essere umano ha ancora i capelli sulla testa? A differenza della maggior parte dei mammiferi, che conservano un pelame diffuso sul corpo, la nostra specie si caratterizza per una pelle glabra salvo alcune aree strategiche, come il cuoio capelluto.

Le ipotesi evolutive più accreditate interpretano i capelli come una reliquia evolutiva che ha progressivamente perso molte delle funzioni originarie di isolamento termico. Tuttavia, la loro conservazione sul cranio potrebbe aver offerto vantaggi adattativi. Un ruolo plausibile è la protezione dal surriscaldamento diretto, agendo da schermo contro la radiazione solare intensa, specialmente in climi aperti e soleggiati. Allo stesso tempo, il cuoio capelluto riccamente vascolarizzato favorisce la dispersione di calore in eccesso. La distribuzione e la densità dei capelli umani sono quindi il risultato di una pressione selettiva che ha equilibrato protezione e termoregolazione.

Inoltre, il capello ha mantenuto importanti valenze sociali e sessuali. Il colore, la forma e la consistenza dei capelli variano tra individui e popolazioni, diventando segnali di riconoscimento, età, salute e persino desiderabilità sessuale. Queste caratteristiche hanno stimolato la selezione sessuale e culturale, contribuendo a fare del capello un elemento centrale dell’identità personale.

A conferma della sua rilevanza evolutiva, studi recenti hanno identificato correlazioni genetiche di fine scala con la morfologia del capello, evidenziando la selezione naturale e la divergenza adattativa in diverse popolazioni umane.

Comprendere queste dimensioni evolutive non è solo una curiosità: ci ricorda che la chimica del capello studia un tessuto vivo di storia biologica e culturale. Anche la tricochimica si deve confrontare con questa eredità evolutiva, che plasma le caratteristiche fisiche e chimiche della fibra capillare così come le funzioni sociali che ancora oggi attribuiamo ai nostri capelli.

Nascita e crescita del capello: la biologia del follicolo pilifero

Per comprendere davvero la chimica del capello – la tricochimica – è fondamentale partire dalla sua biologia. Il capello non è soltanto la fibra che vediamo spuntare dalla cute, ma il risultato di un processo di crescita complesso che avviene all’interno del follicolo pilifero, una struttura specializzata immersa nella pelle.

Il follicolo pilifero è una piccola tasca di epitelio che avvolge la parte viva del capello e ne dirige la formazione. Al suo interno si trova la papilla dermica, ricca di vasi sanguigni, che fornisce nutrienti, ossigeno e, non meno importante, trasporta farmaci e metalli pesanti che possono incorporarsi nella fibra in formazione. È proprio grazie a questa connessione vascolare che il capello diventa un archivio biologico capace di registrare, nel tempo, esposizioni a sostanze esterne.

Tradizionalmente, il ciclo di vita del capello si suddivide in tre fasi principali:

Anagen: fase di crescita attiva, che può durare anni. In questa fase le cellule della matrice germinativa si moltiplicano rapidamente e si cheratinizzano progressivamente, formando il fusto del capello che emerge dalla cute. È qui che avviene l’incorporazione più stabile di sostanze esogene, rendendo questa fase cruciale per l’analisi tossicologica.

Catagen: breve fase di regressione (2–3 settimane) in cui l’attività proliferativa si arresta e il follicolo si contrae.

Telogen: fase di riposo (2–6 mesi) al termine della quale il capello smette di crescere e rimane “in attesa” prima di essere espulso.

Vale la pena segnalare che la letteratura più recente tende a riconoscere anche una quarta fase, detta exogen, che descrive in modo più specifico il distacco vero e proprio e la caduta del capello ormai morto dal follicolo. Questa distinzione, pur non essendo sempre adottata in modo uniforme, riflette un approccio più moderno e dettagliato alla biologia del ciclo pilifero.

Un altro aspetto importante del follicolo è la presenza di strutture di supporto come la guaina epiteliale interna, che avvolge la fibra nelle sue prime fasi di formazione. In questa guaina si esprime la trichohyalin (in italiano la tradurrei come tricoialina), una proteina ricca di glutammina che svolge un ruolo cruciale nel conferire resistenza meccanica e nell’ordinare la cheratinizzazione delle cellule. Questa proteina agisce come una sorta di “impalcatura molecolare”, indispensabile per ottenere la struttura finale della fibra capillare.

Capire la biologia del follicolo è dunque essenziale per spiegare non solo la struttura del capello che osserviamo a occhio nudo, ma anche la sua capacità di registrare esposizioni chimiche durante la crescita. Solo conoscendo questo processo si possono comprendere appieno sia la chimica cosmetica (che deve penetrare e modificare la fibra), sia le analisi tossicologiche (che leggono la storia di queste incorporazioni).

Struttura e composizione del capello

Un capello non è un semplice “filo” uniforme: è un materiale biologico complesso, progettato per resistere, proteggere e comunicare caratteristiche individuali come colore, forma e lucentezza.

Architettura della fibra: cuticola, corteccia e midollo

Il capello è costituito da tre parti principali (Figura 1). All’esterno si trova la cuticola, formata da cellule appiattite e sovrapposte a tegola, che proteggono gli strati interni e conferiscono lucentezza grazie alla loro disposizione ordinata. Subito sotto si trova la corteccia, la parte più voluminosa, composta da fibre di cheratina organizzate in macrofibrille e pigmenti melanici che determinano il colore. Qui si stabiliscono i legami chimici (come i ponti disolfuro) che influenzano la forma del capello. Al centro si trova il midollo, una regione meno definita e spesso discontinua nei capelli più fini, che contribuisce all’isolamento termico e alla rigidità.

Figura 1. Struttura schematica di un capello umano.

Composizione chimica: membrana interna, cheratina, lipidi e acqua

A livello chimico, la fibra capillare è un materiale stratificato e sofisticato. La componente principale è la cheratina, una proteina fibrosa costituita da filamenti polipeptidici ricchi di cisteina, che si organizzano in strutture a coiled-coil di tipo α-elica. Queste eliche si associano in filamenti intermedi, che a loro volta formano macro-fibrille, dando alla corteccia un’architettura gerarchica e resistente.  Studi recenti di diffrazione a raggi X hanno confermato questa architettura gerarchica, evidenziando distanze caratteristiche tra filamenti intermedi (90, 45 e 27 Å) che si mantengono costanti in individui con tipi di capelli diversi.

Tra le cellule della corteccia e della cuticola si interpone il Cell Membrane Complex (CMC), una struttura lipidica e proteica laminare che funge da collante idrofobo, regolando la coesione cellulare e la permeabilità all’acqua e alle sostanze chimiche. Esperimenti di microdiffrazione hanno dimostrato che il CMC è sensibile all’umidità, mostrando rigonfiamento al contatto con l’acqua: un aspetto che spiega la sua importanza nei trattamenti cosmetici e nella penetrazione di agenti idrosolubili.

La cuticola, oltre alla funzione protettiva, contiene lamelle ben stratificate che includono β-cheratina, distinta dall’α-cheratina della corteccia, conferendole maggiore compattezza e impermeabilità. Inoltre, la composizione chimica complessiva del capello include lipidi liberi (circa 1-9%), acqua (10-15% circa in condizioni normali), minerali come magnesio, zinco, ferro e rame, oltre a tracce di aminoacidi e vitamine. Questa miscela complessa fornisce al capello proprietà di robustezza, elasticità e resistenza agli stress ambientali, anche se può essere danneggiata in modo irreversibile da trattamenti cosmetici aggressivi, calore e radiazioni UV.

Le proprietà fisiche e cosmetiche del capello dipendono infine dai legami chimici che ne stabilizzano la struttura. I legami a idrogeno sono deboli ma numerosi, si rompono e si riformano facilmente con umidità o calore, ed è grazie a loro che si ottiene l’effetto temporaneo della piega (phon, piastra). Per approfondire la natura e la forza di questi legami nell’acqua e nelle soluzioni, è possibile leggere due articoli che ho scritto sul blog: qui e qui. I legami salini, di tipo ionico, dipendono dall’interazione tra cariche opposte presenti sulle catene laterali degli amminoacidi e sono sensibili al pH. I legami disolfuro, molto più forti, uniscono in modo stabile le catene di cheratina grazie ai ponti tra residui di cisteina e sono i bersagli principali dei trattamenti chimici come permanenti o lisciature.

Conoscere questa struttura complessa è fondamentale per capire come e perché i capelli reagiscono ai trattamenti cosmetici, all’umidità ambientale o ai processi analitici usati in tossicologia e scienze forensi. È il primo passo del nostro viaggio nella tricochimica.

Ulteriori approfondimenti sono disponibili anche qui.

La chimica cosmetica del capello

La chimica cosmetica applicata ai capelli è un settore complesso e affascinante che si occupa di trasformare la fibra capillare attraverso reazioni controllate, con l’obiettivo di modificare colore, forma e aspetto. Uno degli esempi più noti è la colorazione permanente, che si basa su un processo di ossidazione ben studiato. In questo caso si usano due componenti principali: un agente alcalino (come l’ammoniaca o la etanolammina) e un ossidante (generalmente perossido di idrogeno o acqua ossigenata). Il composto alcalino serve ad aprire le squame della cuticola, permettendo al perossido e ai precursori del colore (come la p-fenilendiammina) di penetrare nella corteccia. Lì, il perossido ossida i precursori in intermedi reattivi che, legandosi a opportuni “couplers” (come il resorcinolo), formano grandi molecole di colorante intrafibra, responsabili della tonalità stabile e duratura. Questo processo, come ricorda anche la letteratura recente, è pressoché invariato da oltre un secolo, ma rimane il più efficace per coprire i capelli bianchi e schiarire tonalità naturali. La Figura 2 mostra le strutture chimiche di alcune molecole usate per il trattamento di colorazione permanente.

Figura 2. Molecole usate nei processi di colorazione permanente dei capelli.

I trattamenti per permanenti e lisciature chimiche agiscono invece modificando i legami disolfuro tra le catene di cheratina all’interno della corteccia. Nelle permanenti tradizionali si usa un riducente (come l’acido tioglicolico, Figura 3) per rompere questi ponti, consentendo di avvolgere i capelli su bigodini e fissare la nuova forma. Successivamente si applica un ossidante (solitamente ancora perossido di idrogeno) per riformare i legami disolfuro nella configurazione desiderata. Anche le lisciature chimiche sfruttano lo stesso principio, ma con tecniche e formulazioni diverse per spezzare i ponti disolfuro e fissare una fibra capillare più lineare. Questi processi, pur efficaci, indeboliscono la struttura del capello e ne aumentano la porosità, con conseguenze estetiche e meccaniche rilevanti.

Figura 3. Struttura dell’acido tioglicolico.

Un capitolo delicato è quello dei trattamenti liscianti con formaldeide (Figura 4) o con rilascio di formaldeide, molto discussi per i potenziali rischi per la salute. Il cosiddetto “Brazilian Blowout” e trattamenti simili usano formaldeide (o precursori che la rilasciano a caldo) per creare ponti metilenici tra le catene di cheratina, bloccandole in configurazioni lisce. Tuttavia, l’esposizione ai vapori di formaldeide è un noto rischio cancerogeno e può causare irritazioni acute e sensibilizzazioni. Per questo motivo, normative come quelle dell’Unione Europea vietano o limitano severamente l’uso di formaldeide libera o rilasciata oltre soglie minime, imponendo test e dichiarazioni specifiche sui cosmetici (riferimenti qui, qui e qui).

Figura 4. Struttura della formaldeide.

La cosmetica dei capelli si muove così su un crinale tecnico e normativo importante: da un lato c’è la ricerca di prodotti sempre più efficaci e personalizzati, dall’altro la crescente attenzione alla sicurezza dell’utilizzatore e del professionista. Negli ultimi anni, inoltre, si osserva un forte interesse per alternative più delicate e sostenibili, come colorazioni a basso contenuto di ammoniaca o a base di derivati naturali, e trattamenti liscianti privi di formaldeide, che sfruttano polimeri cationici o derivati di aminoacidi per un effetto condizionante e disciplinante meno aggressivo (riferimenti qui e qui).

L’analisi tossicologica del capello

L’analisi tossicologica del capello è una tecnica consolidata e molto apprezzata in ambito clinico e forense, grazie alla capacità unica di registrare l’esposizione a droghe o metalli pesanti su una scala temporale estesa. A differenza di sangue e urina, che rilevano l’assunzione di sostanze solo per pochi giorni, il capello funziona come un archivio biologico che conserva tracce di esposizione per settimane o mesi, a seconda della lunghezza del campione. Questa proprietà lo rende particolarmente utile per ricostruire storie di abuso cronico, monitorare la terapia sostitutiva, verificare la compliance in percorsi di disintossicazione o per valutazioni legali, come l’idoneità alla guida o l’affidamento dei minori.

I farmaci e i metalli pesanti si depositano nel capello principalmente durante la fase di crescita (anagen), grazie alla circolazione sanguigna che porta le molecole fino al follicolo, la piccola struttura immersa nella cute dove le cellule del capello si formano, si moltiplicano e si cheratinizzano. Una volta incorporate nella matrice di cheratina in formazione, queste sostanze restano stabilmente legate alla struttura del fusto, resistendo alla degradazione per lungo tempo. Altri percorsi di incorporazione includono il sebo, il sudore e in misura minore l’assorbimento ambientale. Tuttavia, i moderni protocolli di lavaggio e decontaminazione riducono il rischio di contaminazione esterna falsamente positiva.

Dal punto di vista analitico, l’analisi tossicologica del capello richiede tecniche di estrazione sofisticate. La fibra capillare, costituita per il 65–95% da cheratina, oltre che da lipidi, acqua e pigmenti, deve essere digerita o frammentata in modo controllato per liberare i composti target senza degradarli. Tra le tecniche più comuni di preparazione ci sono l’idrolisi acida o enzimatica, l’estrazione in solventi organici e la digestione assistita da ultrasuoni. Dopo l’estrazione, le sostanze vengono analizzate con metodi ad alta sensibilità e specificità come la spettrometria di massa accoppiata alla gascromatografia (GC–MS) o alla cromatografia liquida (LC–MS). Queste metodiche consentono di rilevare quantitativi nell’ordine dei picogrammi di numerosi farmaci e metaboliti, inclusi oppiacei, cocaina, cannabis, amfetamine e benzodiazepine, così come metalli pesanti analizzabili via spettroscopia di assorbimento atomico (AAS).

Uno dei principali vantaggi dell’analisi sul capello è la sua “finestra temporale estesa”: ogni centimetro di lunghezza corrisponde approssimativamente a un mese di crescita, permettendo di segmentare il campione per ricostruire una cronologia dettagliata delle esposizioni. Tuttavia, esistono anche limiti e criticità. Trattamenti cosmetici aggressivi come tinture, decolorazioni o permanenti possono ridurre la concentrazione di sostanze depositate o alterarne la distribuzione, rendendo più difficile l’interpretazione. Anche la variabilità individuale (colore, contenuto di melanina, porosità) può influenzare l’assorbimento dei farmaci, rendendo complessa la traduzione quantitativa dei dati in dosi assunte.

Nonostante queste sfide, l’analisi tossicologica del capello rappresenta uno strumento fondamentale in ambito forense e clinico per la sua capacità di documentare l’esposizione remota a sostanze psicoattive o tossiche, offrendo informazioni preziose che integrano e completano quelle ricavabili da sangue o urina.

Conclusioni, prospettive e sfide future

La tricochimica si propone come un campo di studio davvero interdisciplinare, capace di unire la conoscenza chimica della fibra capillare con esigenze estetiche, implicazioni tossicologiche e applicazioni forensi. Comprendere la composizione, la struttura e le trasformazioni chimiche dei capelli significa poter progettare trattamenti cosmetici più efficaci e sicuri, interpretare correttamente le analisi tossicologiche e persino ricostruire storie di consumo di sostanze o dinamiche criminali.

Tra le sfide principali spicca la necessità di una maggiore standardizzazione delle analisi tossicologiche: solventi, protocolli di estrazione, metodi di decontaminazione e tecniche strumentali richiedono armonizzazione per garantire risultati confrontabili e robusti. Anche i trattamenti cosmetici pongono questioni complesse: mentre il mercato cerca prodotti sempre più performanti e personalizzati, resta fondamentale valutarne l’efficacia in relazione alla salute del capello e della persona, evitando ingredienti aggressivi o potenzialmente dannosi.

Il futuro della tricochimica si muove verso un’integrazione sempre più stretta tra cosmetica e tossicologia: l’obiettivo è sviluppare prodotti “smart” e sicuri, capaci di interagire con la fibra capillare in modo controllato, rispettandone la biologia e la chimica. In questo senso, la ricerca multidisciplinare – che unisce chimica organica, biochimica, tossicologia analitica e scienza dei materiali – sarà essenziale per innovare e rispondere alle nuove esigenze di consumatori, professionisti e legislatori.

La tricochimica non è dunque un semplice esercizio accademico: è una disciplina viva e applicata, che tocca la nostra quotidianità, dalla cura estetica all’identità personale, dalla salute alla sicurezza pubblica. Riconoscerne l’importanza e investire nella sua evoluzione significa contribuire a un approccio più consapevole, informato e sostenibile al mondo dei capelli.

Glifosato e cancro: nuovo studio, molti titoli… pochi fatti

di Enrico Bucci & Pellegrino Conte

Se c’è una cosa che la scienza dovrebbe insegnarci, è che non tutti gli studi hanno la stessa valenza e importanza. Alcuni sono ben progettati, trasparenti e ci aiutano a capire meglio il mondo; altri, invece, presentano fragilità nelle premesse, nel metodo o nell’interpretazione dei dati.

L’ultimo studio pubblicato nel 2025 su Environmental Health da un gruppo di ricerca dell’Istituto Ramazzini ha fatto molto discutere, sostenendo che anche dosi di glifosato ritenute sicure possano aumentare il rischio di tumori nei ratti. Da qui è nato il timore che, se aumenta la possibilità di avere tumori nei ratti, anche l’essere umano possa correre lo stesso rischio. Tuttavia, un’analisi attenta rivela numerosi limiti sull’effettiva rilevanza dei risultati.

Vediamo perché.

Dosi scelte e perché non sono realistiche

Lo studio ha previsto tre dosi di glifosato somministrate ai ratti:

  • 0.5 mg/kg al giorno (l’ADI, ovvero la dose giornaliera accettabile in Europa)
  • 5 mg/kg al giorno (10 volte l’ADI)
  • 50 mg/kg al giorno (NOAEL, che corrisponde alla dose massima senza effetti osservati).

A prima vista, trovare effetti anche alla dose più bassa potrebbe sembrare preoccupante. Ma c’è un dettaglio importante: l’ADI non è una soglia tossicologica, ma un limite iper-cautelativo. Come viene calcolata?

  1. Si prende la dose più alta che non ha causato effetti negli animali (es. 50 mg/kg).
  2. Si divide per 100: 10 per la variabilità interspecie (topo vs uomo) e 10 per la variabilità intraspecie (uomo vs uomo).
  3. Si ottiene l’ADI (0.5 mg/kg).

Quindi, se uno studio trova effetti giusto all’ADI, non è un fallimento del sistema: è la conferma che il sistema di sicurezza funziona.

E nella vita reale? L’EFSA ha stimato che l’esposizione reale della popolazione è centinaia di volte inferiore all’ADI. Per raggiungere 0.5 mg/kg, un adulto di 70 kg dovrebbe mangiare 10 kg di soia OGM al giorno, tutti i giorni. E anche gli agricoltori professionisti non si avvicinano a quei livelli.

Discrepanze tra dosi dichiarate e dosi realmente usate

Come si può facilmente immaginare, il lavoro che stiamo valutando non è passato inosservato. La comunità scientifica si è subito attivata per verificare se quanto riportato fosse attendibile, e questo è un aspetto cruciale. In un contesto saturo di informazioni, dove distinguere il falso dal vero o dal verosimile è sempre più difficile, avere dei riferimenti affidabili per valutare la solidità di uno studio è fondamentale. Dimostra anche che la scienza non resta chiusa in una torre d’avorio: controlla, discute e, se necessario, corregge.

Un’analisi particolarmente accurata pubblicata su PubPeer  ha evidenziato come gli autori dello studio mirassero a somministrare ai ratti tre livelli “target” di esposizione giornaliera al glifosato, corrispondenti, come già indicato nel paragrafo precedente, all’ADI europea di 0,5 mg per chilo di peso corporeo, a 5 mg/kg e infine al NOAEL di 50 mg/kg, calibrando la concentrazione del principio attivo nell’acqua da bere sulla base di un consumo medio di 40 mL e di un peso medio di 400 g. Tuttavia, nei grafici relativi al peso e al consumo d’acqua, visibili già a partire dalla quinta settimana di vita, si nota chiaramente che i ratti più giovani, ancora ben al di sotto dei 400 g, continuano a bere quantità di acqua vicine a quelle stimate per gli adulti. Questo significa che, anziché ricevere esattamente i dosaggi “target”, i cuccioli assumono in realtà molto più glifosato, spesso oltre il doppio di quanto previsto per l’ADI, proprio nel momento in cui la loro vulnerabilità ai possibili effetti tossici è maggiore.

Colpisce poi il fatto che i pannelli che riportano l’effettiva assunzione giornaliera di glifosato inizino soltanto alla tredicesima settimana, escludendo dalla visualizzazione le prime dieci settimane successive allo svezzamento, quando il sovradosaggio è più pronunciato. In questo modo il lettore non ha modo di rendersi conto di quanto i ratti più giovani abbiano effettivamente superato i livelli di riferimento, né di valutare eventuali conseguenze sulla salute in questa fase critica dello sviluppo.

La mancanza di qualsiasi discussione nel testo centrale su questa esposizione eccessiva nei cuccioli rappresenta una lacuna significativa, perché proprio nei primi mesi di vita gli organismi mostrano una sensibilità maggiore a sostanze tossiche. Sarebbe stato opportuno non soltanto estendere i grafici dell’assunzione fin dalla quinta settimana, ma anche accompagnarli con un’analisi dedicata a quei dati, per capire se fenomeni di tossicità precoce possano essere correlati proprio al superamento dei dosaggi prefissati. In assenza di questa trasparenza, resta un interrogativo aperto sul reale profilo di sicurezza del glifosato nei soggetti in accrescimento.

Statistiche creative: quando un “aumento significativo” è solo rumore

Uno dei problemi più comuni negli studi tossicologici è quando si prendono in considerazione troppi parametri. In queste circostanze, prima o poi, qualcosa risulterà “statisticamente significativo”… ma per puro caso.

Lo studio ha esaminato tumori in:

  • fegato
  • pelle
  • tiroide
  • sistema nervoso
  • reni
  • mammelle
  • ovaie
  • pancreas
  • ghiandole surrenali
  • milza
  • osso
  • vescica

Statisticamente parlando, più confronti si fanno, più aumenta il rischio di falsi positivi: è il noto problema dei confronti multipli. E in questo caso non è stata applicata nessuna correzione (come Bonferroni o FDR), nonostante le decine di test effettuati.

Per esempio:

  • Un solo caso di carcinoma follicolare tiroideo (1,96%) viene presentato come “aumento significativo”, nonostante un’incidenza storica dello 0,09%.
  • Leucemie rarissime (0 casi nei controlli) diventano improvvisamente “frequenti” se appaiono in uno o due animali.

E proprio perché si lavora con numeri minuscoli (gruppi da 51 ratti), anche un singolo caso in più può far sembrare enorme un effetto che in realtà è solo rumore statistico.

Non a caso, un commentatore su PubPeer ha fatto notare che, nella versione pubblicata rispetto al preprint è stato aggiunto un caso di leucemia monocitica in un ratto femmina trattato con 50 mg/kg/die, assente nella versione preprint. Nessuna spiegazione è stata data per questo cambiamento. Ma in gruppi così piccoli, un solo caso in più può bastare a far emergere o sparire un “aumento significativo”. E la mancanza di trasparenza su come sia stato deciso questo aggiornamento rende ancora più difficile fidarsi delle conclusioni.

Statistiche fragili: come un’analisi più corretta fa crollare i risultati

Gli autori dello studio dicono di aver usato il test di Cochrane-Armitage per verificare se aumentando le dosi di glifosato aumentasse anche il numero di tumori nei ratti: insomma, per valutare se esistesse un trend “dose-risposta” significativo.

Fin qui, tutto regolare. Ma leggendo le osservazioni pubblicate su PubPeer emerge un problema serio: gli autori hanno usato la versione asintotica del test, che diventa poco affidabile quando si analizzano eventi rari – come accade quasi sempre negli studi di cancerogenicità a lungo termine, dove molti tumori osservati sono davvero pochi.

Chi ha commentato ha quindi rifatto i calcoli usando la versione esatta del test (disponibile grazie al software del DKFZ) e il risultato è stato sorprendente: i p-value, che nello studio originale erano inferiori a 0.05 (e quindi dichiarati “significativi”), sono saliti ben oltre 0.25, diventando del tutto non significativi.

In pratica: gli stessi dati, analizzati in modo più corretto, perdono completamente la significatività statistica.

E questo non è un dettaglio secondario: lo stesso errore potrebbe riguardare anche altre analisi statistiche e tabelle pubblicate, mettendo seriamente in discussione la solidità complessiva delle conclusioni dello studio.

Glifosato puro vs formulazioni commerciali: un confronto incompleto

Lo studio testa anche due erbicidi commerciali (Roundup Bioflow e RangerPro), sostenendo che siano più tossici del glifosato puro. Ma:

È un po’ come dire:

“La vodka è tossica!”
Senza specificare se il problema è l’alcol o l’acqua in essa contenuta.

Trasparenza e potenziali conflitti d’interesse

Gli autori dello studio dichiarano esplicitamente di non avere conflitti di interesse. Tuttavia, come segnalato su PubPeer, emergono diverse criticità. L’Istituto Ramazzini che ha condotto la ricerca riceve fondi da organizzazioni e soggetti che hanno preso pubblicamente posizione contro l’uso del glifosato. Tra questi finanziatori troviamo:

  1. la Heartland Health Research Alliance, già criticata da diverse fonti per sostenere ricerche orientate contro i pesticidi;
  2. l’Institute for Preventive Health, fondato da Henry Rowlands, che è anche l’ideatore della certificazione “Glyphosate Residue Free”;
  3. Coop Reno, una cooperativa italiana che promuove attivamente la riduzione dei pesticidi nei propri prodotti;
  4. Coopfond, che ha dichiarato pubblicamente il proprio sostegno alla ricerca contro il glifosato.

Tutti questi elementi non sono banali, perché vanno in direzione opposta alla dichiarazione “no competing interests” fornita dagli autori.

Dichiarare questi legami non significa necessariamente che i risultati siano falsati, ma consente ai lettori di valutare meglio la possibile influenza dei finanziatori.

IARC, hazard e risk: una distinzione fondamentale

Lo studio si richiama alla classificazione dello IARC, che nel 2015 ha definito il glifosato “probabile cancerogeno” (Gruppo 2A). Ma attenzione: l’IARC valuta l’hazard, non il rischio.

  • Hazard: “Il glifosato può causare il cancro in certe condizioni ideali”.
  • Risk: “Il glifosato causa il cancro nelle condizioni reali di esposizione?”

Lo IARC ha incluso nel gruppo 2A anche:

  • la carne rossa,
  • il lavoro da parrucchiere,
  • il turno di notte.

Le principali agenzie che valutano il rischio reale non hanno trovato evidenze sufficienti per considerare il glifosato cancerogeno:

Agenzia Conclusione Anno
EFSA (UE) Non cancerogeno 2023
EPA (USA) Non cancerogeno 2020
JMPR (FAO/OMS) Non cancerogeno 2016
IARC Probabile cancerogeno 2015

Conclusione: il glifosato non è innocente, ma nemmeno un mostro

Il nuovo studio del 2025 mostra che, se si cercano abbastanza tumori rari in tanti tessuti, qualcosa prima o poi emerge. Ma:

  • Le dosi utilizzate sono lontanissime dalla realtà umana, e persino più alte del previsto nei ratti giovani;
  • I risultati sono fragili, non replicati, e statisticamente poco robusti;
  • I meccanismi di azione non sono spiegati;
  • La trasparenza sui dati e sui conflitti di interesse è carente;
  • Le conclusioni si basano su metodi statistici che vanno messi in discussione.

Non si tratta di negazionismo scientifico ma di scetticismo informato, che è il cuore del metodo scientifico. Sebbene questo studio sollevi questioni interessanti, trarre conclusioni definitive su un legame causale tra glifosato e cancro basandosi su dati così fragili e dosi irrealistiche è prematuro. La scienza richiede prove solide, replicabili e trasparenti.

Per questo, le agenzie regolatorie continuano a considerare il glifosato sicuro se usato nei limiti stabiliti. Restiamo aperti a nuove evidenze, ma diffidiamo dei titoli allarmistici che spesso accompagnano studi con così tante ombre.

EDIT

A dimostrazione del fatto che il metodo scientifico si basa sull’autocorrezione, sia Enrico Bucci che io desideriamo ringraziare l’Ing. Dario Passafiume per essersi accorto di un errore che abbiamo commesso nell’interpretare i dati di PubPeer. La sostanza non cambia: cambiano solo i valori assoluti dei numeri che avevamo preso in considerazione. Il testo che abbiamo rieditato per effetto dell’errore di cui ci siamo accorti grazie all’ingegnere è il seguente:

Un’analisi particolarmente accurata pubblicata su PubPeer ha evidenziato una discrepanza rilevante: le figure riportate nello studio non si riferiscono alle dosi dichiarate (quelle indicate nel primo paragrafo), ma a dosi circa dieci volte superiori. In pratica, mentre gli autori affermano di aver usato 0.5, 5 e 50 mg/kg/die, i grafici mostrano dati ottenuti con 5, 50 e 500 mg/kg/die. Si tratta – come già evidenziato – di concentrazioni del tutto inconcepibili nella vita reale dove per arrivare all’assunzione di soli 0.5 mg/kg/die bisogna ingurgitare circa 70 kg di soia OGM al giorno, tutti i giorni.

Microplastiche, lavastoviglie e fake news: come orientarsi tra dati e paure

Già in un mio precedente articolo avevo affrontato il tema delle microplastiche, cercando di distinguere tra rischi reali, ipotesi ancora in fase di studio e allarmismi infondati. Se volete rinfrescarvi la memoria o approfondire meglio il quadro generale, potete leggerlo qui:
? Microplastiche: i rischi che conosciamo, le sorprese che non ti aspetti

In questa sede voglio, invece, portare alla vostra attenzione il pericolo della divulgazione basata sull’allarmismo.

33 milioni di micro- e nanoplastiche? Cosa c’è davvero dietro le notizie virali

Negli ultimi giorni si è diffusa online una notizia allarmante: le lavastoviglie sarebbero una fonte importante di microplastiche, con milioni di particelle rilasciate ad ogni ciclo di lavaggio. Su siti come HDBlog (vedi screenshot qui sotto) si parla addirittura di 33 milioni di nanoplastiche generate da un solo ciclo di lavaggio, dipingendo un quadro piuttosto drammatico per l’ambiente domestico e urbano.

Immagine presa dal sito HDBlog

Tuttavia, analizzando con attenzione lo studio scientifico originale su cui si basa questa notizia, emergono diversi aspetti importanti e ben diversi da quelli riportati in modo semplicistico e sensazionalistico da molti siti di “pseudo divulgazione”.

Innanzitutto, lo studio mostra che sì, le lavastoviglie rilasciano micro- e nanoplastiche, ma la quantità è estremamente bassa: meno di 6 milligrammi di plastica all’anno per persona, cioè meno del peso di un chicco di riso. Paragonare questo dato numerico alla dichiarazione di milioni di particelle è fuorviante, perché il numero di particelle non dice nulla sulla massa o sull’impatto reale, che rimane trascurabile su base individuale.

Inoltre, la tipologia di plastica e la dimensione delle particelle variano in base al tipo di articolo lavato (polietilene, polipropilene, nylon, ecc.), e i materiali più “vecchi” o usurati rilasciano più frammenti. Lo studio suggerisce quindi che sia importante approfondire come l’invecchiamento della plastica influisca sulla generazione di microplastiche, cosa che non viene mai menzionata nei titoli allarmistici.

Dal punto di vista ambientale, sebbene i sistemi di trattamento delle acque reflue trattengano circa il 95% delle microplastiche, la quantità complessiva globale rilasciata nell’ambiente sta crescendo con l’aumento dell’uso della plastica. Tuttavia, le lavastoviglie domestiche rappresentano solo una piccola fonte rispetto ad altre.

Un articolo più attendibile e chiaro sull’argomento, che riporta fedelmente i risultati della ricerca, è quello di Phys.org, sito scientifico noto per l’accuratezza e la qualità della divulgazione. Vi consiglio di leggere anche lì per avere un quadro completo e serio della situazione.

Come riconoscere le fake news ambientali?

Molto spesso mi chiedono: “Se non sono esperto, come faccio a capire se una notizia è attendibile”? La risposta non è semplice, ma c’è una regola d’oro: non fermatevi mai alla prima fonte che conferma ciò che già pensate o che alimenta le vostre paure o convinzioni. Spesso chi cerca notizie sensazionalistiche cade nel cosiddetto cherry picking, ovvero sceglie solo quei dati o informazioni che supportano la propria idea, ignorando tutto il resto. Questo atteggiamento è comune a chi si sente “rivoluzionario” o “antisistema”, ma in realtà non ha le competenze scientifiche per comprendere a fondo la questione.

Per evitare di cadere in queste trappole, è fondamentale confrontare le informazioni con fonti diverse e affidabili, preferendo siti di divulgazione scientifica consolidata, che spiegano dati, metodi e limiti delle ricerche. Ma come riconoscere un sito davvero affidabile? Ecco alcuni indicatori:

  • Chiarezza e trasparenza delle fonti: i siti seri riportano sempre riferimenti precisi agli studi scientifici originali o a istituti riconosciuti, spesso con link diretti alle pubblicazioni o informazioni sugli autori.

  • Presentazione equilibrata dei dati: non si limitano a enfatizzare solo risultati sensazionalistici, ma spiegano anche i limiti delle ricerche e le diverse interpretazioni possibili.

  • Assenza di titoli esagerati o clickbait: i titoli sono informativi, senza allarmismi o esagerazioni mirate solo a catturare l’attenzione.

  • Autori qualificati e trasparenza: i contenuti sono scritti o revisionati da esperti o giornalisti scientifici con esperienza e il sito fornisce informazioni su chi li produce.

  • Aggiornamenti regolari e dialogo con i lettori: i siti affidabili aggiornano le informazioni con nuovi studi, correggono eventuali errori e talvolta rispondono alle domande o ai commenti.

  • Scopo divulgativo ed educativo: l’obiettivo è informare e spiegare con rigore, non vendere prodotti o promuovere agende ideologiche.

Le testate generaliste o i siti di pseudo divulgazione spesso puntano più al click facile e all’effetto emotivo che a un’informazione rigorosa e bilanciata. Il risultato è un circolo vizioso di paure ingiustificate, confusione e disinformazione, che non aiuta né il pubblico né la causa ambientale che vogliamo davvero sostenere.

Conclusioni

La lotta all’inquinamento da plastica passa innanzitutto dal controllo e dalla prevenzione all’origine, riducendo l’uso di plastica, migliorando il riciclo e introducendo filtri efficaci nelle apparecchiature domestiche come lavatrici e lavastoviglie. Non facciamoci ingannare da titoli e numeri sensazionalistici: l’informazione corretta è il primo passo per agire con consapevolezza.

Una buccia vi sfamerà

Dalla fame di guerra al valore nascosto negli scarti: viaggio scientifico e umano nella buccia di patata.

Mi sto avvicinando ai sessant’anni. È più il tempo che ho vissuto che quello che ancora mi resta e, con la vecchiaia, certe volte vengo sommerso dai ricordi di quando ero piccolo. Entrambi i miei genitori hanno vissuto la guerra. Mia madre come bambina. Nata nel 1938, aveva circa un anno quando Hitler invase la Polonia e circa due quando l’Italia entrò in guerra. Ora non c’è più. È scomparsa nel 2016 per le conseguenze di un tumore ai polmoni. Ma mi ricordo che di tanto in tanto le venivano dei flash grazie ai quali ricordava di quando i suoi fratelli (lei era l’ultima di quattro; ben 22 anni la separavano dal fratello più grande) la prendevano in braccio cercando di non terrorizzarla per accompagnarla nei rifugi anti aerei. Un po’ come nel film “La vita è bella” che ha valso a Roberto Benigni il premio Oscar.

Mio padre, invece, di sedici anni più anziano di mia madre, ha passato l’intera guerra come POW (prisoner of war) in Africa. Si era trasferito in Etiopia per lavorare assieme agli zii quando aveva circa 16 anni e si trovava ad Adis Abeba come impiegato civile quando gli inglesi sconfissero gli italiani. Fu imprigionato per cinque anni in vari campi di prigionia sparsi per il continente africano e ha sempre raccontato degli stenti che ha dovuto sopportare per poter sopravvivere: dagli incontri di pugilato contro pugili professionisti per poter racimolare qualche alimento per tenersi in vita, alle fosse scavate nella sabbia nelle quali si seppelliva per sopravvivere al caldo dei deserti africani. Anche mio padre non c’è più. È scomparso nel 1998 ed anche lui per le conseguenze di tumori ai polmoni.

Non sto scrivendo questa storia per intenerire, ma solo per creare il contesto di quanto mi accingo a raccontare.

Sia dai racconti dei miei genitori, sia da quelli che faceva mia nonna, la madre di mio padre – l’unica nonna che ho conosciuto, ho sempre saputo che la guerra è una brutta bestia. Lo sanno benissimo tutti quelli che ancora oggi sono sotto i bombardamenti: il cibo scarseggia, la fame, quella vera, non quella da “buco allo stomaco” di noi viziati che le guerre non le abbiamo mai vissute e viviamo, sostanzialmente, nell’opulenza, si fa sentire. E quando la fame si fa sentire si mangia qualunque cosa, altro che “questo non mi piace” o “ho una lieve intolleranza al glutine”. Quando la fame avanza, ci mangeremmo qualsiasi cosa. Ed è quello che accadeva durante la guerra: anche quelli che per noi oggi sono scarti, venivano usati per alimentarsi. E sapete quali scarti venivano usati, tra gli altri? Le bucce di patata.

Quando me lo raccontavano non riuscivo a immaginarlo. Le bucce? Quelle che si buttano via senza pensarci? Eppure, col tempo, e forse anche grazie al mio lavoro, ho imparato che il racconto di mia nonna e dei miei genitori era molto più che una memoria di sopravvivenza: era un piccolo spaccato di biochimica popolare.

Le bucce non sono rifiuti

Dal punto di vista nutrizionale, le bucce di patata non sono uno scarto. Al contrario: rappresentano una parte preziosa del tubero. Contengono una quantità significativa di fibre alimentari, vitamine e sali minerali, spesso superiore a quella della polpa stessa. In particolare, la vitamina C, le vitamine del gruppo B e il potassio si concentrano proprio vicino alla superficie esterna. Inoltre, la buccia ospita una varietà di polifenoli, composti antiossidanti come l’acido clorogenico, che oggi studiamo per il loro ruolo nella protezione cellulare.

Dal punto di vista energetico, le bucce non sono ricche quanto la polpa amidacea, ma in tempi di carestia potevano comunque offrire un contributo calorico importante. Se bollite o fritte, conservavano buona parte dei micronutrienti ed erano capaci di saziare. Non è un caso, infatti, che in molte parti d’Europa, dalla Germania alla Russia, le bucce siano state cucinate, essiccate o addirittura ridotte in farina nei periodi più difficili.

Un equilibrio delicato

C’è però un lato oscuro: le bucce di patata contengono anche glicoalcaloidi naturali, come la solanina e la chaconina, che le piante producono come difesa contro funghi e insetti. In piccole dosi non rappresentano un pericolo, ma in alte concentrazioni possono causare disturbi gastrointestinali e neurologici. Le bucce verdi, germogliate o esposte alla luce sono le più ricche di solanina, e vanno evitate. Ma le bucce sane, ben cotte, erano, e sono ancora, sicure, specie se trattate con il buon senso tramandato più che con la chimica.

Una lezione dal passato

Oggi, in un mondo che produce più rifiuti alimentari di quanto possa giustificare, quella vecchia storia di bucce mangiate per fame mi torna alla mente con una sfumatura diversa. Non solo come testimonianza di resilienza, ma come invito a riconsiderare il valore del cibo in ogni sua parte. In laboratorio, so bene quanto lavoro ci sia dietro l’estrazione di un antiossidante da una buccia. Ma forse il sapere contadino, quello di mia nonna o dei miei genitori, aveva già intuito tutto: che in una buccia c’è più nutrimento di quanto sembri, e che a volte, per sopravvivere bisogna imparare a guardare il cibo con occhi diversi.

E così, mentre il ricordo di quelle storie si fa ogni giorno più tenue, mi piace pensare che un pezzetto di chimica, di biologia e di dignità sia rimasto impigliato in quella buccia sottile. E che valga ancora la pena raccontarlo.

Riferimenti

Potato Skin: Nutrition Facts and Calories for 100 Grams

A comparative study on proximate and mineral composition of coloured potato peel and flesh

Composition of phenolic compounds and glycoalkaloids alpha-solanine and alpha-chaconine during commercial potato processing

The Best & Edible Fruit and Vegetable Skins You Need to Try

Risk assessment of glycoalkaloids in feed and food, in particular in potatoes and potato‐derived products

 

Parabrezza puliti e insetti scomparsi: ma davvero davvero?

Nel 2020, durante la pandemia, pubblicai una breve nota sul cosiddetto “windscreen phenomenon“. Per chi volesse rileggerla, ecco il link:

Sugli insetti e sui parabrezza – www.pellegrinoconte.com

Negli ultimi anni, questa teoria ha continuato a circolare. L’idea che il numero di insetti stia diminuendo drasticamente perché i parabrezza delle auto si sporcano meno rispetto al passato è oggi più attendibile di quanto non lo fosse cinque anni fa?

Osservazioni aneddotiche vs. evidenze scientifiche

È importante distinguere tra osservazioni personali e dati scientifici. Il fatto che oggi i parabrezza sembrino più puliti non costituisce una prova concreta del declino globale degli insetti. Le variabili in gioco sono molteplici: cambiamenti nei modelli di traffico, aerodinamica delle auto moderne, variazioni climatiche locali e stagionali, per citarne alcune.

Studi recenti sul declino degli insetti

Diversi studi scientifici hanno documentato un effettivo declino delle popolazioni di insetti:

Il problema del “windscreen phenomenon” come indicatore

Utilizzare il numero di insetti sul parabrezza come misura del declino globale presenta diverse problematiche:

  • Variabilità delle condizioni di guida: percorsi, velocità, condizioni climatiche e tipologie di veicoli influenzano significativamente il numero di insetti che colpiscono il parabrezza.
  • Effetti di bordo e distribuzione degli insetti: le strade creano discontinuità nel paesaggio, influenzando la distribuzione degli insetti e rendendo difficile generalizzare le osservazioni.
  • Bias di campionamento: le osservazioni sono spesso limitate a determinate aree e periodi, non rappresentando accuratamente la situazione globale.

Conclusione

Come scrivevo già nel 2020, anche oggi è necessario ribadire che, sebbene il declino degli insetti sia un fenomeno reale ed allarmante, le conclusioni devono basarsi su studi scientifici solidi, non su impressioni personali. Il “windscreen phenomenon” può forse stimolare la curiosità o fornire uno spunto iniziale, ma non rappresenta in alcun modo una prova scientifica.

L’aneddotica non è probante e il “lo dicono tutti” non è – né sarà mai – un metodo scientificamente valido.

Come disse un celebre divulgatore: la scienza non si fa per alzata di mano.

La democrazia scientifica non funziona come quella politica: non tutte le opinioni hanno lo stesso peso. E, a ben vedere, nemmeno in politica tutte le opinioni sono uguali – quelle che negano i diritti fondamentali dell’uomo non possono e non devono essere considerate accettabili.

In ambito scientifico, il confronto è possibile solo tra persone con un background adeguato, perché solo così si può parlare la stessa lingua: quella del metodo.

Chimica e intelligenza artificiale: un’alleanza per il futuro della scienza

Avrete sicuramente notato che oggi l’intelligenza artificiale (AI) sta diventando una presenza sempre più costante nelle nostre vite. Sono tantissimi gli ambiti in cui l’AI riesce a sostituire con successo l’essere umano. Si potrebbe dire che questa rivoluzione sia iniziata molto tempo fa, con i primi robot che hanno cominciato a svolgere compiti ripetitivi al posto dell’uomo, come nelle catene di montaggio o, più drammaticamente, nei contesti bellici, dove i droni sono diventati strumenti chiave per ridurre il numero di vittime umane.

Negli ultimi anni, lo sviluppo vertiginoso delle reti neurali artificiali ha portato alla nascita di veri e propri “cervelli digitali” che, presto, anche se non sappiamo quanto presto, potrebbero avvicinarsi, per certi aspetti, alle capacità del cervello umano.

Nel frattempo, però, l’intelligenza artificiale già funziona alla grande ed è sempre più presente in numerosi settori, tra cui la chimica, che rappresenta uno dei campi più promettenti.

All’inizio può sembrare curioso accostare molecole, reazioni chimiche e leggi della fisica a concetti come algoritmi e reti neurali. Eppure, l’unione di questi mondi sta rivoluzionando il modo in cui facciamo ricerca, progettiamo nuovi materiali, affrontiamo le sfide ambientali e persino come insegniamo la scienza.

Ma cosa significa, concretamente, applicare l’intelligenza artificiale alla chimica?

Scoprire nuove molecole (senza provare tutto in laboratorio)

Uno degli ambiti in cui l’intelligenza artificiale si è rivelata più utile è la scoperta di nuovi composti chimici. Fino a qualche tempo fa, per trovare una molecola utile, un farmaco, un catalizzatore, un materiale con proprietà particolari, bisognava fare molti tentativi sperimentali, spesso lunghi e costosi.

Negli ultimi decenni, la chimica computazionale ha cercato di alleggerire questo carico, permettendo ai ricercatori di simulare al computer il comportamento di molecole, reazioni e materiali. Tuttavia, anche le simulazioni più avanzate richiedono molto tempo di calcolo e competenze specialistiche, oltre ad avere dei limiti nella scala e nella complessità dei sistemi che si possono trattare.

Qui entra in gioco l’intelligenza artificiale: grazie a modelli di machine learning sempre più raffinati, è possibile prevedere rapidamente il comportamento di una molecola, come la sua stabilità, la reattività, o la capacità di legarsi a un bersaglio biologico, semplicemente a partire dalla sua struttura. Questi algoritmi apprendono da enormi quantità di dati sperimentali e teorici e sono in grado di fare previsioni accurate anche su molecole mai testate prima.

In altre parole, l’AI sta cominciando a superare i limiti della chimica computazionale tradizionale, offrendo strumenti più rapidi, scalabili e spesso più efficaci nel guidare la ricerca. Invece di provare tutto in laboratorio (o simulare tutto al computer), oggi possiamo usare modelli predittivi per concentrare gli sforzi solo sulle ipotesi più promettenti.

Cosa vuol dire “machine learning”?

Il machine learning, o apprendimento automatico, è una branca dell’intelligenza artificiale che permette a un computer di imparare dai dati. Invece di essere programmato con regole rigide, un algoritmo di machine learning analizza una grande quantità di esempi e impara da solo a riconoscere schemi, fare previsioni o prendere decisioni.

È un po’ come insegnare a un bambino a distinguere un cane da un gatto: non gli spieghi la definizione precisa, ma gli mostri tante immagini finché impara da solo a riconoscerli.

Nel caso della chimica, l’algoritmo può “guardare” migliaia di molecole e imparare, per esempio, quali caratteristiche rendono una sostanza più solubile, reattiva o stabile.

Simulare ciò che non possiamo osservare

In molti casi, la chimica richiede di capire cosa succede a livello atomico o molecolare, dove gli esperimenti diretti sono difficili, costosi o addirittura impossibili. Ad esempio, osservare in tempo reale la rottura di un legame chimico o l’interazione tra una superficie metallica e un gas può essere tecnicamente molto complicato.

Qui entrano in gioco la chimica computazionale e, sempre di più, l’intelligenza artificiale. I metodi classici di simulazione, come la density functional theory (DFT) o le dinamiche molecolari, permettono di studiare reazioni e proprietà microscopiche con una certa precisione, ma sono spesso limitati dalla potenza di calcolo e dal tempo necessario per ottenere risultati.

L’AI può affiancare o persino sostituire questi metodi in molti casi, offrendo simulazioni molto più rapide. Gli algoritmi, addestrati su grandi insiemi di dati teorici o sperimentali, riescono a prevedere energie di legame, geometrie molecolari, traiettorie di reazione e persino comportamenti collettivi di materiali complessi, con un livello di precisione sorprendente.

Questo approccio è particolarmente utile nella chimica dei materiali, nella catalisi e nella chimica ambientale, dove le condizioni reali sono dinamiche e complesse, e spesso è necessario esplorare molte variabili contemporaneamente (temperatura, pressione, pH, concentrazione, ecc.).

In sintesi, grazie all’AI, oggi possiamo “vedere” l’invisibile e testare ipotesi teoriche in modo veloce e mirato, risparmiando tempo, denaro e risorse. La simulazione assistita dall’intelligenza artificiale sta diventando una delle strategie più promettenti per affrontare problemi scientifici troppo complessi per essere risolti con i soli strumenti tradizionali.

Insegnare (e imparare) la chimica in modo nuovo

Anche il mondo dell’istruzione sta vivendo una trasformazione grazie all’intelligenza artificiale. La didattica della chimica, spesso considerata una delle materie più “dure” per studenti e studentesse, può oggi diventare più coinvolgente, personalizzata ed efficace proprio grazie all’uso di strumenti basati su AI.

Uno dei vantaggi principali è la possibilità di adattare il percorso di apprendimento alle esigenze del singolo studente. Grazie a sistemi intelligenti che analizzano le risposte e i progressi individuali, è possibile proporre esercizi mirati, spiegazioni alternative o materiali supplementari in base al livello di comprensione. Questo approccio personalizzato può aiutare chi è in difficoltà a colmare lacune e, allo stesso tempo, stimolare chi è più avanti ad approfondire.

L’AI può anche contribuire a rendere la chimica più visiva e interattiva. Alcune piattaforme, ad esempio, usano modelli predittivi per generare visualizzazioni 3D di molecole, reazioni chimiche o strutture cristalline, rendendo più intuitivi concetti spesso astratti. In più, i chatbot educativi (come quelli alimentati da modelli linguistici) possono rispondere a domande in tempo reale, spiegare termini complessi in modo semplice o simulare piccoli esperimenti virtuali.

Un’altra frontiera interessante è quella della valutazione automatica e intelligente: sistemi di AI possono correggere esercizi, test e report di laboratorio, offrendo feedback tempestivo e accurato. Questo libera tempo per l’insegnante, che può concentrarsi sulla guida e sul supporto più qualitativo.

Infine, l’intelligenza artificiale può aiutare anche chi insegna: suggerendo materiali didattici aggiornati, creando quiz su misura per ogni lezione, o analizzando l’andamento della classe per identificare i concetti che vanno ripresi o approfonditi.

In sintesi, l’AI non sostituisce il docente o il laboratorio, ma li potenzia, offrendo nuovi strumenti per rendere l’insegnamento della chimica più accessibile, efficace e stimolante.

Una rivoluzione che non sostituisce il chimico

Di fronte a questi progressi, è naturale chiedersi: quale sarà allora il ruolo del chimico nel futuro? La risposta è semplice: sarà sempre più centrale, ma in modo diverso.

L’intelligenza artificiale è uno strumento potente, ma resta pur sempre uno strumento. Può accelerare le ricerche, suggerire ipotesi, esplorare combinazioni complesse o evidenziare correlazioni nascoste. Ma non può, da sola, sostituire la competenza critica, l’intuizione, l’esperienza e la creatività che solo un/una chimico/a formato/a può offrire.

Un errore molto comune, oggi, è considerare l’AI come una sorta di enciclopedia moderna, da cui si possano estrarre risposte esatte, univoche, perfette. Ma la chimica non funziona così e neppure l’intelligenza artificiale. Entrambe si muovono su terreni complessi, fatti di ipotesi, interpretazioni, modelli e approssimazioni. Pretendere dall’AI risposte definitive senza saper valutare, filtrare o indirizzare i risultati è un rischio.

Proprio come un bambino brillante, l’AI va educata e guidata. Ha bisogno di esempi buoni, di dati corretti, di domande ben formulate.

E, soprattutto, ha bisogno di essere “letta” da occhi esperti, capaci di interpretare e contestualizzare quello che produce.

In chimica, come nella scienza in generale, la conoscenza non è mai solo questione di calcoli o statistiche: è anche, e soprattutto, comprensione profonda dei fenomeni.

Quindi, piuttosto che temere l’arrivo dell’intelligenza artificiale, dobbiamo imparare a collaborarci con intelligenza.

Il chimico del futuro non sarà un tecnico che esegue, ma un regista che sa orchestrare strumenti nuovi per rispondere a domande sempre più complesse. Ed è proprio questa, forse, la sfida più stimolante dei nostri tempi.

Riferimenti

Aldossary & al. (2024) In silico chemical experiments in the Age of AI: From quantum chemistry to machine learning and back. ChemRxiv. 2024; Doi: 10.26434/chemrxiv-2024-1v269. Disponibile al link: https://chemrxiv.org/engage/chemrxiv/article-details/65cdf1309138d231612baac8.

Anjaneyulu & al. (2024) Revolution of Artificial Intelligence in Computational Chemistry Breakthroughs. Chemistry Africa 7, 3443–3459. https://doi.org/10.1007/s42250-024-00976-5.

Blonder & Feldman-Maggor (2024) AI for chemistry teaching: responsible AI and ethical considerations. Chemistry Teacher International 6(4), 385–395. https://doi.org/10.1515/cti-2024-0014.

Dral (2024) AI in computational chemistry through the lens of a decade-long journey. Chemical Communications. 60, 3240-3258. https://doi.org/10.1039/D4CC00010B.

Dral, Bowman, Liu, Maseras (editors) (2024) Artificial intelligence in computational chemistry (special issue). Disponibile al link: https://www.sciencedirect.com/special-issue/105PZW0WJF7.

Kovner & Berkeley (2024) ‘AI-at-scale’ method accelerates atomistic simulations for scientists. Disponibile al link: https://techxplore.com/news/2024-12-ai-scale-method-atomistic-simulations.html.

Kovner & Berkeley (2025) Computational chemistry unlocked: A record-breaking dataset to train AI models has launched. Disponibile al link: https://phys.org/news/2025-05-chemistry-dataset-ai.html.

Nongnuch & al. (2021) Best practices in machine learning for chemistry. Nature Chemistry 13, 505–508. https://doi.org/10.1038/s41557-021-00716-z.

Yuriev & al. (2024) The Dawn of Generative Artificial Intelligence in Chemistry Education. Journal of Chemical Education 101, 2957-2929. https://doi.org/10.1021/acs.jchemed.4c00836.

Udourioh & al. (2025) Artificial Intelligence-Driven Innovations in Chemistry Education: Transforming Teaching and Learning Practices. In: Handbook on Artificial Intelligence and Quality Higher Education. Volume 1 (pp.379-388). Publisher: Sterling Publishers, Slough UK and Delhi, India. Disponibile al link: https://www.researchgate.net/publication/388675124_Artificial_Intelligence-Driven_Innovations_in_Chemistry_Education_Transforming_Teaching_and_Learning_Practices.

Zhang & al. (2025) Artificial intelligence for catalyst design and synthesis. Matter 8, 102138. https://doi.org/10.1016/j.matt.2025.102138.

Dal ppm al femtogrammo: i pesticidi c’erano anche prima ma non li vedevamo

Ogni tanto circolano articoli dai toni allarmistici che mostrano quanto spesso oggi si trovino tracce di pesticidi negli alimenti, nell’acqua, nel suolo. “Una volta queste cose non c’erano”, si legge. Ma è davvero così? La risposta è semplice: no, non è che una volta non ci fossero, è che non eravamo in grado di vederle.

La differenza sta negli occhi, non nelle cose

In chimica analitica, quando si parla di rilevare una sostanza, non si usa mai dire con leggerezza “non c’è”. Si dice invece “non determinabile” (N.D.): vuol dire che non è rilevabile con gli strumenti disponibili, non che la sostanza non sia presente. È come cercare di vedere le stelle con un binocolo da teatro: non le vedi, ma non vuol dire che non ci siano.

E proprio come un telescopio moderno rivela galassie invisibili a Galileo, gli strumenti di oggi vedono tracce infinitesimali di sostanze che gli strumenti di ieri non riuscivano minimamente a percepire.

Un po’ di storia: quanto si vedeva ieri?

  • Anni ’50-’60: i primi gascromatografi (GC) usavano rivelatori come il TCD (rilevava a partire da 1-10 ppm, cioè parti per milione) o il più sensibile FID (circa 0.1 ppm). I pesticidi? Difficili da vedere, se non in quantità elevate.
  • Anni ’70-’80: entra in scena l’Electron Capture Detector (ECD), molto sensibile per sostanze come i pesticidi: arriva a livelli di 0.1 picogrammi, cioè un miliardesimo di milligrammo! Anche il GC-MS (gascromatografia accoppiata a spettrometria di massa) comincia a essere usato per rilevare composti in tracce.
  • Anni ’90-2000: con strumenti più raffinati come il GC-MS/MS, si scende ancora: si arriva a livelli di femtogrammi (mille miliardesimi di grammo). La sensibilità è altissima e il rumore di fondo si riduce grazie a nuove tecnologie (Figura 1).

Dal 2010 in poi: l’uso di spettrometri ad alta risoluzione (HRMS), colonne capillari e nuovi algoritmi di elaborazione dei dati ci porta a una capacità di rilevazione fino a 0.001 picogrammi.

Figure 1. il grafico mostra l'evoluzione dei limiti di rilevazione (LOD) in picogrammi, su scala logaritmica, per alcune delle tecniche analitiche più usate nella chimica analitica dal 1960 a oggi. Negli anni ’60 si vedevano solo concentrazioni nell’ordine dei ppm, oggi possiamo rilevare sostanze anche a femtogrammi, cioè mille miliardesimi di grammo.

Figura 1. il grafico mostra l’evoluzione dei limiti di rilevazione (LOD) in picogrammi, su scala logaritmica, per alcune delle tecniche analitiche più usate nella chimica analitica dal 1960 a oggi. Negli anni ’60 si vedevano solo concentrazioni nell’ordine dei ppm, oggi possiamo rilevare sostanze anche a femtogrammi, cioè mille miliardesimi di grammo.

Quindi oggi i pesticidi sono più usati?

No, non è questo il punto. È che oggi possiamo vedere concentrazioni che una volta erano semplicemente invisibili. È come se avessimo acceso una torcia in una stanza buia. Le cose nella stanza c’erano anche prima. Solo, non potevamo vederle (Figura 2).

Figura 2. Come vediamo gli analiti oggi. Il miglioramento della sensibilità strumentale ci consente di vedere cose che cinque, dieci, venti e più anni fa non eravamo in grado di rilevare.

Un esempio pratico

Un pesticida presente in un campione d’acqua nel 1970 in quantità pari a 5 picogrammi per litro non sarebbe stato rilevato da nessuno strumento allora disponibile. Oggi sì. Ma non significa che quel pesticida non ci fosse allora.

Conclusione

Quando leggiamo “oggi si trovano più pesticidi”, chiediamoci prima se si tratta di un aumento reale o semplicemente di un salto nella capacità di osservazione. La chimica analitica, nel frattempo, ha fatto un balzo gigantesco: non siamo più immersi nei veleni, siamo immersi nei dati. E questo è un enorme passo avanti.

Riferimenti

“Bella e Potente” (L. Cerruti)

Basic Gas Chromatography (H.M. McNair, J.M. Miller)

Gohlke, R.S. (1959)Analytical Chemistry, 31, 535–541.

Karayannis, M.I.; Efstathiou, C.E. (2012). Talanta, 102, 7-15

Perché studiare chimica e fisica? L’innalzamento ebullioscopico

Avete presente la classica robetta sul mettere il sale prima o dopo che l’acqua ha cominciato a bollire? Questa cosa mi ha sempre lasciato perplesso perché ho sempre pensato che chiunque abbia frequentato con profitto le scuole superiori conosca le proprietà colligative e sa cosa significa innalzamento ebullioscopico. Traduco per i meno esperti: l’innalzamento ebullioscopico è l’innalzamento della temperatura di ebollizione di un solvente quando in esso vengano aggiunti dei soluti. Nel caso specifico, il solvente è l’acqua mentre il soluto è il cloruro di sodio (NaCl), popolarmente conosciuto come sale da cucina.

La solubilità in acqua del cloruro di sodio a 100 °C è di circa 400 g L-1.

L’innalzamento ebullioscopico si calcola usando la formuletta:

ΔT=keb · m · i                                                                                         (1)

dove ΔT è la variazione della temperatura di ebollizione tra il solvente che contiene il soluto e quella del solvente puro; keb è una costante che si chiama costante ebullioscopica. Essa è tabulata per ogni solvente. Per l’acqua, la keb assume il valore di 0.512 °C kg mol-1. Infine, m è la cosiddetta molalità, ovvero la concentrazione di soluto espressa in mol kg-1, dove il peso si riferisce al solvente usato, mentre i è il cosiddetto coefficiente di Vant’Hoff.

Adesso possiamo applicare la formuletta (1) per calcolare quale quantità di cloruro di sodio permette di alzare la temperatura di ebollizione dell’acqua di quantità note. Quelle che che ho preso in considerazione sono le seguenti:

ΔT = 0.01; 0.025; 0.05; 0.075; 0.1; 0.25; 0.5; 0.75; 1; 1.25; 1.5; 1.75; 2; 2.25; 2.5; 2.75; 3; 3.25; 3.5

Dal grafico riportato nella figura qui sotto, ne viene che per aumentare di un solo grado centigrado la temperatura di ebollizione di un litro di acqua occorrono circa 114 g di NaCl. In realtà, noi non aggiungiamo mai oltre 100 g di sale nell’acqua che mettiamo a bollire per la pasta. Tutt’al più ne usiamo un decimo, ovvero circa una decina di grammi. Dallo stesso grafico si evince come l’aggiunta di una decina di grammi di NaCl ad un litro di acqua innalza il punto di ebollizione nell’intervallo 0.075 – 0.1 °C. In altre parole, la temperatura di ebollizione passa da 100 °C all’intervallo di temperature compreso tra 100.08 e 100.1 °C.

Ancora pensate, voi adulti, che chiedere se aggiungere il sale prima o dopo l’ebollizione sia una domanda seria?

Edit: nel calcolo dell’innalzamento ebullioscopico non ho tenuto conto del coefficiente di Vant’Hoff che, per il cloruro di sodio, è pari a 2. Questo vuol dire che, introducendo questo fattore di correzione, l’aumento di temperatura dell’acqua a cui si aggiungono grosso modo una decina di grammi di NaCl è intorno a 0.1-0.2 °C. Insomma, da 100 °C si passa a 100.1-100.2 °C. Rimane sempre valida la domanda: ancora pensate, voi adulti, che chiedere se aggiungere il sale prima o dopo l’ebollizione sia una domanda seria?

 

Fonte dell’immagine di copertina

Share