Negli ultimi anni, gli eventi meteorologici estremi sono diventati sempre più frequenti, sia in Italia che nel resto del mondo.
Una mappa interattiva dell’ISPRA, consultabile online, mostra chiaramente dove questi eventi si sono verificati in Italia tra il 2020 e il 2024. Si osservano piogge torrenziali, grandinate eccezionali, ondate di calore anomale e prolungate. Tutti segnali di un sistema climatico sempre più instabile.
Come conseguenza di queste anomalie, è sempre più comune imbattersi – soprattutto sui social – in discussioni o thread in cui si afferma che fenomeni come le alluvioni, seguite da bruschi cali di temperatura, smentirebbero l’esistenza del riscaldamento globale.
Una frase ricorrente è:
“Altro che riscaldamento globale: ieri grandinava e oggi ci sono 18 gradi!”
Chi vive in zone come Palermo – dove, negli ultimi anni, si sono registrati picchi termici estremi e livelli di umidità superiori all’80%, anche in pieno giorno – tende invece a riconoscere, in modo molto concreto, la realtà del cambiamento climatico.
“Orpo… che caldo. Veramente stiamo andando verso qualcosa che non abbiamo mai vissuto.”
Ma come si concilia tutto questo?
Come può il riscaldamento globale provocare temporali violenti, grandinate e persino abbassamenti improvvisi della temperatura?
Dobbiamo innanzitutto ricordare che la logica scientifica è controintuitiva. Non possiamo applicare al metodo scientifico la logica che usiamo tutti i giorni per collegare ciò che vediamo con ciò che pensiamo sia vero: la realtà fisica spesso sorprende e non si lascia interpretare con impressioni o sensazioni.
Sulla base di queste premesse, chiediamoci cosa accade sulla superficie terrestre quando la temperatura aumenta di un solo grado Celsius. Un grado può sembrare poco. Se tocchiamo una pentola a 70 °C proviamo lo stesso bruciore che a 71 °C. E non distinguiamo tra il freddo di 0 °C e quello di -1 °C.
Ma il pianeta non è il nostro palmo, né il nostro naso.
Nel sistema Terra, un solo grado può fare una differenza gigantesca: significa più energia, più evaporazione, più acqua nell’atmosfera. E più acqua nell’aria significa, potenzialmente, più pioggia, più violenza, più squilibrio.
Per capire quanto sia concreta questa affermazione, facciamo un semplice calcolo: stimiamo quanta acqua in più evapora dagli oceani quando la loro temperatura superficiale sale di un solo grado come, per esempio, da 25 °C a 26 °C.
Effetti della temperatura sull’equilibrio H2Oliquido = H2Ovapore
Per semplicità, consideriamo solo una porzione di oceano estesa per 100 milioni di metri quadrati (pari a 100 km²) e limitiamoci al primo metro d’aria immediatamente sovrastante. Vogliamo capire quanta acqua in più finisce nell’aria subito sopra l’oceano quando la sua temperatura sale di un solo grado, da 25 °C a 26 °C.
L’equazione di Antoine
Per stimare la pressione di vapore dell’acqua alle due temperature, usiamo la formula empirica di Antoine, valida tra 1 e 100 °C:
log₁₀(P) = A − B / (C + T)
dove:
P è la pressione di vapore in mmHg,
T è la temperatura in gradi Celsius,
A, B, C sono coefficienti specifici per ciascuna sostanza (ad esempio, acqua, etanolo, acetone…) e validi solo entro certi intervalli di temperatura. Nel caso specifico dell’acqua: A = 8.07131; B = 1730.63; C = 233.426 (valori specifici per l’acqua in questo intervallo). Il riferimento per i valori numerici di A, B e C è qui.
Convertiamo poi la pressione in Pascal (1 mmHg = 133.322 Pa).
I risultati
Applicando i valori:
a 25 °C si ottiene P ≈ 23.76 mmHg, cioè circa 3158 Pa;
a 26 °C si ottiene P ≈ 25.13 mmHg, cioè circa 3351 Pa.
Calcolo della densità del vapore
Convertiamo ora la pressione parziale in densità di vapore acqueo (ρ), usando l’equazione dei gas ideali:
ρ = (P × M) / (R × T)
dove:
P è la pressione in pascal,
M è la massa molare dell’acqua (18.015 g/mol),
R è la costante dei gas (8.314 J/mol·K),
T è la temperatura assoluta in Kelvin.
Calcolando:
a 25 °C (298.15 K) si ottiene ρ ≈ 0.02295 kg/m³;
a 26 °C (299.15 K) si ottiene ρ ≈ 0.02431 kg/m³.
L’aumento netto di vapore
La differenza di densità è:
0,02431 − 0,02295 = 0,00136 kg/m³
Moltiplichiamo per il volume d’aria (100.000.000 m³):
0,00136 × 100.000.000 = 136.000 kg
In altre parole, un aumento di temperatura di 1 °C (da 25 a 26 °C) genera 136 tonnellate di vapore in più, solo su una superficie di 100 km² e solo nello strato d’aria immediatamente sopra l’oceano.
157 800 000 000 kg, ovvero 158 milioni di tonnellate di vapore acqueo in più.
E questo, lo ripeto, solo nello strato d’aria immediatamente sopra la superficie, per un singolo grado in più.
Ma quei numeri non restano sulla carta. Entrano in circolo nell’atmosfera, e da lì comincia il loro impatto reale.
Dall’oceano alla pioggia: il viaggio del vapore
Ma cosa succede a tutta quest’acqua una volta entrata in atmosfera?
Viene trasportata dalle correnti. Quando incontra masse d’aria più fredde, condensa formando nubi e poi pioggia. Se la quantità di vapore è anomala, lo saranno anche le precipitazioni: brevi, violente, improvvise.
Inoltre, il vapore acqueo è attivo nell’infrarosso: è un gas serra molto più potente della CO₂, anche se molto più effimero. In climatologia si parla di feedback positivo: l’aumento della temperatura fa evaporare più acqua → il vapore trattiene più calore → aumenta ancora la temperatura → e così via.
Quella pioggia non è “contro” il riscaldamento: è il riscaldamento
Piogge torrenziali, grandinate e cali locali della temperatura non smentiscono il riscaldamento globale. Al contrario, ne sono una conseguenza. Il sistema Terra si scalda in media, ma localmente può produrre raffreddamenti temporanei proprio in risposta a squilibri energetici più ampi.
Conclusioni
Il calcolo che ho presentato è, ovviamente, una semplificazione. Non tiene conto del vento, della turbolenza, della salinità, né della reale dinamica verticale dell’atmosfera. Non pretende di descrivere con esattezza tutto ciò che accade nell’interazione tra oceano e cielo. Ma ha un obiettivo chiaro: rendere visibile, con i numeri, una verità che l’intuizione fatica a cogliere.
Perché la logica scientifica non coincide con il senso comune.
Come ho già scritto, nel nostro vissuto quotidiano, un solo grado in più non è nulla. Non percepiamo differenze tra 0 °C e -1 °C, tra 70 °C e 71 °C. Ma il sistema Terra non funziona secondo ciò che sentiamo sulla pelle: funziona secondo leggi fisiche. E in fisica, un solo grado può significare miliardi di tonnellate d’acqua in più nell’atmosfera. Significa più energia, più instabilità, più violenza meteorologica.
Paradossalmente, quello che percepiamo come una smentita del riscaldamento globale – la grandine, il temporale, il crollo improvviso delle temperature – ne è invece una manifestazione diretta.
Il clima risponde con intensità e disordine proprio perché è fuori equilibrio. E lo è, in parte, per colpa di quell’apparente “piccolo” grado in più.
La scienza ci dà gli strumenti per misurare, per capire, per anticipare.
Sta a noi scegliere se vogliamo continuare a confondere il temporale con una tregua, o iniziare a leggere in quelle piogge il segnale di un sistema che sta cambiando – e lo sta facendo sotto i nostri occhi.
Quella pioggia che ti ha fatto dire “ma quale riscaldamento globale?” è esattamente il motivo per cui dovremmo iniziare a preoccuparci.
Che cosa possono raccontarci i nostri capelli? Molto più di quanto immaginiamo. Non sono soltanto un segno di identità o di stile personale, ma vere e proprie architetture biologiche capaci di custodire informazioni preziose: sulla nostra salute, sulle sostanze a cui siamo stati esposti e persino sulle tracce lasciate da trattamenti cosmetici.
È proprio per raccontare questa dimensione scientifica, spesso trascurata, che voglio parlare di tricochimica: uno studio chimico del capello in tutti i suoi aspetti, dall’estetica alla tossicologia e fino all’analisi forense.
La chimica, infatti, non è una disciplina astratta. È uno strumento concreto per capire fenomeni quotidiani. Capire come funzionano le tinture, le permanenti o i trattamenti liscianti significa comprendere reazioni chimiche precise. Allo stesso modo, analizzare i capelli per individuare droghe o metalli pesanti richiede metodiche chimico-analitiche raffinate, fondamentali in medicina legale e nelle indagini forensi.
In questo articolo proverò a esplorare questo campo affascinante e multidisciplinare. Vedremo come sono fatti i capelli, quali trasformazioni chimiche possono subire e come la chimica ci aiuta a leggerne la storia. Un viaggio che unisce bellezza e scienza, con uno sguardo attento anche alle implicazioni sociali ed etiche di queste conoscenze.
Il significato evoluzionistico dei capelli
Per affrontare la chimica dei capelli in modo completo è utile partire da una domanda più profonda: perché l’essere umano ha ancora i capelli sulla testa? A differenza della maggior parte dei mammiferi, che conservano un pelame diffuso sul corpo, la nostra specie si caratterizza per una pelle glabra salvo alcune aree strategiche, come il cuoio capelluto.
Le ipotesi evolutive più accreditate interpretano i capelli come una reliquia evolutiva che ha progressivamente perso molte delle funzioni originarie di isolamento termico. Tuttavia, la loro conservazione sul cranio potrebbe aver offerto vantaggi adattativi. Un ruolo plausibile è la protezione dal surriscaldamento diretto, agendo da schermo contro la radiazione solare intensa, specialmente in climi aperti e soleggiati. Allo stesso tempo, il cuoio capelluto riccamente vascolarizzato favorisce la dispersione di calore in eccesso. La distribuzione e la densità dei capelli umani sono quindi il risultato di una pressione selettiva che ha equilibrato protezione e termoregolazione.
Inoltre, il capello ha mantenuto importanti valenze sociali e sessuali. Il colore, la forma e la consistenza dei capelli variano tra individui e popolazioni, diventando segnali di riconoscimento, età, salute e persino desiderabilità sessuale. Queste caratteristiche hanno stimolato la selezione sessuale e culturale, contribuendo a fare del capello un elemento centrale dell’identità personale.
A conferma della sua rilevanza evolutiva, studi recenti hanno identificato correlazioni genetiche di fine scala con la morfologia del capello, evidenziando la selezione naturale e la divergenza adattativa in diverse popolazioni umane.
Comprendere queste dimensioni evolutive non è solo una curiosità: ci ricorda che la chimica del capello studia un tessuto vivo di storia biologica e culturale. Anche la tricochimica si deve confrontare con questa eredità evolutiva, che plasma le caratteristiche fisiche e chimiche della fibra capillare così come le funzioni sociali che ancora oggi attribuiamo ai nostri capelli.
Nascita e crescita del capello: la biologia del follicolo pilifero
Per comprendere davvero la chimica del capello – la tricochimica – è fondamentale partire dalla sua biologia. Il capello non è soltanto la fibra che vediamo spuntare dalla cute, ma il risultato di un processo di crescita complesso che avviene all’interno del follicolo pilifero, una struttura specializzata immersa nella pelle.
Il follicolo pilifero è una piccola tasca di epitelio che avvolge la parte viva del capello e ne dirige la formazione. Al suo interno si trova la papilla dermica, ricca di vasi sanguigni, che fornisce nutrienti, ossigeno e, non meno importante, trasporta farmaci e metalli pesanti che possono incorporarsi nella fibra in formazione. È proprio grazie a questa connessione vascolare che il capello diventa un archivio biologico capace di registrare, nel tempo, esposizioni a sostanze esterne.
Tradizionalmente, il ciclo di vita del capello si suddivide in tre fasi principali:
Anagen: fase di crescita attiva, che può durare anni. In questa fase le cellule della matrice germinativa si moltiplicano rapidamente e si cheratinizzano progressivamente, formando il fusto del capello che emerge dalla cute. È qui che avviene l’incorporazione più stabile di sostanze esogene, rendendo questa fase cruciale per l’analisi tossicologica.
Catagen: breve fase di regressione (2–3 settimane) in cui l’attività proliferativa si arresta e il follicolo si contrae.
Telogen: fase di riposo (2–6 mesi) al termine della quale il capello smette di crescere e rimane “in attesa” prima di essere espulso.
Un altro aspetto importante del follicolo è la presenza di strutture di supporto come la guaina epiteliale interna, che avvolge la fibra nelle sue prime fasi di formazione. In questa guaina si esprime la trichohyalin(in italiano la tradurrei come tricoialina), una proteina ricca di glutammina che svolge un ruolo cruciale nel conferire resistenza meccanica e nell’ordinare la cheratinizzazione delle cellule. Questa proteina agisce come una sorta di “impalcatura molecolare”, indispensabile per ottenere la struttura finale della fibra capillare.
Capire la biologia del follicolo è dunque essenziale per spiegare non solo la struttura del capello che osserviamo a occhio nudo, ma anche la sua capacità di registrare esposizioni chimiche durante la crescita. Solo conoscendo questo processo si possono comprendere appieno sia la chimica cosmetica (che deve penetrare e modificare la fibra), sia le analisi tossicologiche (che leggono la storia di queste incorporazioni).
Struttura e composizione del capello
Un capello non è un semplice “filo” uniforme: è un materiale biologico complesso, progettato per resistere, proteggere e comunicare caratteristiche individuali come colore, forma e lucentezza.
Architettura della fibra: cuticola, corteccia e midollo
Il capello è costituito da tre parti principali (Figura 1). All’esterno si trova la cuticola, formata da cellule appiattite e sovrapposte a tegola, che proteggono gli strati interni e conferiscono lucentezza grazie alla loro disposizione ordinata. Subito sotto si trova la corteccia, la parte più voluminosa, composta da fibre di cheratina organizzate in macrofibrille e pigmenti melanici che determinano il colore. Qui si stabiliscono i legami chimici (come i ponti disolfuro) che influenzano la forma del capello. Al centro si trova il midollo, una regione meno definita e spesso discontinua nei capelli più fini, che contribuisce all’isolamento termico e alla rigidità.
Figura 1. Struttura schematica di un capello umano.
Composizione chimica: membrana interna, cheratina, lipidi e acqua
A livello chimico, la fibra capillare è un materiale stratificato e sofisticato. La componente principale è la cheratina, una proteina fibrosa costituita da filamenti polipeptidici ricchi di cisteina, che si organizzano in strutture a coiled-coil di tipo α-elica. Queste eliche si associano in filamenti intermedi, che a loro volta formano macro-fibrille, dando alla corteccia un’architettura gerarchica e resistente. Studi recenti di diffrazione a raggi X hanno confermato questa architettura gerarchica, evidenziando distanze caratteristiche tra filamenti intermedi (90, 45 e 27 Å) che si mantengono costanti in individui con tipi di capelli diversi.
Tra le cellule della corteccia e della cuticola si interpone il Cell Membrane Complex (CMC), una struttura lipidica e proteica laminare che funge da collante idrofobo, regolando la coesione cellulare e la permeabilità all’acqua e alle sostanze chimiche. Esperimenti di microdiffrazione hanno dimostrato che il CMC è sensibile all’umidità, mostrando rigonfiamento al contatto con l’acqua: un aspetto che spiega la sua importanza nei trattamenti cosmetici e nella penetrazione di agenti idrosolubili.
La cuticola, oltre alla funzione protettiva, contiene lamelle ben stratificate che includono β-cheratina, distinta dall’α-cheratina della corteccia, conferendole maggiore compattezza e impermeabilità. Inoltre, la composizione chimica complessiva del capello include lipidi liberi (circa 1-9%), acqua (10-15% circa in condizioni normali), minerali come magnesio, zinco, ferro e rame, oltre a tracce di aminoacidi e vitamine. Questa miscela complessa fornisce al capello proprietà di robustezza, elasticità e resistenza agli stress ambientali, anche se può essere danneggiata in modo irreversibile da trattamenti cosmetici aggressivi, calore e radiazioni UV.
Le proprietà fisiche e cosmetiche del capello dipendono infine dai legami chimici che ne stabilizzano la struttura. I legami a idrogeno sono deboli ma numerosi, si rompono e si riformano facilmente con umidità o calore, ed è grazie a loro che si ottiene l’effetto temporaneo della piega (phon, piastra). Per approfondire la natura e la forza di questi legami nell’acqua e nelle soluzioni, è possibile leggere due articoli che ho scritto sul blog: qui e qui. I legami salini, di tipo ionico, dipendono dall’interazione tra cariche opposte presenti sulle catene laterali degli amminoacidi e sono sensibili al pH. I legami disolfuro, molto più forti, uniscono in modo stabile le catene di cheratina grazie ai ponti tra residui di cisteina e sono i bersagli principali dei trattamenti chimici come permanenti o lisciature.
Conoscere questa struttura complessa è fondamentale per capire come e perché i capelli reagiscono ai trattamenti cosmetici, all’umidità ambientale o ai processi analitici usati in tossicologia e scienze forensi. È il primo passo del nostro viaggio nella tricochimica.
Ulteriori approfondimenti sono disponibili anche qui.
La chimica cosmetica del capello
La chimica cosmetica applicata ai capelli è un settore complesso e affascinante che si occupa di trasformare la fibra capillare attraverso reazioni controllate, con l’obiettivo di modificare colore, forma e aspetto. Uno degli esempi più noti è la colorazione permanente, che si basa su un processo di ossidazione ben studiato. In questo caso si usano due componenti principali: un agente alcalino (come l’ammoniaca o la etanolammina) e un ossidante (generalmente perossido di idrogeno o acqua ossigenata). Il composto alcalino serve ad aprire le squame della cuticola, permettendo al perossido e ai precursori del colore (come la p-fenilendiammina) di penetrare nella corteccia. Lì, il perossido ossida i precursori in intermedi reattivi che, legandosi a opportuni “couplers” (come il resorcinolo), formano grandi molecole di colorante intrafibra, responsabili della tonalità stabile e duratura. Questo processo, come ricorda anche la letteratura recente, è pressoché invariato da oltre un secolo, ma rimane il più efficace per coprire i capelli bianchi e schiarire tonalità naturali. La Figura 2 mostra le strutture chimiche di alcune molecole usate per il trattamento di colorazione permanente.
Figura 2. Molecole usate nei processi di colorazione permanente dei capelli.
I trattamenti per permanenti e lisciature chimiche agiscono invece modificando i legami disolfuro tra le catene di cheratina all’interno della corteccia. Nelle permanenti tradizionali si usa un riducente (come l’acido tioglicolico, Figura 3) per rompere questi ponti, consentendo di avvolgere i capelli su bigodini e fissare la nuova forma. Successivamente si applica un ossidante (solitamente ancora perossido di idrogeno) per riformare i legami disolfuro nella configurazione desiderata. Anche le lisciature chimiche sfruttano lo stesso principio, ma con tecniche e formulazioni diverse per spezzare i ponti disolfuro e fissare una fibra capillare più lineare. Questi processi, pur efficaci, indeboliscono la struttura del capello e ne aumentano la porosità, con conseguenze estetiche e meccaniche rilevanti.
Figura 3. Struttura dell’acido tioglicolico.
Un capitolo delicato è quello dei trattamenti liscianti con formaldeide (Figura 4) o con rilascio di formaldeide, molto discussi per i potenziali rischi per la salute. Il cosiddetto “Brazilian Blowout” e trattamenti simili usano formaldeide (o precursori che la rilasciano a caldo) per creare ponti metilenici tra le catene di cheratina, bloccandole in configurazioni lisce. Tuttavia, l’esposizione ai vapori di formaldeide è un noto rischio cancerogeno e può causare irritazioni acute e sensibilizzazioni. Per questo motivo, normative come quelle dell’Unione Europea vietano o limitano severamente l’uso di formaldeide libera o rilasciata oltre soglie minime, imponendo test e dichiarazioni specifiche sui cosmetici (riferimenti qui, qui e qui).
Figura 4. Struttura della formaldeide.
La cosmetica dei capelli si muove così su un crinale tecnico e normativo importante: da un lato c’è la ricerca di prodotti sempre più efficaci e personalizzati, dall’altro la crescente attenzione alla sicurezza dell’utilizzatore e del professionista. Negli ultimi anni, inoltre, si osserva un forte interesse per alternative più delicate e sostenibili, come colorazioni a basso contenuto di ammoniaca o a base di derivati naturali, e trattamenti liscianti privi di formaldeide, che sfruttano polimeri cationici o derivati di aminoacidi per un effetto condizionante e disciplinante meno aggressivo (riferimenti qui e qui).
I farmaci e i metalli pesanti si depositano nel capello principalmente durante la fase di crescita (anagen), grazie alla circolazione sanguigna che porta le molecole fino al follicolo, la piccola struttura immersa nella cute dove le cellule del capello si formano, si moltiplicano e si cheratinizzano. Una volta incorporate nella matrice di cheratina in formazione, queste sostanze restano stabilmente legate alla struttura del fusto, resistendo alla degradazione per lungo tempo. Altri percorsi di incorporazione includono il sebo, il sudore e in misura minore l’assorbimento ambientale. Tuttavia, i moderni protocolli di lavaggio e decontaminazione riducono il rischio di contaminazione esterna falsamente positiva.
Dal punto di vista analitico, l’analisi tossicologica del capello richiede tecniche di estrazione sofisticate. La fibra capillare, costituita per il 65–95% da cheratina, oltre che da lipidi, acqua e pigmenti, deve essere digerita o frammentata in modo controllato per liberare i composti target senza degradarli. Tra le tecniche più comuni di preparazione ci sono l’idrolisi acida o enzimatica, l’estrazione in solventi organici e la digestione assistita da ultrasuoni. Dopo l’estrazione, le sostanze vengono analizzate con metodi ad alta sensibilità e specificità come la spettrometria di massa accoppiata alla gascromatografia (GC–MS) o alla cromatografia liquida (LC–MS). Queste metodiche consentono di rilevare quantitativi nell’ordine dei picogrammi di numerosi farmaci e metaboliti, inclusi oppiacei, cocaina, cannabis, amfetamine e benzodiazepine, così come metalli pesanti analizzabili via spettroscopia di assorbimento atomico (AAS).
Uno dei principali vantaggi dell’analisi sul capello è la sua “finestra temporale estesa”: ogni centimetro di lunghezza corrisponde approssimativamente a un mese di crescita, permettendo di segmentare il campione per ricostruire una cronologia dettagliata delle esposizioni. Tuttavia, esistono anche limiti e criticità. Trattamenti cosmetici aggressivi come tinture, decolorazioni o permanenti possono ridurre la concentrazione di sostanze depositate o alterarne la distribuzione, rendendo più difficile l’interpretazione. Anche la variabilità individuale (colore, contenuto di melanina, porosità) può influenzare l’assorbimento dei farmaci, rendendo complessa la traduzione quantitativa dei dati in dosi assunte.
Nonostante queste sfide, l’analisi tossicologica del capello rappresenta uno strumento fondamentale in ambito forense e clinico per la sua capacità di documentare l’esposizione remota a sostanze psicoattive o tossiche, offrendo informazioni preziose che integrano e completano quelle ricavabili da sangue o urina.
Conclusioni, prospettive e sfide future
La tricochimica si propone come un campo di studio davvero interdisciplinare, capace di unire la conoscenza chimica della fibra capillare con esigenze estetiche, implicazioni tossicologiche e applicazioni forensi. Comprendere la composizione, la struttura e le trasformazioni chimiche dei capelli significa poter progettare trattamenti cosmetici più efficaci e sicuri, interpretare correttamente le analisi tossicologiche e persino ricostruire storie di consumo di sostanze o dinamiche criminali.
Tra le sfide principali spicca la necessità di una maggiore standardizzazione delle analisi tossicologiche: solventi, protocolli di estrazione, metodi di decontaminazione e tecniche strumentali richiedono armonizzazione per garantire risultati confrontabili e robusti. Anche i trattamenti cosmetici pongono questioni complesse: mentre il mercato cerca prodotti sempre più performanti e personalizzati, resta fondamentale valutarne l’efficacia in relazione alla salute del capello e della persona, evitando ingredienti aggressivi o potenzialmente dannosi.
Il futuro della tricochimica si muove verso un’integrazione sempre più stretta tra cosmetica e tossicologia: l’obiettivo è sviluppare prodotti “smart” e sicuri, capaci di interagire con la fibra capillare in modo controllato, rispettandone la biologia e la chimica. In questo senso, la ricerca multidisciplinare – che unisce chimica organica, biochimica, tossicologia analitica e scienza dei materiali – sarà essenziale per innovare e rispondere alle nuove esigenze di consumatori, professionisti e legislatori.
La tricochimica non è dunque un semplice esercizio accademico: è una disciplina viva e applicata, che tocca la nostra quotidianità, dalla cura estetica all’identità personale, dalla salute alla sicurezza pubblica. Riconoscerne l’importanza e investire nella sua evoluzione significa contribuire a un approccio più consapevole, informato e sostenibile al mondo dei capelli.
Se c’è una cosa che la scienza dovrebbe insegnarci, è che non tutti gli studi hanno la stessa valenza e importanza. Alcuni sono ben progettati, trasparenti e ci aiutano a capire meglio il mondo; altri, invece, presentano fragilità nelle premesse, nel metodo o nell’interpretazione dei dati.
L’ultimo studio pubblicato nel 2025 su Environmental Health da un gruppo di ricerca dell’Istituto Ramazzini ha fatto molto discutere, sostenendo che anche dosi di glifosato ritenute sicure possano aumentare il rischio di tumori nei ratti. Da qui è nato il timore che, se aumenta la possibilità di avere tumori nei ratti, anche l’essere umano possa correre lo stesso rischio. Tuttavia, un’analisi attenta rivela numerosi limiti sull’effettiva rilevanza dei risultati.
Vediamo perché.
Dosi scelte e perché non sono realistiche
Lo studio ha previsto tre dosi di glifosato somministrate ai ratti:
0.5 mg/kg al giorno (l’ADI, ovvero la dose giornaliera accettabile in Europa)
5 mg/kg al giorno (10 volte l’ADI)
50 mg/kg al giorno (NOAEL, che corrisponde alla dose massima senza effetti osservati).
Si prende la dose più alta che non ha causato effetti negli animali (es. 50 mg/kg).
Si divide per 100: 10 per la variabilità interspecie (topo vs uomo) e 10 per la variabilità intraspecie (uomo vs uomo).
Si ottiene l’ADI (0.5 mg/kg).
Quindi, se uno studio trova effetti giusto all’ADI, non è un fallimento del sistema: è la conferma che il sistema di sicurezza funziona.
E nella vita reale? L’EFSA ha stimato che l’esposizione reale della popolazione è centinaia di volte inferiore all’ADI. Per raggiungere 0.5 mg/kg, un adulto di 70 kg dovrebbe mangiare 10 kg di soia OGM al giorno, tutti i giorni. E anche gli agricoltori professionisti non si avvicinano a quei livelli.
Discrepanze tra dosi dichiarate e dosi realmente usate
Come si può facilmente immaginare, il lavoro che stiamo valutando non è passato inosservato. La comunità scientifica si è subito attivata per verificare se quanto riportato fosse attendibile, e questo è un aspetto cruciale. In un contesto saturo di informazioni, dove distinguere il falso dal vero o dal verosimile è sempre più difficile, avere dei riferimenti affidabili per valutare la solidità di uno studio è fondamentale. Dimostra anche che la scienza non resta chiusa in una torre d’avorio: controlla, discute e, se necessario, corregge.
Un’analisi particolarmente accurata pubblicata su PubPeer ha evidenziato come gli autori dello studio mirassero a somministrare ai ratti tre livelli “target” di esposizione giornaliera al glifosato, corrispondenti, come già indicato nel paragrafo precedente, all’ADI europea di 0,5 mg per chilo di peso corporeo, a 5 mg/kg e infine al NOAEL di 50 mg/kg, calibrando la concentrazione del principio attivo nell’acqua da bere sulla base di un consumo medio di 40 mL e di un peso medio di 400 g. Tuttavia, nei grafici relativi al peso e al consumo d’acqua, visibili già a partire dalla quinta settimana di vita, si nota chiaramente che i ratti più giovani, ancora ben al di sotto dei 400 g, continuano a bere quantità di acqua vicine a quelle stimate per gli adulti. Questo significa che, anziché ricevere esattamente i dosaggi “target”, i cuccioli assumono in realtà molto più glifosato, spesso oltre il doppio di quanto previsto per l’ADI, proprio nel momento in cui la loro vulnerabilità ai possibili effetti tossici è maggiore.
Colpisce poi il fatto che i pannelli che riportano l’effettiva assunzione giornaliera di glifosato inizino soltanto alla tredicesima settimana, escludendo dalla visualizzazione le prime dieci settimane successive allo svezzamento, quando il sovradosaggio è più pronunciato. In questo modo il lettore non ha modo di rendersi conto di quanto i ratti più giovani abbiano effettivamente superato i livelli di riferimento, né di valutare eventuali conseguenze sulla salute in questa fase critica dello sviluppo.
La mancanza di qualsiasi discussione nel testo centrale su questa esposizione eccessiva nei cuccioli rappresenta una lacuna significativa, perché proprio nei primi mesi di vita gli organismi mostrano una sensibilità maggiore a sostanze tossiche. Sarebbe stato opportuno non soltanto estendere i grafici dell’assunzione fin dalla quinta settimana, ma anche accompagnarli con un’analisi dedicata a quei dati, per capire se fenomeni di tossicità precoce possano essere correlati proprio al superamento dei dosaggi prefissati. In assenza di questa trasparenza, resta un interrogativo aperto sul reale profilo di sicurezza del glifosato nei soggetti in accrescimento.
Statistiche creative: quando un “aumento significativo” è solo rumore
Uno dei problemi più comuni negli studi tossicologici è quando si prendono in considerazione troppi parametri. In queste circostanze, prima o poi, qualcosa risulterà “statisticamente significativo”… ma per puro caso.
Lo studio ha esaminato tumori in:
fegato
pelle
tiroide
sistema nervoso
reni
mammelle
ovaie
pancreas
ghiandole surrenali
milza
osso
vescica
Statisticamente parlando, più confronti si fanno, più aumenta il rischio di falsi positivi: è il noto problema dei confronti multipli. E in questo caso non è stata applicata nessuna correzione (come Bonferroni o FDR), nonostante le decine di test effettuati.
Per esempio:
Un solo caso di carcinoma follicolare tiroideo (1,96%) viene presentato come “aumento significativo”, nonostante un’incidenza storica dello 0,09%.
Leucemie rarissime (0 casi nei controlli) diventano improvvisamente “frequenti” se appaiono in uno o due animali.
E proprio perché si lavora con numeri minuscoli (gruppi da 51 ratti), anche un singolo caso in più può far sembrare enorme un effetto che in realtà è solo rumore statistico.
Non a caso, un commentatore su PubPeer ha fatto notare che, nella versione pubblicata rispetto al preprint è stato aggiunto un caso di leucemia monocitica in un ratto femmina trattato con 50 mg/kg/die, assente nella versione preprint. Nessuna spiegazione è stata data per questo cambiamento. Ma in gruppi così piccoli, un solo caso in più può bastare a far emergere o sparire un “aumento significativo”. E la mancanza di trasparenza su come sia stato deciso questo aggiornamento rende ancora più difficile fidarsi delle conclusioni.
Statistiche fragili: come un’analisi più corretta fa crollare i risultati
Gli autori dello studio dicono di aver usato il test di Cochrane-Armitage per verificare se aumentando le dosi di glifosato aumentasse anche il numero di tumori nei ratti: insomma, per valutare se esistesse un trend “dose-risposta” significativo.
Fin qui, tutto regolare. Ma leggendo le osservazioni pubblicate su PubPeer emerge un problema serio: gli autori hanno usato la versione asintotica del test, che diventa poco affidabile quando si analizzano eventi rari – come accade quasi sempre negli studi di cancerogenicità a lungo termine, dove molti tumori osservati sono davvero pochi.
Chi ha commentato ha quindi rifatto i calcoli usando la versione esatta del test (disponibile grazie al software del DKFZ) e il risultato è stato sorprendente: i p-value, che nello studio originale erano inferiori a 0.05 (e quindi dichiarati “significativi”), sono saliti ben oltre 0.25, diventando del tutto non significativi.
In pratica: gli stessi dati, analizzati in modo più corretto, perdono completamente la significatività statistica.
E questo non è un dettaglio secondario: lo stesso errore potrebbe riguardare anche altre analisi statistiche e tabelle pubblicate, mettendo seriamente in discussione la solidità complessiva delle conclusioni dello studio.
Glifosato puro vs formulazioni commerciali: un confronto incompleto
Lo studio testa anche due erbicidi commerciali (Roundup Bioflow e RangerPro), sostenendo che siano più tossici del glifosato puro. Ma:
Non identifica i coformulanti responsabili (quindi non sappiamo cosa sta causando l’effetto).
“La vodka è tossica!”
Senza specificare se il problema è l’alcol o l’acqua in essa contenuta.
Trasparenza e potenziali conflitti d’interesse
Gli autori dello studio dichiarano esplicitamente di non avere conflitti di interesse. Tuttavia, come segnalato su PubPeer, emergono diverse criticità. L’Istituto Ramazzini che ha condotto la ricerca riceve fondi da organizzazioni e soggetti che hanno preso pubblicamente posizione contro l’uso del glifosato. Tra questi finanziatori troviamo:
la Heartland Health Research Alliance, già criticata da diverse fonti per sostenere ricerche orientate contro i pesticidi;
l’Institute for Preventive Health, fondato da Henry Rowlands, che è anche l’ideatore della certificazione “Glyphosate Residue Free”;
Coop Reno, una cooperativa italiana che promuove attivamente la riduzione dei pesticidi nei propri prodotti;
Coopfond, che ha dichiarato pubblicamente il proprio sostegno alla ricerca contro il glifosato.
Tutti questi elementi non sono banali, perché vanno in direzione opposta alla dichiarazione “no competing interests” fornita dagli autori.
Dichiarare questi legami non significa necessariamente che i risultati siano falsati, ma consente ai lettori di valutare meglio la possibile influenza dei finanziatori.
IARC, hazard e risk: una distinzione fondamentale
Lo studio si richiama alla classificazione dello IARC, che nel 2015 ha definito il glifosato “probabile cancerogeno” (Gruppo 2A). Ma attenzione: l’IARC valuta l’hazard, non il rischio.
Hazard: “Il glifosato può causare il cancro in certe condizioni ideali”.
Risk: “Il glifosato causa il cancro nelle condizioni reali di esposizione?”
Lo IARC ha incluso nel gruppo 2A anche:
la carne rossa,
il lavoro da parrucchiere,
il turno di notte.
Le principali agenzie che valutano il rischio reale non hanno trovato evidenze sufficienti per considerare il glifosato cancerogeno:
Conclusione: il glifosato non è innocente, ma nemmeno un mostro
Il nuovo studio del 2025 mostra che, se si cercano abbastanza tumori rari in tanti tessuti, qualcosa prima o poi emerge. Ma:
Le dosi utilizzate sono lontanissime dalla realtà umana, e persino più alte del previsto nei ratti giovani;
I risultati sono fragili, non replicati, e statisticamente poco robusti;
I meccanismi di azione non sono spiegati;
La trasparenza sui dati e sui conflitti di interesse è carente;
Le conclusioni si basano su metodi statistici che vanno messi in discussione.
Non si tratta di negazionismo scientifico ma di scetticismo informato, che è il cuore del metodo scientifico. Sebbene questo studio sollevi questioni interessanti, trarre conclusioni definitive su un legame causale tra glifosato e cancro basandosi su dati così fragili e dosi irrealistiche è prematuro. La scienza richiede prove solide, replicabili e trasparenti.
Per questo, le agenzie regolatorie continuano a considerare il glifosato sicuro se usato nei limiti stabiliti. Restiamo aperti a nuove evidenze, ma diffidiamo dei titoli allarmistici che spesso accompagnano studi con così tante ombre.
EDIT
A dimostrazione del fatto che il metodo scientifico si basa sull’autocorrezione, sia Enrico Bucci che io desideriamo ringraziare l’Ing. Dario Passafiume per essersi accorto di un errore che abbiamo commesso nell’interpretare i dati di PubPeer. La sostanza non cambia: cambiano solo i valori assoluti dei numeri che avevamo preso in considerazione. Il testo che abbiamo rieditato per effetto dell’errore di cui ci siamo accorti grazie all’ingegnere è il seguente:
Un’analisi particolarmente accurata pubblicata su PubPeer ha evidenziato una discrepanza rilevante: le figure riportate nello studio non si riferiscono alle dosi dichiarate (quelle indicate nel primo paragrafo), ma a dosi circa dieci volte superiori. In pratica, mentre gli autori affermano di aver usato 0.5, 5 e 50 mg/kg/die, i grafici mostrano dati ottenuti con 5, 50 e 500 mg/kg/die. Si tratta – come già evidenziato – di concentrazioni del tutto inconcepibili nella vita reale dove per arrivare all’assunzione di soli 0.5 mg/kg/die bisogna ingurgitare circa 70 kg di soia OGM al giorno, tutti i giorni.
Se almeno una volta nella vita hai visto il famoso esperimento in cui delle caramelle Mentos vengono fatte cadere in una bottiglia di Coca Cola (o, più spesso, Diet Coke), conosci già il risultato: una fontana impazzita di schiuma che può superare i tre metri d’altezza (v. il filmato qui sotto).
Ma cosa succede davvero? È solo una semplice reazione fisica? C’entra la chimica? Perché proprio le Mentos? E perché la Diet Coke funziona meglio della Coca normale?
Negli ultimi anni, diversi ricercatori si sono cimentati nello studio scientifico di questo fenomeno, spesso usato come dimostrazione educativa nelle scuole e nei laboratori divulgativi. E ciò che è emerso è una storia sorprendentemente ricca di fisica, chimica, e perfino di gastronomia molecolare.
La nucleazione: come nasce un cambiamento
La parola “nucleazione” descrive il momento in cui, all’interno di un sistema fisico, comincia a svilupparsi una nuova fase. È un concetto fondamentale per comprendere fenomeni come la formazione di gocce in una nube, la cristallizzazione di un solido, o – nel nostro caso – la comparsa di bolle in un liquido soprassaturo di gas.
Secondo la teoria classica della nucleazione, perché si formi una nuova fase (come una bolla di gas in un liquido), è necessario superare una barriera energetica. Questa barriera nasce dal fatto che generare una bolla comporta un costo in termini di energia superficiale (ovvero, bisogna spendere energia per “deformare” i legami a idrogeno che, nel caso dell’acqua, tengono unite le diverse molecole), anche se si guadagna energia liberando il gas.
Il sistema deve dunque “pagare un prezzo iniziale” per creare una bolla sufficientemente grande: questa è la cosiddetta “bolla critica”. Una volta che si supera quella dimensione critica, la formazione della nuova fase (cioè, la crescita della bolla) diventa spontanea e inarrestabile.
Tuttavia, nel mondo reale, è raro che le bolle si formino spontaneamente all’interno del liquido: nella maggior parte dei casi, servono delle “scorciatoie energetiche”. È qui che entra in gioco la nucleazione eterogenea.
Nucleazione eterogenea: quando le superfici danno una spinta
Nel mondo reale, è raro che una nuova fase si formi spontaneamente all’interno del liquido (nucleazione omogenea), perché la probabilità che si verifichi una fluttuazione sufficientemente grande da superare la barriera energetica è molto bassa. Nella maggior parte dei casi, il sistema trova delle “scorciatoie energetiche” grazie alla presenza di superfici, impurità o irregolarità: è quello che si chiama nucleazione eterogenea.
Le superfici ruvide, porose o idrofobe possono abbassare la barriera energetica necessaria per innescare la formazione di una bolla. Per esempio, un piccolo graffio sul vetro, un granello di polvere o una microscopica cavità possono ospitare delle minuscole sacche d’aria che fungono da “embrioni” di bolla. In questi punti, la CO2 disciolta trova un ambiente favorevole per iniziare la transizione verso la fase gassosa, superando più facilmente la soglia critica.
Anche la geometria ha un ruolo: cavità coniche o fessure strette possono concentrare le forze e rendere ancora più facile la nucleazione. In pratica, il sistema approfitta di qualsiasi imperfezione per risparmiare energia nel passaggio di fase.
Il caso delle Mentos: nucleatori perfetti
L’esperimento della fontana di Diet Coke e Mentos è un esempio spettacolare (e rumoroso) di nucleazione eterogenea. Quando le Mentos vengono lasciate cadere nella bottiglia, la loro superficie – irregolare, porosa e ricoperta da uno strato zuccherino solubile – offre migliaia di siti di nucleazione. Ogni microscopica cavità è in grado di ospitare una piccola sacca di gas o di innescare la formazione di una bolla (Figura 1). In più, le Mentos cadono rapidamente fino al fondo della bottiglia, generando nucleazione non solo in superficie, ma in profondità, dove la pressione idrostatica è maggiore. Questo favorisce un rilascio ancora più esplosivo del gas disciolto.
Il risultato? Una vera e propria “valanga di bolle” che si spingono a vicenda verso l’alto, trascinando con sé la soda e formando il famoso geyser, che può raggiungere anche 5 o 6 metri d’altezza.
Figura 1. Nucleazione eterogenea di una bolla su una superficie solida. Le molecole d’acqua a contatto con una superficie solida interagiscono con essa, formando legami che disturbano la rete di legami a idrogeno tra le molecole d’acqua stesse. Questo indebolimento locale della coesione interna rende la zona prossima alla superficie più favorevole all’accumulo di gas disciolto, come la CO2. Il gas si concentra in microcavità o irregolarità della superficie, gonfiando piccole sacche d’acqua. Quando queste sacche superano una dimensione critica, la tensione interna diventa sufficiente a vincere le forze di adesione, e la bolla si stacca dalla superficie, iniziando a crescere liberamente nel liquido. Questo meccanismo, noto come nucleazione eterogenea, è alla base di molti fenomeni naturali e tecnici, incluso l’effetto geyser osservato nel celebre esperimento con Diet Coke e Mentos.
Non è una reazione chimica, ma…
Uno dei miti più diffusi, e da sfatare, è che il famoso effetto geyser della Diet Coke con le Mentos sia il risultato di una reazione chimica tra gli ingredienti delle due sostanze. In realtà, non avviene alcuna trasformazione chimica tra i componenti: non si formano nuovi composti, non ci sono scambi di elettroni né rottura o formazione di legami chimici. Il fenomeno è invece di natura puramente fisica, legato al rilascio improvviso e violento del gas disciolto (CO2) dalla soluzione liquida.
La Coca Cola (e in particolare la Diet Coke) è una soluzione sovrassatura di anidride carbonica, mantenuta tale grazie alla pressione all’interno della bottiglia sigillata. Quando la bottiglia viene aperta, la pressione cala, e il sistema non è più in equilibrio: il gas tende a uscire lentamente. Ma se si introducono le Mentos – che, come abbiamo visto, forniscono una miriade di siti di nucleazione – la CO2 trova una “scappatoia rapida” per tornare allo stato gassoso, formando in pochi istanti una quantità enorme di bolle.
Pur non trattandosi di una reazione chimica nel senso stretto, il rilascio della CO2 provoca alcune conseguenze misurabili dal punto di vista chimico. Una di queste è il cambiamento di pH: la Coca Cola è fortemente acida (pH ≈ 3) perché contiene acido fosforico ma anche CO2 disciolta, che in acqua dà luogo alla formazione di acido carbonico (H2CO3). Quando il gas fuoriesce rapidamente, l’equilibrio viene spostato, l’acido carbonico si dissocia meno, e il pH del liquido aumenta leggermente, diventando meno acido.
Questa variazione, anche se modesta, è stata misurata sperimentalmente in laboratorio, ed è coerente con l’interpretazione fisico-chimica del fenomeno.
In sintesi, si tratta di una transizione di fase accelerata (da gas disciolto a gas libero), facilitata da superfici ruvide: un classico esempio di fisica applicata alla vita quotidiana, più che di chimica reattiva.
Diet Coke meglio della Coca normale?
Sì, e il motivo non è solo la diversa composizione calorica, ma anche l’effetto fisico degli edulcoranti artificiali contenuti nella Diet Coke, in particolare aspartame e benzoato di potassio. Queste sostanze, pur non reagendo chimicamente con le Mentos, abbassano la tensione superficiale della soluzione, facilitando la formazione di bolle e rendendo il rilascio del gas CO2 più efficiente e spettacolare.
La tensione superficiale è una proprietà del liquido che tende a “resistere” alla formazione di nuove superfici – come quelle di una bolla d’aria. Se questa tensione si riduce, il sistema è più “disponibile” a formare molte piccole bolle, anziché poche grandi. E più bolle significa più superficie totale, quindi più spazio attraverso cui il gas può uscire rapidamente.
Anche altri additivi – acido citrico, aromi naturali (come citral e linalolo, Figura 2) e perfino zuccheri – influenzano il comportamento delle bolle. In particolare, molti di questi composti inibiscono la coalescenza, cioè, impediscono che le bolle si fondano tra loro per formare bolle più grandi. Questo porta a una schiuma fatta di bolle piccole, stabili e molto numerose, che massimizzano il rilascio di CO2 e quindi l’altezza della fontana.
Figura 2. Strutture chimiche di alcuni composti aromatici naturali presenti nelle bevande analcoliche. Il citral è una miscela di due isomeri geometrici: trans-citrale (geraniale) e cis-citrale (nerale), entrambi aldeidi con catena coniugata e intensa nota di limone. Il linalolo è un alcol terpenico aciclico, con due doppi legami e un gruppo ossidrilico (–OH), noto per il suo profumo floreale. Questi composti non partecipano a reazioni chimiche durante l’esperimento Diet Coke–Mentos, ma agiscono sul comportamento fisico del sistema, favorendo la formazione di schiuma fine e persistente e contribuendo all’altezza del geyser grazie alla inibizione della coalescenza delle bolle.
E che dire dei dolcificanti classici, come il saccarosio (lo zucchero da cucina)? A differenza dell’aspartame, il saccarosio non abbassa la tensione superficiale, anzi la aumenta leggermente. Tuttavia, anch’esso contribuisce a stabilizzare le bolle, soprattutto se combinato con altri soluti come acidi organici o sali. Questo spiega perché le bevande zuccherate (come la Coca Cola “classica”) producano comunque geyser abbastanza alti, ma meno impressionanti rispetto alle versioni “diet”.
Esperimenti controllati hanno mostrato che la Diet Coke produce le fontane più alte, seguita dalle bevande zuccherate e, in fondo, dall’acqua frizzante (che contiene solo CO2 e acqua): segno evidente che la presenza e la natura dei soluti giocano un ruolo chiave, anche in assenza di reazioni chimiche.
E se uso altre cose al posto delle Mentos?
La fontana di Coca Cola può essere innescata anche da altri materiali: gessetti, sabbia, sale grosso, zucchero, caramelle dure o persino stimolazioni meccaniche come gli ultrasuoni. Qualsiasi sostanza o perturbazione capace di introdurre nel liquido dei siti di nucleazione può innescare il rilascio del gas. Tuttavia, tra tutte le opzioni testate, le Mentos restano il materiale più efficace, producendo fontane più alte, più rapide e più spettacolari.
Questo successo si deve a una combinazione di caratteristiche fisiche uniche:
Superficie molto rugosa e porosa Le Mentos hanno una superficie irregolare, visibile chiaramente al microscopio elettronico (SEM), con migliaia di microcavità che fungono da siti di nucleazione eterogenea. Più rugosità significa più bolle che si formano contemporaneamente, e quindi maggiore pressione generata in tempi brevissimi.
Densità e forma ottimali Le caramelle sono sufficientemente dense e lisce all’esterno da cadere velocemente sul fondo della bottiglia, senza fluttuare. Questo è cruciale: la nucleazione avviene lungo tutta la colonna di liquido, non solo in superficie, e la pressione idrostatica più alta in basso aiuta la formazione più vigorosa di bolle. In confronto, materiali più leggeri (come il sale fino o la sabbia) galleggiano o si disperdono più lentamente, riducendo l’effetto.
Rivestimento zuccherino solubile Il rivestimento esterno delle Mentos, a base di zuccheri e gomma arabica, si dissolve rapidamente, liberando nuovi siti di nucleazione man mano che la caramella si bagna. Inoltre, alcuni componenti del rivestimento (come emulsionanti e tensioattivi) favoriscono la schiuma e inibiscono la coalescenza delle bolle, contribuendo alla formazione di un getto più sottile e stabile
Un esperimento che insegna molto (e sporca parecchio)
Dietro quella che a prima vista sembra una semplice (e divertentissima) esplosione di schiuma, si nasconde una miniera di concetti scientifici: termodinamica, cinetica, tensione superficiale, solubilità dei gas, equilibrio chimico, pressione, nucleazione omogenea ed eterogenea. Un’intera unità didattica condensata in pochi secondi di spettacolo.
Ed è proprio questo il suo punto di forza: l’esperimento della fontana di Diet Coke e Mentos è perfetto per essere proposto nelle scuole, sia del primo grado (scuola media) che del secondo grado (licei, istituti tecnici e professionali), senza bisogno di strumenti di laboratorio complessi o costosi. Bastano:
qualche bottiglia di Coca Cola o altra bibita gassata,
delle Mentos (o altri oggetti solidi rugosi da confrontare: gessetti, zucchero, sabbia…),
una penna, un quaderno e un buon occhio per osservare e registrare cosa succede,
e, immancabili, canovacci, secchi, stracci e un po’ di detersivo per sistemare l’aula (o il cortile) dopo il disastro creativo!
Non solo: questo tipo di attività permette di lavorare in modalità laboratoriale attiva, stimolando l’osservazione, la formulazione di ipotesi, la progettazione sperimentale, la misura, l’analisi dei dati, la comunicazione scientifica. In altre parole: il metodo scientifico in azione, alla portata di tutti.
Insomma, la fontana di Diet Coke e Mentos non è solo un video virale da YouTube: è un fenomeno scientificamente ricchissimo, capace di affascinare e coinvolgere studenti e insegnanti. Provatelo (con le dovute precauzioni)… e preparatevi a fare il pieno di chimica!
Riferimenti
Baur & al. (2006) The Ultrasonic Soda Fountain: A Dramatic Demonstration of Gas Solubility in Aqueous Solutions. J. Chem. Educ. 83(4), 577. https://doi.org/10.1021/ed083p577.
Coffey (2008) Diet Coke and Mentos: What is really behind this physical reaction? Am. J. Phys. 76, 551. http://dx.doi.org/10.1119/1.2888546.
Eichler & al. (2007) Mentos and the Scientific Method: A Sweet Combination. J. Chem. Educ. 84(7), 1120. https://doi.org/10.1021/ed084p1120.
Kuntzleman & al. (2017) New Demonstrations and New Insights on the Mechanism of the Candy-Cola Soda Geyser. J. Chem. Educ. 94, 569−576. https://doi.org/10.1021/acs.jchemed.6b00862.
…e per i docenti della scuola secondaria di primo e secondo grado, ecco una scheda laboratorio pronta all’uso, per trasformare questa esplosione di schiuma in un’attività scientifica coinvolgente.
Scheda laboratorio – Un geyser di CO2 tra scienza e divertimento
🧪 Esperimento: La fontana di Diet Coke e Mentos
🎯 Obiettivi didattici
Osservare e descrivere fenomeni di nucleazione eterogenea
Comprendere il concetto di tensione superficiale e solubilità dei gas
Riconoscere la differenza tra fenomeni fisici e chimici
Introdurre il metodo scientifico: osservazione, ipotesi, verifica, confronto dati
Stimolare il pensiero critico e il lavoro di gruppo
🧰 Materiali
Quantità
Materiale
1–2
Bottiglie da 1.5 o 2 L di Coca Cola/Diet Coke
1 confezione
Mentos (preferibilmente menta)
facoltativi
Zucchero, sabbia, gessetti, sale grosso, caramelle dure
1
Contenitore/sottovaso/catino (per contenere la fontana)
✔️
Carta, penne o tablet per prendere appunti
✔️
Canovacci, stracci, secchio, detersivo
📌 Procedura base (semplificata)
Posizionare la bottiglia su un piano all’aperto o in un contenitore.
Preparare il sistema di rilascio rapido delle Mentos (ad esempio con un cartoncino a scivolo o un tubo).
Far cadere rapidamente 1–3 Mentos nella bottiglia aperta.
Osservare il fenomeno: altezza, durata, forma della fontana, eventuale schiuma residua.
Ripetere con altri materiali (gesso, sabbia, sale…) e confrontare l’effetto.
Annotare le osservazioni. Stimolare ipotesi: perché cambiano i risultati?
📚 Spunti teorici (modulabili per il grado scolastico)
Fisica: pressione interna, energia potenziale, accelerazione del liquido
Chimica fisica: tensione superficiale, solubilità dei gas, acido carbonico e variazione di pH
Chimica generale: differenza tra cambiamento fisico e chimico
Scienza dei materiali: effetto della rugosità e della forma dei solidi sulla nucleazione
Metodo scientifico: osservazione, variabili, confronto controllato
🧠 Domande guida per la discussione
Cosa accade quando inseriamo le Mentos nella bibita?
Che differenza c’è tra Coca Cola normale e Diet Coke?
Perché altri materiali (es. sale o sabbia) funzionano diversamente?
È una reazione chimica o un fenomeno fisico?
Come potremmo misurare e confrontare le fontane? (es. altezza, tempo, schiuma)
📏 Varianti possibili
Cambiare la temperatura della bibita (fredda vs ambiente)
Provare con acqua frizzante o altre bevande gassate
Usare un righello o griglia per stimare l’altezza
Fare video al rallentatore e analizzare la dinamica
Includere una prova con ultrasuoni (se si dispone di un pulitore a ultrasuoni)
🚸 Note di sicurezza
L’esperimento è sicuro, ma va fatto in ambienti controllati o all’aperto
Tenere gli occhi lontani dal getto (meglio osservare di lato)
Prevedere pulizia immediata di superfici scivolose o appiccicose
“L’energia liberata dall’atomo non sarà più impiegata per la distruzione, ma per il bene dell’umanità.” Con queste parole, nel 1953, il presidente degli Stati Uniti Dwight D. Eisenhower lanciava al mondo il programma Atoms for Peace, in un celebre discorso all’Assemblea Generale delle Nazioni Unite. Era il tentativo, ambizioso e visionario, di trasformare il simbolo stesso della guerra in una promessa di progresso, usando le tecnologie nucleari non per armare le nazioni, ma per alimentare ospedali, centrali elettriche e laboratori scientifici.
Settant’anni dopo, quella visione resta più attuale che mai. In un pianeta che affronta crisi ambientali sempre più gravi e una domanda crescente di energia, l’atomo torna a farsi sentire: non come spettro del passato, ma come possibile chiave per un futuro più sostenibile.
Eppure, mentre la scienza offre strumenti per usare l’energia nucleare a beneficio della società, c’è ancora chi preferisce impiegarla per rafforzare equilibri di potere instabili, costruendo arsenali atomici in grado di distruggere il pianeta che abitiamo. Una scelta anacronistica, fondata su interessi politici miopi e incapaci di cogliere il potenziale positivo di una delle scoperte più straordinarie del Novecento.
Nel dibattito sulla transizione energetica, l’energia nucleare torna oggi al centro dell’attenzione. Di fronte all’urgenza climatica e alla crescente domanda globale di energia, le tecnologie nucleari civili si presentano come una delle soluzioni più promettenti per garantire una produzione elettrica stabile, sicura e a basse emissioni di carbonio.
Parallelamente, progetti come ITER e numerose iniziative private stanno esplorando la strada della fusione nucleare, l’unica tecnologia in grado di imitare il funzionamento del Sole: energia virtualmente illimitata, senza il rischio di fusione del nocciolo e con rifiuti di gran lunga meno problematici rispetto alla fissione.
La chimica ambientale resta al cuore di queste sfide: dalla separazione degli attinidi alla progettazione di materiali resistenti, dalla speciazione degli isotopi radioattivi alla modellazione del loro comportamento nel suolo e nelle acque sotterranee. Capire come gli elementi si muovono, decadono, si adsorbono o si fissano in forma solida non è solo un esercizio accademico: è una condizione necessaria per progettare impianti più sicuri, prevedere il comportamento delle scorie e gestire correttamente il rischio.
Tuttavia, un ostacolo importante resta la percezione pubblica del rischio. L’energia nucleare continua a suscitare paure profonde, spesso basate su eventi eccezionali e su una comunicazione scientifica carente. Colmare questo divario tra realtà tecnica e immaginario collettivo è una responsabilità etica, oltre che culturale.
I radionuclidi non sono pericolosi per natura. Lo diventano solo quando vengono gestiti con superficialità, trascuratezza o opacità. Gli stessi elementi che in passato hanno provocato danni enormi se impiegati in modo irresponsabile, oggi ci permettono di curare malattie, studiare il passato, comprendere il clima e produrre energia pulita.
Abbiamo ereditato l’età dell’atomo come simbolo di potere e minaccia, ma possiamo ancora trasformarla in qualcos’altro. Forse è il momento di farla coincidere, almeno in parte, con quella “età dell’Acquario” cantata negli anni ’60: un’epoca immaginata di pace, di fiducia nella scienza, di armonia tra progresso e umanità.
Non si tratta di utopia, ma di responsabilità. Perché l’atomo, da solo, non porta né salvezza né rovina. È la mano che lo guida, e la visione che lo orienta, a determinarne il destino.
Sta a noi decidere se vivere nella paura del passato o costruire, con consapevolezza, un futuro possibile e migliore.
Dalla fame di guerra al valore nascosto negli scarti: viaggio scientifico e umano nella buccia di patata.
Mi sto avvicinando ai sessant’anni. È più il tempo che ho vissuto che quello che ancora mi resta e, con la vecchiaia, certe volte vengo sommerso dai ricordi di quando ero piccolo. Entrambi i miei genitori hanno vissuto la guerra. Mia madre come bambina. Nata nel 1938, aveva circa un anno quando Hitler invase la Polonia e circa due quando l’Italia entrò in guerra. Ora non c’è più. È scomparsa nel 2016 per le conseguenze di un tumore ai polmoni. Ma mi ricordo che di tanto in tanto le venivano dei flash grazie ai quali ricordava di quando i suoi fratelli (lei era l’ultima di quattro; ben 22 anni la separavano dal fratello più grande) la prendevano in braccio cercando di non terrorizzarla per accompagnarla nei rifugi anti aerei. Un po’ come nel film “La vita è bella” che ha valso a Roberto Benigni il premio Oscar.
Mio padre, invece, di sedici anni più anziano di mia madre, ha passato l’intera guerra come POW (prisoner of war) in Africa. Si era trasferito in Etiopia per lavorare assieme agli zii quando aveva circa 16 anni e si trovava ad Adis Abeba come impiegato civile quando gli inglesi sconfissero gli italiani. Fu imprigionato per cinque anni in vari campi di prigionia sparsi per il continente africano e ha sempre raccontato degli stenti che ha dovuto sopportare per poter sopravvivere: dagli incontri di pugilato contro pugili professionisti per poter racimolare qualche alimento per tenersi in vita, alle fosse scavate nella sabbia nelle quali si seppelliva per sopravvivere al caldo dei deserti africani. Anche mio padre non c’è più. È scomparso nel 1998 ed anche lui per le conseguenze di tumori ai polmoni.
Non sto scrivendo questa storia per intenerire, ma solo per creare il contesto di quanto mi accingo a raccontare.
Sia dai racconti dei miei genitori, sia da quelli che faceva mia nonna, la madre di mio padre – l’unica nonna che ho conosciuto, ho sempre saputo che la guerra è una brutta bestia. Lo sanno benissimo tutti quelli che ancora oggi sono sotto i bombardamenti: il cibo scarseggia, la fame, quella vera, non quella da “buco allo stomaco” di noi viziati che le guerre non le abbiamo mai vissute e viviamo, sostanzialmente, nell’opulenza, si fa sentire. E quando la fame si fa sentire si mangia qualunque cosa, altro che “questo non mi piace” o “ho una lieve intolleranza al glutine”. Quando la fame avanza, ci mangeremmo qualsiasi cosa. Ed è quello che accadeva durante la guerra: anche quelli che per noi oggi sono scarti, venivano usati per alimentarsi. E sapete quali scarti venivano usati, tra gli altri? Le bucce di patata.
Quando me lo raccontavano non riuscivo a immaginarlo. Le bucce? Quelle che si buttano via senza pensarci? Eppure, col tempo, e forse anche grazie al mio lavoro, ho imparato che il racconto di mia nonna e dei miei genitori era molto più che una memoria di sopravvivenza: era un piccolo spaccato di biochimica popolare.
Le bucce non sono rifiuti
Dal punto di vista nutrizionale, le bucce di patata non sono uno scarto. Al contrario: rappresentano una parte preziosa del tubero. Contengono una quantità significativa di fibre alimentari, vitamine e sali minerali, spesso superiore a quella della polpa stessa. In particolare, la vitamina C, le vitamine del gruppo B e il potassio si concentrano proprio vicino alla superficie esterna. Inoltre, la buccia ospita una varietà di polifenoli, composti antiossidanti come l’acido clorogenico, che oggi studiamo per il loro ruolo nella protezione cellulare.
Dal punto di vista energetico, le bucce non sono ricche quanto la polpa amidacea, ma in tempi di carestia potevano comunque offrire un contributo calorico importante. Se bollite o fritte, conservavano buona parte dei micronutrienti ed erano capaci di saziare. Non è un caso, infatti, che in molte parti d’Europa, dalla Germania alla Russia, le bucce siano state cucinate, essiccate o addirittura ridotte in farina nei periodi più difficili.
Un equilibrio delicato
C’è però un lato oscuro: le bucce di patata contengono anche glicoalcaloidi naturali, come la solanina e la chaconina, che le piante producono come difesa contro funghi e insetti. In piccole dosi non rappresentano un pericolo, ma in alte concentrazioni possono causare disturbi gastrointestinali e neurologici. Le bucce verdi, germogliate o esposte alla luce sono le più ricche di solanina, e vanno evitate. Ma le bucce sane, ben cotte, erano, e sono ancora, sicure, specie se trattate con il buon senso tramandato più che con la chimica.
Una lezione dal passato
Oggi, in un mondo che produce più rifiuti alimentari di quanto possa giustificare, quella vecchia storia di bucce mangiate per fame mi torna alla mente con una sfumatura diversa. Non solo come testimonianza di resilienza, ma come invito a riconsiderare il valore del cibo in ogni sua parte. In laboratorio, so bene quanto lavoro ci sia dietro l’estrazione di un antiossidante da una buccia. Ma forse il sapere contadino, quello di mia nonna o dei miei genitori, aveva già intuito tutto: che in una buccia c’è più nutrimento di quanto sembri, e che a volte, per sopravvivere bisogna imparare a guardare il cibo con occhi diversi.
E così, mentre il ricordo di quelle storie si fa ogni giorno più tenue, mi piace pensare che un pezzetto di chimica, di biologia e di dignità sia rimasto impigliato in quella buccia sottile. E che valga ancora la pena raccontarlo.
Negli ultimi anni, questa teoria ha continuato a circolare. L’idea che il numero di insetti stia diminuendo drasticamente perché i parabrezza delle auto si sporcano meno rispetto al passato è oggi più attendibile di quanto non lo fosse cinque anni fa?
Osservazioni aneddotiche vs. evidenze scientifiche
È importante distinguere tra osservazioni personali e dati scientifici. Il fatto che oggi i parabrezza sembrino più puliti non costituisce una prova concreta del declino globale degli insetti. Le variabili in gioco sono molteplici: cambiamenti nei modelli di traffico, aerodinamica delle auto moderne, variazioni climatiche locali e stagionali, per citarne alcune.
Studi recenti sul declino degli insetti
Diversi studi scientifici hanno documentato un effettivo declino delle popolazioni di insetti:
Una meta-analisi ha rilevato una diminuzione del 45% delle popolazioni di insetti negli ultimi 40 anni, attribuendo le cause principali a perdita di habitat, uso di agrofarmaci e cambiamenti climatici (Insect decline in the Anthropocene: Death by a thousand cuts).
Nel Regno Unito, il progetto “Bugs Matter” ha registrato una riduzione del 62,5% degli insetti schiantati sulle targhe delle auto tra il 2021 e il 2024 (The Bugs Matter Citizen Science Survey).
Il problema del “windscreen phenomenon” come indicatore
Utilizzare il numero di insetti sul parabrezza come misura del declino globale presenta diverse problematiche:
Variabilità delle condizioni di guida: percorsi, velocità, condizioni climatiche e tipologie di veicoli influenzano significativamente il numero di insetti che colpiscono il parabrezza.
Effetti di bordo e distribuzione degli insetti: le strade creano discontinuità nel paesaggio, influenzando la distribuzione degli insetti e rendendo difficile generalizzare le osservazioni.
Bias di campionamento: le osservazioni sono spesso limitate a determinate aree e periodi, non rappresentando accuratamente la situazione globale.
Conclusione
Come scrivevo già nel 2020, anche oggi è necessario ribadire che, sebbene il declino degli insetti sia un fenomeno reale ed allarmante, le conclusioni devono basarsi su studi scientifici solidi, non su impressioni personali. Il “windscreen phenomenon” può forse stimolare la curiosità o fornire uno spunto iniziale, ma non rappresenta in alcun modo una prova scientifica.
L’aneddotica non è probante e il “lo dicono tutti” non è – né sarà mai – un metodo scientificamente valido.
Come disse un celebre divulgatore: la scienza non si fa per alzata di mano.
La democrazia scientifica non funziona come quella politica: non tutte le opinioni hanno lo stesso peso. E, a ben vedere, nemmeno in politica tutte le opinioni sono uguali – quelle che negano i diritti fondamentali dell’uomo non possono e non devono essere considerate accettabili.
In ambito scientifico, il confronto è possibile solo tra persone con un background adeguato, perché solo così si può parlare la stessa lingua: quella del metodo.
Avrete sicuramente notato che oggi l’intelligenza artificiale (AI) sta diventando una presenza sempre più costante nelle nostre vite. Sono tantissimi gli ambiti in cui l’AI riesce a sostituire con successo l’essere umano. Si potrebbe dire che questa rivoluzione sia iniziata molto tempo fa, con i primi robot che hanno cominciato a svolgere compiti ripetitivi al posto dell’uomo, come nelle catene di montaggio o, più drammaticamente, nei contesti bellici, dove i droni sono diventati strumenti chiave per ridurre il numero di vittime umane.
Negli ultimi anni, lo sviluppo vertiginoso delle reti neurali artificiali ha portato alla nascita di veri e propri “cervelli digitali” che, presto, anche se non sappiamo quanto presto, potrebbero avvicinarsi, per certi aspetti, alle capacità del cervello umano.
Nel frattempo, però, l’intelligenza artificiale già funziona alla grande ed è sempre più presente in numerosi settori, tra cui la chimica, che rappresenta uno dei campi più promettenti.
All’inizio può sembrare curioso accostare molecole, reazioni chimiche e leggi della fisica a concetti come algoritmi e reti neurali. Eppure, l’unione di questi mondi sta rivoluzionando il modo in cui facciamo ricerca, progettiamo nuovi materiali, affrontiamo le sfide ambientali e persino come insegniamo la scienza.
Ma cosa significa, concretamente, applicare l’intelligenza artificiale alla chimica?
Scoprire nuove molecole (senza provare tutto in laboratorio)
Uno degli ambiti in cui l’intelligenza artificiale si è rivelata più utile è la scoperta di nuovi composti chimici. Fino a qualche tempo fa, per trovare una molecola utile, un farmaco, un catalizzatore, un materiale con proprietà particolari, bisognava fare molti tentativi sperimentali, spesso lunghi e costosi.
Negli ultimi decenni, la chimica computazionale ha cercato di alleggerire questo carico, permettendo ai ricercatori di simulare al computer il comportamento di molecole, reazioni e materiali. Tuttavia, anche le simulazioni più avanzate richiedono molto tempo di calcolo e competenze specialistiche, oltre ad avere dei limiti nella scala e nella complessità dei sistemi che si possono trattare.
Qui entra in gioco l’intelligenza artificiale: grazie a modelli di machine learning sempre più raffinati, è possibile prevedere rapidamente il comportamento di una molecola, come la sua stabilità, la reattività, o la capacità di legarsi a un bersaglio biologico, semplicemente a partire dalla sua struttura. Questi algoritmi apprendono da enormi quantità di dati sperimentali e teorici e sono in grado di fare previsioni accurate anche su molecole mai testate prima.
In altre parole, l’AI sta cominciando a superare i limiti della chimica computazionale tradizionale, offrendo strumenti più rapidi, scalabili e spesso più efficaci nel guidare la ricerca. Invece di provare tutto in laboratorio (o simulare tutto al computer), oggi possiamo usare modelli predittivi per concentrare gli sforzi solo sulle ipotesi più promettenti.
Cosa vuol dire “machine learning”?
Il machine learning, o apprendimento automatico, è una branca dell’intelligenza artificiale che permette a un computer di imparare dai dati. Invece di essere programmato con regole rigide, un algoritmo di machine learning analizza una grande quantità di esempi e impara da solo a riconoscere schemi, fare previsioni o prendere decisioni.
È un po’ come insegnare a un bambino a distinguere un cane da un gatto: non gli spieghi la definizione precisa, ma gli mostri tante immagini finché impara da solo a riconoscerli.
Nel caso della chimica, l’algoritmo può “guardare” migliaia di molecole e imparare, per esempio, quali caratteristiche rendono una sostanza più solubile, reattiva o stabile.
Simulare ciò che non possiamo osservare
In molti casi, la chimica richiede di capire cosa succede a livello atomico o molecolare, dove gli esperimenti diretti sono difficili, costosi o addirittura impossibili. Ad esempio, osservare in tempo reale la rottura di un legame chimico o l’interazione tra una superficie metallica e un gas può essere tecnicamente molto complicato.
Qui entrano in gioco la chimica computazionale e, sempre di più, l’intelligenza artificiale. I metodi classici di simulazione, come la density functional theory (DFT) o le dinamiche molecolari, permettono di studiare reazioni e proprietà microscopiche con una certa precisione, ma sono spesso limitati dalla potenza di calcolo e dal tempo necessario per ottenere risultati.
L’AI può affiancare o persino sostituire questi metodi in molti casi, offrendo simulazioni molto più rapide. Gli algoritmi, addestrati su grandi insiemi di dati teorici o sperimentali, riescono a prevedere energie di legame, geometrie molecolari, traiettorie di reazione e persino comportamenti collettivi di materiali complessi, con un livello di precisione sorprendente.
Questo approccio è particolarmente utile nella chimica dei materiali, nella catalisi e nella chimica ambientale, dove le condizioni reali sono dinamiche e complesse, e spesso è necessario esplorare molte variabili contemporaneamente (temperatura, pressione, pH, concentrazione, ecc.).
In sintesi, grazie all’AI, oggi possiamo “vedere” l’invisibile e testare ipotesi teoriche in modo veloce e mirato, risparmiando tempo, denaro e risorse. La simulazione assistita dall’intelligenza artificiale sta diventando una delle strategie più promettenti per affrontare problemi scientifici troppo complessi per essere risolti con i soli strumenti tradizionali.
Insegnare (e imparare) la chimica in modo nuovo
Anche il mondo dell’istruzione sta vivendo una trasformazione grazie all’intelligenza artificiale. La didattica della chimica, spesso considerata una delle materie più “dure” per studenti e studentesse, può oggi diventare più coinvolgente, personalizzata ed efficace proprio grazie all’uso di strumenti basati su AI.
Uno dei vantaggi principali è la possibilità di adattare il percorso di apprendimento alle esigenze del singolo studente. Grazie a sistemi intelligenti che analizzano le risposte e i progressi individuali, è possibile proporre esercizi mirati, spiegazioni alternative o materiali supplementari in base al livello di comprensione. Questo approccio personalizzato può aiutare chi è in difficoltà a colmare lacune e, allo stesso tempo, stimolare chi è più avanti ad approfondire.
L’AI può anche contribuire a rendere la chimica più visiva e interattiva. Alcune piattaforme, ad esempio, usano modelli predittivi per generare visualizzazioni 3D di molecole, reazioni chimiche o strutture cristalline, rendendo più intuitivi concetti spesso astratti. In più, i chatbot educativi (come quelli alimentati da modelli linguistici) possono rispondere a domande in tempo reale, spiegare termini complessi in modo semplice o simulare piccoli esperimenti virtuali.
Un’altra frontiera interessante è quella della valutazione automatica e intelligente: sistemi di AI possono correggere esercizi, test e report di laboratorio, offrendo feedback tempestivo e accurato. Questo libera tempo per l’insegnante, che può concentrarsi sulla guida e sul supporto più qualitativo.
Infine, l’intelligenza artificiale può aiutare anche chi insegna: suggerendo materiali didattici aggiornati, creando quiz su misura per ogni lezione, o analizzando l’andamento della classe per identificare i concetti che vanno ripresi o approfonditi.
In sintesi, l’AI non sostituisce il docente o il laboratorio, ma li potenzia, offrendo nuovi strumenti per rendere l’insegnamento della chimica più accessibile, efficace e stimolante.
Una rivoluzione che non sostituisce il chimico
Di fronte a questi progressi, è naturale chiedersi: quale sarà allora il ruolo del chimico nel futuro? La risposta è semplice: sarà sempre più centrale, ma in modo diverso.
L’intelligenza artificiale è uno strumento potente, ma resta pur sempre uno strumento. Può accelerare le ricerche, suggerire ipotesi, esplorare combinazioni complesse o evidenziare correlazioni nascoste. Ma non può, da sola, sostituire la competenza critica, l’intuizione, l’esperienza e la creatività che solo un/una chimico/a formato/a può offrire.
Un errore molto comune, oggi, è considerare l’AI come una sorta di enciclopedia moderna, da cui si possano estrarre risposte esatte, univoche, perfette. Ma la chimica non funziona così e neppure l’intelligenza artificiale. Entrambe si muovono su terreni complessi, fatti di ipotesi, interpretazioni, modelli e approssimazioni. Pretendere dall’AI risposte definitive senza saper valutare, filtrare o indirizzare i risultati è un rischio.
Proprio come un bambino brillante, l’AI va educata e guidata. Ha bisogno di esempi buoni, di dati corretti, di domande ben formulate.
E, soprattutto, ha bisogno di essere “letta” da occhi esperti, capaci di interpretare e contestualizzare quello che produce.
In chimica, come nella scienza in generale, la conoscenza non è mai solo questione di calcoli o statistiche: è anche, e soprattutto, comprensione profonda dei fenomeni.
Quindi, piuttosto che temere l’arrivo dell’intelligenza artificiale, dobbiamo imparare a collaborarci con intelligenza.
Il chimico del futuro non sarà un tecnico che esegue, ma un regista che sa orchestrare strumenti nuovi per rispondere a domande sempre più complesse. Ed è proprio questa, forse, la sfida più stimolante dei nostri tempi.
Anjaneyulu & al. (2024) Revolution of Artificial Intelligence in Computational Chemistry Breakthroughs. Chemistry Africa 7, 3443–3459. https://doi.org/10.1007/s42250-024-00976-5.
Blonder & Feldman-Maggor (2024) AI for chemistry teaching: responsible AI and ethical considerations. Chemistry Teacher International 6(4), 385–395. https://doi.org/10.1515/cti-2024-0014.
Dral (2024) AI in computational chemistry through the lens of a decade-long journey. Chemical Communications. 60, 3240-3258. https://doi.org/10.1039/D4CC00010B.
Yuriev & al. (2024) The Dawn of Generative Artificial Intelligence in Chemistry Education. Journal of Chemical Education 101, 2957-2929. https://doi.org/10.1021/acs.jchemed.4c00836.
Quando pensiamo all’inquinamento da plastica, ci vengono subito in mente bottiglie che galleggiano negli oceani, sacchetti impigliati tra i rami degli alberi o imballaggi abbandonati nei fossi (Figura 1).
Figura 1. Tracce invisibili del nostro tempo: bottiglie, sacchetti e frammenti di plastica si insinuano nei paesaggi naturali, segnando il confine sottile tra quotidiano e catastrofe ambientale.
Ma esiste un tipo di plastica molto più subdolo e pericoloso, perché invisibile ai nostri occhi: le microplastiche. Questi minuscoli frammenti, spesso più piccoli di un chicco di riso, sono ormai ovunque: nell’acqua che beviamo, nell’aria che respiriamo, nel suolo che coltiviamo e persino, come recenti studi hanno dimostrato, dentro il nostro corpo.
Le microplastiche possono essere prodotte intenzionalmente, come accade ad esempio per le microperle usate in alcuni cosmetici e detergenti industriali. In altri casi, invece, derivano dalla frammentazione di oggetti di plastica più grandi, spezzati nel tempo da sole, vento, onde e attrito. Qualunque sia la loro origine, una volta disperse nell’ambiente, diventano praticamente impossibili da recuperare.
Se inizialmente l’attenzione della ricerca si è concentrata soprattutto sull’ambiente marino, oggi sappiamo che le microplastiche si trovano ovunque. Sono presenti nei mari, nei laghi, nei fiumi, ma anche nei ghiacciai e nell’atmosfera. Sono state rinvenute in alimenti di uso comune, come il pesce, il sale e perfino il miele. E non si tratta solo di contaminazione esterna: alcune ricerche hanno individuato tracce di microplastiche in campioni biologici umani, come sangue, feci e placenta. È una diffusione capillare, e proprio per questo difficile da controllare.
Un campo che ha attirato crescente interesse negli ultimi anni è quello dei suoli. Spesso trascurato rispetto agli ambienti acquatici, il suolo si sta rivelando un enorme serbatoio di microplastiche. La plastica può arrivarci attraverso molteplici vie: dai fanghi di depurazione usati in agricoltura, dai rifiuti plastici agricoli, dal compost contaminato, fino alla semplice deposizione atmosferica. Alcuni studi stimano che i suoli possano contenere più microplastiche degli oceani.
Ma quello che ha sorpreso molti ricercatori è che, in certi casi e in certe condizioni, la presenza di microplastiche nel suolo sembra produrre effetti inaspettati, non tutti negativi. Ad esempio, le plastiche possono contribuire ad aumentare la porosità del terreno, migliorandone l’aerazione e il drenaggio. In alcune situazioni, è stata osservata una maggiore stabilità degli aggregati del suolo e una migliore ritenzione idrica, caratteristiche che potrebbero essere utili, ad esempio, in contesti agricoli soggetti a siccità (Figura 2).
Figura 2. In alcune condizioni, la presenza di microplastiche nel suolo può modificare la struttura degli aggregati, favorendo aerazione, porosità e ritenzione idrica: effetti apparentemente utili in contesti agricoli aridi, ma non privi di rischi a lungo termine.
Anche dal punto di vista biologico, gli effetti sono controversi. Alcuni esperimenti hanno riportato un incremento dell’attività di lombrichi e di alcuni microrganismi in presenza di microplastiche, suggerendo un adattamento o una stimolazione di certi processi. Tuttavia, altri studi mettono in guardia: le stesse microplastiche possono alterare la composizione delle comunità microbiche del suolo, interferire con l’attività enzimatica, ostacolare la germinazione delle piante e veicolare sostanze tossiche, come metalli pesanti o pesticidi, adsorbiti sulla loro superficie.
Insomma, si tratta di una situazione complessa. Gli effetti variano molto a seconda del tipo di plastica, della sua forma — che siano fibre, frammenti o sfere — della concentrazione e, naturalmente, delle caratteristiche del suolo ospite. Anche se in certi casi le microplastiche sembrano migliorare temporaneamente alcune proprietà fisiche del terreno, la loro persistenza, la potenziale tossicità chimica e gli effetti a lungo termine sulla salute degli ecosistemi rendono il bilancio complessivo tutt’altro che rassicurante.
La chimica gioca un ruolo chiave in questa sfida. Grazie a essa possiamo non solo comprendere meglio il comportamento delle microplastiche nell’ambiente, ma anche sviluppare strategie per contrastarne la diffusione. La ricerca lavora su materiali biodegradabili, su metodi per separare e rimuovere microplastiche da acque e fanghi, su traccianti molecolari per seguirne il destino nell’ambiente e su tecnologie per limitarne l’ingresso nelle filiere produttive.
Ma anche nel nostro piccolo possiamo contribuire. Ridurre l’uso di plastica monouso, preferire materiali naturali per abbigliamento e oggetti di uso quotidiano, evitare prodotti cosmetici contenenti microperle — basta leggere le etichette con attenzione — sono scelte semplici che, moltiplicate per milioni di persone, possono fare una differenza reale. E soprattutto, possiamo diffondere consapevolezza. Perché le microplastiche sono piccole, sì, ma la loro portata è enorme. Capirle, raccontarle e affrontarle è un passo essenziale per costruire un rapporto più equilibrato tra l’uomo, la chimica e l’ambiente.
Riferimenti
Campanale, C., et al. (2020). A detailed review study on potential effects of microplastics and additives of concern on human health. International Journal of Environmental Research and Public Health, 17(4), 1212. (https://www.mdpi.com/1660-4601/17/4/1212)
de Souza Machado, A.A., et al. (2019). Microplastics Can Change Soil Properties and Affect Plant Performance. Environmental Science & Technology, 53(10), 6044–6052. (https://pubs.acs.org/doi/10.1021/acs.est.9b01339)
Ogni tanto circolano articoli dai toni allarmistici che mostrano quanto spesso oggi si trovino tracce di pesticidi negli alimenti, nell’acqua, nel suolo. “Una volta queste cose non c’erano”, si legge. Ma è davvero così? La risposta è semplice: no, non è che una volta non ci fossero, è che non eravamo in grado di vederle.
La differenza sta negli occhi, non nelle cose
In chimica analitica, quando si parla di rilevare una sostanza, non si usa mai dire con leggerezza “non c’è”. Si dice invece “non determinabile” (N.D.): vuol dire che non è rilevabile con gli strumenti disponibili, non che la sostanza non sia presente. È come cercare di vedere le stelle con un binocolo da teatro: non le vedi, ma non vuol dire che non ci siano.
E proprio come un telescopio moderno rivela galassie invisibili a Galileo, gli strumenti di oggi vedono tracce infinitesimali di sostanze che gli strumenti di ieri non riuscivano minimamente a percepire.
Un po’ di storia: quanto si vedeva ieri?
Anni ’50-’60: i primi gascromatografi (GC) usavano rivelatori come il TCD (rilevava a partire da 1-10 ppm, cioè parti per milione) o il più sensibile FID (circa 0.1 ppm). I pesticidi? Difficili da vedere, se non in quantità elevate.
Anni ’70-’80: entra in scena l’Electron Capture Detector (ECD), molto sensibile per sostanze come i pesticidi: arriva a livelli di 0.1 picogrammi, cioè un miliardesimo di milligrammo! Anche il GC-MS (gascromatografia accoppiata a spettrometria di massa) comincia a essere usato per rilevare composti in tracce.
Anni ’90-2000: con strumenti più raffinati come il GC-MS/MS, si scende ancora: si arriva a livelli di femtogrammi (mille miliardesimi di grammo). La sensibilità è altissima e il rumore di fondo si riduce grazie a nuove tecnologie (Figura 1).
Dal 2010 in poi: l’uso di spettrometri ad alta risoluzione (HRMS), colonne capillari e nuovi algoritmi di elaborazione dei dati ci porta a una capacità di rilevazione fino a 0.001 picogrammi.
Figura 1. il grafico mostra l’evoluzione dei limiti di rilevazione (LOD) in picogrammi, su scala logaritmica, per alcune delle tecniche analitiche più usate nella chimica analitica dal 1960 a oggi. Negli anni ’60 si vedevano solo concentrazioni nell’ordine dei ppm, oggi possiamo rilevare sostanze anche a femtogrammi, cioè mille miliardesimi di grammo.
Quindi oggi i pesticidi sono più usati?
No, non è questo il punto. È che oggi possiamo vedere concentrazioni che una volta erano semplicemente invisibili. È come se avessimo acceso una torcia in una stanza buia. Le cose nella stanza c’erano anche prima. Solo, non potevamo vederle (Figura 2).
Figura 2. Come vediamo gli analiti oggi. Il miglioramento della sensibilità strumentale ci consente di vedere cose che cinque, dieci, venti e più anni fa non eravamo in grado di rilevare.
Un esempio pratico
Un pesticida presente in un campione d’acqua nel 1970 in quantità pari a 5 picogrammi per litro non sarebbe stato rilevato da nessuno strumento allora disponibile. Oggi sì. Ma non significa che quel pesticida non ci fosse allora.
Conclusione
Quando leggiamo “oggi si trovano più pesticidi”, chiediamoci prima se si tratta di un aumento reale o semplicemente di un salto nella capacità di osservazione. La chimica analitica, nel frattempo, ha fatto un balzo gigantesco: non siamo più immersi nei veleni, siamo immersi nei dati. E questo è un enorme passo avanti.
Questo sito usa i cookie per migliorare la tua esperienza di navigazione. Viene assunto che tu sia d'accordo. Tuttavia, puoi annullare i cookie se lo desideri cliccando su “cookie settings” e deselezionando i cookie non necessari. Cookie settingsACCEPT
Privacy & Cookies Policy
Privacy Overview
Questo sito Web utilizza i cookie per migliorare la tua esperienza durante la navigazione. Tra questi, i cookie classificati come necessari vengono memorizzati nel browser in quanto sono essenziali per il funzionamento base del sito. Si utilizzano anche cookie di terze parti che aiutano ad analizzare e comprendere come si utilizza il sito. Questi cookie sono memorizzati nel tuo browser solo con il tuo consenso. Hai anche la possibilità di disattivarli. La disattivazione di alcuni cookie può, tuttavia, influire sulla tua esperienza di navigazione.
I cookie cosiddetti necessari sono essenziali per il funzionamento corretto del sito Web. Questa categoria include solo i cookie che assicurano le funzionalità di base e la sicurezza del sito Web. Non viene conservata alcuna informazione personale.