Le interviste impossibili: incontriamo Michael Faraday

Lasciata Parigi, dove ho avuto l’onore di dialogare con Antoine Lavoisier, faccio rotta verso l’Inghilterra. È il 1831 — almeno, così mi piace pensare — e la bruma londinese avvolge i sobborghi di Newington Butts. Qui, in una piccola casa modesta, mi attende Michael Faraday: chimico, fisico, autodidatta, uomo dalla curiosità inesauribile. Dai suoi esperimenti nascono concetti e scoperte che hanno plasmato la chimico-fisica moderna: l’elettromagnetismo, le leggi dell’elettrolisi, l’introduzione di termini come “anodo” e “catodo”, e quell’inimitabile ciclo di lezioni che raccolse in The Chemical History of a Candle. Un uomo che, pur privo di studi matematici formali, ha saputo leggere nel linguaggio segreto della natura e tradurlo in esperimenti chiari e affascinanti.

— Buongiorno, Professor Faraday. Sono onorato che lei abbia voluto incontrarmi.
— Buongiorno a lei, e benvenuto a Londra. Sono lieto di parlare con chi mostra curiosità per la scienza, perché la curiosità è la fiamma che accende ogni scoperta.

— Professor Faraday, il suo nome è legato a scoperte epocali in campi diversi. Partiamo dall’elettrochimica: come nacquero le sue famose leggi dell’elettrolisi?
— Tutto è cominciato facendo esperimenti, con tanta pazienza e un po’ di ostinazione. L’elettrolisi, per dirla semplice, è quando si fa passare corrente elettrica in un liquido — come una soluzione salina — e agli elettrodi avvengono reazioni chimiche: si formano gas, si depositano metalli, o si liberano altre sostanze. Mi resi conto che la quantità di sostanza prodotta non era mai a caso: più elettricità facevo passare, più materia ottenevo. Questo è il cuore della mia prima legge. Poi, cambiando sostanza — oro, rame, idrogeno, ossigeno… — vidi che, se facevo passare sempre la stessa “dose” di elettricità, ottenevo quantità diverse di materiale, ma sempre in proporzione a un valore caratteristico di quella sostanza, il cosiddetto “peso equivalente”. In fondo, quelle regole erano già lì, scritte nella natura: io ho solo avuto la pazienza di osservarle e metterle nero su bianco.

— Questo è quanto hanno affermato, tra le righe, anche il Professor Boyle e Monsieur Lavoisier che, immagino, lei conosca.
— Eccome se li conosco! Boyle, con il suo modo rigoroso di sperimentare, ha aperto la strada a tutti noi: era convinto che le leggi della natura fossero lì da scoprire, non da inventare. E Lavoisier… be’, lui ha saputo dare un ordine e un linguaggio alla chimica. Ha dimostrato che nulla si crea e nulla si distrugge, e che il compito dello scienziato è trovare il filo che lega ogni trasformazione. Io ho solo continuato quel lavoro, seguendo il filo della corrente elettrica.

— Quindi, lei ha seguito le orme di monsieur Lavoisier, dimostrando in modo indipendente che aveva ragione.
— Direi piuttosto che ho camminato su un sentiero che lui aveva già tracciato, ma guardando dettagli che, ai suoi tempi, erano nascosti. Lavoisier aveva ragione nel dire che la materia si conserva e che le reazioni seguono leggi precise. Io ho potuto vedere quelle stesse leggi in azione nei processi elettrici, e mostrarne il funzionamento quantitativo. In un certo senso, la mia elettrochimica è stata la prova sperimentale di un’idea che lui aveva reso universale.

— E come ha detto monsieur Lavoisier, la scienza è un gioco corale…
— …esattamente. Non c’è un singolo musicista che possa suonare tutta la sinfonia da solo. Ognuno aggiunge una nota, un tema, un’armonia. Boyle ha messo le fondamenta del metodo sperimentale, Lavoisier ha dato ordine e linguaggio alla chimica, e io ho avuto la fortuna di inserirvi l’elettricità come nuova voce. La scienza avanza così: un’idea ispira un’altra, un esperimento ne provoca cento nuovi. È un lavoro che attraversa generazioni, senza gelosie — o almeno, così dovrebbe essere.

— E in questo coro, lei ha introdotto un tema che ha cambiato per sempre la fisica: l’induzione elettromagnetica.
— Fu una delle mie scoperte più care. E nacque da una domanda molto semplice: se una corrente elettrica può generare un campo magnetico, come aveva mostrato Oersted, non sarà possibile anche il contrario? Mi misi al banco di lavoro con fili di rame, bobine, magneti e molta pazienza. Scoprii che muovendo un magnete vicino a un circuito, o variando il campo magnetico che lo attraversa, in quel circuito compare una corrente. Una corrente “indotta”. Non serviva contatto diretto: il cambiamento del campo era sufficiente.

— Un principio che oggi è alla base dei generatori e dei trasformatori elettrici…
— All’epoca non pensavo certo alle centrali elettriche: vedevo solo un nuovo modo in cui natura e movimento dialogano. Ma la bellezza della scienza è che ciò che nasce da curiosità pura, un giorno, può cambiare il mondo.

— Questa è l’idea della ricerca di base, un tipo di ricerca che, come avrà sicuramente saputo, oggi viene ritenuta inutile. Oggi, nella stesura dei progetti per ottenere finanziamenti, occorre anche descrivere i risultati attesi e le possibili applicazioni…
— Ah, capisco. Ma vede, la ricerca di base è come seminare in un terreno fertile: non si può sempre sapere in anticipo quale frutto crescerà, né quando. Se nel 1831 mi avessero chiesto quali applicazioni pratiche avrei tratto dall’induzione elettromagnetica, avrei potuto solo dire: “Ancora non lo so, ma è un fenomeno reale e va compreso”. Eppure, da quella curiosità oggi nascono la produzione e la distribuzione dell’elettricità. La scienza che cerca soltanto risultati immediati rischia di accontentarsi di frutti già noti, rinunciando a scoprire nuove specie di alberi.

— Bellissimo ciò che ha detto… la scienza che cerca soltanto risultati immediati rischia di accontentarsi di frutti già noti, rinunciando a scoprire nuove specie di alberi.
— E glielo posso raccontare con un piccolo episodio personale. Quando iniziai a parlare dei miei esperimenti sull’elettricità, alcuni colleghi mi chiesero: “Ma a cosa serve tutto questo? Cosa produrrà di utile?” Io risposi semplicemente: “Non lo so ancora… ma quando lo scoprirò, sarà più utile di qualsiasi risposta affrettata”. Ridono ancora, quando lo racconto, perché nessuno allora poteva immaginare che quei giochi con fili e magneti un giorno avrebbero illuminato case, fabbriche e città intere. La curiosità pura è stata il mio unico motore. Non ho mai pensato che l’utilità pratica dovesse precedere la comprensione; credo fermamente che le leggi della natura si rivelino meglio a chi le osserva con meraviglia e senza fretta.

— È davvero straordinario come la curiosità pura abbia portato a scoperte così rivoluzionarie… eppure, lei non si è fermato all’elettricità: ha anche esplorato la luce.
— Sì, e anche qui è stata la stessa curiosità a guidarmi. Nel 1845, mentre studiavo l’influenza dei campi magnetici sulla materia, mi venne in mente di verificare se la luce potesse essere influenzata da un campo magnetico. Preparai un esperimento semplice: un raggio di luce che passava attraverso una sostanza trasparente immersa in un campo magnetico. Con grande stupore, notai che il piano di polarizzazione della luce ruotava leggermente.

— Questo è ciò che oggi chiamiamo effetto Faraday
— È il primo esempio noto di interazione tra luce e magnetismo, e dimostrò che la luce e il magnetismo non sono fenomeni separati, ma legati da un principio comune. All’epoca non conoscevo l’equazione di Maxwell — che sarebbe arrivata solo qualche decennio dopo — ma intuivo che elettricità, magnetismo e luce fossero fili di uno stesso tessuto. Il mio compito era solo tirare uno di quei fili per vedere come vibrava l’intero intreccio.

— Professor Faraday, lei ha dimostrato di saper fare scoperte enormi senza una formazione matematica formale. Come ci è riuscito?
— Non ho mai considerato la matematica un ostacolo insormontabile, ma uno strumento che, se necessario, avrei potuto imparare. La mia forza era nel laboratorio, nell’osservazione meticolosa, nell’immaginare esperimenti semplici che potessero dare risposte chiare. Credevo — e credo ancora — che il pensiero sperimentale sia universale: se la natura ti mostra un fenomeno, puoi comprenderlo anche senza formule complesse, purché tu abbia pazienza, rigore e umiltà.

— A proposito di umiltà, lei ha spesso rifiutato titoli e onori…
— Sì, perché il vero riconoscimento per uno scienziato non è una medaglia, ma vedere che le sue scoperte entrano a far parte della vita di tutti. Ho sempre pensato che la scienza debba restare al servizio dell’uomo, non dell’ego dello scienziato.

— …che non è esattamente quello che accade oggi, quando molti di noi — me compreso — provano un certo piacere a stare sotto i riflettori. E glielo confesso: quando lo dico ai colleghi, vengo anche preso per pazzo.
— Forse perché oggi la visibilità non porta solo applausi, ma anche finanziamenti. E questi, lo so bene, possono arrivare da ogni direzione, compresa quella di chi vende illusioni ben confezionate: omeopatia, biodinamica e altre amenità. Ai miei tempi, la fama non apriva così facilmente le casse di mecenati o aziende; e comunque, il rischio di piegare la scienza a interessi di parte era sempre in agguato. Il punto è ricordare che il palcoscenico passa, mentre la verità scientifica resta — e che oggi, troppo spesso, la dignità e l’autorevolezza scientifica vengono barattate per un piatto di lenticchie.

— Professor Faraday, molti la ricordano anche per le sue celebri Christmas Lectures alla Royal Institution. Come nacque l’idea de La storia chimica di una candela?
— Ogni anno, a Natale, tenevo delle lezioni per i ragazzi. Volevo offrire loro un’esperienza che fosse insieme semplice e affascinante. Scelsi la candela perché è un oggetto comune, familiare a tutti, ma dietro la sua fiamma si nasconde un mondo di fenomeni fisici e chimici.

— Qual era il suo obiettivo nel parlare di una cosa così quotidiana?
— Dimostrare che la scienza non è confinata nei laboratori: è dappertutto. Una candela, accendendosi, mette in scena combustione, convezione, cambiamenti di stato, reazioni chimiche complesse. Volevo che i giovani capissero che anche un gesto banale può essere una porta verso grandi scoperte.

— Qual è il primo segreto che una candela rivela?
— Che la fiamma non è materia, ma energia in azione. La cera, riscaldata, diventa liquida, poi gassosa; il gas brucia liberando calore e luce. È un ciclo continuo di trasformazioni: solido, liquido, gas, e di nuovo energia.

— Lei parlava spesso di osservare prima di spiegare. Come lo applicò in queste lezioni?
Invitavo i ragazzi a guardare: il colore della fiamma, il fumo che si sprigiona quando si spegne la candela, la forma della goccia di cera che si scioglie. Solo dopo passavamo a spiegare il perché di ciò che avevano visto. La curiosità nasce dall’osservazione diretta.

— In fondo, è un po’ la stessa filosofia della sua ricerca…
Sia che studi l’elettromagnetismo, sia che guardi una candela, l’approccio è lo stesso: osservare con attenzione, porre domande, non dare nulla per scontato.

— Cosa pensa che La chimica di una candela possa insegnare ancora oggi?
— Che la scienza è nelle mani di chi sa guardare. Non importa se il laboratorio è una stanza piena di strumenti o il tavolo di cucina: ciò che conta è la capacità di meravigliarsi e di cercare risposte.

— Sa che queste sue parole potrebbero essere usate oggi, nella mia epoca, da complottisti di ogni risma? Gente che si riempie la bocca di “pensiero indipendente”, “Galilei era uno contro tutti” e così via cantando…
— Oh, conosco bene il rischio. Ma vede, c’è una differenza sostanziale: il vero pensiero indipendente nasce dallo studio rigoroso e dall’osservazione onesta della realtà; quello dei complottisti nasce spesso dal rifiuto pregiudiziale delle prove. Galilei non era “uno contro tutti” perché amava contraddire: era uno che portava dati, misure, esperimenti ripetibili. Se oggi qualcuno brandisce il suo nome per giustificare opinioni infondate, sta confondendo la curiosità con l’arroganza e il metodo scientifico con la chiacchiera da taverna. E guardi che lo stesso vale per una candela. Posso raccontare che la fiamma è alimentata da minuscole fate luminose che ballano nell’aria: suona poetico, e qualcuno potrebbe pure crederci. Ma basta un semplice esperimento per dimostrare che la luce e il calore vengono dalla combustione di vapori di cera. La scienza non è negare la fantasia — è verificarla.

— Professor Faraday, se dovesse riassumere in poche parole il senso del suo lavoro, cosa direbbe?
— Direi che ho passato la vita a inseguire scintille: alcune erano letterali, altre metaforiche. Ma ogni scintilla, se seguita con attenzione, può accendere una fiamma di conoscenza.

Mentre lascio la sua casa, il cielo di Londra è ancora avvolto nella bruma, ma nella mia mente resta accesa una piccola luce: quella di una candela che, sotto lo sguardo paziente di Michael Faraday, si trasforma da semplice oggetto quotidiano in una lezione eterna di curiosità, rigore e meraviglia.

Mi avvio verso il prossimo appuntamento impossibile. Lì, tra fili di rame e campi invisibili, scopriremo che la scienza può unire fenomeni che sembravano mondi separati, guidata dalla stessa curiosità che accende una fiamma e illumina una mente.

Note Bibliografiche

W.H. Brock (2016) The History of Chemistry. A Very Short Introduction. Oxford University Press

L.  Cerruti (2019) Bella e potente. La chimica dagli inizi del Novecento ai giorni nostri. Editori Riuniti

Michael Faraday (1845) Experimental Researches in Electricity. Philosophical Transactions of the Royal Society

Michael Faraday (1866) Storia Chimica di una candela. Editori della Biblioteca Utile

T.H. Levere (2001) Transforming Matter. A History of Chemistry from Alchemy to the Buckyball. Johns Hopkins University Press

Maggio, R. Zingales (2023) Appunti di un Corso di Storia della Chimica.Edises

Le interviste impossibili: incontriamo Robert Boyle

Come i miei quattro lettori sanno, sono un appassionato di chimica. Ne ho fatto la mia professione, unendo la passione per la ricerca – il mio giocattolo preferito, con cui smonto la realtà, ne indago i segreti e poi la rimonto – a quella per la didattica che, nel tempo, mi ha rivelato un lato inatteso: la voglia di rendere “digeribili” agli studenti concetti chimici anche molto complessi.

C’è poi un’altra passione: la storia della chimica. Sono convinto che solo conoscendo ciò che è accaduto in passato si possa capire come e perché una disciplina si sia sviluppata in una direzione piuttosto che in un’altra.

Da queste premesse nasce questa rubrica dal titolo: Le interviste impossibili. Si tratta una serie di incontri – ovviamente immaginari – con grandi scienziati del passato, principalmente chimici, con i quali intavolerò discussioni che potranno spaziare dalla scienza alla politica, dall’etica ad altre questioni che il dialogo potrà far emergere. Saranno conversazioni interamente frutto della mia immaginazione, ispirate alla filosofia scientifica e al pensiero della persona intervistata.

E per cominciare, chi meglio di Robert Boyle? Un uomo che, nel 1661, con Il chimico scettico, ha segnato la nascita della chimica moderna, abbandonando le nebbie dell’alchimia per abbracciare la luce della sperimentazione. Sarà lui il primo ospite di questa serie, e vi assicuro che, nonostante i suoi 400 anni portati con una certa eleganza, ha ancora parecchie cose da dire.

_______________________

Buongiorno, professor Boyle.
— Buongiorno a lei, signore. Mi perdoni se non mi alzo: questa pompa pneumatica è un po’ capricciosa e non vorrei perdere il vuoto proprio adesso.
— Vedo che la tratta con grande cura.
— Cura? Direi venerazione. È stata la mia chiave per scardinare vecchie idee. Con essa ho mostrato che l’aria non è un concetto filosofico, ma una sostanza reale, con peso, volume, pressione. Ai miei tempi, molti pensavano che la natura fosse governata da qualità misteriose, imponderabili. Io ho voluto misurare, pesare, verificare.

— E questo cambiò la chimica?
— Cambiò il modo di guardare alla materia. Prima si parlava di “aria”, “fuoco”, “acqua” e “terra” come entità quasi mistiche. Io ho voluto trattarle come sostanze concrete. Senza questa svolta, dubito che la chimica avrebbe potuto diventare lo strumento potente – e pericoloso – che è oggi.

— Pericoloso?
— Oh, sì. Ai miei tempi, il pericolo era limitato dal ritmo lento della ricerca: poche persone, pochi strumenti, pochi esperimenti. Oggi vedo una velocità inaudita: sintetizzate composti che non esistono in natura e li disperdete nell’ambiente prima ancora di comprenderne a fondo le conseguenze. Pensate alla plastica: una meraviglia della chimica moderna, ma anche un nuovo sistema chimico, onnipresente nei mari e nei corpi degli animali. Noi scienziati dobbiamo ricordare che ogni “creazione” lascia un’impronta.

— Quindi anche nel XVII secolo si poteva parlare di impatto ambientale?
— Certo, ma in forme diverse. I metallurgi avvelenavano i fiumi con le scorie, nelle città si bruciava carbone liberando fumi tossici. Noi non usavamo la parola “inquinamento”, ma ne sentivamo gli effetti: miniere abbandonate, aria irrespirabile nelle botteghe, malattie croniche tra i lavoratori. Solo che nessuno collegava questi effetti alle cause chimiche: mancava il concetto stesso di “responsabilità scientifica verso l’ambiente”.
— E come ci si è arrivati?
— È stato un percorso lento, nato dall’osservazione e dall’accumulo di prove. Con l’Ottocento e la rivoluzione industriale, l’aumento di fumi e scorie divenne innegabile; nel Novecento, con la chimica capace di produrre composti mai visti in natura, si cominciò a capire che ogni reazione ha conseguenze non solo in laboratorio, ma anche nei fiumi, nei campi e nei corpi. Gli esempi non mancano: le piogge acide dovute alle emissioni industriali, il DDT che si accumulava nelle catene alimentari, il buco nello strato di ozono causato dai clorofluorocarburi. Fu allora che l’umanità iniziò a capire che l’ambiente non era un contenitore infinito, ma un sistema delicato, capace di spezzarsi sotto il peso delle nostre stesse invenzioni. Oggi chiamate questo approccio “valutazione dell’impatto ambientale”: è la naturale estensione del metodo scientifico. Osservare, misurare e trarre conclusioni, ma applicato non solo all’esperimento, bensì alle sue conseguenze sul mondo reale. E, cosa ancora più importante, farlo prima di introdurre su larga scala una nuova sostanza o tecnologia. Tanto che in molti Paesi questo esame preventivo è diventato un obbligo di legge: un modo per ricordare che la prudenza non è un freno al progresso, ma la sua assicurazione.

— Come vede il rapporto tra scienza e politica oggi?
— Non troppo diverso da allora: la politica ama la scienza quando porta vantaggi immediati, ma la ignora – o la ostacola – quando chiede pazienza e prudenza. Ai miei tempi, un re o un mecenate finanziava un esperimento se prometteva ricchezza o prestigio; oggi, un governo o un’azienda lo finanziano se promette profitto o consenso. La differenza è che oggi gli effetti sono globali, non locali.

— E anche la scienza stessa è cambiata.
— Oh, sì. Mi avete parlato di questa massima: publish or perish, pubblica o scompari. Ai miei tempi pubblicare era un atto ponderato, spesso il lavoro di una vita. Ora vedo un’esplosione di articoli, ma molti sono come bolle di sapone: luccicanti per un attimo, poi svaniscono. Alcuni dicono poco o niente, altri celano errori gravi, e vi sono perfino casi di falsità intenzionali. Mi avete raccontato di un certo Jan Hendrik Schön, che riempì riviste prestigiose di risultati entusiasmanti sui transistor molecolari… peccato che fossero artefatti. Grafici identici per esperimenti diversi, dati “cancellati” per mancanza di spazio…
— E la comunità scientifica?
— Ha fatto ciò che doveva: ha verificato, smascherato e ritirato quegli studi. Ma il danno d’immagine resta: basta un imbroglione per far credere a molti che tutta la scienza sia marcia.

— E non è solo un problema di chi scrive articoli. Anche chi siede nei comitati scientifici ha responsabilità enormi.
— Certamente. Mettere in un comitato tecnico persone che rifiutano le basi stesse della disciplina che dovrebbero consigliare è come nominare un astrologo direttore di un osservatorio astronomico, o un alchimista a capo di un laboratorio chimico. Ai miei tempi, la Royal Society aveva un motto: Nullius in verba, “non fidarti della parola di nessuno”. Oggi dovreste aggiungere: “ma fidati dei dati”.
— E invece?
— Invece vedo che talvolta si preferisce dare spazio a voci che piacciono al pubblico, o che creano polemica, piuttosto che a quelle fondate sulla prova. È un cortocircuito pericoloso: si confonde il dibattito scientifico, che nasce dall’evidenza, con l’opinione personale, che nasce dal pregiudizio.

— Torniamo un attimo al suo Chimico scettico: il suo invito era a dubitare, a verificare.
— Sì. Lo scetticismo è la virtù cardinale dello scienziato. Senza di esso, si scivola nell’illusione. Oggi, a quanto vedo, convivono scoperte straordinarie e credenze assurde: si creano vaccini in pochi mesi e allo stesso tempo si vendono boccette di acqua “miracolosa” che pretendono di curare tutto.
— Omeopatia.
— Già. La chiamerei “chimica dell’assenza”: meno sostanza c’è, più miracoli si promettono. È un concetto che mi lascia perplesso: ho passato la vita a misurare e qui si celebra ciò che non si può misurare.

— Se potesse dare un consiglio agli scienziati di oggi?
— Non dimenticate che ogni molecola che “create” entrerà in qualche ciclo della natura. E ricordatevi che la scienza non è una collezione di verità scolpite nella pietra, ma un cantiere aperto, dove ogni scoperta deve essere messa alla prova, anche – e soprattutto – quando sembra troppo bella per essere vera.

— Ultima domanda, professore: se le offrissi un bicchiere di acqua “omeopatica” per la salute?
— (Sorride) Lo accetterei… ma solo se avessi sete.

_______________________

Saluto il professor Boyle e mi avvio verso il prossimo appuntamento impossibile. Il mio interlocutore, ghigliottinato nel 1794, aveva una convinzione incrollabile: nulla si crea, nulla si distrugge. Ma, come scopriremo presto, non tutto si conserva…

Note Bibliografiche

R. Boyle (ed. 2013) The skeptical chymist. Dover Publications

W.H. Brock (2016) The History of Chemistry. A Very Short Introduction. Oxford University Press

L. Cerruti (2019) Bella e potente. La chimica dagli inizi del Novecento ai giorni nostri. Editori Riuniti

T.H. Levere (2001) Transforming Matter. A History of Chemistry from Alchemy to the Buckyball. Johns Hopkins University Press

A. Maggio, R. Zingales (2023) Appunti di un Corso di Storia della Chimica. Edises

 

Nomine e cortocircuiti: quando l’antiscienza entra nei comitati scientifici

È di queste ore la notizia che il ministro della salute, Orazio Schillaci, ha nominato nel Gruppo Tecnico Consultivo Nazionale sulle Vaccinazioni (NITAG) due tecnici, Paolo Bellavite ed Eugenio Serravalle, dalle posizioni, in più occasioni espresse pubblicamente, in contrasto con quanto riportato nella letteratura scientifica più accreditata (quest’ultima può essere rappresentata dagli articoli riportati qui, qui, qui e qui).

Che cos’è il NITAG?

Dal sito del Ministero della Salute apprendiamo che: Il NITAG è un Organo indipendente col compito di supportare, dietro specifica richiesta e su problematiche specifiche, il Ministero della Salute nella formulazione di raccomandazioni “evidence-based” sulle questioni relative alle vaccinazioni e alle politiche vaccinali, raccogliendo, analizzando e valutando prove scientifiche.

In altre parole, si tratta di un comitato scientifico che, sulla base di prove scientifiche inoppugnabili, consente al Ministero della Salute e, quindi, al Governo di prendere decisioni importantissime in merito a problematiche relative alla salute pubblica.

Chi è Paolo Bellavite

Bellavite è un medico che fino a qualche anno fa ha ricoperto il ruolo di Professore Associato in Patologia Generale presso l’Università di Verona. Le sue posizioni in merito ai vaccini sono riportate sia in interviste che nei libri che ha scritto e pubblicato. In particolare, egli dice di non essere contrario ai vaccini in quanto tali, ma critica duramente quella che definisce una “ideologia vaccinista”. A suo avviso, la narrazione dominante che presenta i vaccini come soluzione unica e infallibile si configura come un dogma che soffoca il dibattito scientifico e il pensiero critico. “Non ha nulla a che fare con la scienza”, ha affermato in un’intervista, parlando di un clima in cui “l’odio vaccinale è la tomba della medicina”.

Autore del libro “Vaccini sì, obblighi no”, Bellavite contesta soprattutto l’obbligatorietà della vaccinazione, sostenendo che il consenso informato debba restare alla base di ogni trattamento sanitario. Il professore ha anche espresso dubbi sull’efficacia a lungo termine dei vaccini anti-Covid e sulla loro capacità di limitare la diffusione del virus, ricordando che “i vaccinati possono infettarsi e trasmettere il virus, a volte anche più dei non vaccinati”.

Dal punto di vista immunologico, Bellavite mette in guardia contro le possibili conseguenze di una stimolazione eccessiva del sistema immunitario attraverso dosi ripetute. E sull’aspetto etico sottolinea: “Siamo ancora nella fase sperimentale. Ha ragione chi ha paura”.

Naturalmente, egli è anche un forte sostenitore della pratica omeopatica. Infatti, Paolo Bellavite sostiene che l’omeopatia non sia una moda passeggera, ma l’espressione di un profondo cambiamento culturale e scientifico che mette in discussione i limiti dell’attuale paradigma medico meccanicistico e molecolare. Questo approccio tradizionale, pur avendo ottenuto importanti risultati, non ha saputo affrontare efficacemente la complessità biologica e clinica, spesso riducendo la medicina a una frammentazione iperspecialistica. L’omeopatia, al contrario, propone una visione sistemica del paziente, centrata sull’individualità, sulla totalità dei sintomi e sulla stimolazione dei processi endogeni di guarigione, concetti che si allineano con la scienza della complessità. Bellavite rivendica per l’omeopatia una dignità scientifica, sostenendo che essa possa essere studiata con metodi sperimentali avanzati e integrata razionalmente nella medicina moderna. Si oppone con forza a ciò che definisce una campagna denigratoria nei confronti dell’omeopatia da parte dei media e di alcuni esponenti del mondo accademico, accusandoli di diffondere affermazioni false senza consentire un contraddittorio serio e competente. Pur riconoscendo il valore di farmaci convenzionali e vaccini in determinate circostanze, Bellavite li considera soluzioni alternative da adottare solo dopo aver tentato approcci più naturali e fisiologici, come omeopatia, fitoterapia, agopuntura, corretta alimentazione e igiene. In questa visione, l’omeopatia non è solo una medicina possibile, ma una medicina vera e prioritaria, da contrapporre a un uso troppo disinvolto e sintomatico della farmacologia convenzionale.

Chi è Eugenio Serravalle

Serravalle è laureato in Medicina e Chirurgia e specializzato in Pediatria Preventiva, Puericultura e Patologia Neonatale. Egli ha più volte preso posizione contro la vaccinazione di massa dei bambini, soprattutto in relazione al Covid-19. Secondo lui, l’infezione da SARS-CoV-2 non rappresenta un’emergenza sanitaria tra i più piccoli e i potenziali rischi della vaccinazione superano i benefici. “Tutti gli studi scientifici affermano che non vi è alcuna emergenza Covid tra i bambini”, ha dichiarato in un’intervista.

Serravalle contesta anche l’efficacia dei vaccini nel prevenire il contagio, soprattutto con l’avvento delle varianti come Omicron. Secondo la sua analisi, in alcuni casi i vaccinati si infettano più dei non vaccinati e l’immunità acquisita naturalmente sarebbe più duratura. Per questo, a suo dire, non sussistono i presupposti per raggiungere l’immunità di gregge né per giustificare obblighi o pressioni vaccinali.

Oltre ad essere un medico, Eugenio Serravalle risulta diplomato in Omeopatia Classica presso la Scuola Omeopatica di Livorno e svolge attività didattica come professore presso l’Accademia di Omeopatia Classica Hahnemanniana di Firenze.

Come Bellavite, quindi, anche Serravalle è un forte sostenitore dell’omeopatia.

In un articolo intitolato “Il Dr. Eugenio Serravalle risponde a Maurizio Crozza sull’Omeopatia”, Serravalle replica alle battute ironiche del comico Crozza sostenendo con fermezza l’efficacia e la correttezza della pratica omeopatica. Scrive:

“Abbiamo una regolare laurea in medicina… e se abbiamo adottato la terapia omeopatica è perché, evidentemente, ne abbiamo sperimentato l’efficacia.”

“Non si può essere venditori di fumo quando si curano pazienti… e tra questi pazienti sono numerosi i bambini e gli animali che non sono influenzabili dall’effetto placebo.”

Con questa risposta, Serravalle rigetta la critica secondo cui l’omeopatia sarebbe solo “fumo” o priva di efficacia, affermando invece di aver osservato personalmente risultati tangibili, anche in soggetti difficilmente influenzabili da placebo.

Quando i conti non tornano

A leggere le dichiarazioni dei due nominati, si potrebbe pensare di essere davanti a voci “fuori dal coro” che invitano alla cautela. Ma basta andare oltre la superficie per capire che non si tratta di sano scetticismo scientifico: siamo, piuttosto, di fronte a posizioni che, alla luce delle evidenze scientifiche disponibili, risultano in contrasto con il consenso della comunità scientifica. Ed è qui che inizia il vero problema.

Il punto centrale è che un organismo tecnico chiamato a esprimere pareri qualificati in materia di salute pubblica deve basarsi su conoscenze aggiornate e scientificamente inoppugnabili. Non può diventare il ricettacolo di discussioni inutili fatte in nome di una presunta “pluralità di opinioni”. Il concetto di democrazia politica è completamente diverso  – e molto lontano – da quello di democrazia scientifica. In una democrazia politica è legittimo avere opinioni diverse su come affrontare un problema di gestione della res publica. In ambito tecnico-scientifico, invece, un’opinione non qualificata non ha lo stesso peso di quella di chi possiede competenze specifiche e fondate sull’evidenza.

Ecco perché, per esempio, ci fu la levata di scudi del mondo accademico agrario quando si paventò l’ingresso di esponenti della biodinamica in tavoli tecnici per l’assegnazione di fondi all’agricoltura.

A mio avviso, il Ministro ha preso decisioni discutibili, in nome di una pluralità di opinioni che, in ambito scientifico, non ha alcun senso. Sta ora tentando di mettere delle pezze a questa scelta, dimenticando che anche lui è un medico e ha responsabilità che vanno ben oltre la sua funzione politica.

Se mai un responsabile istituzionale si trovasse nella condizione di dover cedere a compromessi, la scelta più coerente con la difesa della scienza sarebbe quella di rassegnare le dimissioni. Servirebbe, come nel caso della biodinamica, una sollevazione compatta del mondo scientifico e medico. Nel frattempo, nel mio piccolo, continuo a far sentire la mia voce e auspico che tutti gli organismi professionali – dagli ordini alle società scientifiche – facciano sentire la loro, in difesa della medicina basata sulle prove e della salute pubblica.

Il cortocircuito dell’antiscienza

Le posizioni di Paolo Bellavite ed Eugenio Serravalle non sono semplicemente “opinioni alternative” in un dibattito tra pari. Non si tratta di ricercatori che presentano dati nuovi, pronti a essere vagliati e discussi dalla comunità scientifica: qui non c’è nessun dato nuovo. C’è, piuttosto, un riciclo di tesi contestate e smentite dalla letteratura scientifica, che riaffiorano come vecchie erbacce tra le crepe del discorso pubblico.

Con l’omeopatia il copione lo conosciamo bene: una pratica nata oltre due secoli fa, costruita su concetti come “similia similibus curentur” e “dinamizzazione”, mai dimostrati in modo riproducibile. Nei miei articoli – dalla presunta memoria dell’acqua (link) alle più recenti fantasie agronomiche (link) – ho mostrato come la letteratura scientifica di qualità non abbia mai trovato un effetto dell’omeopatia superiore al placebo. Chi la difende, spesso, non lo fa su basi sperimentali, ma su convinzioni personali, esperienze aneddotiche o richiami a un presunto “cambiamento di paradigma” che non trova riscontro in alcun dato.

Sul fronte dei vaccini, il meccanismo è simile: si selezionano singoli studi, si estrapolano dati fuori contesto, si enfatizzano le incertezze inevitabili di ogni processo scientifico per far passare l’idea che “non sappiamo abbastanza” o che “i rischi superano i benefici”. Nei miei pezzi – da antivaccinisti ed immunità di gregge a vaccini e corretta informazione scientifica – ho spiegato come l’evidenza accumulata su milioni di dosi mostri una riduzione netta di ospedalizzazioni e decessi.

Quando Bellavite parla di “fase sperimentale” per i vaccini anti-Covid, non sta facendo un’osservazione prudente: formula un’affermazione che non trova riscontro nei dati scientifici, perché quei vaccini hanno completato tutte le fasi di sperimentazione necessarie per l’autorizzazione. Quando Serravalle afferma che “i vaccinati si infettano più dei non vaccinati”, non menziona i dati che mostrano come, pur con una protezione dall’infezione che diminuisce nel tempo, la vaccinazione resti una barriera fondamentale contro le forme patologiche gravi e le loro complicanze.

La contraddizione diventa lampante quando entrambi propongono l’omeopatia come alternativa o complemento “prioritario” alla farmacologia. Il mandato del NITAG è basato sull’evidence-based medicine, e l’omeopatia non rientra in alcuna linea guida internazionale sul trattamento o la prevenzione di malattie infettive. È paragonabile, per incoerenza, a nominare un negazionista del cambiamento climatico in un comitato per la transizione ecologica: il risultato è solo quello di minare la credibilità dell’organo stesso.

Il problema, però, non è solo tecnico. È culturale. Dare spazio istituzionale a posizioni non supportate da dati scientifici significa legittimare un messaggio pericoloso: che le evidenze scientifiche siano opinioni e che la sanità pubblica possa essere guidata da convinzioni personali. È il cortocircuito dell’antiscienza: quando la politica apre la porta a teorie già confutate, la fiducia nelle istituzioni si sgretola e i cittadini restano più esposti a bufale e disinformazione. Come ho scritto altrove  – qui e qui – quando la pseudoscienza entra dalla porta principale, la salute pubblica rischia di uscire dalla finestra.

Quando l’impossibile è solo improbabile: la cosmochimica ci insegna a essere umili

Recentemente Nature Communications ha pubblicato un articolo che ha fatto il giro del web: la scoperta di una molecola ritenuta “impossibile” secondo la chimica classica. Si tratta del methanetetrol, con formula C(OH)₄, cioè un atomo di carbonio legato a quattro gruppi ossidrilici. Se avete familiarità con la chimica organica, vi sarà già scattato un campanello d’allarme.

Un carbonio, quattro ossidrili

In chimica organica, anche due gruppi -OH sullo stesso carbonio (dioli germinali) sono instabili: tendono a disidratarsi spontaneamente, formando un carbonile più stabile. Con quattro ossidrili, il carbonio è sottoposto a forte repulsione elettronica e alta reattività: la molecola è intrinsecamente instabile nelle condizioni terrestri.

Ma lo spazio è tutta un’altra storia

L’esperimento condotto da Joshua H. Marks e colleghi ha simulato condizioni interstellari:

  • temperatura di circa 10 K (~ –263 °C);
  • pressione ultra-bassa (10⁻¹⁰ atm);
  • esposizione a radiazione energetica, simile a quella dei raggi cosmici.

In queste condizioni la molecola non riceve abbastanza energia per reagire o disidratarsi. Resta quindi “congelata” in uno stato metastabile, come se fosse bloccata nel tempo.

Instabile ≠ impossibile

Il methanetetrol non è “impossibile”: è semplicemente troppo instabile per durare a lungo alle condizioni ambientali della Terra. Ma nel vuoto cosmico, dove le collisioni tra molecole sono rarissime e la temperatura è prossima allo zero assoluto, anche le molecole più reattive possono esistere per tempi lunghissimi.

Un esempio quotidiano: l’acqua sovraraffreddata

Un buon esempio di metastabilità è l’acqua sovraraffreddata: se si raffredda dell’acqua molto pura lentamente e senza disturbarla, può restare liquida anche sotto gli 0 °C. Basta però un urto o l’aggiunta di un cristallo di ghiaccio perché si congeli all’istante, liberando calore.

Il methanetetrol nello spazio si comporta allo stesso modo: esiste in uno stato “delicato”, che può durare milioni di anni solo finché non interviene qualcosa a modificarlo.

Un’eredità cosmica

È importante ricordare che le molecole presenti oggi sulla Terra — comprese quelle che hanno contribuito all’origine della vita — sono in parte eredi di queste molecole “cosmiche”. Nei primi miliardi di anni, comete, meteoriti e polveri interstellari hanno portato sulla Terra materiali formatisi in ambienti estremi, spesso metastabili.

Queste molecole, una volta inglobate nel giovane pianeta, si sono trasformate: alcune sono sopravvissute, altre si sono degradate, altre ancora hanno reagito dando origine a sistemi sempre più complessi. La chimica della vita, in questo senso, è figlia della chimica dello spazio, anche se si è evoluta in condizioni molto diverse.

Anche la Terra ha i suoi estremi

Non dobbiamo però pensare che condizioni “impossibili” esistano solo nello spazio. Anche sulla Terra troviamo ambienti estremi in cui si manifestano forme di chimica — e persino di biologia — del tutto inattese.

  • Nelle saline di Trapani, ad esempio, vivono microrganismi capaci di resistere a concentrazioni di sale che ucciderebbero qualsiasi cellula “normale”.
  • Nei pressi delle bocche vulcaniche sottomarine, dove temperature e pressioni sono altissime, esistono comunità microbiche che metabolizzano zolfo e metalli.
  • In ambienti acidi, alcalini, radioattivi o privi di ossigeno, prosperano organismi estremofili che mettono in crisi i nostri criteri su cosa è “compatibile con la vita”.

Anche qui la natura ci insegna che la stabilità è relativa: ciò che sembra impossibile in una condizione può essere perfettamente normale in un’altra.

Uno sguardo all’origine della complessità

L’interesse principale di questa scoperta non è nella molecola in sé, ma nei meccanismi di formazione. L’esperimento ha mostrato che partendo da semplici ghiacci di CO₂ e H₂O si possono generare:

I calcoli teorici confermano che, se c’è sufficiente CO₂ nello spazio, il methanetetrol potrebbe già esistere là fuori — congelato nei ghiacci cosmici, in attesa di una nuova reazione.

Conclusione

La chimica nello spazio non viola le regole: le applica in modo diverso. Il methanetetrol ci ricorda che non possiamo giudicare la plausibilità di una molecola solo dalle condizioni terrestri. E ci insegna una lezione ancora più importante:
la chimica, come la vita, nasce dove trova spazio per esistere — anche se quel luogo è a 10 Kelvin, nel vuoto cosmico o in una salina siciliana.

Clima e pseudoscienza: anatomia di una discussione

Qualche giorno fa ho pubblicato il terzo e, speravo, ultimo articolo di un reportage sui cambiamenti climatici. In questo articolo, intitolato I cambiamenti climatici? Sì, siamo noi i responsabili, ho discusso delle prove oggettive – corredate da riferimenti puntuali – che hanno portato l’intera comunità scientifica alla conclusione che i responsabili di quanto sta accadendo attualmente sulla superficie terrestre, ovvero l’aumento delle temperature globali e la conseguente alterazione degli ecosistemi, siamo noi esseri umani.

In quel testo ho cercato di mostrare, in modo accessibile ma rigoroso, perché la tesi dell’origine antropica dell’attuale riscaldamento globale non sia più un’ipotesi, ma una conclusione supportata da una mole imponente di dati.

Ho parlato del ruolo dei gas serra, in particolare della CO₂ prodotta dalla combustione di combustibili fossili, la cui impronta isotopica è ben riconoscibile in atmosfera. Ho discusso anche delle fonti indipendenti che confermano il trend in atto – dalle carote glaciali agli anelli degli alberi, dai sedimenti oceanici alle misurazioni satellitari – e delle ragioni per cui né l’attività solare né le eruzioni vulcaniche possono spiegare ciò che osserviamo oggi.

Infine, ho evidenziato come la rapidità del riscaldamento attuale – oltre un grado in appena un secolo – sia senza precedenti nella storia recente del pianeta, e come l’intero corpo scientifico internazionale, sintetizzato nei report dell’IPCC, abbia ormai raggiunto un consenso solido e ben documentato su questo punto.

Non è necessario riproporre qui tutti i riferimenti bibliografici: si trovano nell’articolo appena riassunto (qui il link).

Eppure, eccomi di nuovo a scrivere sull’apporto antropico all’effetto serra. Non per aggiungere nuove evidenze, ma per riflettere sul modo estremamente fallace – e sempre più diffuso – di ragionare dei negazionisti del cambiamento climatico. Non si tratta, in questo caso, di negazionisti tout court: anche loro, ormai, devono riconoscere l’evidenza dell’aumento delle temperature globali. Si tratta piuttosto dei negazionisti dell’origine antropica, coloro che rifiutano di accettare che la causa principale del riscaldamento sia l’attività umana.

In un gruppo Facebook che aiuto a gestire – Bufale e dintorni gruppo – sono comparsi i primi commenti al mio post con cui pubblicizzavo l’articolo (potete farvene un’idea a questo link).
Poiché si tratta di un gruppo privato – quindi i post non sono visibili pubblicamente – e considerando che non tutti hanno un account Facebook attivo, riporto di seguito gli screenshot della discussione.

La Figura 1 riporta la condivisione dalla mia pagina Facebook “Rino Conte”.

Figura 1. Screenshot relativo alla condivisione del mio articolo sull’effetto antropico nei cambiamenti climatici. Questo thread ha dato la stura a una discussione con un negazionista di tale effetto.

La Figura 2 riporta (spero in modo leggibile, altrimenti è necessario da parte dei volenterosi scaricare l’immagine ed effettuarne uno zoom) la discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

Figura 2. Discussione in corso tra me ed il negazionista dell’effetto antropico sul clima.

E proprio mentre sto scrivendo questo articolo la discussione continua (Figura 3).

Figura 3. Proseguimento della discussione mentre scrivo questo articolo.

Come si evince dagli screenshot, il tutto ha inizio dall’inserimento di un link a un articolo giornalistico in cui si riporta un filmato che mostra il comportamento di certi ghiacciai negli ultimi 800 000 anni. Questo filmato è tratto da un lavoro scientifico dal titolo “Modelling last glacial cycle ice dynamics in the Alps” pubblicato nel 2018 sulla rivista The Cryosphere della European Geoscience Union, associazione per la quale anche io ho organizzato in passato dei miniconvegni nell’ambito delle attività congressuali più generali che si fanno ogni anno a Vienna in Austria (per esempio, uno è qui).

Chi ha condiviso questo studio nella discussione lo ha fatto con l’intento – più o meno esplicito – di suggerire che, dal momento che i ghiacciai alpini si sono espansi e ritirati ciclicamente nel passato, il cambiamento climatico attuale potrebbe essere semplicemente parte di una lunga variabilità naturale. È un’inferenza del tutto errata, che nasce da un fraintendimento delle finalità e dei contenuti del lavoro scientifico citato.

Infatti, lo studio in questione (Seguinot et al., 2018) non parla di cambiamenti climatici attuali né tantomeno ne discute le cause. Si tratta di un lavoro di modellizzazione numerica della dinamica glaciale delle Alpi durante l’ultimo ciclo glaciale (da 120.000 a 0 anni fa), che ha lo scopo di testare la coerenza tra ricostruzioni geologiche e simulazioni del comportamento dei ghiacciai su scala millenaria. Non c’è nel testo alcuna analisi delle cause del riscaldamento moderno, né alcun confronto con l’evoluzione recente del clima terrestre.

Quello che il mio interlocutore ha fatto è un tipico esempio di bias di conferma: ha estrapolato da un articolo tecnico una conclusione che non c’è, perché questa coincide con la propria convinzione preesistente. È un meccanismo comune tra i cosiddetti “negazionisti soft” – persone che, pur riconoscendo che il clima sta cambiando, rifiutano l’idea che l’essere umano ne sia il principale responsabile.

La dinamica della discussione su Facebook lo conferma: ogni volta che si porta un dato, una misura, una ricostruzione paleoclimatica, l’interlocutore non contesta la validità della fonte, ma sposta il piano, relativizza, introduce “dubbi” storici o filosofici. E infine si rifugia nel mito del “Galileo solitario”, come se ogni minoranza fosse destinata a diventare verità solo perché è minoranza. Ma Galileo non aveva ragione perché era solo: aveva ragione perché aveva i dati e un metodo.

Ecco il punto: il problema non è tanto avere un’opinione diversa, quanto non saper distinguere tra opinione personale e conoscenza scientifica. E non è un caso che questo tipo di retorica si ritrovi spesso in altri ambiti della disinformazione scientifica: chi si sente “eretico” rispetto al sapere ufficiale tende a sopravvalutare le proprie intuizioni e a sottovalutare il lavoro, faticoso e rigoroso, di chi fa scienza sul serio.

Discutere con chi rifiuta le conclusioni della scienza può essere faticoso, ma è anche necessario. Non per convincere chi ha già deciso di non ascoltare, ma per fornire strumenti a chi legge in silenzio, a chi cerca chiarezza in mezzo al rumore. La scienza non ha bisogno di essere difesa come un dogma: si difende da sé, con i dati, con la trasparenza dei metodi, con la disponibilità al confronto critico. Ma proprio per questo va protetta dalle distorsioni, dalle semplificazioni, e soprattutto dal relativismo delle opinioni travestite da verità.
Il cambiamento climatico attuale è un fenomeno reale, misurabile e in larga parte causato dalle attività umane. Continuare a negarlo non è esercizio di pensiero critico, ma una forma di resistenza ideologica che rischia di ritardare l’unica cosa che oggi dovremmo fare: affrontare il problema con serietà, competenza e senso di responsabilità.

EDIT

Mentre mi accingevo a pubblicare questo articolo, il mio interlocutore ha pubblicato un’ultima risposta che ho deciso di riportare integralmente per completezza. Qui sotto trovate anche la mia replica con cui ho deciso di concludere la discussione pubblica.

Interlocutore:

Pellegrino

  1. Lei stesso parla di “stime solide”; che sono appunto stime, non misurazioni dirette.
  2. “Sappiamo perché”, è un’altra forzatura. In realtà abbiamo delle interpretazioni plausibili per molte di esse, ma ciò non equivale a una certezza assoluta. Anche nelle osservazioni attuali, ci si imbatte in anomalie impreviste, tipo l’impatto dello scioglimento del permafrost, temperature previste che poi non si sono verificate… E parliamo di osservazioni dirette; figuriamoci sulle “stime” di fenomeni non osservati direttamente. Per non parlare dell’infinito dibattito su quanto influiscano o meno le macchie solari…

Stesso discorso sul fatto che le oscillazioni in passato non avvenissero in decenni, trascurando che non possiamo sapere se gli strumenti che abbiamo a disposizione siano davvero affidabili con tale precisione. Mancando l’osservazione diretta, non possiamo verificarlo.

Dire che “potrebbero esserci state” significa semplicemente dire che il modello generale è ancora soddisfatto; per dimostrare l’anomalia bisogna dimostrare che davvero non ci siano precedenti. È un discorso di presunzione d’innocenza: per dare la colpa all’uomo bisogna dimostrarla; il “ragionevole dubbio” è a favore dell’imputato. Foss’anche solo per mancanza di prove.

  1. Il moto dei pianeti era noto da sempre (“planities” significa appunto “errante”), ma lui (anzi, Copernico) fornì solo un modello di calcolo semplificato. Infatti, a dirla tutta, il sole non è affatto al centro dell’universo ma si muove pure lui… In questo ha ragione l’insegnante del prof. Barbero che diceva che il card. Bellarmino era più moderno di Galileo.
  2. A “negazionista” si potrebbe contrapporre “fideista”, ovvero uno che sposa senz’altro ciò che dice la maggioranza stigmatizzando il dubbio. Ma io continio a ricordare che la stessa comunità scientifica oggi certa del riscaldamento globale appena quarant’anni fa era ugualmente certa dell’imminenza di un’era glaciale. Un cambio di rotta di 180 gradi in meno di mezzo secolo, e si dovrebbe prendere per oro colato anche l’attribuzione di responsabilità? Anche a fronte di numerose previsioni rivelatesi poi errate?
  3. Su un punto, concordo senz’altro: sulla separazione netta tra dissertazione scientifica e azione concreta (e non potrei dire diversamente, dato che come ho già detto opero nella Protezione Civile).

Il punto certo è che vi sia in atto un cambiamento climatico che attualmente va verso un aumento delle temperature, che il problema è serio e che la cosa va affrontata. Ridurre il più possibile (e possibilmente azzerare) l’impatto antropico non ha controindicazioni, e quindi va benissimo farlo; e infatti ne sono da sempre un convinto sostenitore.

A mio modesto parere, non servirà a granché, perché se Madre Natura ha deciso che è tempo di un nuovo Eocene, Eocene sarà; che ci piaccia o no.

Quindi, oltre ad azzerare le emissioni, miglioriamo l’efficienza dei condizionatori, perché ne avremo comunque bisogno. Tutto qui.

Io:
grazie per aver chiarito ulteriormente il suo punto di vista. Le rispondo un’ultima volta, per chi ci legge e non per la soddisfazione di “avere l’ultima parola”, che non mi interessa.

Sì, le proxy sono stime, ma sono stime calibrate, validate e incrociate da molte fonti indipendenti. Nessun climatologo confonde una proxy con una misura diretta, ma la scienza lavora ogni giorno per rendere sempre più affidabili quelle stime. E il fatto che convergano tutte sul medesimo trend dà forza alla ricostruzione. Questo è il normale funzionamento della scienza, non una debolezza.

Nessuno pretende certezze assolute, né le scienze naturali le promettono. Lei invece sembra richiedere una prova “oltre ogni dubbio”, come se fossimo in un’aula di tribunale. Ma la scienza si basa sulla probabilità, sul peso delle evidenze, sulla capacità predittiva dei modelli. Oggi, la quantità di prove che puntano all’origine antropica del riscaldamento è così ampia da rendere l’ipotesi alternativa – quella esclusivamente naturale – altamente improbabile. Ed è su questo che si fondano le politiche, non sull’attesa della perfezione epistemologica.

Il paragone con Galileo e Bellarmino è affascinante ma fuori luogo. Galileo non aveva solo un modello “più semplice”: aveva anche l’evidenza delle fasi di Venere e delle lune di Giove. Il suo valore non sta nel ribellarsi alla maggioranza, ma nell’aver offerto dati e osservazioni migliori. Lei invece continua a proporre “dubbi” senza portare nessun dato nuovo, solo generalizzazioni.

La comunità scientifica non era “certa” dell’era glaciale negli anni ’70. Questa è una leggenda urbana, smentita dai dati storici: all’epoca la maggior parte degli articoli già indicava un riscaldamento, non un raffreddamento. Se guarda i paper dell’epoca, lo vede chiaramente.

Quanto agli errori previsionali: il fatto che un modello venga corretto o raffinato è normale in ogni scienza. Non è un fallimento, è progresso. Non confondiamo fallibilità con inattendibilità.

Mi fa piacere leggere che riconosce l’urgenza del problema e sostiene l’azione per ridurre le emissioni. Su questo ci troviamo d’accordo. Tuttavia, dire “tanto non servirà a nulla” è una rinuncia mascherata da fatalismo. La scienza climatica non dice che siamo condannati, ma che abbiamo una finestra temporale per ridurre gli impatti futuri. La differenza tra +1,5 °C e +4 °C non è affatto irrilevante. E anche se non possiamo evitare ogni effetto, possiamo evitare quelli peggiori. Questa è responsabilità, non fideismo.

Chiudo qui il mio intervento, perché i fatti, i dati e il consenso scientifico sono pubblici e verificabili. Il resto è opinione personale – legittima – ma non equiparabile alla conoscenza prodotta dalla scienza.

Nota finale: ho riportato per esteso questo scambio non per dare visibilità a una posizione pseudoscientifica, ma per mostrare, in modo documentato, come ragiona chi nega l’origine antropica del cambiamento climatico, e perché queste argomentazioni non reggano al vaglio della scienza.

Tricochimica: un viaggio tra bellezza, scienza e indagini

Introduzione

Che cosa possono raccontarci i nostri capelli? Molto più di quanto immaginiamo. Non sono soltanto un segno di identità o di stile personale, ma vere e proprie architetture biologiche capaci di custodire informazioni preziose: sulla nostra salute, sulle sostanze a cui siamo stati esposti e persino sulle tracce lasciate da trattamenti cosmetici.

È proprio per raccontare questa dimensione scientifica, spesso trascurata, che voglio parlare di tricochimica: uno studio chimico del capello in tutti i suoi aspetti, dall’estetica alla tossicologia e fino all’analisi forense.

Il termine tricochimica non è nuovo: è stato proposto già anni fa dal collega Lucio Campanella, che lo ha usato per descrivere la chimica applicata ai capelli. Riprendo volentieri questo nome, perché lo trovo perfetto per raccontare – in modo serio ma accessibile – i tanti aspetti che uniscono bellezza, scienza e indagini.

La chimica, infatti, non è una disciplina astratta. È uno strumento concreto per capire fenomeni quotidiani. Capire come funzionano le tinture, le permanenti o i trattamenti liscianti significa comprendere reazioni chimiche precise. Allo stesso modo, analizzare i capelli per individuare droghe o metalli pesanti richiede metodiche chimico-analitiche raffinate, fondamentali in medicina legale e nelle indagini forensi.

In questo articolo proverò a esplorare questo campo affascinante e multidisciplinare. Vedremo come sono fatti i capelli, quali trasformazioni chimiche possono subire e come la chimica ci aiuta a leggerne la storia. Un viaggio che unisce bellezza e scienza, con uno sguardo attento anche alle implicazioni sociali ed etiche di queste conoscenze.

Il significato evoluzionistico dei capelli

Per affrontare la chimica dei capelli in modo completo è utile partire da una domanda più profonda: perché l’essere umano ha ancora i capelli sulla testa? A differenza della maggior parte dei mammiferi, che conservano un pelame diffuso sul corpo, la nostra specie si caratterizza per una pelle glabra salvo alcune aree strategiche, come il cuoio capelluto.

Le ipotesi evolutive più accreditate interpretano i capelli come una reliquia evolutiva che ha progressivamente perso molte delle funzioni originarie di isolamento termico. Tuttavia, la loro conservazione sul cranio potrebbe aver offerto vantaggi adattativi. Un ruolo plausibile è la protezione dal surriscaldamento diretto, agendo da schermo contro la radiazione solare intensa, specialmente in climi aperti e soleggiati. Allo stesso tempo, il cuoio capelluto riccamente vascolarizzato favorisce la dispersione di calore in eccesso. La distribuzione e la densità dei capelli umani sono quindi il risultato di una pressione selettiva che ha equilibrato protezione e termoregolazione.

Inoltre, il capello ha mantenuto importanti valenze sociali e sessuali. Il colore, la forma e la consistenza dei capelli variano tra individui e popolazioni, diventando segnali di riconoscimento, età, salute e persino desiderabilità sessuale. Queste caratteristiche hanno stimolato la selezione sessuale e culturale, contribuendo a fare del capello un elemento centrale dell’identità personale.

A conferma della sua rilevanza evolutiva, studi recenti hanno identificato correlazioni genetiche di fine scala con la morfologia del capello, evidenziando la selezione naturale e la divergenza adattativa in diverse popolazioni umane.

Comprendere queste dimensioni evolutive non è solo una curiosità: ci ricorda che la chimica del capello studia un tessuto vivo di storia biologica e culturale. Anche la tricochimica si deve confrontare con questa eredità evolutiva, che plasma le caratteristiche fisiche e chimiche della fibra capillare così come le funzioni sociali che ancora oggi attribuiamo ai nostri capelli.

Nascita e crescita del capello: la biologia del follicolo pilifero

Per comprendere davvero la chimica del capello – la tricochimica – è fondamentale partire dalla sua biologia. Il capello non è soltanto la fibra che vediamo spuntare dalla cute, ma il risultato di un processo di crescita complesso che avviene all’interno del follicolo pilifero, una struttura specializzata immersa nella pelle.

Il follicolo pilifero è una piccola tasca di epitelio che avvolge la parte viva del capello e ne dirige la formazione. Al suo interno si trova la papilla dermica, ricca di vasi sanguigni, che fornisce nutrienti, ossigeno e, non meno importante, trasporta farmaci e metalli pesanti che possono incorporarsi nella fibra in formazione. È proprio grazie a questa connessione vascolare che il capello diventa un archivio biologico capace di registrare, nel tempo, esposizioni a sostanze esterne.

Tradizionalmente, il ciclo di vita del capello si suddivide in tre fasi principali:

Anagen: fase di crescita attiva, che può durare anni. In questa fase le cellule della matrice germinativa si moltiplicano rapidamente e si cheratinizzano progressivamente, formando il fusto del capello che emerge dalla cute. È qui che avviene l’incorporazione più stabile di sostanze esogene, rendendo questa fase cruciale per l’analisi tossicologica.

Catagen: breve fase di regressione (2–3 settimane) in cui l’attività proliferativa si arresta e il follicolo si contrae.

Telogen: fase di riposo (2–6 mesi) al termine della quale il capello smette di crescere e rimane “in attesa” prima di essere espulso.

Vale la pena segnalare che la letteratura più recente tende a riconoscere anche una quarta fase, detta exogen, che descrive in modo più specifico il distacco vero e proprio e la caduta del capello ormai morto dal follicolo. Questa distinzione, pur non essendo sempre adottata in modo uniforme, riflette un approccio più moderno e dettagliato alla biologia del ciclo pilifero.

Un altro aspetto importante del follicolo è la presenza di strutture di supporto come la guaina epiteliale interna, che avvolge la fibra nelle sue prime fasi di formazione. In questa guaina si esprime la trichohyalin (in italiano la tradurrei come tricoialina), una proteina ricca di glutammina che svolge un ruolo cruciale nel conferire resistenza meccanica e nell’ordinare la cheratinizzazione delle cellule. Questa proteina agisce come una sorta di “impalcatura molecolare”, indispensabile per ottenere la struttura finale della fibra capillare.

Capire la biologia del follicolo è dunque essenziale per spiegare non solo la struttura del capello che osserviamo a occhio nudo, ma anche la sua capacità di registrare esposizioni chimiche durante la crescita. Solo conoscendo questo processo si possono comprendere appieno sia la chimica cosmetica (che deve penetrare e modificare la fibra), sia le analisi tossicologiche (che leggono la storia di queste incorporazioni).

Struttura e composizione del capello

Un capello non è un semplice “filo” uniforme: è un materiale biologico complesso, progettato per resistere, proteggere e comunicare caratteristiche individuali come colore, forma e lucentezza.

Architettura della fibra: cuticola, corteccia e midollo

Il capello è costituito da tre parti principali (Figura 1). All’esterno si trova la cuticola, formata da cellule appiattite e sovrapposte a tegola, che proteggono gli strati interni e conferiscono lucentezza grazie alla loro disposizione ordinata. Subito sotto si trova la corteccia, la parte più voluminosa, composta da fibre di cheratina organizzate in macrofibrille e pigmenti melanici che determinano il colore. Qui si stabiliscono i legami chimici (come i ponti disolfuro) che influenzano la forma del capello. Al centro si trova il midollo, una regione meno definita e spesso discontinua nei capelli più fini, che contribuisce all’isolamento termico e alla rigidità.

Figura 1. Struttura schematica di un capello umano.

Composizione chimica: membrana interna, cheratina, lipidi e acqua

A livello chimico, la fibra capillare è un materiale stratificato e sofisticato. La componente principale è la cheratina, una proteina fibrosa costituita da filamenti polipeptidici ricchi di cisteina, che si organizzano in strutture a coiled-coil di tipo α-elica. Queste eliche si associano in filamenti intermedi, che a loro volta formano macro-fibrille, dando alla corteccia un’architettura gerarchica e resistente.  Studi recenti di diffrazione a raggi X hanno confermato questa architettura gerarchica, evidenziando distanze caratteristiche tra filamenti intermedi (90, 45 e 27 Å) che si mantengono costanti in individui con tipi di capelli diversi.

Tra le cellule della corteccia e della cuticola si interpone il Cell Membrane Complex (CMC), una struttura lipidica e proteica laminare che funge da collante idrofobo, regolando la coesione cellulare e la permeabilità all’acqua e alle sostanze chimiche. Esperimenti di microdiffrazione hanno dimostrato che il CMC è sensibile all’umidità, mostrando rigonfiamento al contatto con l’acqua: un aspetto che spiega la sua importanza nei trattamenti cosmetici e nella penetrazione di agenti idrosolubili.

La cuticola, oltre alla funzione protettiva, contiene lamelle ben stratificate che includono β-cheratina, distinta dall’α-cheratina della corteccia, conferendole maggiore compattezza e impermeabilità. Inoltre, la composizione chimica complessiva del capello include lipidi liberi (circa 1-9%), acqua (10-15% circa in condizioni normali), minerali come magnesio, zinco, ferro e rame, oltre a tracce di aminoacidi e vitamine. Questa miscela complessa fornisce al capello proprietà di robustezza, elasticità e resistenza agli stress ambientali, anche se può essere danneggiata in modo irreversibile da trattamenti cosmetici aggressivi, calore e radiazioni UV.

Le proprietà fisiche e cosmetiche del capello dipendono infine dai legami chimici che ne stabilizzano la struttura. I legami a idrogeno sono deboli ma numerosi, si rompono e si riformano facilmente con umidità o calore, ed è grazie a loro che si ottiene l’effetto temporaneo della piega (phon, piastra). Per approfondire la natura e la forza di questi legami nell’acqua e nelle soluzioni, è possibile leggere due articoli che ho scritto sul blog: qui e qui. I legami salini, di tipo ionico, dipendono dall’interazione tra cariche opposte presenti sulle catene laterali degli amminoacidi e sono sensibili al pH. I legami disolfuro, molto più forti, uniscono in modo stabile le catene di cheratina grazie ai ponti tra residui di cisteina e sono i bersagli principali dei trattamenti chimici come permanenti o lisciature.

Conoscere questa struttura complessa è fondamentale per capire come e perché i capelli reagiscono ai trattamenti cosmetici, all’umidità ambientale o ai processi analitici usati in tossicologia e scienze forensi. È il primo passo del nostro viaggio nella tricochimica.

Ulteriori approfondimenti sono disponibili anche qui.

La chimica cosmetica del capello

La chimica cosmetica applicata ai capelli è un settore complesso e affascinante che si occupa di trasformare la fibra capillare attraverso reazioni controllate, con l’obiettivo di modificare colore, forma e aspetto. Uno degli esempi più noti è la colorazione permanente, che si basa su un processo di ossidazione ben studiato. In questo caso si usano due componenti principali: un agente alcalino (come l’ammoniaca o la etanolammina) e un ossidante (generalmente perossido di idrogeno o acqua ossigenata). Il composto alcalino serve ad aprire le squame della cuticola, permettendo al perossido e ai precursori del colore (come la p-fenilendiammina) di penetrare nella corteccia. Lì, il perossido ossida i precursori in intermedi reattivi che, legandosi a opportuni “couplers” (come il resorcinolo), formano grandi molecole di colorante intrafibra, responsabili della tonalità stabile e duratura. Questo processo, come ricorda anche la letteratura recente, è pressoché invariato da oltre un secolo, ma rimane il più efficace per coprire i capelli bianchi e schiarire tonalità naturali. La Figura 2 mostra le strutture chimiche di alcune molecole usate per il trattamento di colorazione permanente.

Figura 2. Molecole usate nei processi di colorazione permanente dei capelli.

I trattamenti per permanenti e lisciature chimiche agiscono invece modificando i legami disolfuro tra le catene di cheratina all’interno della corteccia. Nelle permanenti tradizionali si usa un riducente (come l’acido tioglicolico, Figura 3) per rompere questi ponti, consentendo di avvolgere i capelli su bigodini e fissare la nuova forma. Successivamente si applica un ossidante (solitamente ancora perossido di idrogeno) per riformare i legami disolfuro nella configurazione desiderata. Anche le lisciature chimiche sfruttano lo stesso principio, ma con tecniche e formulazioni diverse per spezzare i ponti disolfuro e fissare una fibra capillare più lineare. Questi processi, pur efficaci, indeboliscono la struttura del capello e ne aumentano la porosità, con conseguenze estetiche e meccaniche rilevanti.

Figura 3. Struttura dell’acido tioglicolico.

Un capitolo delicato è quello dei trattamenti liscianti con formaldeide (Figura 4) o con rilascio di formaldeide, molto discussi per i potenziali rischi per la salute. Il cosiddetto “Brazilian Blowout” e trattamenti simili usano formaldeide (o precursori che la rilasciano a caldo) per creare ponti metilenici tra le catene di cheratina, bloccandole in configurazioni lisce. Tuttavia, l’esposizione ai vapori di formaldeide è un noto rischio cancerogeno e può causare irritazioni acute e sensibilizzazioni. Per questo motivo, normative come quelle dell’Unione Europea vietano o limitano severamente l’uso di formaldeide libera o rilasciata oltre soglie minime, imponendo test e dichiarazioni specifiche sui cosmetici (riferimenti qui, qui e qui).

Figura 4. Struttura della formaldeide.

La cosmetica dei capelli si muove così su un crinale tecnico e normativo importante: da un lato c’è la ricerca di prodotti sempre più efficaci e personalizzati, dall’altro la crescente attenzione alla sicurezza dell’utilizzatore e del professionista. Negli ultimi anni, inoltre, si osserva un forte interesse per alternative più delicate e sostenibili, come colorazioni a basso contenuto di ammoniaca o a base di derivati naturali, e trattamenti liscianti privi di formaldeide, che sfruttano polimeri cationici o derivati di aminoacidi per un effetto condizionante e disciplinante meno aggressivo (riferimenti qui e qui).

L’analisi tossicologica del capello

L’analisi tossicologica del capello è una tecnica consolidata e molto apprezzata in ambito clinico e forense, grazie alla capacità unica di registrare l’esposizione a droghe o metalli pesanti su una scala temporale estesa. A differenza di sangue e urina, che rilevano l’assunzione di sostanze solo per pochi giorni, il capello funziona come un archivio biologico che conserva tracce di esposizione per settimane o mesi, a seconda della lunghezza del campione. Questa proprietà lo rende particolarmente utile per ricostruire storie di abuso cronico, monitorare la terapia sostitutiva, verificare la compliance in percorsi di disintossicazione o per valutazioni legali, come l’idoneità alla guida o l’affidamento dei minori.

I farmaci e i metalli pesanti si depositano nel capello principalmente durante la fase di crescita (anagen), grazie alla circolazione sanguigna che porta le molecole fino al follicolo, la piccola struttura immersa nella cute dove le cellule del capello si formano, si moltiplicano e si cheratinizzano. Una volta incorporate nella matrice di cheratina in formazione, queste sostanze restano stabilmente legate alla struttura del fusto, resistendo alla degradazione per lungo tempo. Altri percorsi di incorporazione includono il sebo, il sudore e in misura minore l’assorbimento ambientale. Tuttavia, i moderni protocolli di lavaggio e decontaminazione riducono il rischio di contaminazione esterna falsamente positiva.

Dal punto di vista analitico, l’analisi tossicologica del capello richiede tecniche di estrazione sofisticate. La fibra capillare, costituita per il 65–95% da cheratina, oltre che da lipidi, acqua e pigmenti, deve essere digerita o frammentata in modo controllato per liberare i composti target senza degradarli. Tra le tecniche più comuni di preparazione ci sono l’idrolisi acida o enzimatica, l’estrazione in solventi organici e la digestione assistita da ultrasuoni. Dopo l’estrazione, le sostanze vengono analizzate con metodi ad alta sensibilità e specificità come la spettrometria di massa accoppiata alla gascromatografia (GC–MS) o alla cromatografia liquida (LC–MS). Queste metodiche consentono di rilevare quantitativi nell’ordine dei picogrammi di numerosi farmaci e metaboliti, inclusi oppiacei, cocaina, cannabis, amfetamine e benzodiazepine, così come metalli pesanti analizzabili via spettroscopia di assorbimento atomico (AAS).

Uno dei principali vantaggi dell’analisi sul capello è la sua “finestra temporale estesa”: ogni centimetro di lunghezza corrisponde approssimativamente a un mese di crescita, permettendo di segmentare il campione per ricostruire una cronologia dettagliata delle esposizioni. Tuttavia, esistono anche limiti e criticità. Trattamenti cosmetici aggressivi come tinture, decolorazioni o permanenti possono ridurre la concentrazione di sostanze depositate o alterarne la distribuzione, rendendo più difficile l’interpretazione. Anche la variabilità individuale (colore, contenuto di melanina, porosità) può influenzare l’assorbimento dei farmaci, rendendo complessa la traduzione quantitativa dei dati in dosi assunte.

Nonostante queste sfide, l’analisi tossicologica del capello rappresenta uno strumento fondamentale in ambito forense e clinico per la sua capacità di documentare l’esposizione remota a sostanze psicoattive o tossiche, offrendo informazioni preziose che integrano e completano quelle ricavabili da sangue o urina.

Conclusioni, prospettive e sfide future

La tricochimica si propone come un campo di studio davvero interdisciplinare, capace di unire la conoscenza chimica della fibra capillare con esigenze estetiche, implicazioni tossicologiche e applicazioni forensi. Comprendere la composizione, la struttura e le trasformazioni chimiche dei capelli significa poter progettare trattamenti cosmetici più efficaci e sicuri, interpretare correttamente le analisi tossicologiche e persino ricostruire storie di consumo di sostanze o dinamiche criminali.

Tra le sfide principali spicca la necessità di una maggiore standardizzazione delle analisi tossicologiche: solventi, protocolli di estrazione, metodi di decontaminazione e tecniche strumentali richiedono armonizzazione per garantire risultati confrontabili e robusti. Anche i trattamenti cosmetici pongono questioni complesse: mentre il mercato cerca prodotti sempre più performanti e personalizzati, resta fondamentale valutarne l’efficacia in relazione alla salute del capello e della persona, evitando ingredienti aggressivi o potenzialmente dannosi.

Il futuro della tricochimica si muove verso un’integrazione sempre più stretta tra cosmetica e tossicologia: l’obiettivo è sviluppare prodotti “smart” e sicuri, capaci di interagire con la fibra capillare in modo controllato, rispettandone la biologia e la chimica. In questo senso, la ricerca multidisciplinare – che unisce chimica organica, biochimica, tossicologia analitica e scienza dei materiali – sarà essenziale per innovare e rispondere alle nuove esigenze di consumatori, professionisti e legislatori.

La tricochimica non è dunque un semplice esercizio accademico: è una disciplina viva e applicata, che tocca la nostra quotidianità, dalla cura estetica all’identità personale, dalla salute alla sicurezza pubblica. Riconoscerne l’importanza e investire nella sua evoluzione significa contribuire a un approccio più consapevole, informato e sostenibile al mondo dei capelli.

Mentos e Coca Cola… una fontana di scienza!

Se almeno una volta nella vita hai visto il famoso esperimento in cui delle caramelle Mentos vengono fatte cadere in una bottiglia di Coca Cola (o, più spesso, Diet Coke), conosci già il risultato: una fontana impazzita di schiuma che può superare i tre metri d’altezza (v. il filmato qui sotto).

Ma cosa succede davvero? È solo una semplice reazione fisica? C’entra la chimica? Perché proprio le Mentos? E perché la Diet Coke funziona meglio della Coca normale?

Negli ultimi anni, diversi ricercatori si sono cimentati nello studio scientifico di questo fenomeno, spesso usato come dimostrazione educativa nelle scuole e nei laboratori divulgativi. E ciò che è emerso è una storia sorprendentemente ricca di fisica, chimica, e perfino di gastronomia molecolare.

La nucleazione: come nasce un cambiamento

La parola “nucleazione” descrive il momento in cui, all’interno di un sistema fisico, comincia a svilupparsi una nuova fase. È un concetto fondamentale per comprendere fenomeni come la formazione di gocce in una nube, la cristallizzazione di un solido, o – nel nostro caso – la comparsa di bolle in un liquido soprassaturo di gas.

Secondo la teoria classica della nucleazione, perché si formi una nuova fase (come una bolla di gas in un liquido), è necessario superare una barriera energetica. Questa barriera nasce dal fatto che generare una bolla comporta un costo in termini di energia superficiale (ovvero, bisogna spendere energia per “deformare” i legami a idrogeno che, nel caso dell’acqua, tengono unite le diverse molecole), anche se si guadagna energia liberando il gas.

Il sistema deve dunque “pagare un prezzo iniziale” per creare una bolla sufficientemente grande: questa è la cosiddetta “bolla critica”. Una volta che si supera quella dimensione critica, la formazione della nuova fase (cioè, la crescita della bolla) diventa spontanea e inarrestabile.

Tuttavia, nel mondo reale, è raro che le bolle si formino spontaneamente all’interno del liquido: nella maggior parte dei casi, servono delle “scorciatoie energetiche”. È qui che entra in gioco la nucleazione eterogenea.

Nucleazione eterogenea: quando le superfici danno una spinta

Nel mondo reale, è raro che una nuova fase si formi spontaneamente all’interno del liquido (nucleazione omogenea), perché la probabilità che si verifichi una fluttuazione sufficientemente grande da superare la barriera energetica è molto bassa. Nella maggior parte dei casi, il sistema trova delle “scorciatoie energetiche” grazie alla presenza di superfici, impurità o irregolarità: è quello che si chiama nucleazione eterogenea.

Le superfici ruvide, porose o idrofobe possono abbassare la barriera energetica necessaria per innescare la formazione di una bolla. Per esempio, un piccolo graffio sul vetro, un granello di polvere o una microscopica cavità possono ospitare delle minuscole sacche d’aria che fungono da “embrioni” di bolla. In questi punti, la CO2 disciolta trova un ambiente favorevole per iniziare la transizione verso la fase gassosa, superando più facilmente la soglia critica.

Anche la geometria ha un ruolo: cavità coniche o fessure strette possono concentrare le forze e rendere ancora più facile la nucleazione. In pratica, il sistema approfitta di qualsiasi imperfezione per risparmiare energia nel passaggio di fase.

Il caso delle Mentos: nucleatori perfetti

L’esperimento della fontana di Diet Coke e Mentos è un esempio spettacolare (e rumoroso) di nucleazione eterogenea. Quando le Mentos vengono lasciate cadere nella bottiglia, la loro superficie – irregolare, porosa e ricoperta da uno strato zuccherino solubile – offre migliaia di siti di nucleazione. Ogni microscopica cavità è in grado di ospitare una piccola sacca di gas o di innescare la formazione di una bolla (Figura 1). In più, le Mentos cadono rapidamente fino al fondo della bottiglia, generando nucleazione non solo in superficie, ma in profondità, dove la pressione idrostatica è maggiore. Questo favorisce un rilascio ancora più esplosivo del gas disciolto.

Il risultato? Una vera e propria “valanga di bolle” che si spingono a vicenda verso l’alto, trascinando con sé la soda e formando il famoso geyser, che può raggiungere anche 5 o 6 metri d’altezza.

Figura 1. Nucleazione eterogenea di una bolla su una superficie solida. Le molecole d’acqua a contatto con una superficie solida interagiscono con essa, formando legami che disturbano la rete di legami a idrogeno tra le molecole d’acqua stesse. Questo indebolimento locale della coesione interna rende la zona prossima alla superficie più favorevole all’accumulo di gas disciolto, come la CO2. Il gas si concentra in microcavità o irregolarità della superficie, gonfiando piccole sacche d’acqua. Quando queste sacche superano una dimensione critica, la tensione interna diventa sufficiente a vincere le forze di adesione, e la bolla si stacca dalla superficie, iniziando a crescere liberamente nel liquido. Questo meccanismo, noto come nucleazione eterogenea, è alla base di molti fenomeni naturali e tecnici, incluso l’effetto geyser osservato nel celebre esperimento con Diet Coke e Mentos.

Non è una reazione chimica, ma…

Uno dei miti più diffusi, e da sfatare, è che il famoso effetto geyser della Diet Coke con le Mentos sia il risultato di una reazione chimica tra gli ingredienti delle due sostanze. In realtà, non avviene alcuna trasformazione chimica tra i componenti: non si formano nuovi composti, non ci sono scambi di elettroni né rottura o formazione di legami chimici. Il fenomeno è invece di natura puramente fisica, legato al rilascio improvviso e violento del gas disciolto (CO2) dalla soluzione liquida.

La Coca Cola (e in particolare la Diet Coke) è una soluzione sovrassatura di anidride carbonica, mantenuta tale grazie alla pressione all’interno della bottiglia sigillata. Quando la bottiglia viene aperta, la pressione cala, e il sistema non è più in equilibrio: il gas tende a uscire lentamente. Ma se si introducono le Mentos – che, come abbiamo visto, forniscono una miriade di siti di nucleazione – la CO2 trova una “scappatoia rapida” per tornare allo stato gassoso, formando in pochi istanti una quantità enorme di bolle.

Pur non trattandosi di una reazione chimica nel senso stretto, il rilascio della CO2 provoca alcune conseguenze misurabili dal punto di vista chimico. Una di queste è il cambiamento di pH: la Coca Cola è fortemente acida (pH ≈ 3) perché contiene acido fosforico ma anche CO2 disciolta, che in acqua dà luogo alla formazione di acido carbonico (H2CO3). Quando il gas fuoriesce rapidamente, l’equilibrio viene spostato, l’acido carbonico si dissocia meno, e il pH del liquido aumenta leggermente, diventando meno acido.

Questa variazione, anche se modesta, è stata misurata sperimentalmente in laboratorio, ed è coerente con l’interpretazione fisico-chimica del fenomeno.

In sintesi, si tratta di una transizione di fase accelerata (da gas disciolto a gas libero), facilitata da superfici ruvide: un classico esempio di fisica applicata alla vita quotidiana, più che di chimica reattiva.

Diet Coke meglio della Coca normale?

Sì, e il motivo non è solo la diversa composizione calorica, ma anche l’effetto fisico degli edulcoranti artificiali contenuti nella Diet Coke, in particolare aspartame e benzoato di potassio. Queste sostanze, pur non reagendo chimicamente con le Mentos, abbassano la tensione superficiale della soluzione, facilitando la formazione di bolle e rendendo il rilascio del gas CO2 più efficiente e spettacolare.

La tensione superficiale è una proprietà del liquido che tende a “resistere” alla formazione di nuove superfici – come quelle di una bolla d’aria. Se questa tensione si riduce, il sistema è più “disponibile” a formare molte piccole bolle, anziché poche grandi. E più bolle significa più superficie totale, quindi più spazio attraverso cui il gas può uscire rapidamente.

Anche altri additivi – acido citrico, aromi naturali (come citral e linalolo, Figura 2) e perfino zuccheri – influenzano il comportamento delle bolle. In particolare, molti di questi composti inibiscono la coalescenza, cioè, impediscono che le bolle si fondano tra loro per formare bolle più grandi. Questo porta a una schiuma fatta di bolle piccole, stabili e molto numerose, che massimizzano il rilascio di CO2 e quindi l’altezza della fontana.

Figura 2. Strutture chimiche di alcuni composti aromatici naturali presenti nelle bevande analcoliche. Il citral è una miscela di due isomeri geometrici: trans-citrale (geraniale) e cis-citrale (nerale), entrambi aldeidi con catena coniugata e intensa nota di limone. Il linalolo è un alcol terpenico aciclico, con due doppi legami e un gruppo ossidrilico (–OH), noto per il suo profumo floreale. Questi composti non partecipano a reazioni chimiche durante l’esperimento Diet Coke–Mentos, ma agiscono sul comportamento fisico del sistema, favorendo la formazione di schiuma fine e persistente e contribuendo all’altezza del geyser grazie alla inibizione della coalescenza delle bolle.

E che dire dei dolcificanti classici, come il saccarosio (lo zucchero da cucina)? A differenza dell’aspartame, il saccarosio non abbassa la tensione superficiale, anzi la aumenta leggermente. Tuttavia, anch’esso contribuisce a stabilizzare le bolle, soprattutto se combinato con altri soluti come acidi organici o sali. Questo spiega perché le bevande zuccherate (come la Coca Cola “classica”) producano comunque geyser abbastanza alti, ma meno impressionanti rispetto alle versioni “diet”.

Esperimenti controllati hanno mostrato che la Diet Coke produce le fontane più alte, seguita dalle bevande zuccherate e, in fondo, dall’acqua frizzante (che contiene solo CO2 e acqua): segno evidente che la presenza e la natura dei soluti giocano un ruolo chiave, anche in assenza di reazioni chimiche.

E se uso altre cose al posto delle Mentos?

La fontana di Coca Cola può essere innescata anche da altri materiali: gessetti, sabbia, sale grosso, zucchero, caramelle dure o persino stimolazioni meccaniche come gli ultrasuoni. Qualsiasi sostanza o perturbazione capace di introdurre nel liquido dei siti di nucleazione può innescare il rilascio del gas. Tuttavia, tra tutte le opzioni testate, le Mentos restano il materiale più efficace, producendo fontane più alte, più rapide e più spettacolari.

Questo successo si deve a una combinazione di caratteristiche fisiche uniche:

  1. Superficie molto rugosa e porosa
    Le Mentos hanno una superficie irregolare, visibile chiaramente al microscopio elettronico (SEM), con migliaia di microcavità che fungono da siti di nucleazione eterogenea. Più rugosità significa più bolle che si formano contemporaneamente, e quindi maggiore pressione generata in tempi brevissimi.
  2. Densità e forma ottimali
    Le caramelle sono sufficientemente dense e lisce all’esterno da cadere velocemente sul fondo della bottiglia, senza fluttuare. Questo è cruciale: la nucleazione avviene lungo tutta la colonna di liquido, non solo in superficie, e la pressione idrostatica più alta in basso aiuta la formazione più vigorosa di bolle. In confronto, materiali più leggeri (come il sale fino o la sabbia) galleggiano o si disperdono più lentamente, riducendo l’effetto.
  3. Rivestimento zuccherino solubile
    Il rivestimento esterno delle Mentos, a base di zuccheri e gomma arabica, si dissolve rapidamente, liberando nuovi siti di nucleazione man mano che la caramella si bagna. Inoltre, alcuni componenti del rivestimento (come emulsionanti e tensioattivi) favoriscono la schiuma e inibiscono la coalescenza delle bolle, contribuendo alla formazione di un getto più sottile e stabile

Un esperimento che insegna molto (e sporca parecchio)

Dietro quella che a prima vista sembra una semplice (e divertentissima) esplosione di schiuma, si nasconde una miniera di concetti scientifici: termodinamica, cinetica, tensione superficiale, solubilità dei gas, equilibrio chimico, pressione, nucleazione omogenea ed eterogenea. Un’intera unità didattica condensata in pochi secondi di spettacolo.

Ed è proprio questo il suo punto di forza: l’esperimento della fontana di Diet Coke e Mentos è perfetto per essere proposto nelle scuole, sia del primo grado (scuola media) che del secondo grado (licei, istituti tecnici e professionali), senza bisogno di strumenti di laboratorio complessi o costosi. Bastano:

  • qualche bottiglia di Coca Cola o altra bibita gassata,
  • delle Mentos (o altri oggetti solidi rugosi da confrontare: gessetti, zucchero, sabbia…),
  • una penna, un quaderno e un buon occhio per osservare e registrare cosa succede,
  • e, immancabili, canovacci, secchi, stracci e un po’ di detersivo per sistemare l’aula (o il cortile) dopo il disastro creativo!

Non solo: questo tipo di attività permette di lavorare in modalità laboratoriale attiva, stimolando l’osservazione, la formulazione di ipotesi, la progettazione sperimentale, la misura, l’analisi dei dati, la comunicazione scientifica. In altre parole: il metodo scientifico in azione, alla portata di tutti.

Insomma, la fontana di Diet Coke e Mentos non è solo un video virale da YouTube: è un fenomeno scientificamente ricchissimo, capace di affascinare e coinvolgere studenti e insegnanti. Provatelo (con le dovute precauzioni)… e preparatevi a fare il pieno di chimica!

Riferimenti

Baur & al. (2006) The Ultrasonic Soda Fountain: A Dramatic Demonstration of Gas Solubility in Aqueous Solutions. J. Chem. Educ. 83(4), 577. https://doi.org/10.1021/ed083p577.

Coffey (2008) Diet Coke and Mentos: What is really behind this physical reaction? Am. J. Phys. 76, 551. http://dx.doi.org/10.1119/1.2888546.

Eichler & al. (2007) Mentos and the Scientific Method: A Sweet Combination. J. Chem. Educ. 84(7), 1120. https://doi.org/10.1021/ed084p1120.

Kuntzleman & al. (2017) New Demonstrations and New Insights on the Mechanism of the Candy-Cola Soda Geyser. J. Chem. Educ. 94, 569−576. https://doi.org/10.1021/acs.jchemed.6b00862.

Maris (2006) Introduction to the physics of nucleation. C. R. Physique 7, 946–958. https://doi.org/10.1016/j.crhy.2006.10.019.

Sims & Kuntzleman (2016) Kinetic Explorations of the Candy−Cola Soda Geyser. J. Chem. Educ. 93, 1809−1813. https://pubs.acs.org/doi/10.1021/acs.jchemed.6b00263.

…e per i docenti della scuola secondaria di primo e secondo grado, ecco una scheda laboratorio pronta all’uso, per trasformare questa esplosione di schiuma in un’attività scientifica coinvolgente.

Scheda laboratorio – Un geyser di CO2 tra scienza e divertimento

🧪 Esperimento: La fontana di Diet Coke e Mentos

🎯 Obiettivi didattici

  • Osservare e descrivere fenomeni di nucleazione eterogenea
  • Comprendere il concetto di tensione superficiale e solubilità dei gas
  • Riconoscere la differenza tra fenomeni fisici e chimici
  • Introdurre il metodo scientifico: osservazione, ipotesi, verifica, confronto dati
  • Stimolare il pensiero critico e il lavoro di gruppo

🧰 Materiali

Quantità Materiale
1–2 Bottiglie da 1.5 o 2 L di Coca Cola/Diet Coke
1 confezione Mentos (preferibilmente menta)
facoltativi Zucchero, sabbia, gessetti, sale grosso, caramelle dure
1 Contenitore/sottovaso/catino (per contenere la fontana)
✔️ Carta, penne o tablet per prendere appunti
✔️ Canovacci, stracci, secchio, detersivo

📌 Procedura base (semplificata)

  1. Posizionare la bottiglia su un piano all’aperto o in un contenitore.
  2. Preparare il sistema di rilascio rapido delle Mentos (ad esempio con un cartoncino a scivolo o un tubo).
  3. Far cadere rapidamente 1–3 Mentos nella bottiglia aperta.
  4. Osservare il fenomeno: altezza, durata, forma della fontana, eventuale schiuma residua.
  5. Ripetere con altri materiali (gesso, sabbia, sale…) e confrontare l’effetto.
  6. Annotare le osservazioni. Stimolare ipotesi: perché cambiano i risultati?

📚 Spunti teorici (modulabili per il grado scolastico)

  • Fisica: pressione interna, energia potenziale, accelerazione del liquido
  • Chimica fisica: tensione superficiale, solubilità dei gas, acido carbonico e variazione di pH
  • Chimica generale: differenza tra cambiamento fisico e chimico
  • Scienza dei materiali: effetto della rugosità e della forma dei solidi sulla nucleazione
  • Metodo scientifico: osservazione, variabili, confronto controllato

🧠 Domande guida per la discussione

  • Cosa accade quando inseriamo le Mentos nella bibita?
  • Che differenza c’è tra Coca Cola normale e Diet Coke?
  • Perché altri materiali (es. sale o sabbia) funzionano diversamente?
  • È una reazione chimica o un fenomeno fisico?
  • Come potremmo misurare e confrontare le fontane? (es. altezza, tempo, schiuma)

📏 Varianti possibili

  • Cambiare la temperatura della bibita (fredda vs ambiente)
  • Provare con acqua frizzante o altre bevande gassate
  • Usare un righello o griglia per stimare l’altezza
  • Fare video al rallentatore e analizzare la dinamica
  • Includere una prova con ultrasuoni (se si dispone di un pulitore a ultrasuoni)

🚸 Note di sicurezza

  • L’esperimento è sicuro, ma va fatto in ambienti controllati o all’aperto
  • Tenere gli occhi lontani dal getto (meglio osservare di lato)
  • Prevedere pulizia immediata di superfici scivolose o appiccicose

La chimica del barbecue. Cosa si nasconde dietro una grigliata perfetta?

Cosa rende irresistibile il profumo che si sprigiona da un barbecue?

Perché una bistecca alla brace ha un sapore così complesso e unico rispetto a una cotta in padella? E come mai la semplice fiamma, a contatto con carne, verdure o formaggi, riesce a creare un’esplosione di aromi che conquista tutti?

La risposta non sta solo nell’abilità del cuoco o nella qualità degli ingredienti: è scritta nella chimica, una storia affascinante fatta di temperature, reazioni e molecole aromatiche. Una danza invisibile che trasforma pezzi di carne e verdura in piatti dal profumo inconfondibile.

Capire cosa succede sulla griglia non serve solo a saziare la curiosità scientifica: significa anche imparare a domare meglio il fuoco, scegliere i tempi giusti, sfruttare le reazioni naturali per ottenere una grigliata perfetta.

E poi, diciamolo: sapere che dietro ogni morso c’è la celebre reazione di Maillard, o che il fumo trasporta molecole come guaiacolo e siringolo, offre un ottimo argomento per fare colpo sugli amici mentre si aspetta che la brace sia pronta.

La reazione di Maillard: la magia chimica dietro la crosticina

Quando il cibo supera circa 140–165 °C, sulla superficie degli alimenti avviene una serie di reazioni chimiche note come reazione di Maillard. È un processo complesso che coinvolge principalmente:

  • i gruppi carbonilici (–C=O) degli zuccheri riducenti presenti negli alimenti,
  • e i gruppi amminici (–NH₂) degli amminoacidi o delle catene laterali delle proteine.

Questi gruppi reagiscono formando inizialmente glicosilamine instabili, che poi si trasformano in composti chiamati Amadori (o composti di Amadori). Da qui, la reazione prosegue dando luogo a decine di trasformazioni successive che generano:

  • pigmenti bruni (melanoidine)
  • composti aromatici come furani, pirazine, tiofeni
  • molecole che arricchiscono l’aroma con note di tostato, caramellato, “nocciolato”.

La struttura di tutte le molecole menzionate sono riportate in Figura 1.

Figura 1. Strutture chimiche tipiche dei prodotti della reazione di Maillard, responsabili di aroma e colore durante la cottura.

È proprio questo intricato intreccio chimico che regala alla carne grigliata il suo sapore inconfondibile e la crosticina croccante.

Dal punto di vista pratico, la Maillard richiede:

  • una temperatura sufficientemente alta (troppo bassa: la reazione non parte; troppo alta: carbonizzazione e gusto amaro),
  • una superficie relativamente asciutta, perché l’acqua in eccesso dissipa il calore e rallenta il processo.

Il ruolo del fumo: aromi che vengono dal fuoco

Quando il grasso, i succhi della carne o i condimenti colano sulle braci incandescenti, non si limitano a bruciare: subiscono una vera e propria pirolisi (decomposizione termica in assenza o carenza di ossigeno) che libera una miriade di composti volatili. Tra questi troviamo:

  • aldeidi e chetoni, che contribuiscono a note dolciastre o leggermente fruttate;
  • fenoli (come guaiacolo e siringolo), responsabili delle tipiche note affumicate, simili a quelle che si percepiscono in alcuni whisky torbati;
  • acidi organici, che aggiungono un tocco di acidità e complessità;
  • e purtroppo anche idrocarburi policiclici aromatici (IPA), potenzialmente dannosi se la combustione è incontrollata o eccessiva.

Le strutture tipiche dei composti elencati sono riportate in Figura 2.

Il tipo di legno scelto per alimentare il barbecue o l’affumicatura ha un ruolo fondamentale nella qualità e nel profilo aromatico del fumo.

  • Il rovere tende a produrre fumi più robusti, ricchi di tannini e aromi complessi;
  • il ciliegio dona sentori più dolci e delicati;
  • il melo regala un affumicato leggero, quasi fruttato.

La combustione del legno stesso sprigiona anche lignina e cellulosa che, degradandosi, originano i composti aromatici più caratteristici. È per questo che chi ama il barbecue studia con attenzione quale legno usare, dosando la quantità di fumo per evitare che prevalga un sapore amaro o eccessivamente bruciato.

In sintesi: quando si sente dire che “la brace dà sapore”, dietro c’è una vera orchestra chimica che lavora nel fumo e nei vapori caldi, trasformando il cibo e arricchendolo di complessità.

Figura 2. Composti volatili e potenzialmente tossici che si formano durante la pirolisi dei grassi e del legno nel barbecue.

Brace sì, fiamma no: l’arte di domare il fumo

Chi si avvicina al barbecue scopre presto un segreto fondamentale: la grigliata perfetta non si fa sulla fiamma viva, ma sopra una brace uniforme.
Le fiamme dirette, infatti, bruciano troppo rapidamente la superficie del cibo, creando zone carbonizzate e amare e aumentando la formazione di composti potenzialmente nocivi (come gli idrocarburi policiclici aromatici, Figura 2).

Le braci, invece, rilasciano un calore più stabile e diffuso che permette alle reazioni come la Maillard di avvenire con calma, creando la crosticina dorata senza bruciare.

Anche il fumo va controllato:

  • Evitare che grassi o marinature troppo oleose cadano in quantità eccessive sulla brace, perché produrrebbero fiammate improvvise e fumo acre.
  • Usare legni stagionati, senza vernici o resine, per generare un fumo aromatico più “pulito”.
  • Regolare l’ingresso dell’aria (nei barbecue con coperchio) per mantenere una combustione lenta e controllata.

Così, la magia chimica lavora al meglio: il calore trasforma lentamente le proteine e gli zuccheri, il fumo arricchisce di note affumicate e il risultato sarà una carne saporita e profumata, senza retrogusti amari o bruciati.

Marinature, verdure e formaggi: come i condimenti cambiano la chimica del barbecue

Non c’è barbecue senza spezie, erbe, marinature… e neanche senza qualche verdura o formaggio sulla griglia.
Tutti questi “ingredienti extra” non servono solo a insaporire, ma modificano davvero la chimica della cottura.

Le marinature a base di olio, vino, birra o succo di limone non solo aggiungono aromi, ma:

  • rendono la carne più tenera grazie a una parziale denaturazione delle proteine (specialmente per effetto di acidi e alcol);
  • favoriscono la formazione di crosticine più aromatiche, perché gli zuccheri e le proteine extra della marinata diventano nuovi “combustibili” per la reazione di Maillard;
  • creano una sottile pellicola protettiva che limita la perdita di succhi durante la cottura.

Le spezie e le erbe portano in dote oli essenziali e molecole aromatiche che, con il calore, si volatilizzano o si trasformano, generando sentori nuovi: pensiamo al timolo del timo, al carvacrolo dell’origano, oppure alla capsaicina del peperoncino che resiste anche alla cottura.

Verdure e formaggi, a loro volta, reagiscono in modi diversi:

  • le verdure ricche di zuccheri, come peperoni e cipolle, sviluppano aromi dolci e note caramellate;
  • i formaggi, grazie alla loro parte proteica e grassa, diventano veri “catalizzatori” di Maillard, aggiungendo complessità e note tostate.

In pratica, ogni ingrediente che aggiungiamo porta nuovi substrati chimici da trasformare sul fuoco, moltiplicando profumi e sapori.
Ecco perché ogni barbecue diventa unico: dipende dal legno scelto, dalle spezie, dai succhi della carne, dal tipo di brace… un mix irripetibile di scelte e reazioni chimiche.

Il controllo del calore: scienza e arte della brace

Il barbecue non è solo istinto: è vera e propria termodinamica applicata.
Il calore che cuoce la carne arriva in tre modi diversi:

  • per irraggiamento, cioè l’energia che parte dalle braci incandescenti e investe direttamente il cibo;
  • per conduzione, quando la parte a contatto con la griglia trasmette calore agli strati più interni;
  • per convezione, grazie al movimento dell’aria calda che avvolge e cuoce lentamente anche le zone non direttamente esposte.

Gestire questi tre flussi è fondamentale per evitare che la carne diventi stopposa fuori e cruda dentro.

  • La cottura diretta, sopra la brace viva, genera subito temperature elevate: è ideale per pezzi piccoli e sottili (come bistecche o spiedini) e per formare la crosticina grazie alla reazione di Maillard.
  • La cottura indiretta, invece, tiene la carne lontana dalla fonte diretta di calore e sfrutta il calore più dolce della convezione: perfetta per grossi tagli o per cuocere lentamente senza bruciare la superficie.

La bravura del grigliatore sta proprio nell’alternare queste due tecniche: una rosolatura iniziale a fuoco diretto per fissare i succhi e formare la crosta, seguita da una fase più lunga a fuoco indiretto per portare l’interno alla temperatura desiderata.

Infine, non bisogna dimenticare che diversi alimenti reagiscono in modo diverso al calore:

  • le carni più grasse resistono meglio alle alte temperature perché il grasso protegge e ammorbidisce le fibre;
  • i tagli magri o le verdure, invece, rischiano di asciugarsi e richiedono temperature più dolci o cotture più brevi.

In breve, dietro una grigliata perfetta c’è sempre un grigliatore che, anche senza saperlo, diventa un piccolo ingegnere del calore.

Perché la carne diventa tenera (e perché deve riposare)

Durante la cottura, nella carne avviene una trasformazione invisibile ma fondamentale: le proteine, soprattutto quelle del collagene presente nei tessuti connettivi, iniziano a denaturarsi sopra i 60°C.
Quando la temperatura interna sale intorno ai 70-80°C, il collagene si trasforma lentamente in gelatina, una sostanza che lega l’acqua e rende la carne più succosa e tenera.

Ecco perché i tagli ricchi di tessuto connettivo, come costine, punta di petto o spalla, danno il meglio con la tecnica “low & slow”: cotture a bassa temperatura (90-120°C sulla griglia) per diverse ore. Questo tempo serve proprio a permettere alle fibre dure di “sciogliersi” e diventare morbide.

Ma il processo non si ferma quando togliamo la carne dal barbecue: per qualche minuto, il calore continua a diffondersi verso il centro, e i succhi che durante la cottura si sono spinti verso l’esterno rientrano lentamente nelle fibre.
È il motivo per cui gli chef consigliano sempre di lasciare riposare la carne qualche minuto, coperta leggermente con un foglio di alluminio:

  • se la tagliassimo subito, i succhi colerebbero sul tagliere, lasciando la carne asciutta;
  • invece, aspettando, otterremo una fetta più umida, uniforme e saporita.

Anche qui, la chimica è la nostra alleata: conoscere queste trasformazioni ci insegna che il riposo non è solo “una pausa”, ma l’ultimo passo di cottura, essenziale per valorizzare ore di preparazione.

Il lato nascosto del barbecue: quando la chimica diventa un rischio

Non tutto ciò che nasce sulla brace è buono: la combustione incompleta del legno, del carbone o del grasso colato sulla brace produce molecole come gli idrocarburi policiclici aromatici (IPA) e le ammine eterocicliche. Questi composti, se assunti in grandi quantità o per lunghi periodi, sono potenzialmente cancerogeni.

Un aspetto poco noto è che gli IPA sono ancora più pericolosi se inalati: respirare il fumo che sale dalla griglia espone direttamente i tessuti dei polmoni, dove queste molecole possono trasformarsi in forme ancora più reattive, capaci di legarsi al DNA. È lo stesso meccanismo per cui il fumo di sigaretta aumenta il rischio di diversi tipi di carcinoma polmonare.

Cosa possiamo fare per ridurre il rischio senza rinunciare al piacere del barbecue?

  • Evitare fiammate e contatto diretto della carne con la fiamma.
  • Cuocere a brace, non a fiamma viva.
  • Marinare la carne prima di cuocerla: le marinature a base di vino, birra, olio, spezie ed erbe aromatiche contengono antiossidanti che riducono la formazione di ammine eterocicliche.
  • Rimuovere le parti carbonizzate prima di mangiare.
  • Usare legni adatti e ben stagionati, evitando resine o additivi chimici.

In sintesi: conoscere i meccanismi chimici non serve solo a far bella figura con gli amici, ma anche a grigliare in modo più sano e consapevole.

I consigli dello scienziato del BBQ (non del grigliatore esperto)

Non sono un maestro della griglia. Sono un chimico che, incuriosito dai profumi e dalle reazioni che si sprigionano da una grigliata, ha deciso di studiare cosa accade davvero tra brace, carne e molecole.

Ecco alcuni spunti – scientificamente fondati – per una grigliata più gustosa e (un po’) più sana:

  • Brace, non fiamma viva: il calore della brace è più stabile e uniforme. Evita fiammate che carbonizzano la carne e favoriscono la formazione di sostanze indesiderate.
  • Marinature intelligenti: acidi (limone, vino, aceto) e antiossidanti (spezie, erbe, birra) non solo danno sapore, ma riducono la formazione di composti potenzialmente dannosi.
  • Cottura indiretta per i pezzi grandi: permette al calore di penetrare meglio, ammorbidendo i tessuti connettivi senza bruciare l’esterno.
  • Riposo dopo la griglia: aspettare qualche minuto prima di tagliare la carne permette ai succhi di ridistribuirsi e la rende più tenera e succosa.
  • Niente legna verniciata o resinosa: usa legni naturali e stagionati per un fumo aromatico e sicuro.
  • Togli il grasso in eccesso: meno gocciolamenti sulla brace = meno fumo acre e meno IPA nell’aria.

Non servono strumenti da laboratorio o complicati termometri molecolari: basta un po’ di consapevolezza e curiosità per trasformare la grigliata in un piccolo esperimento scientifico… con ottimi risultati nel piatto.

Conclusione: scienza e passione sulla griglia

Capire un po’ di chimica non toglie nulla alla poesia del barbecue: anzi, la arricchisce. Permette di scegliere meglio il tipo di legno, il taglio di carne, la temperatura e i tempi giusti. Così, la prossima volta che preparerete la brace, potrete raccontare agli amici che dietro quella crosticina dorata si nasconde una sinfonia di reazioni, dalla Maillard ai composti aromatici del fumo, che i chimici studiano da decenni.
E magari, tra una costina e una birra, ci sarà anche spazio per un po’ di divulgazione scientifica fatta con leggerezza e… buon gusto.

P.S. Se alla fine qualcosa dovesse andare storto sulla griglia… ricordatevi: è sempre colpa della termodinamica, non del chimico che vi ha raccontato la storia 😎🥩🤓

📚 Letture consigliate

Harold McGee – On Food and Cooking: The Science and Lore of the Kitchen

Nathan Myhrvold & al. – Modernist Cuisine: The Art and Science of Cooking

Jeff Potter – Cooking for Geeks: Real Science, Great Hacks, and Good Food

Chimica e intelligenza artificiale: un’alleanza per il futuro della scienza

Avrete sicuramente notato che oggi l’intelligenza artificiale (AI) sta diventando una presenza sempre più costante nelle nostre vite. Sono tantissimi gli ambiti in cui l’AI riesce a sostituire con successo l’essere umano. Si potrebbe dire che questa rivoluzione sia iniziata molto tempo fa, con i primi robot che hanno cominciato a svolgere compiti ripetitivi al posto dell’uomo, come nelle catene di montaggio o, più drammaticamente, nei contesti bellici, dove i droni sono diventati strumenti chiave per ridurre il numero di vittime umane.

Negli ultimi anni, lo sviluppo vertiginoso delle reti neurali artificiali ha portato alla nascita di veri e propri “cervelli digitali” che, presto, anche se non sappiamo quanto presto, potrebbero avvicinarsi, per certi aspetti, alle capacità del cervello umano.

Nel frattempo, però, l’intelligenza artificiale già funziona alla grande ed è sempre più presente in numerosi settori, tra cui la chimica, che rappresenta uno dei campi più promettenti.

All’inizio può sembrare curioso accostare molecole, reazioni chimiche e leggi della fisica a concetti come algoritmi e reti neurali. Eppure, l’unione di questi mondi sta rivoluzionando il modo in cui facciamo ricerca, progettiamo nuovi materiali, affrontiamo le sfide ambientali e persino come insegniamo la scienza.

Ma cosa significa, concretamente, applicare l’intelligenza artificiale alla chimica?

Scoprire nuove molecole (senza provare tutto in laboratorio)

Uno degli ambiti in cui l’intelligenza artificiale si è rivelata più utile è la scoperta di nuovi composti chimici. Fino a qualche tempo fa, per trovare una molecola utile, un farmaco, un catalizzatore, un materiale con proprietà particolari, bisognava fare molti tentativi sperimentali, spesso lunghi e costosi.

Negli ultimi decenni, la chimica computazionale ha cercato di alleggerire questo carico, permettendo ai ricercatori di simulare al computer il comportamento di molecole, reazioni e materiali. Tuttavia, anche le simulazioni più avanzate richiedono molto tempo di calcolo e competenze specialistiche, oltre ad avere dei limiti nella scala e nella complessità dei sistemi che si possono trattare.

Qui entra in gioco l’intelligenza artificiale: grazie a modelli di machine learning sempre più raffinati, è possibile prevedere rapidamente il comportamento di una molecola, come la sua stabilità, la reattività, o la capacità di legarsi a un bersaglio biologico, semplicemente a partire dalla sua struttura. Questi algoritmi apprendono da enormi quantità di dati sperimentali e teorici e sono in grado di fare previsioni accurate anche su molecole mai testate prima.

In altre parole, l’AI sta cominciando a superare i limiti della chimica computazionale tradizionale, offrendo strumenti più rapidi, scalabili e spesso più efficaci nel guidare la ricerca. Invece di provare tutto in laboratorio (o simulare tutto al computer), oggi possiamo usare modelli predittivi per concentrare gli sforzi solo sulle ipotesi più promettenti.

Cosa vuol dire “machine learning”?

Il machine learning, o apprendimento automatico, è una branca dell’intelligenza artificiale che permette a un computer di imparare dai dati. Invece di essere programmato con regole rigide, un algoritmo di machine learning analizza una grande quantità di esempi e impara da solo a riconoscere schemi, fare previsioni o prendere decisioni.

È un po’ come insegnare a un bambino a distinguere un cane da un gatto: non gli spieghi la definizione precisa, ma gli mostri tante immagini finché impara da solo a riconoscerli.

Nel caso della chimica, l’algoritmo può “guardare” migliaia di molecole e imparare, per esempio, quali caratteristiche rendono una sostanza più solubile, reattiva o stabile.

Simulare ciò che non possiamo osservare

In molti casi, la chimica richiede di capire cosa succede a livello atomico o molecolare, dove gli esperimenti diretti sono difficili, costosi o addirittura impossibili. Ad esempio, osservare in tempo reale la rottura di un legame chimico o l’interazione tra una superficie metallica e un gas può essere tecnicamente molto complicato.

Qui entrano in gioco la chimica computazionale e, sempre di più, l’intelligenza artificiale. I metodi classici di simulazione, come la density functional theory (DFT) o le dinamiche molecolari, permettono di studiare reazioni e proprietà microscopiche con una certa precisione, ma sono spesso limitati dalla potenza di calcolo e dal tempo necessario per ottenere risultati.

L’AI può affiancare o persino sostituire questi metodi in molti casi, offrendo simulazioni molto più rapide. Gli algoritmi, addestrati su grandi insiemi di dati teorici o sperimentali, riescono a prevedere energie di legame, geometrie molecolari, traiettorie di reazione e persino comportamenti collettivi di materiali complessi, con un livello di precisione sorprendente.

Questo approccio è particolarmente utile nella chimica dei materiali, nella catalisi e nella chimica ambientale, dove le condizioni reali sono dinamiche e complesse, e spesso è necessario esplorare molte variabili contemporaneamente (temperatura, pressione, pH, concentrazione, ecc.).

In sintesi, grazie all’AI, oggi possiamo “vedere” l’invisibile e testare ipotesi teoriche in modo veloce e mirato, risparmiando tempo, denaro e risorse. La simulazione assistita dall’intelligenza artificiale sta diventando una delle strategie più promettenti per affrontare problemi scientifici troppo complessi per essere risolti con i soli strumenti tradizionali.

Insegnare (e imparare) la chimica in modo nuovo

Anche il mondo dell’istruzione sta vivendo una trasformazione grazie all’intelligenza artificiale. La didattica della chimica, spesso considerata una delle materie più “dure” per studenti e studentesse, può oggi diventare più coinvolgente, personalizzata ed efficace proprio grazie all’uso di strumenti basati su AI.

Uno dei vantaggi principali è la possibilità di adattare il percorso di apprendimento alle esigenze del singolo studente. Grazie a sistemi intelligenti che analizzano le risposte e i progressi individuali, è possibile proporre esercizi mirati, spiegazioni alternative o materiali supplementari in base al livello di comprensione. Questo approccio personalizzato può aiutare chi è in difficoltà a colmare lacune e, allo stesso tempo, stimolare chi è più avanti ad approfondire.

L’AI può anche contribuire a rendere la chimica più visiva e interattiva. Alcune piattaforme, ad esempio, usano modelli predittivi per generare visualizzazioni 3D di molecole, reazioni chimiche o strutture cristalline, rendendo più intuitivi concetti spesso astratti. In più, i chatbot educativi (come quelli alimentati da modelli linguistici) possono rispondere a domande in tempo reale, spiegare termini complessi in modo semplice o simulare piccoli esperimenti virtuali.

Un’altra frontiera interessante è quella della valutazione automatica e intelligente: sistemi di AI possono correggere esercizi, test e report di laboratorio, offrendo feedback tempestivo e accurato. Questo libera tempo per l’insegnante, che può concentrarsi sulla guida e sul supporto più qualitativo.

Infine, l’intelligenza artificiale può aiutare anche chi insegna: suggerendo materiali didattici aggiornati, creando quiz su misura per ogni lezione, o analizzando l’andamento della classe per identificare i concetti che vanno ripresi o approfonditi.

In sintesi, l’AI non sostituisce il docente o il laboratorio, ma li potenzia, offrendo nuovi strumenti per rendere l’insegnamento della chimica più accessibile, efficace e stimolante.

Una rivoluzione che non sostituisce il chimico

Di fronte a questi progressi, è naturale chiedersi: quale sarà allora il ruolo del chimico nel futuro? La risposta è semplice: sarà sempre più centrale, ma in modo diverso.

L’intelligenza artificiale è uno strumento potente, ma resta pur sempre uno strumento. Può accelerare le ricerche, suggerire ipotesi, esplorare combinazioni complesse o evidenziare correlazioni nascoste. Ma non può, da sola, sostituire la competenza critica, l’intuizione, l’esperienza e la creatività che solo un/una chimico/a formato/a può offrire.

Un errore molto comune, oggi, è considerare l’AI come una sorta di enciclopedia moderna, da cui si possano estrarre risposte esatte, univoche, perfette. Ma la chimica non funziona così e neppure l’intelligenza artificiale. Entrambe si muovono su terreni complessi, fatti di ipotesi, interpretazioni, modelli e approssimazioni. Pretendere dall’AI risposte definitive senza saper valutare, filtrare o indirizzare i risultati è un rischio.

Proprio come un bambino brillante, l’AI va educata e guidata. Ha bisogno di esempi buoni, di dati corretti, di domande ben formulate.

E, soprattutto, ha bisogno di essere “letta” da occhi esperti, capaci di interpretare e contestualizzare quello che produce.

In chimica, come nella scienza in generale, la conoscenza non è mai solo questione di calcoli o statistiche: è anche, e soprattutto, comprensione profonda dei fenomeni.

Quindi, piuttosto che temere l’arrivo dell’intelligenza artificiale, dobbiamo imparare a collaborarci con intelligenza.

Il chimico del futuro non sarà un tecnico che esegue, ma un regista che sa orchestrare strumenti nuovi per rispondere a domande sempre più complesse. Ed è proprio questa, forse, la sfida più stimolante dei nostri tempi.

Riferimenti

Aldossary & al. (2024) In silico chemical experiments in the Age of AI: From quantum chemistry to machine learning and back. ChemRxiv. 2024; Doi: 10.26434/chemrxiv-2024-1v269. Disponibile al link: https://chemrxiv.org/engage/chemrxiv/article-details/65cdf1309138d231612baac8.

Anjaneyulu & al. (2024) Revolution of Artificial Intelligence in Computational Chemistry Breakthroughs. Chemistry Africa 7, 3443–3459. https://doi.org/10.1007/s42250-024-00976-5.

Blonder & Feldman-Maggor (2024) AI for chemistry teaching: responsible AI and ethical considerations. Chemistry Teacher International 6(4), 385–395. https://doi.org/10.1515/cti-2024-0014.

Dral (2024) AI in computational chemistry through the lens of a decade-long journey. Chemical Communications. 60, 3240-3258. https://doi.org/10.1039/D4CC00010B.

Dral, Bowman, Liu, Maseras (editors) (2024) Artificial intelligence in computational chemistry (special issue). Disponibile al link: https://www.sciencedirect.com/special-issue/105PZW0WJF7.

Kovner & Berkeley (2024) ‘AI-at-scale’ method accelerates atomistic simulations for scientists. Disponibile al link: https://techxplore.com/news/2024-12-ai-scale-method-atomistic-simulations.html.

Kovner & Berkeley (2025) Computational chemistry unlocked: A record-breaking dataset to train AI models has launched. Disponibile al link: https://phys.org/news/2025-05-chemistry-dataset-ai.html.

Nongnuch & al. (2021) Best practices in machine learning for chemistry. Nature Chemistry 13, 505–508. https://doi.org/10.1038/s41557-021-00716-z.

Yuriev & al. (2024) The Dawn of Generative Artificial Intelligence in Chemistry Education. Journal of Chemical Education 101, 2957-2929. https://doi.org/10.1021/acs.jchemed.4c00836.

Udourioh & al. (2025) Artificial Intelligence-Driven Innovations in Chemistry Education: Transforming Teaching and Learning Practices. In: Handbook on Artificial Intelligence and Quality Higher Education. Volume 1 (pp.379-388). Publisher: Sterling Publishers, Slough UK and Delhi, India. Disponibile al link: https://www.researchgate.net/publication/388675124_Artificial_Intelligence-Driven_Innovations_in_Chemistry_Education_Transforming_Teaching_and_Learning_Practices.

Zhang & al. (2025) Artificial intelligence for catalyst design and synthesis. Matter 8, 102138. https://doi.org/10.1016/j.matt.2025.102138.

Perché studiare chimica e fisica? L’innalzamento ebullioscopico

Avete presente la classica robetta sul mettere il sale prima o dopo che l’acqua ha cominciato a bollire? Questa cosa mi ha sempre lasciato perplesso perché ho sempre pensato che chiunque abbia frequentato con profitto le scuole superiori conosca le proprietà colligative e sa cosa significa innalzamento ebullioscopico. Traduco per i meno esperti: l’innalzamento ebullioscopico è l’innalzamento della temperatura di ebollizione di un solvente quando in esso vengano aggiunti dei soluti. Nel caso specifico, il solvente è l’acqua mentre il soluto è il cloruro di sodio (NaCl), popolarmente conosciuto come sale da cucina.

La solubilità in acqua del cloruro di sodio a 100 °C è di circa 400 g L-1.

L’innalzamento ebullioscopico si calcola usando la formuletta:

ΔT=keb · m · i                                                                                         (1)

dove ΔT è la variazione della temperatura di ebollizione tra il solvente che contiene il soluto e quella del solvente puro; keb è una costante che si chiama costante ebullioscopica. Essa è tabulata per ogni solvente. Per l’acqua, la keb assume il valore di 0.512 °C kg mol-1. Infine, m è la cosiddetta molalità, ovvero la concentrazione di soluto espressa in mol kg-1, dove il peso si riferisce al solvente usato, mentre i è il cosiddetto coefficiente di Vant’Hoff.

Adesso possiamo applicare la formuletta (1) per calcolare quale quantità di cloruro di sodio permette di alzare la temperatura di ebollizione dell’acqua di quantità note. Quelle che che ho preso in considerazione sono le seguenti:

ΔT = 0.01; 0.025; 0.05; 0.075; 0.1; 0.25; 0.5; 0.75; 1; 1.25; 1.5; 1.75; 2; 2.25; 2.5; 2.75; 3; 3.25; 3.5

Dal grafico riportato nella figura qui sotto, ne viene che per aumentare di un solo grado centigrado la temperatura di ebollizione di un litro di acqua occorrono circa 114 g di NaCl. In realtà, noi non aggiungiamo mai oltre 100 g di sale nell’acqua che mettiamo a bollire per la pasta. Tutt’al più ne usiamo un decimo, ovvero circa una decina di grammi. Dallo stesso grafico si evince come l’aggiunta di una decina di grammi di NaCl ad un litro di acqua innalza il punto di ebollizione nell’intervallo 0.075 – 0.1 °C. In altre parole, la temperatura di ebollizione passa da 100 °C all’intervallo di temperature compreso tra 100.08 e 100.1 °C.

Ancora pensate, voi adulti, che chiedere se aggiungere il sale prima o dopo l’ebollizione sia una domanda seria?

Edit: nel calcolo dell’innalzamento ebullioscopico non ho tenuto conto del coefficiente di Vant’Hoff che, per il cloruro di sodio, è pari a 2. Questo vuol dire che, introducendo questo fattore di correzione, l’aumento di temperatura dell’acqua a cui si aggiungono grosso modo una decina di grammi di NaCl è intorno a 0.1-0.2 °C. Insomma, da 100 °C si passa a 100.1-100.2 °C. Rimane sempre valida la domanda: ancora pensate, voi adulti, che chiedere se aggiungere il sale prima o dopo l’ebollizione sia una domanda seria?

 

Fonte dell’immagine di copertina

Share