La chimica del benessere. Dentro i segreti del cioccolato

Quanti di noi non hanno mai assaggiato una tavoletta di cioccolata, un ovetto, una pralina o una tazza fumante di cioccolata calda? Dopo quel morso o quel sorso, quasi sempre arriva una sensazione di benessere, un piccolo conforto che sembra andare oltre il semplice gusto. Non è un’illusione: dietro c’è la chimica.

Un po’ di storia

La storia del cioccolato affonda le sue radici ben prima dell’arrivo in Europa. Le prime tracce di utilizzo del cacao risalgono a più di tremila anni fa e sono legate alle civiltà dell’America centrale, a partire dagli Olmechi, che probabilmente furono i primi a coltivare e trasformare i semi di cacao. I Maya lo considerarono un dono divino: lo impiegavano nelle cerimonie religiose, lo offrivano agli dei e lo seppellivano persino nelle tombe come viatico per l’aldilà. Per loro, come più tardi per gli Aztechi, il cacao era anche moneta sonante: i semi servivano a pagare tributi e scambi, trasformando il frutto in una ricchezza tangibile oltre che simbolica. Ma il cioccolato di allora non aveva nulla a che vedere con la tavoletta dolce e cremosa che conosciamo: si trattava di una bevanda amara, densa, speziata con peperoncino o vaniglia, chiamata “xocolatl”, riservata a nobili e guerrieri e consumata come tonico energizzante e rituale.

Fu soltanto dopo la scoperta delle Americhe che il cacao attraversò l’Atlantico. Cristoforo Colombo ne raccolse alcuni semi, ma fu Hernán Cortés a comprenderne il valore osservandone l’uso tra gli Aztechi e a introdurlo in Spagna. Qui la bevanda subì la prima trasformazione decisiva: al posto del peperoncino, i cuochi di corte iniziarono ad aggiungere zucchero, cannella e vaniglia, rendendola più gradevole al palato europeo. Il cacao divenne così una moda raffinata, diffondendosi nelle corti e nelle case aristocratiche di tutta Europa.

La svolta arrivò nel XIX secolo, quando l’ingegno tecnico permise di trasformare la bevanda in un alimento solido. Nel 1828 l’olandese Coenraad Van Houten inventò una pressa capace di separare il burro di cacao dalla polvere, ottenendo un prodotto più fine e versatile. Qualche decennio più tardi, in Inghilterra, la ditta Fry & Sons creò la prima tavoletta di cioccolato, seguita a ruota dagli svizzeri che introdussero l’aggiunta del latte in polvere e, con Rodolphe Lindt, perfezionarono il processo di conching[1] che regalò al cioccolato la sua inconfondibile cremosità. In pochi decenni il cioccolato smise di essere un lusso per pochi, legato alle “chocolate houses” frequentate da aristocratici e mercanti, per diventare un piacere diffuso e accessibile, destinato a conquistare il mondo.

Un po’ di chimica del cioccolato

Il cioccolato non nasce dolce e vellutato: per arrivare alla tavoletta che conosciamo occorre un percorso fatto di trasformazioni chimiche complesse. Tutto comincia nelle piantagioni, dove le fave di cacao vengono fermentate dentro mucillagini ricche di zuccheri. Qui lieviti e batteri innescano una catena di reazioni che porta alla formazione dei precursori degli aromi: si liberano amminoacidi e peptidi, si producono acidi organici, e perfino piccole quantità di ammine biogene che contribuiranno al profilo sensoriale finale.

Dopo la fermentazione, le fave vengono essiccate al sole. Questo passaggio riduce l’umidità, stabilizza i chicchi e permette che le reazioni ossidative continuino a sviluppare colore e gusto, attenuando l’astringenza tipica del cacao fresco.

Il momento cruciale arriva con la tostatura, in fabbrica: a temperature tra 120 e 140 °C avvengono le celebri reazioni di Maillard, quelle stesse che danno la crosta dorata al pane e l’aroma alla carne arrostita. In questo caso, gli zuccheri reagiscono con gli amminoacidi liberati in fermentazione, generando un caleidoscopio di nuove molecole aromatiche: aldeidi, chetoni, acidi, ma soprattutto pirazine (Figura 1), responsabili del tipico profumo tostato e leggermente nocciolato del cioccolato. Anche la caramellizzazione degli zuccheri e l’ossidazione dei grassi contribuiscono a creare complessità.

Figura 1. Formule di risonanza della pirazina. La freccia a doppia punta non indica un equilibrio chimico, ma rappresenta il fatto che la struttura reale non coincide con nessuna delle due formule, bensì con un unico ibrido di risonanza. Con il termine “pirazine” si indica invece l’intera famiglia dei derivati della pirazina, ottenuti introducendo sostituenti sugli atomi di carbonio dell’anello.

Il burro di cacao, che rappresenta circa metà del peso della fava, è un capitolo a parte. La sua particolarità è la capacità di cristallizzare in diverse forme, o polimorfi, con punti di fusione diversi. Solo una di queste forme, detta β(V), conferisce al cioccolato la giusta consistenza: solido a temperatura ambiente, ma capace di sciogliersi in bocca a circa 30–32 °C. Per ottenere questo equilibrio serve un trattamento preciso chiamato temperaggio, che allinea i cristalli di burro di cacao nella struttura più stabile.

Infine, durante la fase di conching, la massa di cacao viene mescolata e riscaldata a lungo. In questo modo si eliminano acidi volatili indesiderati, si riduce l’astringenza dei polifenoli e si affinano le particelle solide, donando al cioccolato la sua texture setosa e il tipico effetto “melt-in-the-mouth”.

Il risultato di questa catena di trasformazioni è un alimento che non solo stimola i sensi con centinaia di molecole aromatiche, ma conserva anche composti bioattivi originari del cacao, come i flavonoidi (antiossidanti naturali), la teobromina e la caffeina, responsabili degli effetti stimolanti e di quel sottile senso di benessere che accompagna ogni morso.

La chimica del piacere

Come introdotto alla fine del paragrafo precedente, il cioccolato ci fa stare bene grazie a molecole quali:

  • Teobromina e caffeina (Figura 2A e 2B). Entrambi sono metilxantine, alcaloidi strutturalmente simili, che agiscono come antagonisti competitivi dei recettori dell’adenosina. Normalmente, l’adenosina riduce l’attività neuronale e favorisce sonnolenza e rilassamento; bloccarne i recettori ha quindi l’effetto opposto: maggiore vigilanza, riduzione della percezione della fatica, incremento della contrattilità muscolare e della frequenza cardiaca. La caffeina ha un’azione più potente e rapida, mentre la teobromina, presente in concentrazione più elevata nel cacao, ha effetti più blandi ma di lunga durata, con una marcata azione vasodilatatrice e diuretica.
  • Feniletilammina (Figura 2C). È una ammina biogena derivata dalla decarbossilazione della fenilalanina. Ha una struttura simile alle amfetamine e agisce come modulatore neuromediatore: stimola il rilascio di dopamina e noradrenalina e inibisce la loro ricaptazione. Questo si traduce in un senso di euforia e piacere. Tuttavia, la sua emivita nell’organismo è brevissima (rapidamente degradata dalla monoaminoossidasi-B, MAO-B), per cui il suo contributo diretto è probabilmente modesto. Alcuni studi suggeriscono che gli effetti percepiti siano potenziati dalla contemporanea presenza di altre molecole del cacao, che ne modulano il metabolismo.
  • Flavonoidi (Figura 2D). Sono polifenoli, in particolare flavanoli come epicatechina e catechina, abbondanti nel cacao. Il loro effetto principale riguarda l’endotelio vascolare: stimolano l’attività della nitrossido sintasi endoteliale (eNOS), aumentando la produzione di ossido nitrico (NO). Il NO è un potente vasodilatatore che migliora il flusso sanguigno, abbassa la pressione arteriosa e favorisce l’ossigenazione cerebrale. Inoltre, i flavonoidi hanno un’azione antiossidante diretta (neutralizzazione dei radicali liberi) e indiretta (induzione di enzimi antiossidanti), proteggendo neuroni e cellule endoteliali dallo stress ossidativo. Alcuni studi clinici hanno dimostrato che il consumo regolare di cacao ricco in flavonoidi migliora la funzione endoteliale e le performance cognitive.
Figura 2. Struttura della teobromina (A), caffeina (B), feniletilammina (C) e di un flavonoide (D).

Ma non basta. Il piacere del cioccolato non è soltanto biochimico: è anche profondamente sensoriale. L’esperienza inizia già con l’udito, con quel caratteristico snap quando si spezza una tavoletta, un suono secco che ci anticipa la freschezza e la qualità del prodotto. Poi interviene il tatto: la superficie liscia sotto le dita e la resistenza al morso che cede gradualmente. In bocca il cioccolato si trasforma: il burro di cacao, unico tra i grassi per la sua particolare composizione, fonde a una temperatura vicinissima a quella corporea, regalando quella sensazione vellutata e avvolgente che sembra sciogliersi sulla lingua quasi senza sforzo.

A questo si aggiunge l’olfatto, forse il senso più importante: il calore della bocca libera lentamente centinaia di composti aromatici – dalle note tostate e leggermente amare delle pirazine, a quelle fruttate degli esteri, fino ai sentori di vaniglia o spezie che possono accompagnare certe miscele. Infine, il gusto completa l’esperienza con il suo equilibrio tra dolcezza, amaro e acidità, un gioco di contrasti che stimola le papille gustative e rende ogni morso appagante.

È proprio l’intreccio di queste percezioni – suono, tatto, vista, olfatto e gusto – che fa del cioccolato non solo un alimento, ma un piccolo rito multisensoriale, capace di trasformare un frammento di tavoletta in un momento di gratificazione e benessere.

Dalla percezione alla scienza

Negli ultimi decenni, il cioccolato è diventato anche un oggetto di ricerca scientifica. Non ci si limita a indagare perché ci fa sentire bene, ma si studiano le proprietà fisiche e chimiche che ne determinano qualità e stabilità: la cristallizzazione del burro di cacao, la viscosità del fuso, la texture al morso.

Tecniche avanzate come la calorimetria differenziale (DSC), la reologia e la risonanza magnetica a campo variabile (NMR relaxometria) permettono di esplorare come ingredienti diversi influenzino la struttura del cioccolato. Per esempio, come cambia quando si sostituisce lo zucchero con dolcificanti alternativi, o il latte con componenti vegetali per chi segue una dieta vegana o è intollerante al lattosio.

Una ricerca tutta italiana

Proprio sul tema con si è chiuso il paragrafo precedente, ho contribuito a uno studio pubblicato su European Food Research and Technology.

Con un gruppo di colleghi abbiamo confrontato cioccolati tradizionali con varianti vegane e a ridotto contenuto di zuccheri. I risultati hanno mostrato differenze misurabili:

  • i cioccolati senza latte risultano meno duri e meno adesivi, con un comportamento reologico più fluido;
  • quelli con zuccheri alternativi, invece, modificano la cristallizzazione del burro di cacao e aumentano la resistenza al flusso (yield stress);
  • le analisi NMR hanno rivelato “impronte digitali” molecolari uniche, utili a distinguere le diverse formulazioni in modo rapido e non distruttivo.

Insomma, anche quando cambiano ingredienti e ricette, la scienza ci aiuta a garantire che il risultato finale sia comunque un cioccolato capace di dare piacere al palato.

Il futuro del cioccolato

Quello che emerge è un nuovo scenario: una generazione di cioccolati che non rinunciano al gusto, ma che cercano di conciliare benessere, salute e sostenibilità. Non si tratta più soltanto di un piacere edonistico, ma di un alimento che può dialogare con le esigenze nutrizionali moderne, con la ricerca di prodotti più etici e con una maggiore consapevolezza ambientale. La scienza, in questo percorso, ha un ruolo decisivo: dalle tecniche di fermentazione e tostatura che modulano aromi e consistenze, fino alle analisi sofisticate che permettono di comprendere e ottimizzare la struttura interna del cioccolato, rendendo possibile sperimentare nuove formulazioni senza sacrificare la qualità sensoriale.

Dal laboratorio al consumatore, la chimica diventa così uno strumento di innovazione culturale oltre che tecnologica, capace di custodire la tradizione e, allo stesso tempo, di aprire la strada a un futuro in cui il cioccolato possa essere non solo buono, ma anche sano e sostenibile.

E forse proprio qui sta il segreto della cioccolata: nel suo equilibrio perfetto tra storia e modernità, tra cultura e molecole, tra arte e scienza. Un equilibrio che continua a rinnovarsi e a sorprenderci, rendendo ogni morso non soltanto un piccolo piacere quotidiano, ma anche la testimonianza di un legame profondo fra uomo, natura e conoscenza.

Riferimenti & Approfondimenti

Barišić, V.; Kopjar, M.; Jozinović, A.; Flanjak, I.; Ačkar, Đ.; Miličević, B.; Šubarić, D.; Jokić, S.; Babić, J. (2019) The Chemistry behind Chocolate Production. Molecules  24: 3163. https://doi.org/10.3390/molecules24173163

BBC (2019) A brief history of chocolate

Encyclopedia Britannica Chocolate

Fredholm, B.B.; Bättig, K.; Holmén J.; Nehlig, A.; Zvartau, E.E. (1999) Actions of caffeine in the brain with special reference to factors that contribute to its widespread use. Pharmacol Rev. 51(1): 83-133. https://pubmed.ncbi.nlm.nih.gov/10049999/

Sabelli, H.; Fink, P.; Fawcett, J.; Tom, C. (1996) Sustained antidepressant effect of PEA replacement. J Neuropsychiatry Clin Neurosci 8: 168-71. https://doi.org/10.1176/jnp.8.2.168

Schroeter, H. ; Heiss, C.; Balzer, J.; Kleinbongard, P. ; Keen, C.L.; Hollenberg, N.K.; Sies, H.; Kwik-Uribe, C.; Schmitz, H.H.; Kelm, M.   (2006) (–)-Epicatechin mediates beneficial effects of flavanol-rich cocoa on vascular function in humans, Proc. Natl. Acad. Sci. 103 (4) 1024-1029. https://doi.org/10.1073/pnas.0510168103

Torregrossa, F.; Cinquanta, L.; Albanese, D.; Cuomo, F.; Librici, C.; Lo Meo, P.; Conte, P.  (2024) Vegan and sugar-substituted chocolates: assessing physicochemical characteristics by NMR relaxometry, rheology, and DSC. Eur Food Res Technol 250: 1219–1228. https://doi.org/10.1007/s00217-023-04457-w

Note

[1] Il termine “conching” deriva dall’inglese conch (conchiglia), per via della forma delle prime macchine impiegate. Si tratta di un processo introdotto nel 1879 da Rodolphe Lindt: la massa di cioccolato viene agitata e mescolata per ore a temperatura controllata, così da eliminare aromi indesiderati, affinare le particelle solide e rendere il cioccolato più vellutato e cremoso, con il tipico effetto “melt-in-the-mouth”.

Rabdomanzia: tra mito, illusioni e scienza

La scena è familiare: un uomo cammina con una bacchetta biforcuta fra le mani, in attesa che il ramo si pieghi misteriosamente indicando la presenza di acqua sotterranea. Lo sguardo è serio, quasi mistico; chi osserva trattiene il fiato. È l’immagine della rabdomanzia, una pratica antica che ancora oggi conserva un certo fascino, a metà strada tra magia, folklore e speranza.

Se non fosse per un piccolo dettaglio: la bacchetta non funziona. Non importa se sia di nocciolo, di salice o di legno d’ulivo raccolto la notte di San Giovanni – l’acqua, in realtà, se ne infischia del bricolage arboreo. Eppure, generazioni di rabdomanti hanno giurato che quel ramoscello si muove da solo, attirato da misteriose forze sotterranee.

La verità, a guardarla con occhio scientifico, è che la rabdomanzia ha molto in comune con altre discipline affascinanti ma poco affidabili: dall’astrologia alle previsioni calcistiche del barista sotto casa. Funziona finché nessuno prende nota dei risultati, e smette improvvisamente di funzionare appena qualcuno si ostina a fare i conti con carta e penna.

E allora la domanda sorge spontanea: se decenni di esperimenti hanno mostrato che la bacchetta magica non è poi così magica, perché la sua immagine continua ad avere presa su di noi? Forse perché racconta qualcosa di più profondo: il nostro desiderio che il mondo, oltre a pozzi e falde acquifere, nasconda ancora un po’ di incanto.

Una lunga storia di rami e speranze

La rabdomanzia non nasce ieri: già nel XVI secolo in Europa c’erano cronache di minatori che si affidavano alla bacchetta per trovare filoni. Ma se allarghiamo lo sguardo, scopriamo che il trucco del ramo che trema è universale: in Cina, in Africa, nel cuore dell’Europa contadina, ovunque qualcuno sperava di strappare alla natura un segreto in più.

Il contesto era chiaro: quando non avevi né carte geologiche né GPS, provavi di tutto pur di evitare un buco a vuoto. E allora perché non affidarsi a un ramo che vibra in mano? Dopotutto, tra un ingegnere inesistente e un rabdomante disponibile, il contadino assetato sceglieva il secondo. La bacchetta diventava così un’ancora psicologica, una piccola illusione per addomesticare l’imprevedibilità della natura.

La scienza mette alla prova la bacchetta

Col passare del tempo, però, qualcuno iniziò a chiedersi: ma funziona davvero? Così, dal XIX secolo in poi, si organizzarono i primi esperimenti controllati. Qui inizia il bello: quando nessuno teneva conto degli errori, i rabdomanti sembravano infallibili; quando invece entravano in gioco rigore, randomizzazione e doppio cieco, la bacchetta diventava improvvisamente timida.

George P. Hansen nel 1982 fece il punto con una rassegna storica. Risultato? Un mare di studi traballanti. Molti test erano poco più che spettacoli di paese travestiti da esperimenti: niente controlli, numeri minuscoli, conclusioni ottimistiche. Insomma, la bacchetta piegava più le regole del metodo scientifico che quelle del nocciolo.

Monaco e Kassel: la Champions League dei rabdomanti

Negli anni ’80 e ’90 la Germania decise di fare sul serio. Basta esperimenti da cortile: servivano test colossali. Centinaia di rabdomanti convocati, un fienile trasformato in laboratorio, tubi d’acqua fatti scorrere a caso sotto il pavimento. Sembrava un reality show, ma con meno glamour e più statistica.

Il verdetto? La maggior parte non indovinava meglio del caso. Ma – ed è qui che si accese la speranza – una piccola minoranza sembrava cavarsela meglio. Era davvero abilità, o semplice fortuna? Il dibattito infuriò: per i sostenitori, la prova che “qualcosa” c’era; per gli scettici, l’ennesimo esempio di come in un campione ampio ci sia sempre qualcuno che batte la media, anche tirando a indovinare.

Per rendere l’idea, immaginate la scena: decine di rabdomanti convocati come concorrenti a un talent show. Invece di cantare o ballare, camminavano nervosi sopra il pavimento di un fienile, stringendo la bacchetta con l’ansia di chi aspetta l’applauso della giuria. Sotto di loro, nascosto, il famigerato tubo d’acqua che veniva spostato di volta in volta per mantenere il mistero.

Ogni “esibizione” era accompagnata dal silenzio carico di aspettativa: il pubblico (scienziati e assistenti con blocchi per gli appunti) tratteneva il fiato in attesa che la bacchetta si piegasse. Qualcuno, per darsi un tono, chiudeva gli occhi come un pianista rapito dall’ispirazione; altri procedevano a piccoli passi, come rabdomanti zen. Ma, al momento della verità, le performance erano spesso deludenti: bacchette immobili, movimenti incerti, colpi andati a vuoto.

A guardarla con occhi moderni, quella parata sembrava una puntata di “X-Factor” ambientata in un granaio: solo che il premio in palio non era un contratto discografico, ma l’onore di essere proclamati campioni dell’“acqua sotto al fienile”. E, come in ogni talent che si rispetti, alla fine i veri protagonisti furono i giudici: perché la statistica, inflessibile come un televoto truccato, decretò che la maggioranza non aveva alcun talento speciale.

Betz 1995: il canto del cigno

Nel 1995 Hans-Dieter Betz pubblicò due articoli sul Journal of Scientific Exploration che per i rabdomanti furono un po’ come il disco d’oro per una band in declino: la grande occasione di rivincita. Si trattava della trattazione più sistematica mai scritta a favore della rabdomanzia, con tanto di dati, grafici e racconti di campagne sul campo. Betz riportò i risultati dei “progetti di Monaco” e delle missioni in Africa finanziate dalla Gesellschaft für Technische Zusammenarbeit (GTZ), la cooperazione tecnica tedesca (oggi GIZ), presentando la bacchetta come una potenziale compagna di squadra della geofisica tradizionale.

Secondo lui, alcuni rabdomanti avrebbero ottenuto risultati “statisticamente significativi” nel localizzare tubi nascosti o anomalie geologiche. Nei test di campo, specialmente in zone aride e su rocce fratturate, qualcuno riuscì effettivamente a indicare punti di perforazione che poi si rivelarono buoni. Non mancava il tocco epico: Betz parlava di pochi “dowser d’élite”, una sorta di squadra speciale capace di performance superiori alla media, quasi come i supereroi della bacchetta.

Eppure, sotto la patina brillante, le crepe erano evidenti. I presunti successi riguardavano solo una minoranza, mentre la grande maggioranza non si distingueva affatto dal caso. Il meccanismo fisico rimaneva un mistero: si tirarono in ballo ipotesi fantasiose come campi elettromagnetici, vibrazioni sottili, “energie della terra” … ma senza mai una prova concreta. Le analisi statistiche, poi, furono bersagliate di critiche: sembravano cucite su misura per trovare significatività dove non ce n’era.

E infine la questione editoriale: i due articoli non uscirono certo su Nature o Science, ma su una rivista di nicchia, non proprio la Champions League delle pubblicazioni scientifiche. Più una serie cadetta, frequentata da fenomeni di confine e discipline in cerca di legittimazione.

In conclusione, lo stesso Betz, pur con toni misurati, lasciava intendere che la rabdomanzia non poteva dirsi provata. Al massimo, poteva essere definita “promettente” in qualche caso particolare – una formula elegante per dire: non funziona, ma non vogliamo ammetterlo troppo forte.

Ma ogni disco d’oro, si sa, prima o poi incontra la critica musicale. E in questo caso la critica aveva il nome di J. T. Enright.

Enright e la doccia fredda

Pochi anni dopo, J. T. Enright prese in mano gli stessi dati e li analizzò con rigore da scienziato. Risultato: nessun effetto reale, nessun rabdomante miracoloso, solo casualità travestita da abilità. In altre parole, il re era nudo e la bacchetta pure.

La sua critica mise in imbarazzo i sostenitori che, a quel punto, si rifugiarono nell’argomento classico: forse c’è, ma non si riesce a misurare. È lo stesso tipo di scusa usata per i fantasmi, gli UFO, l’omeopatia, l’agricoltura biodinamica e certe diete miracolose.

Suggestione, ideomotorio e fortuna

Perché allora la rabdomanzia continua a sembrare efficace a tanti praticanti e osservatori? Le spiegazioni più condivise chiamano in causa la psicologia umana:
Effetto ideomotorio: piccoli movimenti inconsci delle mani fanno oscillare bacchette o pendoli.
Bias di conferma: si ricordano i successi e si dimenticano i fallimenti.
– Indizi ambientali: in campagna, un occhio esperto può cogliere segni del terreno senza rendersene conto.
Fortuna: con abbastanza tentativi, qualche “colpo giusto” è inevitabile.

Non servono forze misteriose: bastano i meccanismi ben noti della percezione e della memoria selettiva.

Conclusione: il fascino della bacchetta

La storia della rabdomanzia è una parabola perfetta del rapporto tra scienza e credenze popolari. Un rito antico che sopravvive all’avanzata della geologia e della fisica, alimentato da aneddoti e speranze. Gli esperimenti moderni, dai progetti di Monaco alle analisi critiche di Enright, ci dicono che la bacchetta non ha poteri misteriosi: i pochi risultati “positivi” non sono replicabili e si dissolvono al vaglio della statistica.

Eppure, il mito resiste. Resiste come certe catene WhatsApp, come gli oroscopi del mattino o le promesse di miracoli a domicilio: inutile ma rassicurante. Forse perché non parla soltanto di acqua nascosta, ma del nostro bisogno profondo di credere che la natura conservi ancora qualche trucco segreto da regalarci gratis.

Peccato che, quando si tratta di scavare un pozzo, la bacchetta tenda più a piegarsi sotto il peso delle illusioni che a segnalare una falda acquifera. Se vogliamo davvero trovare acqua, meglio affidarsi a un idrogeologo. Con lui, almeno, l’unica bacchetta magica sarà quella del geologo… e al massimo la fattura a fine lavoro.

Riferimenti e approfondimenti

Betz (1995) Unconventional Water Detection: Field Test of the Dowsing Technique in Dry Zones: Part 1. Journal of ScientiJic Exploration, 9(1): 1-43

Betz (1995) Unconventional Water Detection: Field Test of the Dowsing Technique in Dry Zones: Part 1. Journal of ScientiJic Exploration, 9(2): 159-189

Dix (2017) Skeptics beware — a story about dowsing. Available online

Enright (1995) Water Dowsing: the Scheunen Experiments. Naturwissenschaften 82: 360-369

Enright (1999) Testing Dowsing the Failure of the Munich Experiment. Skeptical Enquirer, Available online

Hansen (1982) Dowsing: a Review of Experimental Research. Journal of the Society for Psychical Research, 51(792): 343-367

McCarney & al. (2002) Can homeopaths detect homeopathic medicines by dowsing? A randomized, double-blind, placebo-controlled trial. Journal of the Royal Society of Medicine, 95(4): 189–191

Skeptical Enquirer (1999) Letters to the editor. Available online

Walach & Schmidt (1997) Empirical evidence for a non-classical experimenter effect: An experimental, double-blind investigation of unconventional information transfer. Journal of ScientiJic Exploration, 11(1): 59-67

Notizie dal mondo scientifico. Viaggio attraverso il tempo e nei processi evolutivi

Cos’è la malattia di Huntington

La còrea o malattia di Huntington è una malattia genetica neurodegenerativa che colpisce la coordinazione muscolare e porta a un declino cognitivo e a problemi psichiatrici [1].

Non sono un neuroscienziato e non ho la pretesa di comprenderne fino in fondo le implicazioni biologiche e cliniche, che sono spiegate molto meglio altrove [2,3]. Ne parlo qui perché ho letto un interessantissimo articolo della senatrice Elena Cattaneo [4], che riesce a descrivere con grande chiarezza (anche per chi, come me, non è esperto di genetica) le basi molecolari della malattia.

La tripletta CAG e la proteina huntingtina

La malattia di Huntington è legata a un’anomalia di un gene localizzato sul cromosoma 4 (Figura 1), dove si trova una sequenza ripetuta della tripletta CAG.

Figura 1. Corredo cromosomico umano. Ogni cromosoma è presente in coppia: dal numero 1 al 22 sono identici in entrambi i sessi, mentre i cromosomi sessuali differiscono (XY nei maschi, XX nelle femmine). Fonte: Ospedale Bambin Gesù.

Per i non addetti ai lavori: la tripletta CAG corrisponde a tre nucleotidi – citosina (C), adenina (A) e guanina (G) – e codifica per l’amminoacido glutammina (GLN) [5]. Sul cromosoma 4 questa tripletta si ripete molte volte (CAGCAGCAG…) e la sequenza codifica per una proteina che contiene un tratto con molte glutammine legate in fila.

La differenza sta proprio nel numero di ripetizioni:

  • meno di 36 triplette → la proteina funziona normalmente e non si sviluppa la malattia;
  • più di 36 triplette → la proteina subisce alterazioni strutturali che portano alla comparsa della malattia di Huntington.

Quando la sequenza è nella norma, la proteina stimola la produzione di una neurotrofina fondamentale per i neuroni striatali [4]. Se le ripetizioni superano la soglia critica, la produzione di questa neurotrofina può ridursi anche del 50% [4], causando gravi conseguenze per le cellule nervose.

Il dilemma evolutivo

A questo punto emerge la domanda cruciale: perché l’evoluzione ha conservato una sequenza così rischiosa, che nel tempo può diventare una condanna? [4]

Per rispondere, i ricercatori hanno dovuto fare un salto indietro nel tempo di circa 800 milioni di anni, fino ai primi organismi pluricellulari comparsi sulla Terra, come l’ameba sociale Dictyostelium [6]. Proprio lì è stato identificato il gene che, molto più tardi, nell’uomo, sarebbe stato associato all’Huntington.

Un vantaggio nascosto

La spiegazione suggerita è che questa sequenza ripetuta abbia avuto – e abbia ancora – un vantaggio evolutivo: nelle giuste quantità, la proteina che ne deriva sostiene lo sviluppo e la sopravvivenza dei neuroni, offrendo un beneficio che ha superato, almeno in termini evolutivi, il costo del rischio che le ripetizioni diventino eccessive.

Negli ultimi anni si è rafforzata l’idea che le ripetizioni CAG in numero non patologico non siano affatto neutre: studi su popolazioni sane hanno mostrato che variazioni nella lunghezza della sequenza, pur restando sotto la soglia critica, sono associate a differenze nelle strutture cerebrali e talvolta a prestazioni cognitive migliori [7,8]. Questo suggerisce che la sequenza poliglutaminica del gene HTT abbia un ruolo positivo nella plasticità e nello sviluppo del cervello.

Le espansioni somatiche

Un altro aspetto emerso di recente è quello delle espansioni somatiche: nel corso della vita, alcune cellule accumulano lentamente ulteriori ripetizioni CAG, senza che questo causi danni immediati. Tuttavia, quando la soglia viene superata in specifiche regioni cerebrali vulnerabili, il processo degenerativo si accelera bruscamente [9,10]. Questo meccanismo spiega perché la malattia si manifesta spesso in età adulta, dopo decenni di apparente normalità.

La prospettiva evolutiva

Analisi comparative in diverse specie hanno mostrato che la lunghezza della sequenza poliglutaminica nel gene HTT è stata oggetto di selezione naturale, a indicare che versioni con una certa estensione sono state probabilmente favorevoli allo sviluppo di funzioni nervose più complesse [11].

In altre parole, ciò che oggi leggiamo come malattia – la Huntington – potrebbe essere il rovescio della medaglia di un meccanismo che, nel corso dell’evoluzione, ha contribuito a plasmare la complessità del cervello umano, offrendo benefici cognitivi e adattativi a fronte di un rischio che si manifesta solo in alcune circostanze.

Riferimenti

[1] https://it.wikipedia.org/wiki/Malattia_di_Huntington

[2] http://www.uniroma2.it/didattica/MBND/deposito/lezione3.pdf

[3] http://www.telethon.it/…/malattie-tr…/huntington-malattia-di

[4] E. Cattaneo, Alla ricerca del gene perduto, Wired (Estate 2016), 77, 60-65

[5]  https://www.ncbi.nlm.nih.gov/books/NBK545250/

[6] https://it.wikipedia.org/wiki/Dictyostelium

[7] Schultz JL, et al. Association of CAG Repeat Length in the Huntington Gene With Cognitive Performance in Young Adults. JAMA Neurology (2021).

[8] Cattaneo E, et al. When repetita no-longer iuvant: somatic instability of the CAG triplet in Huntington’s disease. Nucleic Acids Research (2025).

[9] Handsaker RE, et al. Long somatic DNA-repeat expansion drives neurodegeneration in Huntington’s disease. Cell (2025).

[10] Scahill RI, et al. Somatic CAG repeat expansion in blood associates with biomarkers of neurodegeneration in Huntington’s disease decades before clinical motor diagnosis. Nature Medicine (2025).

[11] Iennaco R, et al. The evolutionary history of the polyQ tract in huntingtin sheds light on its functional pro-neural activities. Cell Death & Differentiation (2022).

Quando la mano fa scienza: gli scimpanzé e i fichi verdi

Il mercato della foresta

C’è un mercato nella foresta dove i venditori non urlano i prezzi e i clienti non pagano con monete ma con attenzione. I prodotti sono piccole sfere verdi appese ai rami: i fichi. Per un osservatore distratto molti di questi frutti sembrano uguali – verdi, anonimi, tutti lì a mezz’aria – eppure, per uno scimpanzé affamato, scegliere il fico giusto è questione di vita quotidiana. Non importa tanto il colore: è la mano che decide.

Un esperimento naturale

In uno studio molto elegante, Dominy e collaboratori hanno seguito gli scimpanzé di Kibale (Uganda) mentre esaminavano, palpavano e a volte incidevano con morsi i fichi della specie Ficus sansibarica. I ricercatori hanno misurato colore, elasticità, resistenza alla frattura e contenuto di zuccheri dei frutti, e hanno poi messo insieme comportamento e fisica con un semplice ma potente ragionamento statistico: ogni test sensoriale riduce l’incertezza su quanto dolce sia il frutto. In pratica, gli scimpanzé fanno Bayes con le dita.

Perché è interessante?

Per tre motivi.

  1. Il segnale visivo è debole. Molti fichi rimangono verdi anche quando sono maturi: il colore non tradisce la dolcezza. Per un animale che si affida alla vista, questo è un problema. Ma gli scimpanzé non rimangono fermi a guardare: si arrampicano, afferrano, premono. La palpazione dura una frazione di secondo – in media circa 1,4 s – e fornisce un’informazione meccanica che si correla molto meglio con il contenuto di fruttosio del frutto. In altre parole: il dito è più informativo dell’occhio.
  2. La sequenza sensoriale è modulare e razionale. Gli scimpanzé prima osservano (valutano dimensione e qualche indicazione cromatica), poi palpano – la mano misura elasticità – e infine, se serve, mordono per valutare la resistenza all’incisione (KIC, una misura meccanica della facilità con cui il tessuto si rompe). Ogni sensazione è un pezzo di informazione che, sommato agli altri, rende la decisione più affidabile.
  3. La ricerca suggerisce una lettura evolutiva intrigante: la mano come strumento di misura. Spesso colleghiamo la precisione della mano umana all’uso di utensili; questo lavoro propone invece che, almeno in parte, la selezione per mani sensibili e destre possa essere stata guidata anche da esigenze quotidiane di raccolta e valutazione del cibo — vale a dire: la mano non è nata solo per costruire strumenti, ma anche per saggiare il mondo.

Un piccolo laboratorio sensoriale

Questa visione sposta il centro dell’attenzione: non è solo l’innovazione tecnologica che plasma l’evoluzione della mano, ma anche la routine del foraggiamento. Pensalo come un piccolo laboratorio sensoriale: lo scimpanzé solleva un fico, lo preme con il polpastrello, percepisce la “cedibilità”, stima se dentro ci sono zuccheri a sufficienza e poi decide. Un segnale visivo vago (verde) viene corretto da informazioni meccaniche precise. Il risultato è una strategia efficiente: meno errori nella scelta di frutti importanti (i fichi sono una risorsa alimentare di riserva nelle stagioni difficili) e quindi un vantaggio per la sopravvivenza e la riproduzione.

La mano come utensile per conoscere

Per milioni di anni, fichi e altri frutti “criptici” hanno messo alla prova la capacità dei primati di distinguere il commestibile dal deludente. La pressione selettiva non ha riguardato soltanto occhi e cervello, ma anche la mano. La destrezza manuale, che oggi colleghiamo soprattutto all’uso degli strumenti, potrebbe avere radici ben più antiche: la necessità di valutare il cibo. La mano, prima di diventare utensile per costruire, è stata utensile per conoscere.

Un fotogramma della nostra storia

Il gesto dello scimpanzé che palpa un fico non è solo un dettaglio curioso di comportamento, ma un fotogramma della nostra stessa storia evolutiva. La precisione del pollice opponibile, la ricchezza sensoriale del polpastrello, la capacità di coordinare occhio e mano: tutto ciò che oggi ci permette di scrivere, scolpire, dipingere o operare, è nato anche da azioni semplici come scegliere il frutto giusto su un ramo.

Dalla foresta al mercato

Così, la foresta diventa laboratorio, la mano un sensore, il frutto una sfida evolutiva. E se ci pensiamo, la linea che ci separa dagli scimpanzé non è poi così netta: anche noi, al mercato, prima di comprare una pesca o un avocado, li osserviamo, li tocchiamo, li premiamo leggermente con le dita. In fondo, facciamo la stessa cosa: riduciamo l’incertezza con la complessità della mano.

Conclusione

La prossima volta che vedrai uno scimpanzé contemplare un frutto, immaginalo come un piccolo scienziato improvvisato: non sta solo mangiando, sta raccogliendo dati. Con il polpastrello riduce l’incertezza, proprio come noi davanti a una confezione con etichetta sbiadita.

E allora si capisce: la mano è nata per conoscere, prima ancora che per costruire. È questa complessità – fatta di tatto, intelligenza e memoria – che ha guidato la nostra evoluzione.

Dal fico della foresta alla penna, allo scalpello, al bisturi: ogni gesto umano porta ancora impressa quella prima funzione. La mano che oggi crea, cura, scrive e dipinge è la stessa che, milioni di anni fa, imparava a saggiare un frutto. In fondo, la nostra evoluzione è cominciata con un dito sul frutto.

Dimostrami che non esiste! La trappola preferita della pseudoscienza

Frequento i social network dal 2009 e, qualche anno dopo – era il 2015, ormai dieci anni fa – ho aperto il mio blog. All’inizio, da neofita, mi ritrovavo a discutere animatamente con persone di ogni tipo: rabdomanti convinti di sentire l’acqua con un bastoncino, cacciatori di fantasmi armati di telecamerine, fan dell’omeopatia pronti a difendere il niente travestito da nulla diluito e sostenitori dell’agricoltura biodinamica intenti a recitare formule magiche come i druidi di Asterix per aumentare la produttività dei campi.

Ogni volta che li mettevo davanti all’evidenza, la conversazione finiva invariabilmente con la stessa frase a effetto:
“Ah sì? Allora dimostrami [provami] che [argomento a piacere] non esiste!”

Oppure, in contesti diversi ma con identica logica capovolta: “Allora dimostrami [provami] che Dio non esiste”.

Chissà perché, ogni volta che ascolto queste argomentazioni, resto colpito dall’involuzione culturale che si sta diffondendo sempre di più. Sono frasi che potevano avere un senso quando ero in terza elementare, quando ci si appellava alla maestra per dirimere questioni vitali come: “Non sono stato io a mettere le mani nella marmellata, è stato lui!”.

Ma in età adulta mi aspetto qualcosa di diverso: argomentazioni più mature, meno retoriche e più legate alla razionalità. E invece questi trucchetti – vecchi come il mondo – continuano a funzionare con chi, pur avendo studiato, non si è abituato al pensiero critico e al metodo scientifico. Il punto è che la scienza, nel bene e nel male, non funziona così.

Provare: ma in che senso?

Ed è proprio qui che nasce la confusione: cosa significa davvero “provare”? Nel linguaggio quotidiano questa parola viene usata in mille modi diversi: provare un vestito, provare a fare una torta, provare un sentimento, provare a convincere qualcuno. E, lasciatemela passare, “provare un esame” – espressione tipica dei miei studenti, che poi però vengono puntualmente bocciati.

Ma in scienza non basta “fare un tentativo” o “avere un’impressione”: qui “provare” significa sottoporre un’idea a un controllo severo, verificare se regge quando viene messa di fronte ai dati.

La Treccani ci ricorda che “provare” significa sia “fare un tentativo” sia “dimostrare con prove la verità di un’affermazione”. Nel linguaggio scientifico, però, prevale il secondo significato: mettere alla prova un’ipotesi. In altre parole, valutare se un’ipotesi spiega davvero i fenomeni osservati e, soprattutto, se permette di fare previsioni verificabili.

Fare scienza significa:

  • osservare un fenomeno;
  • formulare un’ipotesi che lo spieghi e consenta di fare previsioni;
  • progettare esperimenti che possano confermare o smentire l’ipotesi;
  • accettare senza sconti il verdetto dei dati.

Se i dati non la confermano, l’ipotesi è falsificata. Punto. In altre parole, non è più utile: non spiega i fenomeni, non regge alla verifica, è semplicemente errata.

L’onere della prova

Rileggiamo l’elenco del paragrafo precedente, partendo dal primo punto:

  • osservare un fenomeno.

Qui sta il punto cruciale: se non posso osservare un fenomeno, tutto il resto non ha alcun senso. Come potrei formulare un’ipotesi su qualcosa che non vedo? E se non ho un’ipotesi, come potrei progettare esperimenti? Senza esperimenti non ottengo dati e, senza dati, non posso né confermare né confutare nulla.

In definitiva, se qualcosa non è osservabile, non posso applicare alcun metodo per “provarne” l’inesistenza. La scienza non funziona così: non dimostra l’inesistenza, ma mette alla prova ciò che si afferma di aver osservato. L’onere della prova, quindi, ricade sempre su chi fa l’affermazione, non su chi la mette in dubbio.

Mettiamola in un altro modo: se ipotizzo che una sostanza chimica acceleri la germinazione dei semi, posso progettare un esperimento. Se i dati non mostrano differenze, l’ipotesi cade. Ma se qualcuno sostiene che “una misteriosa energia invisibile accelera la germinazione solo in certe notti particolari”, senza dire quando, dove e come… beh, quella non è scienza: è una storia che non può essere né verificata né smentita, in altre parole non può essere falsificata.

Ecco perché fantasmi, energie occulte, biodinamica, draghi invisibili o divinità onnipresenti non possono essere oggetto di indagine scientifica: semplicemente non sono ipotesi falsificabili.

Un insegnamento dalla storia

Certo, gli amanti delle scienze occulte (che se sono occulte non sono scienze, ma va bene: usiamo pure l’ossimoro tanto caro ai fan di queste cose) potranno sempre dire: “Ma scusa, come fai a dire che qualcosa non funziona o non esiste se non lo provi? Non è compito dello scienziato verificare, sperimentare e, casomai, proporre o rigettare?”

Sì, certo. Ma solo se – ripeto – il fenomeno è osservabile o se esiste un impianto logico-matematico che consenta di formulare ipotesi verificabili con una progettazione sperimentale precisa.

Facciamo alcuni esempi. L’etere luminifero, ipotizzato come mezzo di propagazione della luce, è stato messo alla prova con esperimenti celebri come quello di Michelson e Morley (1887). I dati hanno detto chiaramente che non c’era nessuna evidenza a suo favore. Lo stesso destino è toccato al flogisto, sostanza immaginaria che avrebbe dovuto spiegare la combustione, spazzata via dalla chimica di Lavoisier.

E cosa dire della meccanica classica – sì, proprio quella sviluppata da Isaac Newton – che ha dominato per oltre due secoli e ancora oggi descrive benissimo il mondo macroscopico? All’inizio del Novecento, però, si è mostrata inadeguata a spiegare il comportamento delle particelle microscopiche e i fenomeni a velocità prossime a quella della luce. Da lì sono nate la relatività di Einstein e la meccanica quantistica, due teorie che hanno ampliato il quadro e che, pur con approcci diversi, permettono di fare previsioni in ambiti dove Newton non basta. Eppure, i razzi continuano a essere lanciati nello spazio grazie ai calcoli newtoniani: semplicemente, la sua fisica funziona finché si rimane dentro i suoi limiti di validità.

In tutti questi casi, la scienza non ha “provato l’inesistenza” di etere, flogisto o della validità universale della meccanica classica: ha mostrato che i dati non erano compatibili con quelle ipotesi, oppure che servivano modelli più ampi e predittivi per descrivere meglio la realtà.

La differenza tra scienza e pseudoscienza

Alla luce di tutto quanto scritto finora, si può ribadire con chiarezza che la scienza non fornisce verità eterne: propone modelli coerenti con le prove disponibili, validi finché i dati li confermano. Basta anche un solo dato contrario per metterli in crisi. In quel caso, il modello viene abbandonato oppure ampliato, formulando nuove ipotesi che ne estendano i limiti di validità.

La pseudoscienza, invece, gioca sporco: pretende di invertire l’onere della prova e chiede di dimostrare l’inesistenza dei suoi fantasmi. Non è un caso se, dopo più di due secoli, l’omeopatia è rimasta immobile, sempre uguale a se stessa, senza mai evolversi. O se l’agricoltura biodinamica – nonostante il supporto di figure accademiche che hanno scelto di accreditare l’esoterico come se fosse scienza – non sia mai riuscita a produrre una validazione sperimentale credibile. E l’elenco potrebbe continuare.

Come ammoniva Carl Sagan: affermazioni straordinarie richiedono prove straordinarie. Chi non porta prove, porta solo storie… e spesso nemmeno originali.

Conclusione

No, non si può provare l’inesistenza di qualcosa in senso assoluto. Quello che la scienza può fare, e che fa ogni giorno, è mostrare l’assenza di evidenze e smontare affermazioni che non reggono alla prova dei dati.

Per questo non ha senso chiedere di dimostrare che i fantasmi non infestano le vecchie case, che i preparati biodinamici non funzionano o che Dio non esiste. L’onere della prova spetta sempre a chi afferma, non a chi dubita.

La scienza non è un gioco di prestigio in cui si fanno sparire gli spettri: è un metodo per distinguere ciò che ha basi reali da ciò che resta soltanto una storia.

Esprit de char

➡ Read in English

Che cos’hanno in comune un fuoco che non brucia, un terreno che diventa più fertile e un clima che forse possiamo ancora salvare?
La risposta sta in un materiale oscuro e poroso, nato dal calore ma fatto per resistere al tempo: il biochar.

Immaginate un carbone che, invece di dissolversi in fumo, rimane nel suolo per secoli. Non è carbone da ardere, ma carbone che custodisce carbonio. Un paradosso? Forse sì. Eppure è proprio qui che la scienza ci invita a guardare più da vicino.

Un enigma nella giungla

Tutto comincia in Amazzonia. Quando i primi archeologi e pedologi iniziarono a scavare nella foresta pluviale, trovarono qualcosa di inatteso: macchie di terra scura e fertile che si distinguevano nettamente dal rosso povero degli Oxisols circostanti. Gli indigeni la chiamavano “Terra Preta do Indios”, la “terra nera degli indios”.

Com’era possibile che suoli notoriamente poverissimi e instabili, incapaci di trattenere nutrienti, ospitassero invece zone in cui le piante crescevano rigogliose?

Negli anni Duemila, studi pionieristici di Bruno Glaser e colleghi mostrarono che quelle terre nere contenevano fino a 70 volte più carbonio nero rispetto ai suoli circostanti. Non un carbonio qualsiasi, ma il prodotto della combustione incompleta di biomassa: charcoal, carbone vegetale. Non il fuoco distruttivo degli incendi, ma quello controllato dei focolari domestici, dei forni di cottura, delle pratiche agricole precolombiane.

Dalla leggenda alla scienza

La Terra Preta non era un fenomeno naturale. Era la traccia lasciata da comunità indigene che, 1500–2500 anni fa, avevano imparato a trasformare residui di cucina, legno e scarti organici in un suolo fertile e duraturo. Non slash-and-burn, la bruciatura che divora foreste e libera CO₂, ma slash-and-char: un modo per intrappolare carbonio e costruire fertilità.

Quel carbone, altamente aromatico e stabile, sopravvive nel suolo per secoli. Con il tempo, l’ossidazione ne arricchisce i bordi di gruppi carbossilici, che aumentano la capacità di trattenere nutrienti. È così che un materiale apparentemente inerte diventa uno scrigno di fertilità, capace di sostenere colture ben oltre il tempo degli indigeni che lo produssero.

Ed è da questa eredità che nasce la parola che oggi usiamo: biochar. Non più soltanto un reperto archeologico, ma una tecnologia da ripensare in chiave moderna.

Il biochar oggi

Il nome potrebbe sembrare una trovata di marketing, ma non lo è. È il termine scelto dalla comunità scientifica per indicare il materiale carbonioso ottenuto dalla pirolisi di biomasse di scarto – legno, residui agricoli, perfino sottoprodotti animali – e applicato volontariamente al suolo per migliorarne la qualità.

Perché dovremmo interessarcene?
Perché sappiamo che l’aumento della temperatura globale è dovuto alle attività umane, e abbiamo bisogno di strumenti nuovi per rallentare la corsa dei gas serra. Il biochar, se ben prodotto e ben usato, sembra offrire proprio questo:

  • intrappolare carbonio nei suoli, togliendolo dall’atmosfera;
  • migliorare la struttura dei terreni, rendendoli più fertili e meno erodibili;
  • adsorbire sostanze tossiche, ripulendo acque e suoli inquinati;
  • modificare il pH, favorendo la crescita delle piante.

Tutto questo non è teoria: sono osservazioni sperimentali che hanno acceso un entusiasmo globale. Ma… funziona sempre così?

I segreti nei pori

Il punto è che il biochar non è mai uguale a sé stesso. Dipende dalla biomassa di partenza, dalle temperature di pirolisi, dalle condizioni di produzione. Alcuni biochar sono stabili e utili; altri, invece, si degradano più in fretta o rilasciano ciò che dovrebbero trattenere.

E allora come capire quali biochar funzionano davvero?

È qui che entrano in gioco le tecniche che uso nel mio lavoro. Con la risonanza magnetica nucleare (NMR) possiamo osservare il comportamento dell’acqua confinata nei pori del biochar: come si muove, quanto resta intrappolata, quali interazioni crea con ioni e contaminanti. In pratica, possiamo ascoltare la “vita interiore” di un pezzo di carbone.

Queste informazioni ci permettono di costruire modelli più affidabili e di distinguere tra biochar efficaci e biochar illusori. È un lavoro di pazienza, ma necessario: se vogliamo usare il biochar come strumento di sostenibilità, dobbiamo capire i suoi meccanismi più profondi.

Esprit de char

Il National MagLab ha raccontato parte di questa avventura in un articolo dal titolo evocativo: Esprit de char. “Lo spirito del carbone”: un nome che rende bene l’idea. Perché il biochar non è solo un materiale tecnico, è un ponte tra passato e futuro. Un carbone antico, ma con un compito nuovo: aiutarci a riscrivere il rapporto tra l’uomo, il suolo e il clima.

E domani?

Sarà allora il biochar la chiave di un’agricoltura davvero sostenibile?
Non dobbiamo illuderci: non è una bacchetta magica. Non basterà da solo a risolvere la crisi climatica o a rigenerare i suoli impoveriti. Ma può essere uno strumento potente, se usato con intelligenza.

Forse, in fondo, l’“esprit de char” non è altro che questo: la memoria di un fuoco che, anziché consumare, ha creato. Un fuoco che ancora oggi può insegnarci a trasformare l’ombra in risorsa, il carbone in futuro.

Per approfondire:

E qualche mio vecchio post divulgativo:

Esprit de char (English)

What do a fire that doesn’t burn, a soil that becomes more fertile, and a climate we might still save have in common?
The answer lies in a dark, porous material, born from heat yet made to resist time: biochar.

Imagine a charcoal that, instead of turning into smoke, remains in the soil for centuries. Not charcoal for burning, but charcoal that locks carbon away. A paradox? Perhaps. And yet this is precisely where science invites us to look closer.

A jungle enigma

It all begins in the Amazon basin. When the first archaeologists and soil scientists dug into the rainforest, they found something unexpected: patches of dark, fertile earth standing out against the poor, reddish Oxisols all around. The locals called it “Terra Preta do Indios”, the “black earth of the Indians.”

How was it possible that soils known for being extremely poor and unstable, unable to hold nutrients, could instead host areas where plants thrived so vigorously?

In the early 2000s, pioneering studies by Bruno Glaser and colleagues revealed that these black soils contained up to 70 times more black carbon than their surroundings. Not just any carbon, but the product of the incomplete combustion of biomass: charcoal. Not the destructive fire of wild burns, but the controlled fires of domestic hearths, cooking stoves, and pre-Columbian farming practices.

From legend to science

Terra Preta was not a natural phenomenon. It was the trace left by indigenous communities who, 1,500–2,500 years ago, had learned how to turn kitchen waste, wood, and organic residues into fertile, enduring soil. Not slash-and-burn, the practice that devours forests and releases CO₂, but slash-and-char: a way to trap carbon and build fertility.

That charcoal, highly aromatic and chemically stable, survives in soil for centuries. Over time, oxidation enriches its edges with carboxylic groups, increasing its nutrient-holding capacity. In this way, an apparently inert material becomes a treasure chest of fertility, able to sustain crops long after the indigenous people who created it had disappeared.

And it is from this legacy that the word we use today was born: biochar. No longer just an archaeological curiosity, but a technology to be reimagined for modern times.

Biochar today

The name may sound like a marketing gimmick, but it isn’t. It’s the term chosen by the scientific community to define the carbon-rich material produced by the pyrolysis of waste biomass – wood, agricultural residues, even animal by-products – and deliberately applied to soil to improve its quality.

Why should we care?
Because we know that global warming is driven by human activity, and we need new tools to slow the race of greenhouse gases. Biochar, if properly produced and applied, seems to offer exactly this:

  • locking carbon into soils, keeping it out of the atmosphere;
  • improving soil structure, making it more fertile and less prone to erosion;
  • adsorbing toxic substances, helping to clean polluted soils and waters;
  • altering soil pH, favoring plant growth.

This isn’t theory: these are experimental findings that have sparked worldwide enthusiasm. But… does it always work that way?

Secrets in the pores

The truth is that biochar is never the same. It depends on the feedstock, on the pyrolysis temperature, and on the production conditions. Some biochars are stable and effective; others degrade quickly or release what they were meant to retain.

So how do we know which biochar really works?

This is where the techniques I use in my research come into play. With nuclear magnetic resonance (NMR) we can observe how water behaves inside biochar pores: how it moves, how long it remains trapped, how it interacts with ions and contaminants. In practice, we can listen to the “inner life” of a piece of charcoal.

Such information allows us to build more reliable models and to distinguish effective biochar from illusory ones. It’s painstaking work, but essential: if we want biochar to be a true sustainability tool, we must first understand its deepest mechanisms.

Esprit de char

The National MagLab told part of this story in an article with an evocative title: Esprit de char. “The spirit of charcoal”: a name that captures the essence. Because biochar is not just a technical material—it’s a bridge between past and future. An ancient charcoal with a new task: to help rewrite the relationship between humans, soils, and climate.

And tomorrow?

So, is biochar the key to truly sustainable agriculture?
We shouldn’t fool ourselves: it’s no magic wand. Biochar alone won’t solve the climate crisis or restore degraded soils. But it can be a powerful tool – if used wisely.

Perhaps, in the end, the “esprit de char” is nothing more than this: the memory of a fire that, instead of consuming, created. A fire that still today can teach us how to turn shadow into resource, charcoal into future.

Further reading:

And some of my earlier blog posts (in Italian):

 

La Sindone e la scienza: dal Medioevo alla risonanza magnetica

Ormai lo sanno anche le pietre: mi occupo di risonanza magnetica nucleare su matrici ambientali. Tradotto per i non addetti: uso la stessa tecnica che in medicina serve a vedere dentro il corpo umano, ma applicata a tutt’altro – suoli, sostanza organica naturale, piante e materiali inerti. Ripeto: non corpi umani né animali, ma sistemi ambientali.

C’è un dettaglio curioso. I medici hanno tolto l’aggettivo “nucleare” dal nome, per non spaventare i pazienti. Peccato che, senza quell’aggettivo, l’espressione “risonanza magnetica” non significhi nulla: risonanza di cosa? elettronica, fotonica, nucleare? Io, che non ho pazienti da rassicurare, preferisco chiamare le cose con il loro nome: risonanza magnetica nucleare, perché studio la materia osservando come i nuclei atomici interagiscono con la radiazione elettromagnetica a radiofrequenza.

Non voglio dilungarmi: non è questa la sede per i dettagli tecnici. Per chi fosse curioso, rimando al mio volume The Environment in a Magnet edito dalla Royal Society of Chemistry.

Tutto questo per dire che in fatto di risonanza magnetica nucleare non sono proprio uno sprovveduto. Me ne occupo dal 1992, subito dopo la laurea in Chimica con indirizzo Organico-Biologico. All’epoca iniziai a lavorare al CNR, che aveva una sede ad Arcofelice, vicino Pozzuoli, in provincia di Napoli. È lì che cominciai a usare l’NMR per studiare la relazione struttura-attività dei metaboliti vegetali: un banco di prova perfetto per capire quanto questa tecnica potesse rivelare.

Successivamente passai all’Università degli Studi di Napoli Federico II, dove estesi l’uso della risonanza magnetica nucleare non solo alla fase liquida, ma anche a quella solida e semisolida. Non più soltanto metaboliti vegetali, dunque, ma matrici molto più complesse dal punto di vista chimico: il suolo e la sostanza organica ivi contenuta.

Con il mio trasferimento all’Università di Palermo ho potuto ampliare ulteriormente le competenze in NMR: dall’uso di strumenti a campo magnetico fisso sono passato allo studio delle stesse matrici naturali con spettrometri a campo variabile. Un passo avanti che mi ha permesso di guardare i sistemi ambientali con ancora più profondità e sfumature.

Ed eccomi qui, dopo più di trent’anni di esperienza, a spiegare perché chi immagina di usare la risonanza magnetica nucleare sulla Sindone di Torino forse ha una visione un po’… fantasiosa della tecnica.

Andiamo con ordine.

La Sindone di Torino: simbolo religioso e falso storico

La Sindone

La Sindone di Torino è un lenzuolo di lino lungo circa quattro metri che reca impressa l’immagine frontale e dorsale di un uomo crocifisso. Per il mondo cattolico rappresenta una delle reliquie più importanti: secondo la tradizione, sarebbe il sudario che avvolse il corpo di Cristo dopo la crocifissione. Attorno ad essa si è sviluppato un culto popolare immenso, fatto di pellegrinaggi e ostensioni pubbliche che ne hanno consacrato il valore spirituale.

Ma che cosa ci dice la scienza su questo straordinario manufatto?

La datazione al radiocarbonio

Il dato più solido arriva dalla datazione con il radiocarbonio. Nel 1988 tre laboratori indipendenti – Oxford, Zurigo e Tucson – pubblicarono sulla rivista Nature i risultati delle loro analisi: il lino della Sindone risale a un periodo compreso fra il 1260 e il 1390 d.C., cioè in piena epoca medievale (Damon et al., 1989). La conclusione degli autori fu inequivocabile: “evidence that the linen of the Shroud is mediaeval”.

Riproduzioni sperimentali

A rafforzare questa interpretazione è intervenuto anche il lavoro del chimico Luigi Garlaschelli, che ha realizzato una riproduzione della Sindone utilizzando tecniche compatibili con l’arte medievale: applicazione di pigmenti su un rilievo, trattamenti acidi per simulare l’invecchiamento, lavaggi parziali per attenuare il colore. Il risultato, esposto in varie conferenze e mostre, mostra come un artigiano del Trecento avrebbe potuto ottenere un’immagine con molte delle caratteristiche dell’originale (Garlaschelli, 2009).

Le conferme della storia

Anche le fonti storiche convergono. Un documento recentemente portato alla luce (datato 1370) mostra che già all’epoca un vescovo locale denunciava il telo come un artefatto, fabbricato per alimentare un culto redditizio (RaiNews, 2025). Questo si aggiunge al più noto documento del 1389, in cui il vescovo di Troyes, Pierre d’Arcis, scriveva a papa Clemente VII denunciando la falsità della reliquia.

Le contro-argomentazioni sindonologiche

Naturalmente, chi sostiene l’autenticità della Sindone non è rimasto in silenzio. Le principali obiezioni riguardano:

  1. Il campione del 1988 – secondo alcuni, la zona prelevata sarebbe stata contaminata da un rammendo medievale, o comunque non rappresentativa dell’intero telo (Karapanagiotis, 2025).
  2. L’eterogeneità dei dati – alcuni statistici hanno osservato che i tre laboratori non ottennero risultati perfettamente omogenei, segnalando possibili anomalie (Karapanagiotis, 2025).
  3. Eventi successivi – l’incendio di Chambéry del 1532, o la formazione di patine microbiche, avrebbero potuto alterare la concentrazione di carbonio-14, facendo sembrare il tessuto più giovane (Karapanagiotis, 2025).

Sono ipotesi discusse ma che non hanno mai trovato prove decisive: nessuna spiegazione è riuscita a giustificare in modo convincente come un tessuto del I secolo potesse apparire medievale a tre laboratori indipendenti.

Le nuove analisi ai raggi X

Negli ultimi anni si è parlato di nuove tecniche di datazione basate sulla diffusione di raggi X ad ampio angolo (WAXS). L’idea è di valutare il grado di cristallinità della cellulosa del lino: più il tessuto è antico, maggiore è la degradazione della sua struttura cristallina. Applicata a un singolo filo della Sindone, questa metodologia ha suggerito un’età più antica di quella medievale (De Caro et al., 2022).

Tuttavia, i limiti sono evidenti: si è analizzato un solo filo, e la cristallinità della cellulosa dipende non solo dal tempo, ma anche da condizioni ambientali come umidità, calore o contatto con sostanze chimiche. Inoltre, il metodo è recente e richiede ulteriori validazioni indipendenti. In sintesi: interessante come indicatore di degrado, ma non ancora un’alternativa solida al radiocarbonio.

Una nuova frontiera? L’NMR

Accanto a tutto ciò è emersa anche la proposta di applicare la risonanza magnetica nucleare (NMR) alla Sindone (Fanti & Winkler, 1998). Alcuni autori suggeriscono che questa tecnica possa rivelare “concentrazioni atomiche” di idrogeno, carbonio o azoto nel telo, o addirittura produrre mappe tomografiche.

Nel prossimo paragrafo entrerò nel dettaglio di questa prospettiva “NMR”, analizzando perché, alla luce dell’esperienza maturata in oltre trent’anni di lavoro su queste tecniche, considero queste proposte non solo irrealistiche, ma anche profondamente fuorvianti.

I limiti della prospettiva NMR

Tra le tante proposte avanzate negli anni, c’è anche quella di usare la risonanza magnetica nucleare per studiare la Sindone. Nel lavoro di Giulio Fanti e Ulf Winkler si ipotizza di applicare tecniche NMR per “vedere” la distribuzione di atomi come idrogeno, carbonio e persino azoto sul telo, o addirittura per ottenere mappe tomografiche simili a quelle della risonanza magnetica medica. Sulla carta può sembrare affascinante, ma nella pratica questa prospettiva presenta numerosi limiti.

Nel caso dei protoni (1H), ad esempio, gran parte del segnale in un lino asciutto deriva dall’acqua residua o da componenti volatili: un parametro che può variare fino all’80% semplicemente cambiando le condizioni ambientali. Inoltre, in un solido come il lino della Sindone, l’analisi 1H-NMR non offre risoluzione: lo spettro mostra soltanto due contributi sovrapposti, un picco stretto e intenso dovuto alle zone cristalline della cellulosa e una larga campana sottostante, tipica delle frazioni amorfe. È chiaro, quindi, che non solo è arduo quantificare i protoni, ma è del tutto irrealistico pensare di usarli per una datazione del tessuto.

Per quanto riguarda l’analisi al carbonio-13 (13C), ci sono diversi punti da sottolineare. La tecnica più usata è la CPMAS 13C-NMR: in questo caso una piccola quantità di campione, dell’ordine dei milligrammi, viene inserita in un porta-campioni invisibile all’NMR, posto nel campo magnetico secondo una geometria precisa, e il carbonio viene “visto” sfruttando l’abbondanza dei protoni. Si tratta però di una tecnica qualitativa: non consente una vera quantificazione del nucleo osservato. Inoltre, richiede tempi di misura molto lunghi, con costi elevati e il rischio concreto di non ottenere informazioni davvero utili.

L’alternativa sarebbe la DPMAS 13C-NMR. Qui, a differenza della CPMAS, non ci si appoggia ai protoni e quindi bisogna fare affidamento solo sull’abbondanza naturale del 13C, circa l’1%: troppo bassa. Di conseguenza i tempi macchina si allungano ulteriormente, con dispendio sia di tempo sia economico. E in più la tecnica è priva di risoluzione: i segnali dei diversi nuclei si sovrappongono in un unico inviluppo indistinguibile, rendendo impossibile perfino la stima del rapporto fra cellulosa cristallina e amorfa.

Quanto all’azoto-14 (14N), il nucleo è quadrupolare e produce linee larghissime e difficilmente interpretabili: in pratica, misure affidabili non sono realistiche.

Nel lavoro di Fanti e Winkler, ci sono poi anche problemi di coerenza interna. Nel testo, ad esempio, si ipotizzano tempi di rilassamento e acquisizione non compatibili con i valori sperimentali reali, e si propongono scenari come la “tomografia NMR dell’intero telo” che, per un materiale rigido e povero di mobilità come il lino secco, sono semplicemente impraticabili: i tempi di decadimento del segnale sono troppo brevi perché si possa ricostruire un’immagine come in risonanza magnetica medica.

Infine, il lavoro suggerisce di estendere le misure addirittura a mappature di radioattività con contatori Geiger o a esperimenti di irraggiamento con neutroni, ipotizzando collegamenti con la formazione dell’immagine. Si tratta di congetture prive di fondamento sperimentale, più vicine a un esercizio di fantasia che a un protocollo scientifico realistico.

In sintesi, Fanti e Winkler hanno portato il linguaggio della NMR nel dibattito sulla Sindone, ma le applicazioni che propongono si scontrano con limiti tecnici insormontabili e interpretazioni sbagliate.

L’NMR è uno strumento potentissimo per lo studio di suoli, sostanza organica e sistemi complessi, ma applicarlo alla Sindone nei termini proposti non ha basi scientifiche solide: rischia anzi di trasformare una tecnica seria in un’arma retorica al servizio di ipotesi precostituite.

Conclusioni

Alla fine dei conti, la Sindone di Torino resta ciò che la scienza ha già dimostrato da tempo: un manufatto medievale. Lo dice la datazione al radiocarbonio pubblicata su Nature; lo confermano le riproduzioni sperimentali di Luigi Garlaschelli e i documenti storici del Trecento che la denunciavano come artefatto devozionale; lo ribadiscono i limiti delle nuove tecniche “alternative” che, per quanto presentate come rivoluzionarie, non hanno mai scalfito la solidità del verdetto del 1988. Le contro-argomentazioni dei sindonologi — campioni non rappresentativi, rammendi invisibili, incendi o contaminazioni miracolose — sono ipotesi suggestive, ma prive di prove concrete e incapaci di spiegare perché tre laboratori indipendenti abbiano ottenuto lo stesso responso: Medioevo. Le proposte più recenti, come l’uso dei raggi X o addirittura della risonanza magnetica nucleare, non fanno che spostare il problema, avanzando idee tecnicamente fragili e spesso concettualmente errate.

La Sindone rimane dunque un oggetto straordinario, ma non perché testimoni la resurrezione di Cristo: straordinaria è la sua forza simbolica, straordinaria è la devozione che suscita, straordinaria è la capacità che ha avuto per secoli di alimentare fede, immaginazione e perfino business. Ma sul piano scientifico la questione è chiusa. Continuare a spacciarla per “mistero insoluto” significa ignorare le evidenze e trasformare la ricerca in propaganda. E questo, più che un atto di fede, è un insulto all’intelligenza.

Quando il rischio svanisce, cresce la paura: giudizio, percezione e vaccini

Nel mio articolo Dal Voltaren al vaccino: perché temiamo ciò che ci salva e ignoriamo ciò che ci nuoce mi sono chiesto come mai la sicurezza dei vaccini venga percepita come dubbia, quando invece le evidenze scientifiche mostrano l’opposto.

Un indizio ci arriva da un curioso fenomeno psicologico, studiato qualche anno fa da un gruppo di ricercatori di Harvard e pubblicato su Science: il prevalence-induced concept change, o, per dirla in breve, la tendenza ad ampliare i confini di un concetto man mano che il problema, cui il concetto si riferiva, diventa sempre meno visibile.

Gli autori dello studio – condotto attraverso sette esperimenti su centinaia di volontari – hanno utilizzato compiti molto diversi, dai più semplici ai più complessi. In uno di questi, ad esempio, hanno mostrato ai partecipanti migliaia di puntini colorati che variavano lungo un continuum dal viola al blu e hanno chiesto, test dopo test, di stabilire se ciascun puntino fosse blu oppure no. Al diminuire del numero di puntini blu, i soggetti cominciavano a essere più inclusivi nella definizione: anche puntini che in precedenza avrebbero classificato come viola cominciavano a essere etichettati come blu.

Lo stesso schema si è ripetuto in altri contesti. Per esempio, la valutazione delle espressioni facciali tendeva ad ampliare la definizione di minacciosità quando il numero di volti realmente minacciosi diminuiva. In altre parole, i partecipanti finivano per giudicare come “minacciose” anche espressioni neutre.

Lo stesso si è osservato quando ai volontari è stato chiesto di valutare l’eticità di proposte di ricerca: quando quelle eticamente discutibili diventavano sempre meno numerose, i volontari finivano per giudicare “non etiche” perfino proposte del tutto innocue.

Insomma, al calare della frequenza del problema reale, la mente dei volontari spostava i confini della definizione, includendo dentro la categoria situazioni che in precedenza ne sarebbero rimaste fuori.

È facile capire perché questo meccanismo, utile in altri contesti evolutivi – ad esempio nel riconoscere possibili predatori a partire da indizi minimi, nello scartare cibi anche solo vagamente simili a quelli velenosi o nell’individuare segnali di ostilità nei rapporti sociali – oggi possa giocarci brutti scherzi. Applicato ai vaccini, diventa quasi lampante. Più le malattie infettive diventano rare grazie all’immunizzazione, più tendiamo a ingigantire i rischi, anche minimi, dei vaccini stessi. Eppure, di morbillo si può morire: ancora oggi nei paesi dove la copertura vaccinale è insufficiente si registrano decessi. Il vaiolo, invece, è stato eradicato proprio grazie alla vaccinazione di massa: per secoli ha seminato terrore e morte, oggi non fa più paura solo perché non esiste più nella nostra esperienza quotidiana. Lo stesso vale per malattie come la poliomielite, che può lasciare paralisi permanenti, o la difterite, che ostruisce le vie respiratorie: patologie che i vaccini hanno reso quasi invisibili in gran parte del mondo, al punto che molti non le percepiscono più come minacce reali.

In questo vuoto di percezione, ogni piccolo segnale post-vaccinazione viene sovradimensionato. Un dolore al braccio o una febbriciattola diventano indizi di pericolo grave. Episodi rarissimi finiscono in prima pagina e assumono un peso sproporzionato rispetto all’enorme beneficio collettivo. La percezione si deforma: non vediamo più il quadro generale – la scomparsa o il contenimento di malattie mortali – ma inseguiamo il dettaglio marginale.

E qui entra in gioco la disinformazione. Basta prendere un evento raro, magari un caso clinico eccezionale, e presentarlo come se fosse frequente. L’effetto è immediato: chi legge o ascolta ha l’impressione che i vaccini siano pieni di insidie, anche se i dati mostrano l’esatto contrario. Anzi, paradossalmente la loro stessa sicurezza – dimostrata da miliardi di dosi somministrate senza conseguenze gravi – alimenta la nostra disponibilità a credere alle paure: siccome le malattie non le vediamo più, ci concentriamo sul resto.

La disinformazione, però, non è mai neutrale. C’è sempre qualcuno che ha interesse a diffonderla o, quantomeno, a cavalcarla. Cui prodest? Chi ci guadagna? A volte sono gruppi organizzati che vendono prodotti alternativi, dalle cure miracolose agli integratori “rinforzanti” da assumere al posto dei vaccini. Altre volte sono influencer e canali che cercano visibilità, like, condivisioni: la paura è un potente amplificatore di traffico. E non mancano attori politici che, agitando lo spettro di un presunto complotto, riescono a costruire consenso e identità contro il “sistema”.

Il risultato è che un successo straordinario della scienza – i vaccini che hanno ridotto poliomielite, difterite, morbillo e tante altre infezioni – rischia di apparire, nella percezione comune, come una minaccia anziché come una protezione. È l’ennesima dimostrazione che i dati, da soli, non bastano: servono anche strumenti culturali per difendersi dalla manipolazione del giudizio.

E allora, la prossima volta che qualcuno ci racconta un aneddoto allarmistico, proviamo a fermarci un istante e chiederci: sto giudicando i dati o sto cedendo a un’illusione della percezione?
Perché non sempre ciò che vediamo riflette la realtà. Spesso riflette i tranelli della nostra mente.

Ed è proprio su questi tranelli che i movimenti no-vax costruiscono la loro narrazione: ingigantiscono casi marginali, ignorano le prove scientifiche e alimentano paure che non hanno alcun fondamento. Ma i dati parlano chiaro: i vaccini salvano milioni di vite ogni anno, hanno debellato il vaiolo, ridotto la poliomielite e reso rare malattie che per secoli hanno mietuto vittime. Rifiutarli non è un atto di libertà: è un atto di incoscienza che mette a rischio non solo chi li rifiuta, ma anche chi non può vaccinarsi.

La vera libertà non è cedere a una menzogna rassicurante. La vera libertà è scegliere sulla base delle evidenze, senza farsi manipolare da chi, per interesse o ideologia, lucra sulla paura degli altri.

Alochimica o Chelichimica? La scienza quotidiana dietro gli aloni delle magliette

Cari lettori vicini e lontani,

vi siete mai chiesti perché si formano gli aloni gialli sotto le ascelle delle maglie chiare? È tutta questione di chimica.

Oltre alla normale igiene personale – uso di acqua e sapone – facciamo molto ricorso a quelli che chiamiamo deodoranti ascellari. In realtà, molti di essi sono deodoranti nel senso che contengono profumi che servono a coprire i cattivi odori che produciamo dopo una giornata intensa. Tuttavia, la maggior parte dei prodotti in commercio contiene anche sostanze chimiche in grado di ridurre la produzione di sudore. In altre parole, sono veri e propri antitraspiranti.

I miei amici biologi e medici mi perdonino se uso un linguaggio un po’ semplificato: il mio obiettivo qui non è fare un trattato, ma spiegare in modo chiaro ciò che accade sotto le nostre ascelle.

Il sudore: un condizionatore naturale

Innanzitutto. diciamo che il sudore ha un ruolo fisiologico molto importante. Per capire meglio, proviamo con un esempio semplice: avete mai bagnato le mani con alcol etilico in estate? Ricorderete la sensazione di fresco che si avverte subito dopo. Perché succede?

L’evaporazione di un liquido – cioè, il passaggio dalla fase liquida a quella gassosa – è un processo che richiede energia. In termini fisici, il sistema assorbe calore dall’ambiente circostante, ovvero la pelle su cui abbiamo messo l’alcol etilico: ecco perché, dopo applicazione di alcol, abbiamo una sensazione di freschezza.

Il sudore funziona allo stesso modo. È composto principalmente da acqua, che evaporando sulla nostra pelle porta via calore e ci aiuta a regolare la temperatura corporea. A questo si aggiungono sali (soprattutto cloruro di sodio), piccole quantità di proteine, lipidi e altre molecole prodotte dal metabolismo.

Da solo, il sudore non ha un odore particolarmente sgradevole. Quell’odore tipico che associamo alle “ascelle sudate” nasce in realtà dall’azione dei batteri che vivono normalmente sulla nostra pelle: essi degradano alcune delle sostanze organiche contenute nel sudore, producendo composti maleodoranti.

Il ruolo dei deodoranti e degli antitraspiranti

Ed eccoci ai deodoranti e agli antitraspiranti. Molti prodotti contengono sali di alluminio (come il cloruro o il cloridrato di alluminio), che riducono la traspirazione formando una sorta di tappo temporaneo nei dotti sudoripari. In questo modo restiamo “asciutti” più a lungo, ma si innescano anche conseguenze meno gradite per i nostri vestiti. Gli aloni gialli, infatti, non derivano semplicemente dal sudore, bensì da una vera e propria orchestra di reazioni chimiche che coinvolgono diversi attori: i sali di alluminio presenti negli antitraspiranti interagiscono con le proteine e i metaboliti azotati del sudore, generando complessi stabili dalle sfumature giallo-brune che si fissano nelle fibre del cotone. Una parte dell’ingiallimento ricorda, in scala ridotta, le reazioni di Maillard, le stesse che fanno dorare pane e biscotti: qui entrano in gioco gli amminoacidi del sudore e i carboidrati della cellulosa del tessuto, catalizzati dal calore corporeo e dalla presenza di metalli. Anche i lipidi e gli acidi grassi secreti dalle ghiandole apocrine danno il loro contributo, andando incontro a processi di ossidazione che producono composti colorati, simili a quelli che rendono irrancidito un olio da cucina. Infine, i residui organici dei deodoranti stessi – fragranze, tensioattivi, polimeri – possono degradarsi e ossidarsi, consolidando l’alone. È, in definitiva, una piccola “reazione chimica da guardaroba”, in cui si intrecciano almeno quattro sistemi: complessi metallo-proteici, reazioni zuccheri-proteine, ossidazioni lipidiche e trasformazioni dei composti organici residui.

Dall’alone al buco: la lenta agonia del cotone

C’è poi un’altra conseguenza meno evidente ma altrettanto fastidiosa: con il tempo le fibre di cellulosa del tessuto, sottoposte a sudore e residui di deodorante, tendono a irrigidirsi e a diventare fragili. Anche qui la chimica ha un ruolo chiave. I sali di alluminio si comportano come veri e propri agenti reticolanti: creano legami incrociati tra le catene della cellulosa, irrigidendo la trama del tessuto. A questo si aggiunge l’effetto dei prodotti di ossidazione del sudore e dei lipidi, che modificano la struttura superficiale delle fibre, rendendole meno elastiche e più inclini a rompersi sotto stress meccanico. È per questo che, oltre agli aloni gialli, le magliette “storiche” finiscono spesso per bucarsi proprio nella zona delle ascelle: le fibre non cedono più in modo elastico, ma si spezzano come se fossero diventate fragili.

Alochimica o chelichimica?

Traendo spunto dall’intervista impossibile a Herr Goethe, potremmo battezzare questo intreccio di reazioni quotidiane con un nome nuovo: Alochimica, la chimica degli aloni, che ci accompagna tanto nel cielo quanto nell’armadio. Il termine deriva dal greco ἅλως, “alone luminoso”, riferito agli astri. In realtà, a voler essere più precisi, dovremmo guardare a κηλίς, che significa “macchia”: da qui il possibile neologismo Chelichimica. In italiano, però, Alochimica suona più evocativo e musicale, mentre Chelichimica è forse più corretto dal punto di vista etimologico sebbene meno immediato. A voi la scelta: quale vi piace di più?

Come prevenire gli aloni (o almeno ridurli)

Alcuni semplici accorgimenti possono limitare il problema:

Conclusione

Dietro un alone giallo c’è molta più chimica di quanto immaginiamo. È la stessa chimica che ci permette di sudare e sopravvivere al caldo, che regola l’equilibrio del nostro corpo e ci difende dallo stress termico. Ma è anche quella che, una volta trasferita sui tessuti insieme ai deodoranti, avvia una catena di reazioni che finisce per lasciare un segno visibile e, a volte, indelebile. Così una semplice maglietta bianca diventa una piccola lavagna su cui si scrivono storie di evaporazione, ossidazione, complessi metallici e fibre irrigidite.

Ecco allora che possiamo parlare, con un pizzico di ironia, di una vera e propria chimica degli aloni domestica: qualcuno la chiamerebbe Alochimica, dal greco ἅλως, “alone luminoso”; altri preferirebbero Chelichimica, da κηλίς, “macchia”. Due nomi diversi per lo stesso intreccio di reazioni quotidiane, che non si manifesta solo nel cielo quando guardiamo il sole o la luna, ma anche nel nostro armadio, tra i vestiti di tutti i giorni. Una scienza silenziosa che ci accompagna ovunque e che, a saperla leggere, trasforma persino un alone giallo sotto l’ascella in un piccolo racconto di meraviglia chimica.

Il fascino segreto dei complotti: tra mitologia e realtà

Chiunque navighi un po’ sui social sa che prima o poi finirà per imbattersi in una teoria del complotto. Le scie chimiche, il 5G, i vaccini, società segrete che tirerebbero i fili del mondo: racconti affascinanti che spesso viaggiano più veloci delle notizie verificate. A volte fanno sorridere, altre volte mettono i brividi. Ma il punto interessante è un altro: perché sembrano così attraenti? E perché, nonostante viviamo nell’epoca della massima disponibilità di informazioni, hanno tanto successo?

Che cos’è una teoria del complotto

Una teoria del complotto non è semplicemente un sospetto o un dubbio legittimo. È un racconto strutturato, che propone una spiegazione alternativa di eventi complessi attribuendone la responsabilità a un gruppo ristretto e potente che agirebbe nell’ombra. In sé, l’idea di complotto non è assurda: la storia è piena di trame segrete e accordi illeciti che hanno avuto un impatto reale. Basti pensare al Watergate negli Stati Uniti o a Tangentopoli in Italia, episodi che hanno mostrato come politici e imprenditori possano effettivamente cospirare per i propri interessi.

La differenza fondamentale tra un complotto reale e una teoria complottista sta nelle prove. Nel primo caso disponiamo di documenti, testimonianze, indagini giornalistiche e processi che permettono di ricostruire i fatti. Nel secondo, invece, le “prove” sono spesso vaghe: interpretazioni arbitrarie o coincidenze cucite insieme in un’unica trama.

Come si è visto, nella nostra lingua il termine complotto viene usato in entrambi i sensi, generando ambiguità. Una distinzione più chiara sarebbe parlare di cospirazione quando ci riferiamo a eventi storici reali e documentati, e riservare l’espressione teoria del complotto ai racconti speculativi privi di fondamento.

Indipendentemente dal lessico scelto, resta il fatto che il fascino delle teorie complottiste non nasce dalla loro solidità logica, ma dalla loro capacità di trasformare frammenti sparsi in storie suggestive e coinvolgenti.

Psicologia dei complotti: perché ci crediamo

Molti studiosi hanno mostrato come le teorie del complotto facciano leva su meccanismi profondi della nostra mente. Uno dei più radicati è la tendenza a riconoscere schemi anche dove non ci sono: è ciò che lo psicologo Michael Shermer ha chiamato patternicity. Collegare eventi casuali in una trama coerente ci dà l’impressione di capire meglio il mondo, anche quando in realtà stiamo solo costruendo connessioni inesistenti.

A questo si aggiunge il cosiddetto confirmation bias, il pregiudizio di conferma: una volta che abbiamo un’idea in testa, siamo portati a cercare solo le informazioni che la confermano, scartando quelle che la contraddicono. È un meccanismo che funziona inconsciamente e che rende molto difficile cambiare opinione. E non riguarda solo le persone comuni: anche scienziati illustri vi sono caduti. Linus Pauling, due volte premio Nobel, rimase convinto per decenni che la vitamina C fosse una sorta di rimedio universale, nonostante le evidenze contrarie. Luc Montagnier, scopritore del virus HIV, ha sposato in tarda carriera teorie prive di fondamento come la “memoria dell’acqua”. Perfino James Watson, co-scopritore del DNA, ha difeso posizioni discutibili sull’intelligenza e la genetica. Sono esempi che mostrano come il fascino delle proprie idee possa resistere ai dati più solidi.

Non bisogna poi dimenticare un altro aspetto fondamentale: le teorie del complotto rispondono a un bisogno psicologico di controllo. Eventi grandi e imprevedibili – come una pandemia o una crisi economica – possono generare ansia e senso di impotenza. Pensare che ci sia qualcuno “dietro le quinte” che orchestra tutto può sembrare paradossalmente più rassicurante che accettare la realtà caotica e complessa. Infine, c’è il fascino della narrazione: un complotto è, in fondo, una storia. Ha i suoi eroi, i suoi nemici, i suoi colpi di scena. E spesso, dal punto di vista narrativo, è molto più attraente della verità semplice e disordinata.

Quando sapere poco sembra sapere tanto

Un altro ingrediente che contribuisce al successo dei complotti è quello che gli psicologi David Dunning e Justin Kruger hanno descritto ormai più di vent’anni fa: il cosiddetto effetto Dunning-Kruger. Si tratta della tendenza, molto diffusa, delle persone con competenze limitate a sopravvalutare le proprie conoscenze. Chi conosce poco un argomento non ha gli strumenti per valutare la propria ignoranza e finisce per sentirsi molto più competente di quanto sia.

Sui social media questo fenomeno è evidente: chi non ha una formazione scientifica solida può mostrarsi estremamente sicuro di “aver capito” meccanismi complessi che, in realtà, studiosi con anni di esperienza trattano con cautela. È la paradossale sicurezza di chi sa poco, contrapposta al dubbio metodico di chi sa di più.

Accanto a questo, esiste un problema culturale più ampio: il cosiddetto analfabetismo di ritorno. Non significa non saper leggere o scrivere, ma non essere in grado di comprendere testi complessi, grafici, numeri, concetti logici. È un fenomeno documentato anche nei Paesi sviluppati: molte persone diplomate o laureate hanno difficoltà a interpretare correttamente un articolo scientifico o un’informazione statistica. Questo rende più facile affidarsi a slogan semplici, a video emozionali o a frasi ad effetto che non richiedono uno sforzo di analisi.

Quando la sovrastima di sé si unisce alla scarsa comprensione dei contenuti complessi, il terreno è fertile per i complotti. Una spiegazione semplice, anche se sbagliata, risulta più convincente di una realtà intricata che richiede studio e pazienza per essere compresa.

Il megafono dei social media

I social media non hanno inventato i complotti, ma li hanno resi virali come mai prima d’ora. Gli algoritmi che regolano la visibilità dei contenuti tendono a premiare ciò che suscita emozioni forti: indignazione, paura, rabbia. E poche cose funzionano meglio di una buona teoria del complotto.

Così, una voce marginale può crescere rapidamente fino a diventare un fenomeno di massa. Le comunità online che si formano intorno a queste narrazioni funzionano come camere dell’eco: chi ne fa parte trova continuamente conferme, rafforzando la propria convinzione e allontanandosi progressivamente da fonti alternative. L’effetto è quello di una polarizzazione crescente, dove chi prova a introdurre dubbi o dati correttivi viene percepito come un nemico o un ingenuo “complice del sistema”.

Quando il complotto diventa pericoloso

Le teorie del complotto non sono soltanto curiosità folkloristiche della rete: possono avere conseguenze molto concrete e spesso gravi. Un esempio evidente lo abbiamo vissuto durante la pandemia di COVID-19: la diffusione di narrazioni false sui vaccini o sull’origine del virus ha alimentato paure irrazionali, rallentato le campagne di prevenzione e, in alcuni casi, messo a rischio la salute pubblica. Ma non si tratta solo di medicina.

I complotti possono minare la fiducia nelle istituzioni democratiche, spingere le persone a rifiutare dati scientifici fondamentali – come quelli sul cambiamento climatico – e perfino fomentare conflitti sociali. Non mancano esempi in cui comunità online complottiste hanno alimentato forme di odio, radicalizzazione e violenza. In fondo, ogni complotto funziona un po’ come una lente distorta: divide il mondo in “noi” e “loro”, i pochi illuminati contro i tanti manipolati, creando una frattura che si allarga nella società reale.

La pericolosità sociale delle teorie del complotto sta proprio qui: non solo diffondono disinformazione, ma indeboliscono il tessuto di fiducia reciproca su cui si reggono le comunità. Il movimento QAnon, ad esempio, ha eroso la fiducia nelle istituzioni democratiche fino a culminare nell’assalto al Campidoglio; le false narrazioni sul cambiamento climatico hanno rallentato le politiche di mitigazione globale; durante l’epidemia di Ebola in Africa occidentale, i complotti sulla presunta origine artificiale del virus portarono a diffidenza e ostilità verso le squadre mediche. Senza fiducia, diventa molto più difficile collaborare, prendere decisioni condivise, affrontare sfide collettive.

Un problema epistemologico: critica o sfiducia?

A questo punto, il discorso si sposta su un piano più profondo: quello epistemologico, cioè del modo in cui costruiamo e valutiamo la conoscenza. Qui il pensiero di Evandro Agazzi, filosofo della scienza che ha riflettuto molto sul rapporto tra razionalità e verità, può essere illuminante. Agazzi distingue tra razionalità critica e sfiducia generalizzata.

La razionalità critica è l’atteggiamento che dovrebbe guidare ogni scienziato: dubitare, verificare, controllare le fonti. È un esercizio sano, indispensabile, che permette di correggere errori e migliorare le nostre conoscenze. La sfiducia generalizzata, invece, è un atteggiamento diverso: non è un dubbio metodico, ma un rifiuto sistematico di qualunque autorità o dato ufficiale. È l’idea che tutto ciò che viene dalle istituzioni, dagli esperti, dai ricercatori sia per definizione falso o manipolato.

La differenza è sottile, ma decisiva. La scienza vive della prima, mentre le teorie complottiste prosperano sulla seconda. In altre parole, non è lo spirito critico a generare complotti, ma la sua caricatura: una sfiducia cieca che porta a credere solo a ciò che si adatta al proprio pregiudizio.

Conclusione: la verità è meno spettacolare, ma più solida

Ridicolizzare chi crede ai complotti è una tentazione comprensibile, ma spesso controproducente. Le persone finiscono per sentirsi attaccate e si rifugiano ancora di più nelle proprie convinzioni. È più utile capire i meccanismi che portano a credere in certe narrazioni e proporre alternative: una buona educazione al pensiero critico, la capacità di distinguere tra scetticismo sano e sfiducia totale, la diffusione di una cultura scientifica accessibile ma rigorosa.

La verità, ammettiamolo, non avrà mai il fascino di un grande intrigo segreto: non promette trame lineari né colpi di scena spettacolari. È frammentaria, complessa, a volte persino noiosa. Ma ha un vantaggio che nessun complotto inventato può vantare: resiste al tempo. L’ombra seducente dei complotti svanisce alla luce dei fatti, e alla lunga, è sempre quella luce a illuminare la strada.

Share