Il marketing del “senza”: l’olio di palma

Viaggio nei ricordi, tra scaffali ed etichette moderne

Quante volte andiamo al supermercato nel quotidiano?
Tra i venticinque e i trent’anni fa – e anche oltre – quando vivevo ad Avella, un piccolo paese in provincia di Avellino dove sono cresciuto, andare al supermercato era quasi una festa. Non ce n’erano molti in giro. Il più grande era a Nola, a circa venti minuti di auto da Avella, e lì si faceva la cosiddetta “spesa grande” una volta alla settimana. Per le urgenze quotidiane si ricorreva al negozietto sotto casa: non era fornitissimo, ma garantiva la sopravvivenza.

Poi, per motivi di lavoro, mi sono trasferito a Palermo. Oggi, nel raggio di pochi isolati da casa, ho almeno sette supermercati: tre Conad, un Todis, una COOP, un Sisa e un Prezzemolo & Vitale. Per quanto ne so, Todis e P&V sono catene siciliane: il primo è un discount, il secondo un supermercato da gourmet, frequentato da chi può permettersi di spendere.

Insomma, qui si trova di tutto, a prezzi estremamente variabili e per tutte le tasche. Ma una cosa li accomuna tutti: il marketing del “senza”. Scaffali pieni di prodotti “senza zucchero”, “senza zuccheri aggiunti”, “senza glutine”, “senza lattosio”, “senza olio di palma” e chi più ne ha più ne metta. Qualche volta mi è persino capitato di leggere “senza chimica”… che se ci pensate è davvero paradossale.

Comincia così un reportage sul marketing del “senza”. Nei limiti del tempo che ho – perché in questi giorni ricomincio le lezioni – proveremo a capire insieme cosa significhi davvero un alimento “senza”: è un vantaggio? uno svantaggio? o soltanto una questione di marketing e soldi?

In questa prima puntata analizzeremo il caso dell’olio di palma, cercando di capire quanto sia fondato il claim “senza olio di palma”, intrecciando le promesse delle etichette con i dati scientifici.

Come è nato il “senza olio di palma”

Le immagini che hanno fatto il giro del mondo

Tutto cominciò una decina di anni fa – anno più, anno meno – quando sui media iniziarono a circolare immagini drammatiche: foreste abbattute in Indonesia e Malesia, oranghi privati del loro habitat naturale, ettari di biodiversità sacrificati in nome delle grandi piantagioni di palma da olio.

Dalla foresta all’etichetta

Non era tanto la composizione chimica di questo grasso vegetale a spaventare, quanto il suo contesto produttivo. L’olio di palma divenne così il simbolo di un’agricoltura intensiva e predatoria, accusata di deforestazione, perdita di specie e sfruttamento del suolo. La pressione esercitata da ONG, associazioni ambientaliste e una crescente sensibilità dei consumatori verso la salute creò un terreno fertile: da quel momento, l’olio di palma iniziò a essere guardato con sospetto.

L’analfabetismo funzionale: un alleato insospettabile

A mio avviso su questa diffidenza ha influito anche un fenomeno ben noto in Italia: l’analfabetismo funzionale. Secondo l’indagine internazionale OCSE-PIAAC, oltre un terzo degli adulti italiani non possiede competenze sufficienti di lettura, comprensione numerica o problem solving per orientarsi in testi complessi o interpretare correttamente claim ambigui. In un simile contesto, slogan semplici e rassicuranti come “senza olio di palma” o addirittura “senza chimica” hanno trovato terreno fertile: funzionano perché non richiedono spiegazioni, non pongono domande, non obbligano ad affrontare complessità. Il consumatore si sente al sicuro, perché “senza” equivale a “meglio”.

Food literacy: la chiave mancante

Questa dinamica non è solo un’impressione. Studi sulla cosiddetta food literacy – la capacità di reperire, comprendere e valutare criticamente le informazioni legate all’alimentazione – hanno mostrato che tali competenze variano molto nella popolazione e non sono affatto scontate. In Italia, ricerche su gruppi vulnerabili (anziani, persone con basso livello di istruzione, famiglie in difficoltà economica) hanno evidenziato livelli di food literacy particolarmente scarsi. In pratica, ciò significa che questi consumatori sono più inclini ad accettare claim semplici come “senza olio di palma” senza porsi domande su quali alternative siano state usate o se davvero il prodotto sia più salutare.

Non solo un problema italiano

E il fenomeno non si limita al nostro Paese. Studi condotti in altri contesti europei, come nei Paesi Bassi, hanno rilevato difficoltà analoghe: molti consumatori dichiarano di avere competenze alimentari adeguate, ma quando si passa dalla percezione alle prove pratiche emergono limiti evidenti. Etichette, dati nutrizionali e claim vengono interpretati superficialmente e le diciture rassicuranti finiscono per agire come scorciatoie cognitive. Indagini più ampie a livello internazionale hanno confermato che la bassa food literacy non riguarda soltanto chi ha minori mezzi culturali o economici, ma può toccare anche fasce di popolazione ben istruite: non per mancanza di accesso all’informazione, bensì per scarsa abitudine a metterla in discussione. In questo scenario, i claim del tipo “senza X” risultano particolarmente efficaci perché facili da leggere, da ricordare e immediatamente comprensibili: trasmettono un’idea di purezza e di sicurezza che parla più alle emozioni che alla ragione.

Le aziende colgono il vento

Le aziende, dal canto loro, colsero subito il vento che stava cambiando. I grandi colossi dell’alimentare cominciarono a riformulare biscotti, merendine, creme spalmabili, sostituendo l’olio di palma con miscele di altri grassi vegetali. Una scelta tutt’altro che indolore: comportava costi di produzione più elevati, difficoltà tecnologiche, problemi di stabilità, modifiche al gusto e alla consistenza dei prodotti, oltre a una diversa durata sugli scaffali. Ma la pressione del mercato e la necessità di mantenere la fiducia del consumatore spinsero le aziende in questa direzione.

La nascita dell’etichetta magica

Fu in quel contesto che nacque l’etichetta magica: “senza olio di palma”. Una formula breve, accattivante, stampata a caratteri cubitali sulle confezioni. Non c’era bisogno di spiegazioni tecniche: bastava quella scritta perché il prodotto venisse percepito come più sano, più naturale, persino più etico. Nel giro di pochi anni, il “senza” si trasformò da scelta tecnica a vero e proprio marchio di purezza, un vantaggio competitivo su cui molte aziende costruirono intere campagne di marketing.

Dentro la goccia: la chimica dell’olio di palma

La tavolozza dei grassi

Per capire se il “senza olio di palma” è davvero un vantaggio, bisogna prima guardare dentro quella goccia arancione. L’olio di palma non è una sostanza semplice, ma una miscela di trigliceridi con un profilo ben preciso. Circa la metà è formata da acido palmitico, un grasso saturo; quasi il 40% è acido oleico, un monoinsaturo che troviamo anche nell’olio d’oliva; il resto è soprattutto acido linoleico, un polinsaturo; infine, piccole percentuali di altri acidi grassi.

Un colore che parla di carotenoidi

Questa combinazione gli conferisce proprietà particolari. A temperatura ambiente, l’olio di palma non si presenta come un liquido chiaro e fluido, ma come una massa semi-solida che può variare dal giallo al rosso vivo, soprattutto se poco raffinato. A dargli quel colore intenso sono i carotenoidi, tra cui il β-carotene – si trova, per esempio, anche nelle carote – accompagnati da vitamina E – presente anche in spinaci e broccoli – e altri antiossidanti naturali. Sono molecole che in parte si perdono con la raffinazione, ma che rendono l’olio grezzo sorprendentemente ricco.

La forza dell’industria

Dal punto di vista tecnologico, questa composizione è una manna per l’industria alimentare. L’olio di palma fonde alla temperatura giusta alla produzione di certi particolari alimenti – vi dice nulla la Nutella? – dà struttura agli impasti, allunga la conservazione e resiste abbastanza bene al calore. È per questo che biscotti, creme spalmabili e snack lo hanno adottato per anni: era pratico, economico e stabile.

Il rovescio della medaglia

C’è però l’altro lato della medaglia. L’elevata quota di grassi saturi è collegata scientificamente a un aumento del rischio cardiovascolare se consumati in eccesso. Non è una peculiarità esclusiva dell’olio di palma: lo stesso vale per burro, strutto e altri grassi solidi. Ma certo, un prodotto che contiene circa il 50% di acidi grassi saturi non può essere definito del tutto innocuo.

È la dose che fa il veleno

Infine, va ricordato un rischio meno noto: quello dei contaminanti da processo. Quando gli oli vegetali vengono trattati ad alte temperature per essere raffinati e stabilizzati, si possono formare composti indesiderati – prodotti di ossidazione e degradazione – che destano preoccupazione per la salute. È un problema che riguarda in generale tutti gli oli industrialmente trattati, non solo la palma, ma che contribuisce ad alimentare il sospetto verso questo ingrediente.

Eppure, come ammoniva Paracelso già nel Cinquecento, “è la dose che fa il veleno”. Se consumiamo alimenti con olio di palma in modo moderato, senza farne un ingrediente quotidiano e abbondante, e al tempo stesso seguiamo una dieta equilibrata ricca di frutta e verdura, il rischio legato al suo consumo diventa davvero minimo.

Dal claim alla ricetta: cosa cambia davvero

Tolto un ingrediente, ne arriva un altro

Qui entriamo nella parte più delicata della storia. Perché non basta dire “senza olio di palma”: bisogna chiedersi cosa c’è al suo posto. Quando le aziende hanno tolto la palma, hanno dovuto sostituirla con qualcos’altro: olio di girasole, di colza, di soia, di cocco, oppure burro e altri grassi animali.

Il mito del più salutare

E qui arriva la sorpresa. Non è affatto detto che la sostituzione abbia reso i prodotti automaticamente più salutari. Alcune formulazioni hanno finito per usare altri grassi saturi, mantenendo alto il contenuto complessivo di tali sistemi chimici. In certi casi, per non perdere cremosità o gusto, sono stati aggiunti più zuccheri, conservanti o aromi. Insomma, il “senza olio di palma” non sempre coincide con il “meglio per la salute”: dipende da come è stato ribilanciato l’insieme della ricetta.

La giungla dietro il campo di girasoli

Anche sul fronte ambientale le cose non sono così nette. La palma da olio viene giustamente criticata per la deforestazione e la perdita di habitat, ma è anche la pianta con la resa più alta in assoluto: da un ettaro di terreno produce molto più olio rispetto a soia, girasole o colza. Eliminare la palma può voler dire coltivare superfici maggiori, consumare più acqua o fertilizzanti, e spostare il problema altrove. In pratica, non sempre sostituire significa ridurre l’impatto: a volte lo si moltiplica, solo che succede lontano dai riflettori.

Un’etichetta rassicurante, una realtà complessa

In definitiva, il “senza olio di palma” va preso per quello che è: un claim semplice e rassicurante, che però nasconde una realtà più complessa. Dietro la scritta in grassetto sull’etichetta, quello che conta davvero è l’equilibrio della dieta e l’attenzione al sistema produttivo complessivo.

Le magie del marketing

La forza di una parola breve

Il bello del marketing è che sa parlare alle emozioni prima ancora che alla ragione. Nel momento in cui sui pacchi di biscotti è comparsa la scritta “senza olio di palma”, molti consumatori hanno percepito quel prodotto come più sano, più pulito, persino più etico. Non servivano dati, né spiegazioni: bastava il “senza” per evocare un miglioramento generale, anche quando, a guardare bene l’etichetta, non era affatto scontato.

La comunicazione a senso unico

La comunicazione, del resto, funziona così: mette in luce solo la parte che conviene. Sul cartone c’è scritto cosa è stato tolto, raramente cosa è stato messo al suo posto. Il risultato è che la complessità sparisce, e il messaggio si riduce a una formula semplice, facilmente assimilabile.

Gli slogan che abbiamo già sentito

Vi ricordano qualcosa questi meccanismi? Somigliano molto agli slogan dei partiti politici: brevi, accattivanti, costruiti per acchiappare i gonzi. Piacciono a chi non ha voglia di pensare, e dall’alto di una presunta superiorità etica o cognitiva crede di poter risolvere problemi complessi con semplici parole.

Il prezzo nascosto del senza

Dietro questa apparente semplicità, però, ci sono i costi nascosti. Per i produttori: materie prime più care, nuove difficoltà tecniche, ricette da bilanciare di nuovo. Per i consumatori: possibili differenze nel gusto, nella consistenza, nella durata dei prodotti, a volte anche un prezzo più alto. Tutto questo rimane dietro le quinte, invisibile rispetto alla promessa rassicurante del “senza”.

La battaglia delle contro-narrazioni

E infine c’è il gioco delle contro-narrazioni. Non tutte le aziende hanno scelto di eliminare l’olio di palma: alcune hanno puntato sulla certificazione di filiera sostenibile (come lo standard internazionale RSPO), rivendicando un uso responsabile invece di una cancellazione totale. In questo scenario, i claim rischiano di diventare un campo di battaglia comunicativo: da un lato chi sfrutta il “senza” come bandiera di purezza, dall’altro chi difende la palma sostenibile e accusa gli avversari di greenwashing.

Conclusione: non tutto è bianco o nero

Il “senza olio di palma” si è trasformato in pochi anni da scelta tecnica a potente strumento di marketing. Ha fatto leva su paure, convinzioni salutistiche e preoccupazioni ambientali, condensando tutto in una scritta breve e rassicurante.

Eppure, se guardiamo con gli occhi della chimica, il quadro è meno netto. L’olio di palma ha i suoi lati oscuri: un alto contenuto di grassi saturi che, se consumati in eccesso, aumentano il rischio cardiovascolare. Ma non è nemmeno il peggiore dei grassi: porta con sé carotenoidi, vitamina E e una stabilità chimica che altri oli non hanno.

Toglierlo non è di per sé garanzia di miglioramento. Dipende da cosa lo sostituisce, da come viene riformulato il prodotto, da quanto “senza” significhi davvero “meglio”. A volte si guadagna, altre volte si perde: in gusto, in salute, in sostenibilità.

Per noi consumatori, la lezione è semplice ma non banale: non fermarsi allo slogan. Vale la pena leggere le etichette, controllare le tabelle nutrizionali, chiedersi da dove viene un ingrediente e come è stato prodotto. Solo così il “senza” smette di essere una parola magica e torna a essere quello che dovrebbe: un’informazione utile, da interpretare con spirito critico.

Per quanto mi riguarda, quando nei supermercati leggo “senza olio di palma” passo oltre e scelgo altri prodotti.

Riferimenti & Approfondimenti

A cura della Ferrero Olio di palma: 7 luoghi comuni da sfatare. Disponibile online

A cura dell’Unione Olio di palma sostenibile I consumi “senza”: tra false credenze e paure degli italiani. il caso dell’olio di palma. Disponibile online

A cura della Redazione di Romagna a Tavola L’inganno delle etichette “senza olio di palma”: verità e marketing. Disponibile online

Adamu Muhammad Alhaji & al. (2024) Palm Oil (Elaeis guineensis): A Journey through Sustainability, Processing, and Utilization. Foods. 13(17): 2814 https://doi.org/10.3390/foods13172814

Annamaria Mancini & al. (2015) Biological and Nutritional Properties of Palm Oil and Palmitic Acid: Effects on Health. Molecules. 20(9):17339–17361. doi:10.3390/molecules200917339

Arturo Arias & al. (2023) Palm Oil and Coconut Oil Saturated Fats: Properties, Food Applications, and Health. World Journal of Food Science and Technology. 7(1): 9-19 DOI: 10.11648/j.wjfst.20230701.12

Giancarlo Navach & Francesca Landini (2017) Insight: Che Nutella sarebbe senza olio di palma? Ferrero passa al contrattacco. Reuters. Disponibile online

Giovanni Giorgi (2019) “Senza olio di palma”: l’inganno del claim, confronto alla mano. Dissapore. Disponibile online

Hanne C. S. Sponselee & al. (2021) Food and health promotion literacy among employees with a low and medium level of education in the Netherlands. BMC Public Health. 21: 1273 https://doi.org/10.1186/s12889-021-11322-6

Hyelim Yoo & al. (2023) Who has a high level of food literacy, and who does not?: a qualitative study of college students in South Korea. Nutr Res Pract. 2023 Aug 3;17(6):1155–1169. DOI: 10.4162/nrp.2023.17.6.1155

Luca Zorloni (2016) In Italia dilaga il “senza olio di palma”, ma questo non è un bene. Wired. Disponibile online

Paula Silva & al. (2023) Nutrition and Food Literacy: Framing the Challenges to Health Communication. Nutrients. 15(22): 4708. https://doi.org/10.3390/nu15224708

Rocco Palumbo & al. (2019) Unravelling the food literacy puzzle: Evidence from Italy. Food Policy. 83: 104-115. https://doi.org/10.1016/j.foodpol.2018.12.004

Sky TG24 (2024) Analfabetismo funzionale in Italia per un terzo degli adulti: il rapporto Ocse. Disponibile online

La chimica del benessere. Dentro i segreti del cioccolato

Quanti di noi non hanno mai assaggiato una tavoletta di cioccolata, un ovetto, una pralina o una tazza fumante di cioccolata calda? Dopo quel morso o quel sorso, quasi sempre arriva una sensazione di benessere, un piccolo conforto che sembra andare oltre il semplice gusto. Non è un’illusione: dietro c’è la chimica.

Un po’ di storia

La storia del cioccolato affonda le sue radici ben prima dell’arrivo in Europa. Le prime tracce di utilizzo del cacao risalgono a più di tremila anni fa e sono legate alle civiltà dell’America centrale, a partire dagli Olmechi, che probabilmente furono i primi a coltivare e trasformare i semi di cacao. I Maya lo considerarono un dono divino: lo impiegavano nelle cerimonie religiose, lo offrivano agli dei e lo seppellivano persino nelle tombe come viatico per l’aldilà. Per loro, come più tardi per gli Aztechi, il cacao era anche moneta sonante: i semi servivano a pagare tributi e scambi, trasformando il frutto in una ricchezza tangibile oltre che simbolica. Ma il cioccolato di allora non aveva nulla a che vedere con la tavoletta dolce e cremosa che conosciamo: si trattava di una bevanda amara, densa, speziata con peperoncino o vaniglia, chiamata “xocolatl”, riservata a nobili e guerrieri e consumata come tonico energizzante e rituale.

Fu soltanto dopo la scoperta delle Americhe che il cacao attraversò l’Atlantico. Cristoforo Colombo ne raccolse alcuni semi, ma fu Hernán Cortés a comprenderne il valore osservandone l’uso tra gli Aztechi e a introdurlo in Spagna. Qui la bevanda subì la prima trasformazione decisiva: al posto del peperoncino, i cuochi di corte iniziarono ad aggiungere zucchero, cannella e vaniglia, rendendola più gradevole al palato europeo. Il cacao divenne così una moda raffinata, diffondendosi nelle corti e nelle case aristocratiche di tutta Europa.

La svolta arrivò nel XIX secolo, quando l’ingegno tecnico permise di trasformare la bevanda in un alimento solido. Nel 1828 l’olandese Coenraad Van Houten inventò una pressa capace di separare il burro di cacao dalla polvere, ottenendo un prodotto più fine e versatile. Qualche decennio più tardi, in Inghilterra, la ditta Fry & Sons creò la prima tavoletta di cioccolato, seguita a ruota dagli svizzeri che introdussero l’aggiunta del latte in polvere e, con Rodolphe Lindt, perfezionarono il processo di conching[1] che regalò al cioccolato la sua inconfondibile cremosità. In pochi decenni il cioccolato smise di essere un lusso per pochi, legato alle “chocolate houses” frequentate da aristocratici e mercanti, per diventare un piacere diffuso e accessibile, destinato a conquistare il mondo.

Un po’ di chimica del cioccolato

Il cioccolato non nasce dolce e vellutato: per arrivare alla tavoletta che conosciamo occorre un percorso fatto di trasformazioni chimiche complesse. Tutto comincia nelle piantagioni, dove le fave di cacao vengono fermentate dentro mucillagini ricche di zuccheri. Qui lieviti e batteri innescano una catena di reazioni che porta alla formazione dei precursori degli aromi: si liberano amminoacidi e peptidi, si producono acidi organici, e perfino piccole quantità di ammine biogene che contribuiranno al profilo sensoriale finale.

Dopo la fermentazione, le fave vengono essiccate al sole. Questo passaggio riduce l’umidità, stabilizza i chicchi e permette che le reazioni ossidative continuino a sviluppare colore e gusto, attenuando l’astringenza tipica del cacao fresco.

Il momento cruciale arriva con la tostatura, in fabbrica: a temperature tra 120 e 140 °C avvengono le celebri reazioni di Maillard, quelle stesse che danno la crosta dorata al pane e l’aroma alla carne arrostita. In questo caso, gli zuccheri reagiscono con gli amminoacidi liberati in fermentazione, generando un caleidoscopio di nuove molecole aromatiche: aldeidi, chetoni, acidi, ma soprattutto pirazine (Figura 1), responsabili del tipico profumo tostato e leggermente nocciolato del cioccolato. Anche la caramellizzazione degli zuccheri e l’ossidazione dei grassi contribuiscono a creare complessità.

Figura 1. Formule di risonanza della pirazina. La freccia a doppia punta non indica un equilibrio chimico, ma rappresenta il fatto che la struttura reale non coincide con nessuna delle due formule, bensì con un unico ibrido di risonanza. Con il termine “pirazine” si indica invece l’intera famiglia dei derivati della pirazina, ottenuti introducendo sostituenti sugli atomi di carbonio dell’anello.

Il burro di cacao, che rappresenta circa metà del peso della fava, è un capitolo a parte. La sua particolarità è la capacità di cristallizzare in diverse forme, o polimorfi, con punti di fusione diversi. Solo una di queste forme, detta β(V), conferisce al cioccolato la giusta consistenza: solido a temperatura ambiente, ma capace di sciogliersi in bocca a circa 30–32 °C. Per ottenere questo equilibrio serve un trattamento preciso chiamato temperaggio, che allinea i cristalli di burro di cacao nella struttura più stabile.

Infine, durante la fase di conching, la massa di cacao viene mescolata e riscaldata a lungo. In questo modo si eliminano acidi volatili indesiderati, si riduce l’astringenza dei polifenoli e si affinano le particelle solide, donando al cioccolato la sua texture setosa e il tipico effetto “melt-in-the-mouth”.

Il risultato di questa catena di trasformazioni è un alimento che non solo stimola i sensi con centinaia di molecole aromatiche, ma conserva anche composti bioattivi originari del cacao, come i flavonoidi (antiossidanti naturali), la teobromina e la caffeina, responsabili degli effetti stimolanti e di quel sottile senso di benessere che accompagna ogni morso.

La chimica del piacere

Come introdotto alla fine del paragrafo precedente, il cioccolato ci fa stare bene grazie a molecole quali:

  • Teobromina e caffeina (Figura 2A e 2B). Entrambi sono metilxantine, alcaloidi strutturalmente simili, che agiscono come antagonisti competitivi dei recettori dell’adenosina. Normalmente, l’adenosina riduce l’attività neuronale e favorisce sonnolenza e rilassamento; bloccarne i recettori ha quindi l’effetto opposto: maggiore vigilanza, riduzione della percezione della fatica, incremento della contrattilità muscolare e della frequenza cardiaca. La caffeina ha un’azione più potente e rapida, mentre la teobromina, presente in concentrazione più elevata nel cacao, ha effetti più blandi ma di lunga durata, con una marcata azione vasodilatatrice e diuretica.
  • Feniletilammina (Figura 2C). È una ammina biogena derivata dalla decarbossilazione della fenilalanina. Ha una struttura simile alle amfetamine e agisce come modulatore neuromediatore: stimola il rilascio di dopamina e noradrenalina e inibisce la loro ricaptazione. Questo si traduce in un senso di euforia e piacere. Tuttavia, la sua emivita nell’organismo è brevissima (rapidamente degradata dalla monoaminoossidasi-B, MAO-B), per cui il suo contributo diretto è probabilmente modesto. Alcuni studi suggeriscono che gli effetti percepiti siano potenziati dalla contemporanea presenza di altre molecole del cacao, che ne modulano il metabolismo.
  • Flavonoidi (Figura 2D). Sono polifenoli, in particolare flavanoli come epicatechina e catechina, abbondanti nel cacao. Il loro effetto principale riguarda l’endotelio vascolare: stimolano l’attività della nitrossido sintasi endoteliale (eNOS), aumentando la produzione di ossido nitrico (NO). Il NO è un potente vasodilatatore che migliora il flusso sanguigno, abbassa la pressione arteriosa e favorisce l’ossigenazione cerebrale. Inoltre, i flavonoidi hanno un’azione antiossidante diretta (neutralizzazione dei radicali liberi) e indiretta (induzione di enzimi antiossidanti), proteggendo neuroni e cellule endoteliali dallo stress ossidativo. Alcuni studi clinici hanno dimostrato che il consumo regolare di cacao ricco in flavonoidi migliora la funzione endoteliale e le performance cognitive.
Figura 2. Struttura della teobromina (A), caffeina (B), feniletilammina (C) e di un flavonoide (D).

Ma non basta. Il piacere del cioccolato non è soltanto biochimico: è anche profondamente sensoriale. L’esperienza inizia già con l’udito, con quel caratteristico snap quando si spezza una tavoletta, un suono secco che ci anticipa la freschezza e la qualità del prodotto. Poi interviene il tatto: la superficie liscia sotto le dita e la resistenza al morso che cede gradualmente. In bocca il cioccolato si trasforma: il burro di cacao, unico tra i grassi per la sua particolare composizione, fonde a una temperatura vicinissima a quella corporea, regalando quella sensazione vellutata e avvolgente che sembra sciogliersi sulla lingua quasi senza sforzo.

A questo si aggiunge l’olfatto, forse il senso più importante: il calore della bocca libera lentamente centinaia di composti aromatici – dalle note tostate e leggermente amare delle pirazine, a quelle fruttate degli esteri, fino ai sentori di vaniglia o spezie che possono accompagnare certe miscele. Infine, il gusto completa l’esperienza con il suo equilibrio tra dolcezza, amaro e acidità, un gioco di contrasti che stimola le papille gustative e rende ogni morso appagante.

È proprio l’intreccio di queste percezioni – suono, tatto, vista, olfatto e gusto – che fa del cioccolato non solo un alimento, ma un piccolo rito multisensoriale, capace di trasformare un frammento di tavoletta in un momento di gratificazione e benessere.

Dalla percezione alla scienza

Negli ultimi decenni, il cioccolato è diventato anche un oggetto di ricerca scientifica. Non ci si limita a indagare perché ci fa sentire bene, ma si studiano le proprietà fisiche e chimiche che ne determinano qualità e stabilità: la cristallizzazione del burro di cacao, la viscosità del fuso, la texture al morso.

Tecniche avanzate come la calorimetria differenziale (DSC), la reologia e la risonanza magnetica a campo variabile (NMR relaxometria) permettono di esplorare come ingredienti diversi influenzino la struttura del cioccolato. Per esempio, come cambia quando si sostituisce lo zucchero con dolcificanti alternativi, o il latte con componenti vegetali per chi segue una dieta vegana o è intollerante al lattosio.

Una ricerca tutta italiana

Proprio sul tema con si è chiuso il paragrafo precedente, ho contribuito a uno studio pubblicato su European Food Research and Technology.

Con un gruppo di colleghi abbiamo confrontato cioccolati tradizionali con varianti vegane e a ridotto contenuto di zuccheri. I risultati hanno mostrato differenze misurabili:

  • i cioccolati senza latte risultano meno duri e meno adesivi, con un comportamento reologico più fluido;
  • quelli con zuccheri alternativi, invece, modificano la cristallizzazione del burro di cacao e aumentano la resistenza al flusso (yield stress);
  • le analisi NMR hanno rivelato “impronte digitali” molecolari uniche, utili a distinguere le diverse formulazioni in modo rapido e non distruttivo.

Insomma, anche quando cambiano ingredienti e ricette, la scienza ci aiuta a garantire che il risultato finale sia comunque un cioccolato capace di dare piacere al palato.

Il futuro del cioccolato

Quello che emerge è un nuovo scenario: una generazione di cioccolati che non rinunciano al gusto, ma che cercano di conciliare benessere, salute e sostenibilità. Non si tratta più soltanto di un piacere edonistico, ma di un alimento che può dialogare con le esigenze nutrizionali moderne, con la ricerca di prodotti più etici e con una maggiore consapevolezza ambientale. La scienza, in questo percorso, ha un ruolo decisivo: dalle tecniche di fermentazione e tostatura che modulano aromi e consistenze, fino alle analisi sofisticate che permettono di comprendere e ottimizzare la struttura interna del cioccolato, rendendo possibile sperimentare nuove formulazioni senza sacrificare la qualità sensoriale.

Dal laboratorio al consumatore, la chimica diventa così uno strumento di innovazione culturale oltre che tecnologica, capace di custodire la tradizione e, allo stesso tempo, di aprire la strada a un futuro in cui il cioccolato possa essere non solo buono, ma anche sano e sostenibile.

E forse proprio qui sta il segreto della cioccolata: nel suo equilibrio perfetto tra storia e modernità, tra cultura e molecole, tra arte e scienza. Un equilibrio che continua a rinnovarsi e a sorprenderci, rendendo ogni morso non soltanto un piccolo piacere quotidiano, ma anche la testimonianza di un legame profondo fra uomo, natura e conoscenza.

Riferimenti & Approfondimenti

Barišić, V.; Kopjar, M.; Jozinović, A.; Flanjak, I.; Ačkar, Đ.; Miličević, B.; Šubarić, D.; Jokić, S.; Babić, J. (2019) The Chemistry behind Chocolate Production. Molecules  24: 3163. https://doi.org/10.3390/molecules24173163

BBC (2019) A brief history of chocolate

Encyclopedia Britannica Chocolate

Fredholm, B.B.; Bättig, K.; Holmén J.; Nehlig, A.; Zvartau, E.E. (1999) Actions of caffeine in the brain with special reference to factors that contribute to its widespread use. Pharmacol Rev. 51(1): 83-133. https://pubmed.ncbi.nlm.nih.gov/10049999/

Sabelli, H.; Fink, P.; Fawcett, J.; Tom, C. (1996) Sustained antidepressant effect of PEA replacement. J Neuropsychiatry Clin Neurosci 8: 168-71. https://doi.org/10.1176/jnp.8.2.168

Schroeter, H. ; Heiss, C.; Balzer, J.; Kleinbongard, P. ; Keen, C.L.; Hollenberg, N.K.; Sies, H.; Kwik-Uribe, C.; Schmitz, H.H.; Kelm, M.   (2006) (–)-Epicatechin mediates beneficial effects of flavanol-rich cocoa on vascular function in humans, Proc. Natl. Acad. Sci. 103 (4) 1024-1029. https://doi.org/10.1073/pnas.0510168103

Torregrossa, F.; Cinquanta, L.; Albanese, D.; Cuomo, F.; Librici, C.; Lo Meo, P.; Conte, P.  (2024) Vegan and sugar-substituted chocolates: assessing physicochemical characteristics by NMR relaxometry, rheology, and DSC. Eur Food Res Technol 250: 1219–1228. https://doi.org/10.1007/s00217-023-04457-w

Note

[1] Il termine “conching” deriva dall’inglese conch (conchiglia), per via della forma delle prime macchine impiegate. Si tratta di un processo introdotto nel 1879 da Rodolphe Lindt: la massa di cioccolato viene agitata e mescolata per ore a temperatura controllata, così da eliminare aromi indesiderati, affinare le particelle solide e rendere il cioccolato più vellutato e cremoso, con il tipico effetto “melt-in-the-mouth”.

Rabdomanzia: tra mito, illusioni e scienza

La scena è familiare: un uomo cammina con una bacchetta biforcuta fra le mani, in attesa che il ramo si pieghi misteriosamente indicando la presenza di acqua sotterranea. Lo sguardo è serio, quasi mistico; chi osserva trattiene il fiato. È l’immagine della rabdomanzia, una pratica antica che ancora oggi conserva un certo fascino, a metà strada tra magia, folklore e speranza.

Se non fosse per un piccolo dettaglio: la bacchetta non funziona. Non importa se sia di nocciolo, di salice o di legno d’ulivo raccolto la notte di San Giovanni – l’acqua, in realtà, se ne infischia del bricolage arboreo. Eppure, generazioni di rabdomanti hanno giurato che quel ramoscello si muove da solo, attirato da misteriose forze sotterranee.

La verità, a guardarla con occhio scientifico, è che la rabdomanzia ha molto in comune con altre discipline affascinanti ma poco affidabili: dall’astrologia alle previsioni calcistiche del barista sotto casa. Funziona finché nessuno prende nota dei risultati, e smette improvvisamente di funzionare appena qualcuno si ostina a fare i conti con carta e penna.

E allora la domanda sorge spontanea: se decenni di esperimenti hanno mostrato che la bacchetta magica non è poi così magica, perché la sua immagine continua ad avere presa su di noi? Forse perché racconta qualcosa di più profondo: il nostro desiderio che il mondo, oltre a pozzi e falde acquifere, nasconda ancora un po’ di incanto.

Una lunga storia di rami e speranze

La rabdomanzia non nasce ieri: già nel XVI secolo in Europa c’erano cronache di minatori che si affidavano alla bacchetta per trovare filoni. Ma se allarghiamo lo sguardo, scopriamo che il trucco del ramo che trema è universale: in Cina, in Africa, nel cuore dell’Europa contadina, ovunque qualcuno sperava di strappare alla natura un segreto in più.

Il contesto era chiaro: quando non avevi né carte geologiche né GPS, provavi di tutto pur di evitare un buco a vuoto. E allora perché non affidarsi a un ramo che vibra in mano? Dopotutto, tra un ingegnere inesistente e un rabdomante disponibile, il contadino assetato sceglieva il secondo. La bacchetta diventava così un’ancora psicologica, una piccola illusione per addomesticare l’imprevedibilità della natura.

La scienza mette alla prova la bacchetta

Col passare del tempo, però, qualcuno iniziò a chiedersi: ma funziona davvero? Così, dal XIX secolo in poi, si organizzarono i primi esperimenti controllati. Qui inizia il bello: quando nessuno teneva conto degli errori, i rabdomanti sembravano infallibili; quando invece entravano in gioco rigore, randomizzazione e doppio cieco, la bacchetta diventava improvvisamente timida.

George P. Hansen nel 1982 fece il punto con una rassegna storica. Risultato? Un mare di studi traballanti. Molti test erano poco più che spettacoli di paese travestiti da esperimenti: niente controlli, numeri minuscoli, conclusioni ottimistiche. Insomma, la bacchetta piegava più le regole del metodo scientifico che quelle del nocciolo.

Monaco e Kassel: la Champions League dei rabdomanti

Negli anni ’80 e ’90 la Germania decise di fare sul serio. Basta esperimenti da cortile: servivano test colossali. Centinaia di rabdomanti convocati, un fienile trasformato in laboratorio, tubi d’acqua fatti scorrere a caso sotto il pavimento. Sembrava un reality show, ma con meno glamour e più statistica.

Il verdetto? La maggior parte non indovinava meglio del caso. Ma – ed è qui che si accese la speranza – una piccola minoranza sembrava cavarsela meglio. Era davvero abilità, o semplice fortuna? Il dibattito infuriò: per i sostenitori, la prova che “qualcosa” c’era; per gli scettici, l’ennesimo esempio di come in un campione ampio ci sia sempre qualcuno che batte la media, anche tirando a indovinare.

Per rendere l’idea, immaginate la scena: decine di rabdomanti convocati come concorrenti a un talent show. Invece di cantare o ballare, camminavano nervosi sopra il pavimento di un fienile, stringendo la bacchetta con l’ansia di chi aspetta l’applauso della giuria. Sotto di loro, nascosto, il famigerato tubo d’acqua che veniva spostato di volta in volta per mantenere il mistero.

Ogni “esibizione” era accompagnata dal silenzio carico di aspettativa: il pubblico (scienziati e assistenti con blocchi per gli appunti) tratteneva il fiato in attesa che la bacchetta si piegasse. Qualcuno, per darsi un tono, chiudeva gli occhi come un pianista rapito dall’ispirazione; altri procedevano a piccoli passi, come rabdomanti zen. Ma, al momento della verità, le performance erano spesso deludenti: bacchette immobili, movimenti incerti, colpi andati a vuoto.

A guardarla con occhi moderni, quella parata sembrava una puntata di “X-Factor” ambientata in un granaio: solo che il premio in palio non era un contratto discografico, ma l’onore di essere proclamati campioni dell’“acqua sotto al fienile”. E, come in ogni talent che si rispetti, alla fine i veri protagonisti furono i giudici: perché la statistica, inflessibile come un televoto truccato, decretò che la maggioranza non aveva alcun talento speciale.

Betz 1995: il canto del cigno

Nel 1995 Hans-Dieter Betz pubblicò due articoli sul Journal of Scientific Exploration che per i rabdomanti furono un po’ come il disco d’oro per una band in declino: la grande occasione di rivincita. Si trattava della trattazione più sistematica mai scritta a favore della rabdomanzia, con tanto di dati, grafici e racconti di campagne sul campo. Betz riportò i risultati dei “progetti di Monaco” e delle missioni in Africa finanziate dalla Gesellschaft für Technische Zusammenarbeit (GTZ), la cooperazione tecnica tedesca (oggi GIZ), presentando la bacchetta come una potenziale compagna di squadra della geofisica tradizionale.

Secondo lui, alcuni rabdomanti avrebbero ottenuto risultati “statisticamente significativi” nel localizzare tubi nascosti o anomalie geologiche. Nei test di campo, specialmente in zone aride e su rocce fratturate, qualcuno riuscì effettivamente a indicare punti di perforazione che poi si rivelarono buoni. Non mancava il tocco epico: Betz parlava di pochi “dowser d’élite”, una sorta di squadra speciale capace di performance superiori alla media, quasi come i supereroi della bacchetta.

Eppure, sotto la patina brillante, le crepe erano evidenti. I presunti successi riguardavano solo una minoranza, mentre la grande maggioranza non si distingueva affatto dal caso. Il meccanismo fisico rimaneva un mistero: si tirarono in ballo ipotesi fantasiose come campi elettromagnetici, vibrazioni sottili, “energie della terra” … ma senza mai una prova concreta. Le analisi statistiche, poi, furono bersagliate di critiche: sembravano cucite su misura per trovare significatività dove non ce n’era.

E infine la questione editoriale: i due articoli non uscirono certo su Nature o Science, ma su una rivista di nicchia, non proprio la Champions League delle pubblicazioni scientifiche. Più una serie cadetta, frequentata da fenomeni di confine e discipline in cerca di legittimazione.

In conclusione, lo stesso Betz, pur con toni misurati, lasciava intendere che la rabdomanzia non poteva dirsi provata. Al massimo, poteva essere definita “promettente” in qualche caso particolare – una formula elegante per dire: non funziona, ma non vogliamo ammetterlo troppo forte.

Ma ogni disco d’oro, si sa, prima o poi incontra la critica musicale. E in questo caso la critica aveva il nome di J. T. Enright.

Enright e la doccia fredda

Pochi anni dopo, J. T. Enright prese in mano gli stessi dati e li analizzò con rigore da scienziato. Risultato: nessun effetto reale, nessun rabdomante miracoloso, solo casualità travestita da abilità. In altre parole, il re era nudo e la bacchetta pure.

La sua critica mise in imbarazzo i sostenitori che, a quel punto, si rifugiarono nell’argomento classico: forse c’è, ma non si riesce a misurare. È lo stesso tipo di scusa usata per i fantasmi, gli UFO, l’omeopatia, l’agricoltura biodinamica e certe diete miracolose.

Suggestione, ideomotorio e fortuna

Perché allora la rabdomanzia continua a sembrare efficace a tanti praticanti e osservatori? Le spiegazioni più condivise chiamano in causa la psicologia umana:
Effetto ideomotorio: piccoli movimenti inconsci delle mani fanno oscillare bacchette o pendoli.
Bias di conferma: si ricordano i successi e si dimenticano i fallimenti.
– Indizi ambientali: in campagna, un occhio esperto può cogliere segni del terreno senza rendersene conto.
Fortuna: con abbastanza tentativi, qualche “colpo giusto” è inevitabile.

Non servono forze misteriose: bastano i meccanismi ben noti della percezione e della memoria selettiva.

Conclusione: il fascino della bacchetta

La storia della rabdomanzia è una parabola perfetta del rapporto tra scienza e credenze popolari. Un rito antico che sopravvive all’avanzata della geologia e della fisica, alimentato da aneddoti e speranze. Gli esperimenti moderni, dai progetti di Monaco alle analisi critiche di Enright, ci dicono che la bacchetta non ha poteri misteriosi: i pochi risultati “positivi” non sono replicabili e si dissolvono al vaglio della statistica.

Eppure, il mito resiste. Resiste come certe catene WhatsApp, come gli oroscopi del mattino o le promesse di miracoli a domicilio: inutile ma rassicurante. Forse perché non parla soltanto di acqua nascosta, ma del nostro bisogno profondo di credere che la natura conservi ancora qualche trucco segreto da regalarci gratis.

Peccato che, quando si tratta di scavare un pozzo, la bacchetta tenda più a piegarsi sotto il peso delle illusioni che a segnalare una falda acquifera. Se vogliamo davvero trovare acqua, meglio affidarsi a un idrogeologo. Con lui, almeno, l’unica bacchetta magica sarà quella del geologo… e al massimo la fattura a fine lavoro.

Riferimenti e approfondimenti

Betz (1995) Unconventional Water Detection: Field Test of the Dowsing Technique in Dry Zones: Part 1. Journal of ScientiJic Exploration, 9(1): 1-43

Betz (1995) Unconventional Water Detection: Field Test of the Dowsing Technique in Dry Zones: Part 1. Journal of ScientiJic Exploration, 9(2): 159-189

Dix (2017) Skeptics beware — a story about dowsing. Available online

Enright (1995) Water Dowsing: the Scheunen Experiments. Naturwissenschaften 82: 360-369

Enright (1999) Testing Dowsing the Failure of the Munich Experiment. Skeptical Enquirer, Available online

Hansen (1982) Dowsing: a Review of Experimental Research. Journal of the Society for Psychical Research, 51(792): 343-367

McCarney & al. (2002) Can homeopaths detect homeopathic medicines by dowsing? A randomized, double-blind, placebo-controlled trial. Journal of the Royal Society of Medicine, 95(4): 189–191

Skeptical Enquirer (1999) Letters to the editor. Available online

Walach & Schmidt (1997) Empirical evidence for a non-classical experimenter effect: An experimental, double-blind investigation of unconventional information transfer. Journal of ScientiJic Exploration, 11(1): 59-67

Notizie dal mondo scientifico. Viaggio attraverso il tempo e nei processi evolutivi

Cos’è la malattia di Huntington

La còrea o malattia di Huntington è una malattia genetica neurodegenerativa che colpisce la coordinazione muscolare e porta a un declino cognitivo e a problemi psichiatrici [1].

Non sono un neuroscienziato e non ho la pretesa di comprenderne fino in fondo le implicazioni biologiche e cliniche, che sono spiegate molto meglio altrove [2,3]. Ne parlo qui perché ho letto un interessantissimo articolo della senatrice Elena Cattaneo [4], che riesce a descrivere con grande chiarezza (anche per chi, come me, non è esperto di genetica) le basi molecolari della malattia.

La tripletta CAG e la proteina huntingtina

La malattia di Huntington è legata a un’anomalia di un gene localizzato sul cromosoma 4 (Figura 1), dove si trova una sequenza ripetuta della tripletta CAG.

Figura 1. Corredo cromosomico umano. Ogni cromosoma è presente in coppia: dal numero 1 al 22 sono identici in entrambi i sessi, mentre i cromosomi sessuali differiscono (XY nei maschi, XX nelle femmine). Fonte: Ospedale Bambin Gesù.

Per i non addetti ai lavori: la tripletta CAG corrisponde a tre nucleotidi – citosina (C), adenina (A) e guanina (G) – e codifica per l’amminoacido glutammina (GLN) [5]. Sul cromosoma 4 questa tripletta si ripete molte volte (CAGCAGCAG…) e la sequenza codifica per una proteina che contiene un tratto con molte glutammine legate in fila.

La differenza sta proprio nel numero di ripetizioni:

  • meno di 36 triplette → la proteina funziona normalmente e non si sviluppa la malattia;
  • più di 36 triplette → la proteina subisce alterazioni strutturali che portano alla comparsa della malattia di Huntington.

Quando la sequenza è nella norma, la proteina stimola la produzione di una neurotrofina fondamentale per i neuroni striatali [4]. Se le ripetizioni superano la soglia critica, la produzione di questa neurotrofina può ridursi anche del 50% [4], causando gravi conseguenze per le cellule nervose.

Il dilemma evolutivo

A questo punto emerge la domanda cruciale: perché l’evoluzione ha conservato una sequenza così rischiosa, che nel tempo può diventare una condanna? [4]

Per rispondere, i ricercatori hanno dovuto fare un salto indietro nel tempo di circa 800 milioni di anni, fino ai primi organismi pluricellulari comparsi sulla Terra, come l’ameba sociale Dictyostelium [6]. Proprio lì è stato identificato il gene che, molto più tardi, nell’uomo, sarebbe stato associato all’Huntington.

Un vantaggio nascosto

La spiegazione suggerita è che questa sequenza ripetuta abbia avuto – e abbia ancora – un vantaggio evolutivo: nelle giuste quantità, la proteina che ne deriva sostiene lo sviluppo e la sopravvivenza dei neuroni, offrendo un beneficio che ha superato, almeno in termini evolutivi, il costo del rischio che le ripetizioni diventino eccessive.

Negli ultimi anni si è rafforzata l’idea che le ripetizioni CAG in numero non patologico non siano affatto neutre: studi su popolazioni sane hanno mostrato che variazioni nella lunghezza della sequenza, pur restando sotto la soglia critica, sono associate a differenze nelle strutture cerebrali e talvolta a prestazioni cognitive migliori [7,8]. Questo suggerisce che la sequenza poliglutaminica del gene HTT abbia un ruolo positivo nella plasticità e nello sviluppo del cervello.

Le espansioni somatiche

Un altro aspetto emerso di recente è quello delle espansioni somatiche: nel corso della vita, alcune cellule accumulano lentamente ulteriori ripetizioni CAG, senza che questo causi danni immediati. Tuttavia, quando la soglia viene superata in specifiche regioni cerebrali vulnerabili, il processo degenerativo si accelera bruscamente [9,10]. Questo meccanismo spiega perché la malattia si manifesta spesso in età adulta, dopo decenni di apparente normalità.

La prospettiva evolutiva

Analisi comparative in diverse specie hanno mostrato che la lunghezza della sequenza poliglutaminica nel gene HTT è stata oggetto di selezione naturale, a indicare che versioni con una certa estensione sono state probabilmente favorevoli allo sviluppo di funzioni nervose più complesse [11].

In altre parole, ciò che oggi leggiamo come malattia – la Huntington – potrebbe essere il rovescio della medaglia di un meccanismo che, nel corso dell’evoluzione, ha contribuito a plasmare la complessità del cervello umano, offrendo benefici cognitivi e adattativi a fronte di un rischio che si manifesta solo in alcune circostanze.

Riferimenti

[1] https://it.wikipedia.org/wiki/Malattia_di_Huntington

[2] http://www.uniroma2.it/didattica/MBND/deposito/lezione3.pdf

[3] http://www.telethon.it/…/malattie-tr…/huntington-malattia-di

[4] E. Cattaneo, Alla ricerca del gene perduto, Wired (Estate 2016), 77, 60-65

[5]  https://www.ncbi.nlm.nih.gov/books/NBK545250/

[6] https://it.wikipedia.org/wiki/Dictyostelium

[7] Schultz JL, et al. Association of CAG Repeat Length in the Huntington Gene With Cognitive Performance in Young Adults. JAMA Neurology (2021).

[8] Cattaneo E, et al. When repetita no-longer iuvant: somatic instability of the CAG triplet in Huntington’s disease. Nucleic Acids Research (2025).

[9] Handsaker RE, et al. Long somatic DNA-repeat expansion drives neurodegeneration in Huntington’s disease. Cell (2025).

[10] Scahill RI, et al. Somatic CAG repeat expansion in blood associates with biomarkers of neurodegeneration in Huntington’s disease decades before clinical motor diagnosis. Nature Medicine (2025).

[11] Iennaco R, et al. The evolutionary history of the polyQ tract in huntingtin sheds light on its functional pro-neural activities. Cell Death & Differentiation (2022).

Quando la mano fa scienza: gli scimpanzé e i fichi verdi

Il mercato della foresta

C’è un mercato nella foresta dove i venditori non urlano i prezzi e i clienti non pagano con monete ma con attenzione. I prodotti sono piccole sfere verdi appese ai rami: i fichi. Per un osservatore distratto molti di questi frutti sembrano uguali – verdi, anonimi, tutti lì a mezz’aria – eppure, per uno scimpanzé affamato, scegliere il fico giusto è questione di vita quotidiana. Non importa tanto il colore: è la mano che decide.

Un esperimento naturale

In uno studio molto elegante, Dominy e collaboratori hanno seguito gli scimpanzé di Kibale (Uganda) mentre esaminavano, palpavano e a volte incidevano con morsi i fichi della specie Ficus sansibarica. I ricercatori hanno misurato colore, elasticità, resistenza alla frattura e contenuto di zuccheri dei frutti, e hanno poi messo insieme comportamento e fisica con un semplice ma potente ragionamento statistico: ogni test sensoriale riduce l’incertezza su quanto dolce sia il frutto. In pratica, gli scimpanzé fanno Bayes con le dita.

Perché è interessante?

Per tre motivi.

  1. Il segnale visivo è debole. Molti fichi rimangono verdi anche quando sono maturi: il colore non tradisce la dolcezza. Per un animale che si affida alla vista, questo è un problema. Ma gli scimpanzé non rimangono fermi a guardare: si arrampicano, afferrano, premono. La palpazione dura una frazione di secondo – in media circa 1,4 s – e fornisce un’informazione meccanica che si correla molto meglio con il contenuto di fruttosio del frutto. In altre parole: il dito è più informativo dell’occhio.
  2. La sequenza sensoriale è modulare e razionale. Gli scimpanzé prima osservano (valutano dimensione e qualche indicazione cromatica), poi palpano – la mano misura elasticità – e infine, se serve, mordono per valutare la resistenza all’incisione (KIC, una misura meccanica della facilità con cui il tessuto si rompe). Ogni sensazione è un pezzo di informazione che, sommato agli altri, rende la decisione più affidabile.
  3. La ricerca suggerisce una lettura evolutiva intrigante: la mano come strumento di misura. Spesso colleghiamo la precisione della mano umana all’uso di utensili; questo lavoro propone invece che, almeno in parte, la selezione per mani sensibili e destre possa essere stata guidata anche da esigenze quotidiane di raccolta e valutazione del cibo — vale a dire: la mano non è nata solo per costruire strumenti, ma anche per saggiare il mondo.

Un piccolo laboratorio sensoriale

Questa visione sposta il centro dell’attenzione: non è solo l’innovazione tecnologica che plasma l’evoluzione della mano, ma anche la routine del foraggiamento. Pensalo come un piccolo laboratorio sensoriale: lo scimpanzé solleva un fico, lo preme con il polpastrello, percepisce la “cedibilità”, stima se dentro ci sono zuccheri a sufficienza e poi decide. Un segnale visivo vago (verde) viene corretto da informazioni meccaniche precise. Il risultato è una strategia efficiente: meno errori nella scelta di frutti importanti (i fichi sono una risorsa alimentare di riserva nelle stagioni difficili) e quindi un vantaggio per la sopravvivenza e la riproduzione.

La mano come utensile per conoscere

Per milioni di anni, fichi e altri frutti “criptici” hanno messo alla prova la capacità dei primati di distinguere il commestibile dal deludente. La pressione selettiva non ha riguardato soltanto occhi e cervello, ma anche la mano. La destrezza manuale, che oggi colleghiamo soprattutto all’uso degli strumenti, potrebbe avere radici ben più antiche: la necessità di valutare il cibo. La mano, prima di diventare utensile per costruire, è stata utensile per conoscere.

Un fotogramma della nostra storia

Il gesto dello scimpanzé che palpa un fico non è solo un dettaglio curioso di comportamento, ma un fotogramma della nostra stessa storia evolutiva. La precisione del pollice opponibile, la ricchezza sensoriale del polpastrello, la capacità di coordinare occhio e mano: tutto ciò che oggi ci permette di scrivere, scolpire, dipingere o operare, è nato anche da azioni semplici come scegliere il frutto giusto su un ramo.

Dalla foresta al mercato

Così, la foresta diventa laboratorio, la mano un sensore, il frutto una sfida evolutiva. E se ci pensiamo, la linea che ci separa dagli scimpanzé non è poi così netta: anche noi, al mercato, prima di comprare una pesca o un avocado, li osserviamo, li tocchiamo, li premiamo leggermente con le dita. In fondo, facciamo la stessa cosa: riduciamo l’incertezza con la complessità della mano.

Conclusione

La prossima volta che vedrai uno scimpanzé contemplare un frutto, immaginalo come un piccolo scienziato improvvisato: non sta solo mangiando, sta raccogliendo dati. Con il polpastrello riduce l’incertezza, proprio come noi davanti a una confezione con etichetta sbiadita.

E allora si capisce: la mano è nata per conoscere, prima ancora che per costruire. È questa complessità – fatta di tatto, intelligenza e memoria – che ha guidato la nostra evoluzione.

Dal fico della foresta alla penna, allo scalpello, al bisturi: ogni gesto umano porta ancora impressa quella prima funzione. La mano che oggi crea, cura, scrive e dipinge è la stessa che, milioni di anni fa, imparava a saggiare un frutto. In fondo, la nostra evoluzione è cominciata con un dito sul frutto.

Dimostrami che non esiste! La trappola preferita della pseudoscienza

Frequento i social network dal 2009 e, qualche anno dopo – era il 2015, ormai dieci anni fa – ho aperto il mio blog. All’inizio, da neofita, mi ritrovavo a discutere animatamente con persone di ogni tipo: rabdomanti convinti di sentire l’acqua con un bastoncino, cacciatori di fantasmi armati di telecamerine, fan dell’omeopatia pronti a difendere il niente travestito da nulla diluito e sostenitori dell’agricoltura biodinamica intenti a recitare formule magiche come i druidi di Asterix per aumentare la produttività dei campi.

Ogni volta che li mettevo davanti all’evidenza, la conversazione finiva invariabilmente con la stessa frase a effetto:
“Ah sì? Allora dimostrami [provami] che [argomento a piacere] non esiste!”

Oppure, in contesti diversi ma con identica logica capovolta: “Allora dimostrami [provami] che Dio non esiste”.

Chissà perché, ogni volta che ascolto queste argomentazioni, resto colpito dall’involuzione culturale che si sta diffondendo sempre di più. Sono frasi che potevano avere un senso quando ero in terza elementare, quando ci si appellava alla maestra per dirimere questioni vitali come: “Non sono stato io a mettere le mani nella marmellata, è stato lui!”.

Ma in età adulta mi aspetto qualcosa di diverso: argomentazioni più mature, meno retoriche e più legate alla razionalità. E invece questi trucchetti – vecchi come il mondo – continuano a funzionare con chi, pur avendo studiato, non si è abituato al pensiero critico e al metodo scientifico. Il punto è che la scienza, nel bene e nel male, non funziona così.

Provare: ma in che senso?

Ed è proprio qui che nasce la confusione: cosa significa davvero “provare”? Nel linguaggio quotidiano questa parola viene usata in mille modi diversi: provare un vestito, provare a fare una torta, provare un sentimento, provare a convincere qualcuno. E, lasciatemela passare, “provare un esame” – espressione tipica dei miei studenti, che poi però vengono puntualmente bocciati.

Ma in scienza non basta “fare un tentativo” o “avere un’impressione”: qui “provare” significa sottoporre un’idea a un controllo severo, verificare se regge quando viene messa di fronte ai dati.

La Treccani ci ricorda che “provare” significa sia “fare un tentativo” sia “dimostrare con prove la verità di un’affermazione”. Nel linguaggio scientifico, però, prevale il secondo significato: mettere alla prova un’ipotesi. In altre parole, valutare se un’ipotesi spiega davvero i fenomeni osservati e, soprattutto, se permette di fare previsioni verificabili.

Fare scienza significa:

  • osservare un fenomeno;
  • formulare un’ipotesi che lo spieghi e consenta di fare previsioni;
  • progettare esperimenti che possano confermare o smentire l’ipotesi;
  • accettare senza sconti il verdetto dei dati.

Se i dati non la confermano, l’ipotesi è falsificata. Punto. In altre parole, non è più utile: non spiega i fenomeni, non regge alla verifica, è semplicemente errata.

L’onere della prova

Rileggiamo l’elenco del paragrafo precedente, partendo dal primo punto:

  • osservare un fenomeno.

Qui sta il punto cruciale: se non posso osservare un fenomeno, tutto il resto non ha alcun senso. Come potrei formulare un’ipotesi su qualcosa che non vedo? E se non ho un’ipotesi, come potrei progettare esperimenti? Senza esperimenti non ottengo dati e, senza dati, non posso né confermare né confutare nulla.

In definitiva, se qualcosa non è osservabile, non posso applicare alcun metodo per “provarne” l’inesistenza. La scienza non funziona così: non dimostra l’inesistenza, ma mette alla prova ciò che si afferma di aver osservato. L’onere della prova, quindi, ricade sempre su chi fa l’affermazione, non su chi la mette in dubbio.

Mettiamola in un altro modo: se ipotizzo che una sostanza chimica acceleri la germinazione dei semi, posso progettare un esperimento. Se i dati non mostrano differenze, l’ipotesi cade. Ma se qualcuno sostiene che “una misteriosa energia invisibile accelera la germinazione solo in certe notti particolari”, senza dire quando, dove e come… beh, quella non è scienza: è una storia che non può essere né verificata né smentita, in altre parole non può essere falsificata.

Ecco perché fantasmi, energie occulte, biodinamica, draghi invisibili o divinità onnipresenti non possono essere oggetto di indagine scientifica: semplicemente non sono ipotesi falsificabili.

Un insegnamento dalla storia

Certo, gli amanti delle scienze occulte (che se sono occulte non sono scienze, ma va bene: usiamo pure l’ossimoro tanto caro ai fan di queste cose) potranno sempre dire: “Ma scusa, come fai a dire che qualcosa non funziona o non esiste se non lo provi? Non è compito dello scienziato verificare, sperimentare e, casomai, proporre o rigettare?”

Sì, certo. Ma solo se – ripeto – il fenomeno è osservabile o se esiste un impianto logico-matematico che consenta di formulare ipotesi verificabili con una progettazione sperimentale precisa.

Facciamo alcuni esempi. L’etere luminifero, ipotizzato come mezzo di propagazione della luce, è stato messo alla prova con esperimenti celebri come quello di Michelson e Morley (1887). I dati hanno detto chiaramente che non c’era nessuna evidenza a suo favore. Lo stesso destino è toccato al flogisto, sostanza immaginaria che avrebbe dovuto spiegare la combustione, spazzata via dalla chimica di Lavoisier.

E cosa dire della meccanica classica – sì, proprio quella sviluppata da Isaac Newton – che ha dominato per oltre due secoli e ancora oggi descrive benissimo il mondo macroscopico? All’inizio del Novecento, però, si è mostrata inadeguata a spiegare il comportamento delle particelle microscopiche e i fenomeni a velocità prossime a quella della luce. Da lì sono nate la relatività di Einstein e la meccanica quantistica, due teorie che hanno ampliato il quadro e che, pur con approcci diversi, permettono di fare previsioni in ambiti dove Newton non basta. Eppure, i razzi continuano a essere lanciati nello spazio grazie ai calcoli newtoniani: semplicemente, la sua fisica funziona finché si rimane dentro i suoi limiti di validità.

In tutti questi casi, la scienza non ha “provato l’inesistenza” di etere, flogisto o della validità universale della meccanica classica: ha mostrato che i dati non erano compatibili con quelle ipotesi, oppure che servivano modelli più ampi e predittivi per descrivere meglio la realtà.

La differenza tra scienza e pseudoscienza

Alla luce di tutto quanto scritto finora, si può ribadire con chiarezza che la scienza non fornisce verità eterne: propone modelli coerenti con le prove disponibili, validi finché i dati li confermano. Basta anche un solo dato contrario per metterli in crisi. In quel caso, il modello viene abbandonato oppure ampliato, formulando nuove ipotesi che ne estendano i limiti di validità.

La pseudoscienza, invece, gioca sporco: pretende di invertire l’onere della prova e chiede di dimostrare l’inesistenza dei suoi fantasmi. Non è un caso se, dopo più di due secoli, l’omeopatia è rimasta immobile, sempre uguale a se stessa, senza mai evolversi. O se l’agricoltura biodinamica – nonostante il supporto di figure accademiche che hanno scelto di accreditare l’esoterico come se fosse scienza – non sia mai riuscita a produrre una validazione sperimentale credibile. E l’elenco potrebbe continuare.

Come ammoniva Carl Sagan: affermazioni straordinarie richiedono prove straordinarie. Chi non porta prove, porta solo storie… e spesso nemmeno originali.

Conclusione

No, non si può provare l’inesistenza di qualcosa in senso assoluto. Quello che la scienza può fare, e che fa ogni giorno, è mostrare l’assenza di evidenze e smontare affermazioni che non reggono alla prova dei dati.

Per questo non ha senso chiedere di dimostrare che i fantasmi non infestano le vecchie case, che i preparati biodinamici non funzionano o che Dio non esiste. L’onere della prova spetta sempre a chi afferma, non a chi dubita.

La scienza non è un gioco di prestigio in cui si fanno sparire gli spettri: è un metodo per distinguere ciò che ha basi reali da ciò che resta soltanto una storia.

Esprit de char

➡ Read in English

Che cos’hanno in comune un fuoco che non brucia, un terreno che diventa più fertile e un clima che forse possiamo ancora salvare?
La risposta sta in un materiale oscuro e poroso, nato dal calore ma fatto per resistere al tempo: il biochar.

Immaginate un carbone che, invece di dissolversi in fumo, rimane nel suolo per secoli. Non è carbone da ardere, ma carbone che custodisce carbonio. Un paradosso? Forse sì. Eppure è proprio qui che la scienza ci invita a guardare più da vicino.

Un enigma nella giungla

Tutto comincia in Amazzonia. Quando i primi archeologi e pedologi iniziarono a scavare nella foresta pluviale, trovarono qualcosa di inatteso: macchie di terra scura e fertile che si distinguevano nettamente dal rosso povero degli Oxisols circostanti. Gli indigeni la chiamavano “Terra Preta do Indios”, la “terra nera degli indios”.

Com’era possibile che suoli notoriamente poverissimi e instabili, incapaci di trattenere nutrienti, ospitassero invece zone in cui le piante crescevano rigogliose?

Negli anni Duemila, studi pionieristici di Bruno Glaser e colleghi mostrarono che quelle terre nere contenevano fino a 70 volte più carbonio nero rispetto ai suoli circostanti. Non un carbonio qualsiasi, ma il prodotto della combustione incompleta di biomassa: charcoal, carbone vegetale. Non il fuoco distruttivo degli incendi, ma quello controllato dei focolari domestici, dei forni di cottura, delle pratiche agricole precolombiane.

Dalla leggenda alla scienza

La Terra Preta non era un fenomeno naturale. Era la traccia lasciata da comunità indigene che, 1500–2500 anni fa, avevano imparato a trasformare residui di cucina, legno e scarti organici in un suolo fertile e duraturo. Non slash-and-burn, la bruciatura che divora foreste e libera CO₂, ma slash-and-char: un modo per intrappolare carbonio e costruire fertilità.

Quel carbone, altamente aromatico e stabile, sopravvive nel suolo per secoli. Con il tempo, l’ossidazione ne arricchisce i bordi di gruppi carbossilici, che aumentano la capacità di trattenere nutrienti. È così che un materiale apparentemente inerte diventa uno scrigno di fertilità, capace di sostenere colture ben oltre il tempo degli indigeni che lo produssero.

Ed è da questa eredità che nasce la parola che oggi usiamo: biochar. Non più soltanto un reperto archeologico, ma una tecnologia da ripensare in chiave moderna.

Il biochar oggi

Il nome potrebbe sembrare una trovata di marketing, ma non lo è. È il termine scelto dalla comunità scientifica per indicare il materiale carbonioso ottenuto dalla pirolisi di biomasse di scarto – legno, residui agricoli, perfino sottoprodotti animali – e applicato volontariamente al suolo per migliorarne la qualità.

Perché dovremmo interessarcene?
Perché sappiamo che l’aumento della temperatura globale è dovuto alle attività umane, e abbiamo bisogno di strumenti nuovi per rallentare la corsa dei gas serra. Il biochar, se ben prodotto e ben usato, sembra offrire proprio questo:

  • intrappolare carbonio nei suoli, togliendolo dall’atmosfera;
  • migliorare la struttura dei terreni, rendendoli più fertili e meno erodibili;
  • adsorbire sostanze tossiche, ripulendo acque e suoli inquinati;
  • modificare il pH, favorendo la crescita delle piante.

Tutto questo non è teoria: sono osservazioni sperimentali che hanno acceso un entusiasmo globale. Ma… funziona sempre così?

I segreti nei pori

Il punto è che il biochar non è mai uguale a sé stesso. Dipende dalla biomassa di partenza, dalle temperature di pirolisi, dalle condizioni di produzione. Alcuni biochar sono stabili e utili; altri, invece, si degradano più in fretta o rilasciano ciò che dovrebbero trattenere.

E allora come capire quali biochar funzionano davvero?

È qui che entrano in gioco le tecniche che uso nel mio lavoro. Con la risonanza magnetica nucleare (NMR) possiamo osservare il comportamento dell’acqua confinata nei pori del biochar: come si muove, quanto resta intrappolata, quali interazioni crea con ioni e contaminanti. In pratica, possiamo ascoltare la “vita interiore” di un pezzo di carbone.

Queste informazioni ci permettono di costruire modelli più affidabili e di distinguere tra biochar efficaci e biochar illusori. È un lavoro di pazienza, ma necessario: se vogliamo usare il biochar come strumento di sostenibilità, dobbiamo capire i suoi meccanismi più profondi.

Esprit de char

Il National MagLab ha raccontato parte di questa avventura in un articolo dal titolo evocativo: Esprit de char. “Lo spirito del carbone”: un nome che rende bene l’idea. Perché il biochar non è solo un materiale tecnico, è un ponte tra passato e futuro. Un carbone antico, ma con un compito nuovo: aiutarci a riscrivere il rapporto tra l’uomo, il suolo e il clima.

E domani?

Sarà allora il biochar la chiave di un’agricoltura davvero sostenibile?
Non dobbiamo illuderci: non è una bacchetta magica. Non basterà da solo a risolvere la crisi climatica o a rigenerare i suoli impoveriti. Ma può essere uno strumento potente, se usato con intelligenza.

Forse, in fondo, l’“esprit de char” non è altro che questo: la memoria di un fuoco che, anziché consumare, ha creato. Un fuoco che ancora oggi può insegnarci a trasformare l’ombra in risorsa, il carbone in futuro.

Per approfondire:

E qualche mio vecchio post divulgativo:

Esprit de char (English)

What do a fire that doesn’t burn, a soil that becomes more fertile, and a climate we might still save have in common?
The answer lies in a dark, porous material, born from heat yet made to resist time: biochar.

Imagine a charcoal that, instead of turning into smoke, remains in the soil for centuries. Not charcoal for burning, but charcoal that locks carbon away. A paradox? Perhaps. And yet this is precisely where science invites us to look closer.

A jungle enigma

It all begins in the Amazon basin. When the first archaeologists and soil scientists dug into the rainforest, they found something unexpected: patches of dark, fertile earth standing out against the poor, reddish Oxisols all around. The locals called it “Terra Preta do Indios”, the “black earth of the Indians.”

How was it possible that soils known for being extremely poor and unstable, unable to hold nutrients, could instead host areas where plants thrived so vigorously?

In the early 2000s, pioneering studies by Bruno Glaser and colleagues revealed that these black soils contained up to 70 times more black carbon than their surroundings. Not just any carbon, but the product of the incomplete combustion of biomass: charcoal. Not the destructive fire of wild burns, but the controlled fires of domestic hearths, cooking stoves, and pre-Columbian farming practices.

From legend to science

Terra Preta was not a natural phenomenon. It was the trace left by indigenous communities who, 1,500–2,500 years ago, had learned how to turn kitchen waste, wood, and organic residues into fertile, enduring soil. Not slash-and-burn, the practice that devours forests and releases CO₂, but slash-and-char: a way to trap carbon and build fertility.

That charcoal, highly aromatic and chemically stable, survives in soil for centuries. Over time, oxidation enriches its edges with carboxylic groups, increasing its nutrient-holding capacity. In this way, an apparently inert material becomes a treasure chest of fertility, able to sustain crops long after the indigenous people who created it had disappeared.

And it is from this legacy that the word we use today was born: biochar. No longer just an archaeological curiosity, but a technology to be reimagined for modern times.

Biochar today

The name may sound like a marketing gimmick, but it isn’t. It’s the term chosen by the scientific community to define the carbon-rich material produced by the pyrolysis of waste biomass – wood, agricultural residues, even animal by-products – and deliberately applied to soil to improve its quality.

Why should we care?
Because we know that global warming is driven by human activity, and we need new tools to slow the race of greenhouse gases. Biochar, if properly produced and applied, seems to offer exactly this:

  • locking carbon into soils, keeping it out of the atmosphere;
  • improving soil structure, making it more fertile and less prone to erosion;
  • adsorbing toxic substances, helping to clean polluted soils and waters;
  • altering soil pH, favoring plant growth.

This isn’t theory: these are experimental findings that have sparked worldwide enthusiasm. But… does it always work that way?

Secrets in the pores

The truth is that biochar is never the same. It depends on the feedstock, on the pyrolysis temperature, and on the production conditions. Some biochars are stable and effective; others degrade quickly or release what they were meant to retain.

So how do we know which biochar really works?

This is where the techniques I use in my research come into play. With nuclear magnetic resonance (NMR) we can observe how water behaves inside biochar pores: how it moves, how long it remains trapped, how it interacts with ions and contaminants. In practice, we can listen to the “inner life” of a piece of charcoal.

Such information allows us to build more reliable models and to distinguish effective biochar from illusory ones. It’s painstaking work, but essential: if we want biochar to be a true sustainability tool, we must first understand its deepest mechanisms.

Esprit de char

The National MagLab told part of this story in an article with an evocative title: Esprit de char. “The spirit of charcoal”: a name that captures the essence. Because biochar is not just a technical material—it’s a bridge between past and future. An ancient charcoal with a new task: to help rewrite the relationship between humans, soils, and climate.

And tomorrow?

So, is biochar the key to truly sustainable agriculture?
We shouldn’t fool ourselves: it’s no magic wand. Biochar alone won’t solve the climate crisis or restore degraded soils. But it can be a powerful tool – if used wisely.

Perhaps, in the end, the “esprit de char” is nothing more than this: the memory of a fire that, instead of consuming, created. A fire that still today can teach us how to turn shadow into resource, charcoal into future.

Further reading:

And some of my earlier blog posts (in Italian):

 

La Sindone e la scienza: dal Medioevo alla risonanza magnetica

Ormai lo sanno anche le pietre: mi occupo di risonanza magnetica nucleare su matrici ambientali. Tradotto per i non addetti: uso la stessa tecnica che in medicina serve a vedere dentro il corpo umano, ma applicata a tutt’altro – suoli, sostanza organica naturale, piante e materiali inerti. Ripeto: non corpi umani né animali, ma sistemi ambientali.

C’è un dettaglio curioso. I medici hanno tolto l’aggettivo “nucleare” dal nome, per non spaventare i pazienti. Peccato che, senza quell’aggettivo, l’espressione “risonanza magnetica” non significhi nulla: risonanza di cosa? elettronica, fotonica, nucleare? Io, che non ho pazienti da rassicurare, preferisco chiamare le cose con il loro nome: risonanza magnetica nucleare, perché studio la materia osservando come i nuclei atomici interagiscono con la radiazione elettromagnetica a radiofrequenza.

Non voglio dilungarmi: non è questa la sede per i dettagli tecnici. Per chi fosse curioso, rimando al mio volume The Environment in a Magnet edito dalla Royal Society of Chemistry.

Tutto questo per dire che in fatto di risonanza magnetica nucleare non sono proprio uno sprovveduto. Me ne occupo dal 1992, subito dopo la laurea in Chimica con indirizzo Organico-Biologico. All’epoca iniziai a lavorare al CNR, che aveva una sede ad Arcofelice, vicino Pozzuoli, in provincia di Napoli. È lì che cominciai a usare l’NMR per studiare la relazione struttura-attività dei metaboliti vegetali: un banco di prova perfetto per capire quanto questa tecnica potesse rivelare.

Successivamente passai all’Università degli Studi di Napoli Federico II, dove estesi l’uso della risonanza magnetica nucleare non solo alla fase liquida, ma anche a quella solida e semisolida. Non più soltanto metaboliti vegetali, dunque, ma matrici molto più complesse dal punto di vista chimico: il suolo e la sostanza organica ivi contenuta.

Con il mio trasferimento all’Università di Palermo ho potuto ampliare ulteriormente le competenze in NMR: dall’uso di strumenti a campo magnetico fisso sono passato allo studio delle stesse matrici naturali con spettrometri a campo variabile. Un passo avanti che mi ha permesso di guardare i sistemi ambientali con ancora più profondità e sfumature.

Ed eccomi qui, dopo più di trent’anni di esperienza, a spiegare perché chi immagina di usare la risonanza magnetica nucleare sulla Sindone di Torino forse ha una visione un po’… fantasiosa della tecnica.

Andiamo con ordine.

La Sindone di Torino: simbolo religioso e falso storico

La Sindone

La Sindone di Torino è un lenzuolo di lino lungo circa quattro metri che reca impressa l’immagine frontale e dorsale di un uomo crocifisso. Per il mondo cattolico rappresenta una delle reliquie più importanti: secondo la tradizione, sarebbe il sudario che avvolse il corpo di Cristo dopo la crocifissione. Attorno ad essa si è sviluppato un culto popolare immenso, fatto di pellegrinaggi e ostensioni pubbliche che ne hanno consacrato il valore spirituale.

Ma che cosa ci dice la scienza su questo straordinario manufatto?

La datazione al radiocarbonio

Il dato più solido arriva dalla datazione con il radiocarbonio. Nel 1988 tre laboratori indipendenti – Oxford, Zurigo e Tucson – pubblicarono sulla rivista Nature i risultati delle loro analisi: il lino della Sindone risale a un periodo compreso fra il 1260 e il 1390 d.C., cioè in piena epoca medievale (Damon et al., 1989). La conclusione degli autori fu inequivocabile: “evidence that the linen of the Shroud is mediaeval”.

Riproduzioni sperimentali

A rafforzare questa interpretazione è intervenuto anche il lavoro del chimico Luigi Garlaschelli, che ha realizzato una riproduzione della Sindone utilizzando tecniche compatibili con l’arte medievale: applicazione di pigmenti su un rilievo, trattamenti acidi per simulare l’invecchiamento, lavaggi parziali per attenuare il colore. Il risultato, esposto in varie conferenze e mostre, mostra come un artigiano del Trecento avrebbe potuto ottenere un’immagine con molte delle caratteristiche dell’originale (Garlaschelli, 2009).

Le conferme della storia

Anche le fonti storiche convergono. Un documento recentemente portato alla luce (datato 1370) mostra che già all’epoca un vescovo locale denunciava il telo come un artefatto, fabbricato per alimentare un culto redditizio (RaiNews, 2025). Questo si aggiunge al più noto documento del 1389, in cui il vescovo di Troyes, Pierre d’Arcis, scriveva a papa Clemente VII denunciando la falsità della reliquia.

Le contro-argomentazioni sindonologiche

Naturalmente, chi sostiene l’autenticità della Sindone non è rimasto in silenzio. Le principali obiezioni riguardano:

  1. Il campione del 1988 – secondo alcuni, la zona prelevata sarebbe stata contaminata da un rammendo medievale, o comunque non rappresentativa dell’intero telo (Karapanagiotis, 2025).
  2. L’eterogeneità dei dati – alcuni statistici hanno osservato che i tre laboratori non ottennero risultati perfettamente omogenei, segnalando possibili anomalie (Karapanagiotis, 2025).
  3. Eventi successivi – l’incendio di Chambéry del 1532, o la formazione di patine microbiche, avrebbero potuto alterare la concentrazione di carbonio-14, facendo sembrare il tessuto più giovane (Karapanagiotis, 2025).

Sono ipotesi discusse ma che non hanno mai trovato prove decisive: nessuna spiegazione è riuscita a giustificare in modo convincente come un tessuto del I secolo potesse apparire medievale a tre laboratori indipendenti.

Le nuove analisi ai raggi X

Negli ultimi anni si è parlato di nuove tecniche di datazione basate sulla diffusione di raggi X ad ampio angolo (WAXS). L’idea è di valutare il grado di cristallinità della cellulosa del lino: più il tessuto è antico, maggiore è la degradazione della sua struttura cristallina. Applicata a un singolo filo della Sindone, questa metodologia ha suggerito un’età più antica di quella medievale (De Caro et al., 2022).

Tuttavia, i limiti sono evidenti: si è analizzato un solo filo, e la cristallinità della cellulosa dipende non solo dal tempo, ma anche da condizioni ambientali come umidità, calore o contatto con sostanze chimiche. Inoltre, il metodo è recente e richiede ulteriori validazioni indipendenti. In sintesi: interessante come indicatore di degrado, ma non ancora un’alternativa solida al radiocarbonio.

Una nuova frontiera? L’NMR

Accanto a tutto ciò è emersa anche la proposta di applicare la risonanza magnetica nucleare (NMR) alla Sindone (Fanti & Winkler, 1998). Alcuni autori suggeriscono che questa tecnica possa rivelare “concentrazioni atomiche” di idrogeno, carbonio o azoto nel telo, o addirittura produrre mappe tomografiche.

Nel prossimo paragrafo entrerò nel dettaglio di questa prospettiva “NMR”, analizzando perché, alla luce dell’esperienza maturata in oltre trent’anni di lavoro su queste tecniche, considero queste proposte non solo irrealistiche, ma anche profondamente fuorvianti.

I limiti della prospettiva NMR

Tra le tante proposte avanzate negli anni, c’è anche quella di usare la risonanza magnetica nucleare per studiare la Sindone. Nel lavoro di Giulio Fanti e Ulf Winkler si ipotizza di applicare tecniche NMR per “vedere” la distribuzione di atomi come idrogeno, carbonio e persino azoto sul telo, o addirittura per ottenere mappe tomografiche simili a quelle della risonanza magnetica medica. Sulla carta può sembrare affascinante, ma nella pratica questa prospettiva presenta numerosi limiti.

Nel caso dei protoni (1H), ad esempio, gran parte del segnale in un lino asciutto deriva dall’acqua residua o da componenti volatili: un parametro che può variare fino all’80% semplicemente cambiando le condizioni ambientali. Inoltre, in un solido come il lino della Sindone, l’analisi 1H-NMR non offre risoluzione: lo spettro mostra soltanto due contributi sovrapposti, un picco stretto e intenso dovuto alle zone cristalline della cellulosa e una larga campana sottostante, tipica delle frazioni amorfe. È chiaro, quindi, che non solo è arduo quantificare i protoni, ma è del tutto irrealistico pensare di usarli per una datazione del tessuto.

Per quanto riguarda l’analisi al carbonio-13 (13C), ci sono diversi punti da sottolineare. La tecnica più usata è la CPMAS 13C-NMR: in questo caso una piccola quantità di campione, dell’ordine dei milligrammi, viene inserita in un porta-campioni invisibile all’NMR, posto nel campo magnetico secondo una geometria precisa, e il carbonio viene “visto” sfruttando l’abbondanza dei protoni. Si tratta però di una tecnica qualitativa: non consente una vera quantificazione del nucleo osservato. Inoltre, richiede tempi di misura molto lunghi, con costi elevati e il rischio concreto di non ottenere informazioni davvero utili.

L’alternativa sarebbe la DPMAS 13C-NMR. Qui, a differenza della CPMAS, non ci si appoggia ai protoni e quindi bisogna fare affidamento solo sull’abbondanza naturale del 13C, circa l’1%: troppo bassa. Di conseguenza i tempi macchina si allungano ulteriormente, con dispendio sia di tempo sia economico. E in più la tecnica è priva di risoluzione: i segnali dei diversi nuclei si sovrappongono in un unico inviluppo indistinguibile, rendendo impossibile perfino la stima del rapporto fra cellulosa cristallina e amorfa.

Quanto all’azoto-14 (14N), il nucleo è quadrupolare e produce linee larghissime e difficilmente interpretabili: in pratica, misure affidabili non sono realistiche.

Nel lavoro di Fanti e Winkler, ci sono poi anche problemi di coerenza interna. Nel testo, ad esempio, si ipotizzano tempi di rilassamento e acquisizione non compatibili con i valori sperimentali reali, e si propongono scenari come la “tomografia NMR dell’intero telo” che, per un materiale rigido e povero di mobilità come il lino secco, sono semplicemente impraticabili: i tempi di decadimento del segnale sono troppo brevi perché si possa ricostruire un’immagine come in risonanza magnetica medica.

Infine, il lavoro suggerisce di estendere le misure addirittura a mappature di radioattività con contatori Geiger o a esperimenti di irraggiamento con neutroni, ipotizzando collegamenti con la formazione dell’immagine. Si tratta di congetture prive di fondamento sperimentale, più vicine a un esercizio di fantasia che a un protocollo scientifico realistico.

In sintesi, Fanti e Winkler hanno portato il linguaggio della NMR nel dibattito sulla Sindone, ma le applicazioni che propongono si scontrano con limiti tecnici insormontabili e interpretazioni sbagliate.

L’NMR è uno strumento potentissimo per lo studio di suoli, sostanza organica e sistemi complessi, ma applicarlo alla Sindone nei termini proposti non ha basi scientifiche solide: rischia anzi di trasformare una tecnica seria in un’arma retorica al servizio di ipotesi precostituite.

Conclusioni

Alla fine dei conti, la Sindone di Torino resta ciò che la scienza ha già dimostrato da tempo: un manufatto medievale. Lo dice la datazione al radiocarbonio pubblicata su Nature; lo confermano le riproduzioni sperimentali di Luigi Garlaschelli e i documenti storici del Trecento che la denunciavano come artefatto devozionale; lo ribadiscono i limiti delle nuove tecniche “alternative” che, per quanto presentate come rivoluzionarie, non hanno mai scalfito la solidità del verdetto del 1988. Le contro-argomentazioni dei sindonologi — campioni non rappresentativi, rammendi invisibili, incendi o contaminazioni miracolose — sono ipotesi suggestive, ma prive di prove concrete e incapaci di spiegare perché tre laboratori indipendenti abbiano ottenuto lo stesso responso: Medioevo. Le proposte più recenti, come l’uso dei raggi X o addirittura della risonanza magnetica nucleare, non fanno che spostare il problema, avanzando idee tecnicamente fragili e spesso concettualmente errate.

La Sindone rimane dunque un oggetto straordinario, ma non perché testimoni la resurrezione di Cristo: straordinaria è la sua forza simbolica, straordinaria è la devozione che suscita, straordinaria è la capacità che ha avuto per secoli di alimentare fede, immaginazione e perfino business. Ma sul piano scientifico la questione è chiusa. Continuare a spacciarla per “mistero insoluto” significa ignorare le evidenze e trasformare la ricerca in propaganda. E questo, più che un atto di fede, è un insulto all’intelligenza.

Quando il rischio svanisce, cresce la paura: giudizio, percezione e vaccini

Nel mio articolo Dal Voltaren al vaccino: perché temiamo ciò che ci salva e ignoriamo ciò che ci nuoce mi sono chiesto come mai la sicurezza dei vaccini venga percepita come dubbia, quando invece le evidenze scientifiche mostrano l’opposto.

Un indizio ci arriva da un curioso fenomeno psicologico, studiato qualche anno fa da un gruppo di ricercatori di Harvard e pubblicato su Science: il prevalence-induced concept change, o, per dirla in breve, la tendenza ad ampliare i confini di un concetto man mano che il problema, cui il concetto si riferiva, diventa sempre meno visibile.

Gli autori dello studio – condotto attraverso sette esperimenti su centinaia di volontari – hanno utilizzato compiti molto diversi, dai più semplici ai più complessi. In uno di questi, ad esempio, hanno mostrato ai partecipanti migliaia di puntini colorati che variavano lungo un continuum dal viola al blu e hanno chiesto, test dopo test, di stabilire se ciascun puntino fosse blu oppure no. Al diminuire del numero di puntini blu, i soggetti cominciavano a essere più inclusivi nella definizione: anche puntini che in precedenza avrebbero classificato come viola cominciavano a essere etichettati come blu.

Lo stesso schema si è ripetuto in altri contesti. Per esempio, la valutazione delle espressioni facciali tendeva ad ampliare la definizione di minacciosità quando il numero di volti realmente minacciosi diminuiva. In altre parole, i partecipanti finivano per giudicare come “minacciose” anche espressioni neutre.

Lo stesso si è osservato quando ai volontari è stato chiesto di valutare l’eticità di proposte di ricerca: quando quelle eticamente discutibili diventavano sempre meno numerose, i volontari finivano per giudicare “non etiche” perfino proposte del tutto innocue.

Insomma, al calare della frequenza del problema reale, la mente dei volontari spostava i confini della definizione, includendo dentro la categoria situazioni che in precedenza ne sarebbero rimaste fuori.

È facile capire perché questo meccanismo, utile in altri contesti evolutivi – ad esempio nel riconoscere possibili predatori a partire da indizi minimi, nello scartare cibi anche solo vagamente simili a quelli velenosi o nell’individuare segnali di ostilità nei rapporti sociali – oggi possa giocarci brutti scherzi. Applicato ai vaccini, diventa quasi lampante. Più le malattie infettive diventano rare grazie all’immunizzazione, più tendiamo a ingigantire i rischi, anche minimi, dei vaccini stessi. Eppure, di morbillo si può morire: ancora oggi nei paesi dove la copertura vaccinale è insufficiente si registrano decessi. Il vaiolo, invece, è stato eradicato proprio grazie alla vaccinazione di massa: per secoli ha seminato terrore e morte, oggi non fa più paura solo perché non esiste più nella nostra esperienza quotidiana. Lo stesso vale per malattie come la poliomielite, che può lasciare paralisi permanenti, o la difterite, che ostruisce le vie respiratorie: patologie che i vaccini hanno reso quasi invisibili in gran parte del mondo, al punto che molti non le percepiscono più come minacce reali.

In questo vuoto di percezione, ogni piccolo segnale post-vaccinazione viene sovradimensionato. Un dolore al braccio o una febbriciattola diventano indizi di pericolo grave. Episodi rarissimi finiscono in prima pagina e assumono un peso sproporzionato rispetto all’enorme beneficio collettivo. La percezione si deforma: non vediamo più il quadro generale – la scomparsa o il contenimento di malattie mortali – ma inseguiamo il dettaglio marginale.

E qui entra in gioco la disinformazione. Basta prendere un evento raro, magari un caso clinico eccezionale, e presentarlo come se fosse frequente. L’effetto è immediato: chi legge o ascolta ha l’impressione che i vaccini siano pieni di insidie, anche se i dati mostrano l’esatto contrario. Anzi, paradossalmente la loro stessa sicurezza – dimostrata da miliardi di dosi somministrate senza conseguenze gravi – alimenta la nostra disponibilità a credere alle paure: siccome le malattie non le vediamo più, ci concentriamo sul resto.

La disinformazione, però, non è mai neutrale. C’è sempre qualcuno che ha interesse a diffonderla o, quantomeno, a cavalcarla. Cui prodest? Chi ci guadagna? A volte sono gruppi organizzati che vendono prodotti alternativi, dalle cure miracolose agli integratori “rinforzanti” da assumere al posto dei vaccini. Altre volte sono influencer e canali che cercano visibilità, like, condivisioni: la paura è un potente amplificatore di traffico. E non mancano attori politici che, agitando lo spettro di un presunto complotto, riescono a costruire consenso e identità contro il “sistema”.

Il risultato è che un successo straordinario della scienza – i vaccini che hanno ridotto poliomielite, difterite, morbillo e tante altre infezioni – rischia di apparire, nella percezione comune, come una minaccia anziché come una protezione. È l’ennesima dimostrazione che i dati, da soli, non bastano: servono anche strumenti culturali per difendersi dalla manipolazione del giudizio.

E allora, la prossima volta che qualcuno ci racconta un aneddoto allarmistico, proviamo a fermarci un istante e chiederci: sto giudicando i dati o sto cedendo a un’illusione della percezione?
Perché non sempre ciò che vediamo riflette la realtà. Spesso riflette i tranelli della nostra mente.

Ed è proprio su questi tranelli che i movimenti no-vax costruiscono la loro narrazione: ingigantiscono casi marginali, ignorano le prove scientifiche e alimentano paure che non hanno alcun fondamento. Ma i dati parlano chiaro: i vaccini salvano milioni di vite ogni anno, hanno debellato il vaiolo, ridotto la poliomielite e reso rare malattie che per secoli hanno mietuto vittime. Rifiutarli non è un atto di libertà: è un atto di incoscienza che mette a rischio non solo chi li rifiuta, ma anche chi non può vaccinarsi.

La vera libertà non è cedere a una menzogna rassicurante. La vera libertà è scegliere sulla base delle evidenze, senza farsi manipolare da chi, per interesse o ideologia, lucra sulla paura degli altri.

Dal Voltaren al vaccino: perché temiamo ciò che ci salva e ignoriamo ciò che ci nuoce

Uno dei cavalli di battaglia degli antivaccinisti, soprattutto durante la pandemia di Covid, è stato: Non sappiamo cosa ci iniettano. Una frase che sembra prudente, ma che in realtà nasconde il vuoto più assoluto. In rete, e purtroppo anche in certi palchi mediatici, si sono lette e ascoltate fandonie indegne: vaccini pieni di grafene, di materiale “fetale”, di microchip. Panzane. Bufale. Balle cosmiche spacciate per verità scomode.

Il punto è che la percezione del rischio, quando si parla di vaccini, viene distorta fino al ridicolo. Gli stessi che si indignano davanti a una fiala di vaccino non si fanno problemi ad abusare di Voltaren per un mal di schiena, di Tachipirina per un raffreddore o di Aspirina a stomaco vuoto. Farmaci che, se presi male o in dosi eccessive, hanno effetti collaterali ben documentati e tutt’altro che lievi. Ma nessuno apre gruppi Telegram per denunciare il “complotto della Tachipirina”.

E allora torniamo alle basi. La differenza tra pericolo e rischio.
Il pericolo è una proprietà intrinseca di una sostanza: la candeggina, per esempio, è pericolosa. Ma il rischio dipende dall’uso: se non la bevi, se non la respiri, la candeggina non ti ammazza. Lo stesso vale per i farmaci. Aspirina e Tachipirina hanno pericoli reali, ma li consideriamo a basso rischio perché li usiamo con buon senso.

Con i vaccini si è creata la tempesta perfetta: un farmaco nuovo, un’emergenza sanitaria mondiale e un esercito di disinformatori pronti a manipolare la paura. Eppure, i dati clinici erano chiari già nel 2021: i vaccini anti-Covid erano molto più sicuri di tanti farmaci da banco. I rischi di complicazioni gravi erano rarissimi, infinitamente inferiori rispetto a quelli legati alla malattia. Ma invece di guardare i numeri, ci si è lasciati spaventare dai fantasmi.

C’è chi liquida la pandemia come una “farsa”, chi parla di “censura” e di “virostar” in televisione. È il classico copione: invece di discutere sui dati, si attacca chi li porta. Roberto Burioni e altri virologi sono stati accusati di essere “ospiti fissi” senza contraddittorio. Ma davvero serve un contraddittorio tra chi studia i virus da decenni e chi diffonde complotti sui microchip nei vaccini? Sarebbe come chiedere di contrapporre un astrologo a un astronomo quando si parla di orbite planetarie.

La realtà è che i dati c’erano, e chiunque poteva consultarli: studi clinici, report di farmacovigilanza, pubblicazioni scientifiche. Non erano nascosti – erano ignorati. La vera censura è quella che gli antivaccinisti applicano a se stessi e ai loro seguaci: censura dei numeri, censura dei fatti, censura del pensiero critico.

Il risultato? Una percezione capovolta: farmaci familiari diventano “innocui per definizione”, mentre vaccini che hanno salvato milioni di vite vengono descritti come “veleni sperimentali”. Non è prudenza, è ignoranza travestita da saggezza.

Chiariamo una volta per tutte: i vaccini non sono perfetti, ma nessun farmaco lo è. La differenza è che i vaccini non curano soltanto: prevengono, riducono i contagi, salvano intere comunità. Attaccarli con menzogne non è opinione, è irresponsabilità sociale.

In fondo, la chimica e la farmacologia ci dicono una cosa semplice: nessuna sostanza è innocua, nemmeno l’acqua. È il contesto, la dose, l’uso che fanno la differenza. Non capirlo – o, peggio, fingere di non capirlo per ideologia – significa giocare con la salute propria e quella altrui.

Il vero pericolo, oggi, non sono i vaccini. Sono gli antivaccinisti.

Share