Giulio Cesare ed i cambiamenti climatici

“Cosa c’entra Giulio Cesare con i cambiamenti climatici?”, vi starete chiedendo. Oppure state pensando: “ed ecco un altro prof. che è andato fuori di testa e fa associazioni pseudoscientifiche come capita a tutti”.

Ebbene no, miei cari lettori. Proprio ieri ho comprato il numero di Agosto 2020 della rivista Le Scienze. Ogni tanto ho bisogno di leggere riviste divulgative serie per fare pace con il mondo e convincermi che non tutto è perduto. Sapeste cosa mi scrivono certi figuri nei commenti del blog! Faccio passare solo i commenti che mi divertono di più, ma ce ne sono altri che, al confronto, la teoria della memoria dell’acqua è roba seria.

Ma torniamo a Giulio Cesare ed ai cambiamenti climatici.

Dicevo che ho preso Le Scienze di Agosto. A pagina 24, ci sono 13 righe in cui si parla delle cause che hanno portato Roma a diventare Impero dopo l’assassinio di Giulio Cesare occorso alle idi di Marzo del 44 a.C.. La notizia la potete leggere anche qui.

Devo dire che la lettura mi ha incuriosito ed ho cominciato a cercare in rete. Quello che ho trovato mi ha molto affascinato.

Pensate: è documentato che nel periodo immediatamente successivo a quello in cui Cesare fu assassinato, ci sono stati un paio di anni di freddo intenso. La temperatura, pare, si sia abbassata di circa 7 °C, mentre le precipitazioni si fecero molto più intense aumentando dal 50 al 120 % rispetto agli anni precedenti. Potete facilmente immaginare cosa vuol dire a livello agricolo un abbassamento della temperatura ed un aumento della pioggia di tale intensità. Ci sono stati sicuramente momenti di carestia che, assieme ai problemi politici che si sono presentati nello stesso periodo, possono essere considerati la concausa del passaggio dalla Repubblica all’Impero. In effetti, le peggiorate condizioni di vita dei contadini nel I secolo avanti Cristo, portarono a scontri sociali che si conclusero con la pace Augustea che riportò ordine nella società romana (Riferimento).

Una delle ipotesi che è stata formulata per spiegare le peggiorate condizioni di vita dei contadini romani nel I secolo a.C. è l’eruzione dell’Etna avvenuta nel 44 a.C. (Riferimento). Si è ipotizzato che tale eruzione avesse portato in atmosfera una quantità tale di polveri sottili da schermare i raggi del sole e provocare gli sconvolgimenti climatici associati ai periodi di carestia summenzionati. Tuttavia, pur rimanendo valida l’idea che una eruzione vulcanica fosse stata responsabile del cambiamento climatico iniziato a cavallo del 43-44 a.C., l’ipotesi dell’effetto dell’eruzione dell’Etna sul clima della penisola è stata sempre abbastanza controversa (Riferimento).

All’inizio di Luglio è apparso su Proceedings of the National Academy of the United States of America (PNAS), una rivista molto quotata nel mondo scientifico, un articolo a firma di un gruppo di ricercatori di diversa nazionalità dal titolo: “Extreme climate after massive eruption of Alaska’s Okmok volcano in 43 BCE and effects on the late Roman Republic and Ptolemaic Kingdom”. Lo potete scaricare, previo pagamento di 10 USD, cliccando sull’immagine qui sotto.

In questo lavoro i ricercatori hanno discusso delle analisi effettuate su carote di ghiaccio prelevate nell’Artico. Essi hanno evidenziando come la più probabile causa degli sconvolgimenti climatici occorsi nel I secolo a.C. fosse  non l’eruzione dell’Etna, ma quella del vulcano Okmok situato in Alaska.

Fonte dell’immagine

Nell’immagine qui sotto potete avere contezza delle distanze a livello planetario tra la posizione del vulcano ed il continente Europeo.

Sembra strano che l’eruzione di un vulcano così distante dall’Europa possa averne influenzato il clima, vero?

Vediamo allora cosa hanno fatto gli studiosi.

A quanto pare ogni vulcano ha una impronta chimica univoca in termini di molecole immesse in atmosfera per effetto delle eruzioni. I ricercatori hanno non solo attribuito le sostanze trovate nelle carote di ghiaccio proprio al vulcano Okmok, ma hanno anche datato l’eruzione relativa alla seconda metà del I secolo a.C.. Inoltre, usando i dati chimici identificati nelle carote di ghiaccio, i ricercatori hanno fatto delle simulazioni computazionali. In base ad esse, hanno potuto stabilire che intorno al 43 a.C. l’eruzione dell’Okmok ha portato in atmosfera tante di quelle particelle che si è avuta una riduzione della temperatura non solo in Europa, ma anche nel continente Africano. Come controprova delle loro simulazioni, i ricercatori hanno anche effettuato analisi dendrologiche  che hanno confermato le ipotesi sul ruolo dell’Omkok nelle variazioni climatiche del I secolo a.C..

Interessante, vero, come un’eruzione vulcanica a migliaia di chilometri di distanza dall’Europa possa aver indirizzato la politica romana.

Fonte dell’immagine di copertina

Webinar Europeo sulla risonanza magnetica nucleare a ciclo di campo

Avete voglia di saperne di più sulla risonanza magnetica nucleare a ciclo di campo che di tanto in tanto introduco anche nei miei articoli?

Venerdì 8 maggio 2020  sarà una giornata di studi dedicata proprio a questa tecnica ed alle sue applicazioni in diversi campi: dalla teoria alle applicazioni in campo oncologico a quelle in campo ambientale fino ad arrivare alle applicazioni in ambito energetico.

La giornata organizzata nell’ambito di un progetto COST, si svolgerà in modalità telematica sulla piattaforma WebEx. Per poter avere accesso ai webinar bisogna richiedere l’iscrizione al seguente indirizzo eurelax@matman.uwm.edu.pl chiedendo di partecipare a uno o a più seminari. Vi verrà inviata una mail con le indicazioni da seguire per potervi connettere.

Se volete avere una idea del programma e di come potersi iscrivere potete cliccare sulle immagini qui sotto.

ah…dimenticavo…ci sono anche io. Vi aspetto

 

Credibilità scientifica e h-index

Recentemente sul quotidiano Il Tempo è apparso un articolo dal titolo “Burioni, Pregliasco e Brusaferro . Gli esperti più scarsi del mondo” in cui i nomi di tre medici che ultimamente occupano le prime pagine dei giornali non sono neanche messi in ordine alfabetico. L’articolo che trovate qui è un attacco neanche troppo velato alla credibilità di questi tre professionisti che ci avvertono dei pericoli della pandemia da SARS-Cov-2. L’attacco viene sferrato usando uno dei parametri (non l’unico) utilizzato per la valutazione comparativa dei candidati a posti più o meno importanti nel mondo accademico e della ricerca scientifica: l’h-index.

Cos’è l’h-index?

Per i non addetti ai lavori, si tratta di un indice che serve per valutare l’impatto che il lavoro di uno scienziato ha sulla comunità scientifica di riferimento. Se un lavoro pubblicato è molto importante, esso viene citato tantissimo e l’h-index di quello scienziato aumenta in modo proporzionale al numero delle citazioni che riceve.

Nel mondo da classifiche calcistiche in cui viviamo, questo parametro sembra molto utile, vero?

In effetti sembra così. Il problema è che questo parametro deve essere necessariamente contestualizzato. Prima di usarlo è necessario entrare nel merito del lavoro di uno scienziato. Se così non fosse tutte le commissioni di cui faccio parte e di cui ho fatto parte (inclusa quella relativa all’Abilitazione Scientifica Nazionale del mio settore concorsuale) non avrebbero alcun senso. Se bastasse solo valutare il valore dell’h-index per fare una classifica di idoneità ad una data posizione accademica, non sarebbe necessario rompere le scatole ai docenti universitari per includerli nelle commissioni: basterebbe il lavoro di un semplice ragioniere che non dovrebbe fare altro che accedere ai data base accademici, estrarre il valore dell’h-index e, poi, mettere i nomi dei candidati in ordine di h-index decrescente. Al contrario, se a me serve un ricercatore che abbia esperienza in fisiologia vegetale, non vado a vedere solo il suo h-index, ma vado a valutare anche l’attinenza della sua ricerca con la posizione che egli deve occupare. Se al concorso si presenta un ricercatore in filologia romanza con h-index 40 ed uno in fisiologia vegetale con h-index 20, sceglierò il secondo dei due perché la sua attività di ricerca è più attinente al profilo di cui si sente il bisogno. Da tutto ciò si evince che l’articolo pubblicato su Il Tempo è fallace proprio in questo. Il giornalista, di cui non conosco il nome e neanche mi interessa perché sto valutando solo quello che ha scritto, ha messo a confronto gli h-index di una serie di scienziati più o meno famosi senza andare a vedere se i settori di cui essi si occupano sono congruenti gli uni con gli altri e se i lavori scientifici che hanno pubblicato siano congruenti con la virologia. Questo giornalista si è solo peritato di agire come un tipico ragioniere che legge dei numeri e li mette in fila dal più grande al più piccolo. Alla luce di questa classifica ha concluso che Burioni (persona che conosco personalmente e che stimo moltissimo) è uno scienziato tra i più scarsi del mondo. A questo giornalista non importa neanche minimamente ciò che il Prof. Burioni dice. Ciò che gli importa è che un parametro, che nel mondo universitario noi utilizziamo con tanta oculatezza, collochi questo scienziato in fondo alla classifica che egli ha deciso autonomamente di stilare senza tener in alcun conto delle differenze che possono esistere tra i diversi settori scientifici in cui gli scienziati da egli presi in considerazione si muovono. Ed allora perché non inserire nella stessa classifica anche il Prof. Guido Silvestri che ha un h-index di 66 (qui) e che si muove su posizioni analoghe a quelle di Burioni? Ma…poi…siamo sicuri che Anthony Fauci, con h-index 174 e consigliere di Trump, non sia in linea con quanto dicono Burioni e Silvestri? Il giornalista che ha scritto l’articolo che sto commentando, probabilmente, pensa di no. Non tiene conto del fatto che Trump è una scheggia impazzita, che gli americani hanno eletto a loro rappresentante uno che è fallito ben due volte, e che questa persona non brilli certo in quanto a cultura e preparazione scientifica.

Gli h-index e la credibilità scientifica.

Ora voglio usare gli stessi criteri del giornalista de Il Tempo per fare una mia classifica di scienziati. Partiamo dalla fisica. Penso che io non abbia bisogno di presentare Enrico Fermi. È una gloria italiana che ha dato un contributo notevole alla fisica mondiale. Trovate una sua biografia qui. Il suo h-index è 28 (qui). Incredibile vero? Nonostante abbia vinto un premio Nobel, Enrico Fermi ha un h-index confrontabile con quello di Burioni che il giornalista de Il Tempo ha giudicato scarso. Però in effetti sto confrontando un medico con un fisico, peraltro deceduto già da molto tempo. Non sono paragoni da fare. Andiamo a prendere un altro fisico che è diventato famoso qualche tempo fa, all’inizio degli anni 2000: Jan Hendrik Schön. Ho parlato di questo scienziato qui. Fu uno studioso della superconduttività nei sistemi organici. In odore da Nobel fino a che si scoprì che inventava i dati. Gli è stato ritirato anche il dottorato di ricerca. Ebbene, se andiamo a leggere l’h-index di Schön su Scopus, risulta che esso è pari a 32 (qui). In definitiva, usando i parametri del giornalista de Il Tempo, Enrico Fermi è più scarso di Jan Hendrik Schön. Ma quale tra i due ha maggiore credibilità? Enrico Fermi che ha lavorato seriamente ed ha dato un contributo alla fisica riconosciuto dall’intera comunità scientifica oppure Jan Schön che, invece, ha lavorato in modo poco serio arrivando ad inventarsi i dati pur di avere quella notorietà internazionale che non meritava?
Voglio continuare. Ritorniamo nel campo medico e prendiamo Wakefield. Sì, proprio il medico che è stato radiato dall’ordine dei medici e dalla comunità scientifica per aver inventato di sana pianta la correlazione tra vaccini ed autismo. Il suo h-index è 45 (qui) dovuto principalmente alle oltre 1500 citazioni che il suo lavoro su The Lancet, pubblicato nel 1998 e poi ritrattato una decina di anni dopo, sulla correlazione vaccini-autismo ha ricevuto. Usando i parametri del giornalista de Il Tempo, Burioni è più scarso di Wakefield. Ma voi nelle mani di chi mettereste la vostra salute: di Burioni o di Wakefield? Io non ho dubbi, per quanto mi riguarda: mi affiderei senza ombra di dubbi a Burioni.

Conclusioni

Ho scritto questo articolo per far capire quanta spazzatura ci sia in rete in merito a come vengono usati i numeri che hanno significato solo nell’ambito per cui quei numeri sono stati introdotti. Al di fuori dell’ambito accademico, l’h-index non può essere utilizzato. In ogni caso, anche in ambito accademico va utilizzato non in senso assoluto ma assieme a tutta una serie di parametri che servono per valutare la credibilità di uno scienziato. Usando un linguaggio matematico, l’h-index è condizione necessaria ma non sufficiente a farsi un’idea del lavoro di qualcuno.

Fonte dell’immagine di copertina

Fa freddo lassù?

Checché ne dicano chimici e fisici, le due discipline di cui essi sono rappresentanti sono strettamente correlate tra di loro. A certi livelli sono talmente incuneate l’una nell’altra che è difficile dire quando finisce la chimica e quando comincia la fisica. Prendete per esempio la quantomeccanica. Tutti quelli che ne parlano sono fisici, ma questa branca della fisica può essere considerata anche chimica grazie agli sforzi compiuti da Linus Pauling che, nella prima metà del XX secolo, si “inventò” la chimica quantistica, o quantochimica, per spiegare la natura del legame chimico (Figura 1).

Figura 1. Raccolta dei lavori di Linus Pauling in cui viene identificata la natura del legame chimico.

Fino a che Pauling non si impadronì della quantomeccanica per adattarla alla chimica, la rottura e la formazione dei legami chimici rimase in una sorta di limbo che faceva dei chimici dei veri e propri praticoni, abilissimi nel “maneggiare” le molecole, ma ancora lontani dal poter prima progettare e poi realizzare in laboratorio quanto avevano in mente.

Perché vi scrivo tutto questo?

Dovete sapere che in questo periodo di quarantena sono costretto a fare lezione per via telematica. Mi manca fortissimamente il contatto con gli studenti ed il poter trasferire le mie conoscenze non solo con le parole ma anche con la prossemica e con l’attività di laboratorio. In questo contesto sto studiando le lezioni che devo fare nelle prossime settimane per il mio corso di “Recupero delle aree degradate”. Una delle ultime lezioni riguarda la contaminazione atmosferica. È proprio ripassando le diapositive che presenterò tra un paio di settimane che ho realizzato anche a me stesso ciò che dico normalmente agli studenti dei miei corsi: chimica e fisica sono parenti stretti; non si può capire la chimica se non si conosce la fisica e non si può comprendere a fondo la fisica se non si hanno anche conoscenze chimiche. Sono sicuro che i miei amici fisici dissentiranno da quanto ho appena scritto, ma lasciatemi dire che chi afferma che per conoscere la fisica non c’è bisogno della chimica ha profonde falle cognitive. È come dire che la conoscenza umanistica non serve a chi si occupa di scienza. In realtà, la conoscenza umanistica aiuta a pensare, a mettere ordine nelle proprie idee, nel proprio modo di esprimersi e nel modo di presentare ciò che sappiamo.

Ma andiamo con ordine.

La fisica dell’atmosfera è direttamente legata alla sua chimica.
Nella Figura 2 si evidenzia la geografia dell’atmosfera con l’indicazione dei cambiamenti di temperatura (quindi una proprietà fisica) che si osservano man mano che ci allontaniamo dalla superficie terrestre.

Figura 2. Geografia dell’atmosfera con indicazioni dei cambiamenti di temperatura che si osservano al variare dell’altezza.

Usando il linguaggio tipico della Scienza del Suolo, la Figura 2 mostra il profilo dell’atmosfera nel quale è possibile individuare diversi orizzonti. L’orizzonte più vicino al suolo ha un’altezza di circa 16 km. Esso viene indicato col termine di troposfera in cui il suffisso “tropo” è di derivazione greca e vuol dire “mutazione”, “cambiamento”. La composizione chimica della troposfera è abbastanza complessa. Essa è costituita non solo da ossigeno ed azoto molecolari, ma anche da vapor d’acqua, anidride carbonica e tutte le altre varie anidridi come quelle di azoto e zolfo che hanno sia origine antropica che origine naturale. Per effetto dell’energia termica rilasciata dal suolo, le molecole di gas più vicine ad esso si riscaldano, diminuiscono di densità e si muovono verso l’alto venendo sostituite dalle molecole di gas più fredde e più dense che si trovano ad altezze maggiori. Si realizzano, quindi, delle correnti ascensionali (Figura 3) che sono sfruttate, per esempio, dai deltaplanisti o da chi è appassionato di volo senza motore.

Figura 3. Schema delle correnti ascensionali che si realizzano per effetto del riscaldamento al suolo delle molecole di gas atmosferico.

È proprio grazie all’energia termica rilasciata dal suolo che possiamo spiegare perché nella troposfera la temperatura diminuisce con l’altezza. Infatti, più vicini siamo al suolo, più risentiamo del calore emesso dalla superficie terrestre. Più ci allontaniamo dal suolo, più si riduce la temperatura per effetto della dissipazione del calore che proviene dalla superficie terrestre.
Tra 16 e 50 km di altezza c’è l’orizzonte atmosferico che viene definito stratosfera. In questo orizzonte c’è una concentrazione media di ozono che è dell’ordine delle decine di parti per milioni (v/v) contro i 0.04 ppm medi presenti nella troposfera. Questa elevata concentrazione di ozono rende conto dell’aumento di temperatura che si osserva man mano che ci si allontana dalla superficie terrestre e si passa dai 16 ai 50 km di altezza. Infatti, le radiazioni luminose provenienti dal suolo, da un lato, consentono la degradazione dell’ozono (O3) ad ossigeno molecolare (O2) ed ossigeno radicalico (O∙) in una reazione esotermica, dall’altro consentono un aumento dell’energia cinetica dei gas della stratosfera con conseguente aumento dell’energia termica.
Tra 50 ed 85 km c’è l’orizzonte che chiamiamo mesosfera. In questo orizzonte si osserva di nuovo una diminuzione di temperatura all’aumentare dell’altezza. Infatti, la temperatura della mesosfera può arrivare fino a -90°C. Questa diminuzione di temperatura è legata alla riduzione della densità dei gas ivi contenuti. L’energia termica proveniente dal Sole, pur incrementando l’energia cinetica delle molecole di gas, non è, tuttavia, in grado (a causa della bassa concentrazione di tali gas) di portare ad un aumento della temperatura.
L’orizzonte incluso tra 85 e 500 km di altezza prende il nome di termosfera. La composizione chimica della termosfera vede la presenza di molecole di ossigeno e molecole contenenti azoto. La radiazione elettromagnetica proveniente dal sole consente la ionizzazione delle molecole anzidette in reazioni di tipo esotermico. L’esotermicità delle reazioni appena citate, associate all’aumento dell’energia cinetica dei sistemi gassosi presenti nella termosfera, portano ad un aumento della temperatura che può arrivare fino a 1200 °C. Gli ioni presenti nella termosfera non solo sono in grado di far “rimbalzare” le onde radio consentendo, quindi, le comunicazioni sul globo terrestre, ma sono anche responsabili delle aurore boreali. Infatti, essi assorbono energia solare riemettendola sotto forma di radiazioni luminose che danno luogo alle meravigliose scenografie che si osservano nell’emisfero Nord del nostro pianeta (Figura 4).

Figura 4. Aurora boreale (Fonte).
Conclusioni

Fa freddo lassù? La risposta corretta è: dipende. Dipende dall’altezza a cui ci troviamo e dalla chimica degli orizzonti del profilo atmosferico. Come dicevo più su, questo post nasce dal desiderio di condividere con voi le meraviglie di due discipline interconnesse tra loro: la chimica e la fisica. Come potete intuire leggendo questo breve articolo, le conoscenze chimiche riescono a spiegare i fenomeni fisici che si osservano nell’atmosfera. Spero possiate perdonare le inesattezze che sicuramente ho scritto e che tutto ciò possa innescare una discussione interessante.

Altre letture

Fundamentals of physics and chemistry of atmosphere

Fonte dell’immagine di copertina

 

 

Perché i termini “scienza” e “biodinamica” nella stessa frase sono un ossimoro

Ogni tanto ritorno alla carica con l’agricoltura biodinamica. Ne ho parlato a varie riprese qui, qui, qui, qui, e qui. Mi chiederete voi: ma allora perché parlarne ancora una volta? Semplicemente perché ancora una volta delle Istituzioni pubbliche come un Ministero della Repubblica, una Università pubblica, una Regione ed un Comune hanno concesso il patrocinio per un convegno sulla biodinamica che si terrà a Firenze dal 26 al 29 Febbraio (qui).

Cosa vuol dire patrocinio?

Dalla Treccani on line possiamo leggere che il patrocinio è un “sostegno da parte di un’istituzione“. E quando si concede un sostegno? Quando si condividono i contenuti di una certa attività. Non c’è molto da aggiungere. Se io, Ministro o Rettore o Sindaco o altro rappresentante Istituzionale concedo un patrocinio è perché sono convinto della validità di certe attività e voglio legare la mia Istituzione alle predette attività. Cosa pensare, quindi? È possibile che un Ministero, una Università, una Regione e un Comune, attraverso la concessione del patrocinio, condividano i contenuti del convegno e, più in generale, approvino l’esoterismo alla base dell’agricoltura biodinamica? Secondo me no. Probabilmente, la concessione del patrocinio è avvenuta automaticamente senza che qualcuno si sia veramente reso conto di ciò che concedere il patrocinio ad un convegno del genere avrebbe potuto significare.

Ma non è finita. Al convegno prendono parte anche docenti universitari. Perché lo fanno? Probabilmente sono seguaci di Steiner oppure, più  probabilmente, hanno una falsa idea del significato di libertà di ricerca e di scienza (ne ho parlato qui). Perché falsa? Faccio un esempio banale: non c’è bisogno di chiedere se chi mi legge conosce la differenza tra astronomia ed astrologia. La prima è una scienza, la seconda una favoletta sulla quale si basa la formulazione degli oroscopi. Si tratta della medesima differenza che esiste tra l’agricoltura attuale, basata sull’uso della scienza e delle tecnologie moderne, e la biodinamica, basata sulle idee di una specie di filosofo vissuto agli inizi del ‘900 e, praticamente, sempre uguale a se stessa.

Invocare libertà di scienza e ricerca pretendendo di dare pari dignità scientifica all’agricoltura moderna ed alla biodinamica è lo stesso che attribuire scientificità all’astrologia.

E’ mia opinione che gli accademici che con la loro attività sdoganano la biodinamica come pratica scientifica non facciano un buon servizio alla Scienza. Ovviamente ognuno è libero di fare ciò che vuole della propria dignità scientifica ed ognuno è libero di fare ricerca su qualsiasi cosa sia di proprio gradimento. Ciò che è importante è che non vengano impegnate risorse pubbliche per attività di ricerca che si fondano sull’esoterismo.

Come componente della Rete Informale Scienza e Tecnologie per l’Agricoltura (SETA), sono anche io tra i firmatari della lettera aperta che potete leggere qui sotto cliccando sulle immagini. In questa sede spieghiamo nei dettagli perché l’agricoltura biodinamica non può essere considerata scienza. Le nostre argomentazioni si basano esclusivamente sulla lettura dei disciplinari che devono seguire tutti coloro che vogliono usare il termine “biodinamica” sull’etichetta dei loro prodotti.

Buona lettura.

Fonte dell’immagine di copertina

Pillole di scienza: le meraviglie dell’aromaticità

Chiedo scusa ai miei lettori, ma questa pillola di scienza oggi è dedicata ai miei studenti ed a tutti quelli che hanno studiato la chimica organica. Per questo motivo userò un linguaggio poco divulgativo ed abbastanza tecnico.

Il linguaggio comune ed il linguaggio scientifico: usi ed abusi

Il termine “aromatico” viene attribuito, nel linguaggio comune, a un oggetto che emana un buon odore. Si tratta quindi di una qualità che viene associata a qualcosa di “buono”. Quante volte abbiamo sentito, o noi stessi abbiamo detto, “senti che buon aroma di caffè” oppure “hmmmm che buon profumo ha questa zuppa” laddove il termine “profumo” è sinonimo di “aroma”.

Ebbene, noi chimici, a causa delle limitazioni del nostro linguaggio, siamo abituati a prendere i termini comuni ed a cambiar loro di significato per attribuirne uno di carattere molto più tecnico. Ecco perché mi salta subito la mosca al naso quando sento le persone parlare di chimica o, più in generale, di scienza usando termini tecnici di cui, però, non conoscono il significato. Queste persone pensano che usare parole prese dal linguaggio scientifico e messe in fila in modo casuale dia un’àura di scientificità alle cose che dicono. Solo per citare pochi esempi mi vengono in mente quelli che esaltano la biodinamica scrivendo “robe” come quelle che vedete nell’immagine qui sotto. Cliccando sull’immagine si apre la pagina dalla quale ho fatto lo screenshot.

Che dire poi di quelli che si sono votati all’omeopatia, pratica esoterica di cui parlo abbondantemente in uno dei capitoli del mio libro “Frammenti di Chimica“? Ne ho già parlato tante volte. Alcune delle chicche sono analizzate nel link qui sotto:

Omeopatia, ultima frontiera

Cosa significa aromatico in chimica

Lasciamo da parte le polemiche e concentriamoci sul significato dell’aggettivo “aromatico” nel linguaggio chimico. Se cerchiamo sulla Treccani online, possiamo leggere:

aromàtico agg. [dal lat. tardo aromatĭcus, gr. ἀρωματικός] (pl. m. –ci). – […] In chimica organica, composti a. (così denominati perché vi appartengono molte sostanze aromatiche), serie di composti ciclici nella cui molecola sono contenuti uno o più sistemi a sei atomi di carbonio disposti ad anello (distinti in omociclici e eterociclici a seconda che ai vertici dell’anello si trovino tutti atomi di carbonio o anche altri atomi)

Questo è il classico esempio di informazione così generale da perdere completamente di significato in termini chimici. Infatti esistono tanti composti omociclici ed eterociclici che non hanno assolutamente la caratteristica di essere aromatici. E non necessariamente devono essere presenti sistemi ciclici a sei atomi di carbonio.

La regola di Hückel

Da un punto di vista chimico un sistema organico si dice aromatico quando:

  1. contiene 4n+2 elettroni π (con n intero e  ≥ 0)
  2. è ciclico e planare

In tutti gli altri casi il sistema si dice antiaromatico. I sistemi aromatici hanno come peculiarità la bassa reattività, ovvero elevata stabilità chimica.

Vediamo alcuni esempi di composti aromatici ed antiaromatici

Il benzene è un sistema ciclico con la struttura descritta nella figura seguente:

La posizione dei doppi legami cambia e le due strutture, del tutto equivalenti, sono indicate come ibridi di risonanza. Nel sistema π del benzene sono presenti 6 elettroni, ovvero rispetta la regola del 4n+2 per n=1. Qui sotto viene evidenziato come l’ibridazione (sp2) degli atomi di carbonio consenta alla molecola di avere una struttura planare.

Entrambe le condizioni della regola di Hückel sono rispettate ed il benzene può essere considerato un composto aromatico.

Prendiamo adesso in considerazione il [10]annulene qui sotto:

C’è un anello, ci sono 10 elettroni π. Il numero di elettroni nel sistema π segue la regola di Hückel del 4n+2 per n=2. Tuttavia il composto non è aromatico perché non ha una struttura planare:

(Fonte)

La non planarità è dovuta al fatto che gli atomi di idrogeno indicati nella figura sottostante si respingono per effetto sterico portando la molecola ad avere una struttura a twist.

(Fonte)

 

Lo ione tropilio

Quando si studia la chimica organica e si arriva al capitolo sull’aromaticità, ci si imbatte anche nello ione tropilio (o catione cicloeptatrienile) che viene, in genere, indicato come lo ione più grande avente caratteristiche aromatiche. Esso si ottiene per allontanamento dello ione idruro dal cicloeptatriene. Quest’ultimo, pur avendo 6 elettroni π (n=1 nella regola di Hückel), non è aromatico a causa di un carbonio sp3 che lo rende non planare. Quando lo ione idruro viene allontanato, tutti gli atomi di carbonio risultano di tipo sp2, il sistema diventa planare, il numero di elettroni è quello previsto dalla regola di Hückel e lo ione è aromatico.

I sistemi aromatici “giganti”

La regola di Hückel è un utile strumento per comprendere cosa significhi il termine “aromatico” in chimica . Questa regola è di applicabilità generale e può essere validata sperimentalmente attraverso l’uso della spettroscopia di risonanza magnetica nucleare (NMR). Infatti, gli elettroni del sistema π di un composto aromatico generano una corrente di anello (ring current) responsabile di un campo magnetico locale che si addiziona o si sottrae al campo magnetico applicato durante l’esperimento NMR. La variazione del campo magnetico dovuta alla corrente di anello comporta  uno shift dei segnali dei nuclei soggetti a tale fenomeno. Per un approfondimento di carattere didattico cliccare qui.

(Fonte)

La spettroscopia di risonanza magnetica nucleare è la tecnica usata per sfatare un mito in base al quale più grande è la molecola contenente 4n+2 elettroni π e più facilmente essa è in grado di deformarsi così da allontanarsi dalle condizioni strutturali che soddisfano la regola di Hückel.

Nel 2016 è stato pubblicato un lavoro (qui) in cui viene descritta una molecola aromatica contenente fino a 62 elettroni π (ovvero n=15 nella regola del 4n+2):

Come mai una molecola così grande, la più grande sintetizzata fino al 2016, si comporta come un sistema aromatico rispettando la regola di Hückel? Gli autori dell’articolo ipotizzano che l’enorme flessibilità della molecola consenta la coesistenza di tanti conformeri. Tra questi possono sussistere dei conformeri in cui le nuvole elettroniche di tipo π interagiscano tra loro in modo da portare ad una delocalizzazione elettronica in grado di soddisfare la regola di Hückel. Questa stessa spiegazione è stata usata per giustificare il comportamento aromatico di una molecola sintetizzata più recentemente (il lavoro è stato pubblicato il 20 Gennaio 2020, qui) contenente ben 162 elettroni π (ovvero n=40 nella regola del 4n+2). Si tratta di una vera e propria ruota gigantesca in cui coesistono 12 anelli porfirinici.

(Fonte)
Conclusioni

A questo punto mi potreste chiedere: ok. Bella tutta ‘sta storia, ma a che serve? Voglio evidenziare che la sintesi di molecole così grandi consente di mettere a punto protocolli che possono essere usati per la sintesi di molecole diverse e con attività biochimiche da sfruttare per l’elaborazione di nuovi farmaci. Per poter “vedere” queste molecole è necessario spingersi ai limiti delle tecniche analitiche più utilizzate in chimica. Questo vuol dire che vengono migliorate le caratteristiche di tecniche che possono diventare di applicazione sempre più ampia e consentire di arrivare a limiti finora inesplorati. Infine, queste molecole aromatiche giganti possono essere utilizzate per studiare gli effetti quantistici a livello nanoscopico ben oltre i limiti imposti dalle dimensioni della costante di Planck.

Quando leggo queste notizie, che per me sono affascinanti perché mi consentono di immergermi in un mondo tutto mio, mi ricordo perché mi sono innamorato della chimica ed ho fatto del mio hobby il mio lavoro.

Letture consigliate

Even Huge Molecules Follow the Quantum World’s Bizarre Rules

Quantum superposition of molecules beyond 25 kDa

Porphyrin wheel sets record as largest aromatic ring

[62]Tetradecaphyrin and Its Mono- and Bis-ZnII Complexes

Global aromaticity at the nanoscale

Fonte dell’immagine di copertina

Su Vandana Shiva e la pseudoscienza

Sono ben note le posizioni antiscientifiche di Vandana Shiva, la guru indiana dell’agricoltura biologica, che segue la filosofia secondo cui “l’agricoltura industriale sarebbe foriera di quasi tutti i disastri economici, ecologici e umanitari del pianeta” (qui).  Non è un caso che il mondo scientifico italiano si sia recentemente ribellato alla decisione del Ministro Fioramonti di indicarla come consulente del MIUR (qui). La stessa Società Italiana di Agronomia è intervenuta nel dibattito, come si evince da questo link, evidenziando che la scelta della Shiva quale consulente del Ministero contrasti con i parametri che il MIUR ha deciso di utilizzare per la costruzione di commissioni di alto profilo scientifico come quelle coinvolte nell’Abilitazione Scientifica Nazionale:

Un ministero che a giusta ragione stabilisce e impone criteri di valutazione e di qualificazione di ricercatori, docenti, strutture di ricerca e Università, che ci sottopone, ripeto a giusta ragione, a continue valutazioni della performance, VQR, abilitazioni basate su indici bibliometrici etc., dovrebbe adottare gli stessi criteri, e anche molto più severi, per istituire commissioni di alto profilo scientifico. Tali commissioni spesso danno un indirizzo sociale, economico e politico a un intero paese. […] La qualificazione scientifica (della SHIVA) è fondata su 62 pubblicazioni, poche delle quali affrontano in modo sistematico i temi della sostenibilità e dell’ecologia e totalizza su Scopus un h index di 13, di gran lunga al di sotto della qualificazione scientifica della maggior parte dei nostri colleghi che su questi temi, in maniera rigorosa, hanno prodotto molte e specifiche pubblicazioni”.

Queste appena riportate sono le parole che il Presidente della Società di Agronomia, Professor Michele Perniola, rivolge a chi considera la Shiva la candidata ideale per occupare il posto di responsabilità che il Ministro Fioramonti aveva deciso di affidarle.

Anche la rete informale Scienze e Tecnologie per l’Agricoltura (SeTA) è intervenuta con una lettera aperta (qui) nella quale viene riportato che:

Tra i più vocali venditori di fumo nel campo del negazionismo scientifico in agricoltura si pone senza dubbio Vandana Shiva, esponente di un antiscientismo radicale e militante e nota per aver diffuso grazie ad una efficace strategia comunicativa alcune fra le peggiori e più tenaci bugie che inquinano il dibattito pubblico. In proposito, si ricordano le sue bugie circa i suicidi degli agricoltori indiani dovute alla coltivazione di cotone transgenico, fino alle recenti bugie circa le cause e i rimedi per il disseccamento rapido dell’ulivo nel nostro Paese: bugie raccontate a fronte di lauti guadagni, considerate le parcelle richieste per i suoi numerosi interventi. Per non parlare delle bugie circa la sterilità delle colture OGM. Oggi non esiste al mondo nessun seme sterile di nessun tipo di pianta Ogm. Moltissimi, anche tra gli scienziati che operano in altri campi sono persuasi da questa bufala, e da parte nostra non ci stancheremo mai di ripetere che è un falso entrato nelle teste di tantissime persone e che inquina da decenni il dibattito su questi temi. A fronte di questi fatti, è impensabile che in un paese occidentale avanzato come il nostro ci si possa avvalere proprio presso il ministero dell’università e della ricerca scientifica della consulenza di Vandana Shiva sul tema dello sviluppo sostenibile: le idee da lei espresse, infatti, portano al più ad un sottosviluppo insostenibile, per la popolazione e per l’ambiente insieme”.

Ma non è solo la scienza italiana ad essere stanca delle sciocchezze, in termini scientifici, propalate da una persona che con l’agricoltura ha poco o niente a che fare. Anche gli scienziati d’oltre oceano sono stanchi.

Il 23 Gennaio 2020 è prevista alla Stanford University (California, USA) una lecture di Vandana Shiva dal titolo “Soil not Oil: Biodiversity-based Agriculture to Address the Climate Crisis” (qui).

Contro l’ufficializzazione presso una prestigiosa università statunitense delle sciocchezze pseudoscientifiche di Vandana Shiva si sono schierati molti accademici di istituzioni sparse in tutto il mondo. Tra le autorità scientifiche schierate contro la lecture di Vandana Shiva ci sono, per esempio, Sir Richard John Roberts (Chief Scientific Officer, New England Biolabs, Ipswich, MA e 1993 Nobel Laureate in Physiology or Medicine) e Nina Fedoroff (Penn State University Emeritus Professor of Biology, former President of the American Association for the Advancement of Science, AAAS).

I docenti/ricercatori anzidetti, insieme ad altri di qua e di là dell’Atlantico (tra cui anche chi scrive), hanno sottoscritto una lettera aperta (a cui tutti sono invitati ad aderire) al Rettore della Stanford University e ai dirigenti del Woods Institute, che ospiterà il convegno, organizzato da una società studentesca nella quale  evidenziano come la Shiva abbia una assurda tendenza alle sciocchezze (come quella secondo cui i semi sterili – che ovviamente non possono germogliare – possono diffondere la sterilità), sia famosa per la sua proverbiale ignoranza (per esempio, affermando che le proteine Bt sono tossiche per tutte le forme viventi, mentre invece lo sono solo per alcune classi di insetti chiaramente identificate e non per pesci, uccelli e mammiferi), abbia la tendenza poco elegante ad offendere (per esempio quando paragona gli agricoltori che decidono liberamente di usare colture OGM a stupratori), rifiuti la tecnologia per alleviare le fatiche (soprattutto di donne e bambini) legate al diserbo manuale, o rifiuti tout court l’uso dei fertilizzanti in agricoltura, paragonandoli ad armi di guerra.

Cosa potrà mai suggerire questa persona, con le sue idee antiscientifiche ed eticamente spregevoli, per aiutare a risolvere i problemi dell’agricoltura, del clima, della biodiversità e della sicurezza alimentare , se non continuare a propalare la pseudoscienza di cui è forte sostenitrice?

Cosa mai può aver spinto i vertici della Stanford University ad accettare che dei propri studenti abbiano invitato Vandana Shiva a tenere una lecture in occasione di un evento dedicato a Stephen Schneider, climatologo di fama mondiale presso la medesima università?

Cliccando qui o sulla figura qui sotto si aprirà il link alla lettera aperta degli scienziati di tutto il mondo alla Stanford University

Questo articolo è apparso sulla Newsletter n. 11 della Società Italiana di Scienza del Suolo

L’immagine di copertina è stata ottenuta da Wikimedia Commons

Il chlorpyrifos: a cosa serve e come funziona

Avete sicuramente sentito nominare negli ultimi giorni il chlorpyrifos e del fatto che il suo utilizzo sia vietato in alcuni paesi della Comunità Europea, ma soprattutto che la EU sta tentando di vietarne l’uso in tutti i paesi membri (qui e qui). Nel caso in cui l’uso di questo agrofarmaco venisse vietato, si avrebbe un’arma in meno  per la lotta a quegli insetti che fanno parecchi danni alle aziende agricole. Pensate che la cimice asiatica (Figura 1) ha provocato in Italia danni per circa 350 milioni di euro solo per il 2019 (qui).

Figura 1. Immagine della cimice asiatica (fonte)

Il chlorpyrifos è un insetticida molto utile per il contrasto alla cimice asiatica, così come per la lotta al punteruolo rosso (Figura 2) che ha decimato la popolazione di palme in tutta Italia negli ultimi anni.

Figura 2. Immagine del punteruolo rosso (fonte)

Al di là delle decisioni che verranno prese entro la fine di Gennaio 2020, qui voglio spiegare alcune caratteristiche di questo agrofarmaco.

Cosa è il chlorpyrifos

Il nome IUPAC è O,O-diethyl-O-3,5,6-trichloro-2-pyridyl-phosphorothioate e la sua struttura è riportata in Figura 3.

Figura 3. Struttura ball-and-stick del chlorpyrifos. Le palline verdi sono atomi di cloro; quelle rosse atomi di ossigeno; le palline grigie sono gli atomi di carbonio; quelle bianche sono atomi di idrogeno; la pallina blu è l’atomo di azoto, la pallina gialla è l’atomo di zolfò, la pallina arancione è l’atomo di fosforo (fonte)

Si tratta di un composto organico la cui azione è quella di inibire l’attività della acetilcolinesterasi.

Bene, direte voi, adesso è tutto chiaro. Vero?

In effetti usare un nome complicato senza spiegarlo è come non spiegare nulla.

L’acetilcolinesterasi è un enzima, ovvero una proteina che ha delle specifiche funzioni all’interno del nostro organismo, che gioca un ruolo importantissimo nella trasmissione degli impulsi nervosi. Esso si trova nelle sinapsi tra le cellule nervose e quelle muscolari e interviene nelle contrazioni muscolari. In particolare, l’acetilcolinesterasi entra in azione dopo che un segnale nervoso è passato, demolendo l’acetilcolina nelle sue due componenti, l’acido acetico e la colina (Figura 4). Questa reazione ferma la trasmissione del segnale.
I due frammenti non vanno perduti, ma vengono riciclati per sintetizzare nuovi neurotrasmettitori per altre contrazioni muscolari. Il tempo necessario per la degradazione della molecola di acetilcolina è di circa 50 microsecondi.

Figura 4. Degradazione della acetilcolina. Nu è l’acronimo di “nucleofilo”, ovvero un sistema ricco di elettroni che reagisce con un elettrofilo, cioè un sistema povero di elettroni. Il nucleofilo è presente nel sito attivo della acetilcolinesterasi (fonte)

Come si vede dalla Figura 4, un gruppo funzionale ricco di elettroni (nucleofilo, Nu) presente nel sito attivo della acetilcolinesterasi (si tratta del gruppo -OH della catena laterale dell’amminoacido serina) attacca il gruppo carbonilico (-C=O) povero di elettroni presente nella acetilcolina determinando la frammentazione della molecola in una colina deprotonata e un sistema in cui il gruppo acetile (CH3CO-) rimane legato all’enzima. Quest’ultimo subisce una reazione di idrolisi con rigenerazione dell’enzima e formazione di acetato e colina.

Quando il chlorpyrifos si inserisce nel sito attivo della acetilcolinesterasi, il gruppo nucleofilo anzidetto va ad attaccare il fosforo presente nell’insetticida (Figura 5). Si formano, quindi, due frammenti (A e B in Figura 5) di cui uno, quello indicato con la lettera A, è l’enzima il cui sito attivo è “bloccato” dalla presenza del residuo contenente il fosforo. Il legame tra la serina e il residuo col fosforo non può essere idrolizzato, ovvero la serina non si può più “liberare” e l’acetilcolinesterasi non può più essere utilizzata per la reazione descritta in Figura 4. Questo significa che non si possono avere più contrazioni muscolari.

Figura 5. Reazione di inibizione dell’acetilcolinesterasi

Un insetto, come la cimice asiatica o il punteruolo rosso, colpito dal chlorpyrifos muore a causa del meccanismo appena descritto.

I limiti del chlorpyrifos

I meccanismi descritti provocano danni anche all’uomo. La concentrazione limite oltre la quale l’insetticida sotto indagine risulta tossico mediante assunzione orale per gli animali è nell’intervallo 32-1000 mg/kg. In altre parole, per risentire degli effetti del chlorpyrifos, un individuo di 70 kg deve assumere una dose orale di insetticida nell’intervallo compreso tra 2 e 70 grammi. Per avere effetto tossico mediante contatto epidermico, un individuo di 70 kg deve venire a contatto con circa 140 g di insetticida (riferimenti). La Comunità Europea sta cercando di proibire l’uso del chlorpyrifos sulla base del principio di precauzione legato al fatto che non è chiara la genotossicità dell’insetticida (qui). Tuttavia, stando a quanto riportato nel rapporto EFSA, gli esperimenti che sembrerebbero indicare genotossicità sono stati condotti con quantità di chlorpyrifos molto al di sopra dei limiti citati. Come al solito è necessario evidenziare che è la dose che fa il veleno. Un uso attento ed oculato di insetticida non provoca alcun danno. Occorre anche evidenziare che l’uso spregiudicato del principio di precauzione “spunta” le armi che gli agricoltori hanno a disposizione per combattere insetti nocivi alla nostra produzione alimentare

 

Fonte dell’immagine di copertina (qui)

Pane all’acqua di mare: realtà o fantasia?

di Enrico Bucci e Pellegrino Conte

Vi ricordate il pane fatto con l’acqua di mare?

Qualche tempo fa le principali agenzie di stampa italiane titolarono a nove colonne che ricercatori italiani avevano scoperto che  il pane fatto usando l’acqua di mare, invece che la normale acqua di rubinetto, aveva proprietà salutistiche migliori del pane tradizionale.

Ecco, per esempio, cosa scriveva il Gambero Rosso già nel 2017:

Una nuova ricetta che consente di risparmiare acqua potabile, offrendo un alimento valido anche per chi è obbligato a seguire una dieta povera di sodio: il pane prodotto con l’acqua di mare è l’ultimo, innovativo progetto nato dalla collaborazione dei panificatori associati all’Unipan con Termomar e il Consiglio Nazionale delle Ricerche

mentre l’ANSA nell’Aprile di quest’anno (2019) scriveva:

Arriva il pane all’acqua di mare. E’ senza sale, ma saporito e povero di sodio

a cui faceva seguito il sito de La Cucina Italiana che riportava:

È iposodico e contiene il triplo di magnesio, il quadruplo di iodio, più potassio, ferro e calcio. Adesso viene distribuito anche nei supermercati

Anche il National Geographic ha riportato la notizia scrivendo che:

Lo ha prodotto il CNR, contiene meno sale rispetto a un filone prodotto con acqua dolce, ed è più ricco di iodio, magnesio e potassio

Insomma un tripudio alla genialità italiana che ha confermato il luogo comune secondo cui siamo un “popolo di eroi, di santi, di poeti, di artisti, di navigatori, di colonizzatori, di trasmigratori” e … di scopritori.

Cosa c’è di vero in tutto quello che è stato riportato dalle agenzie di stampa?

Ovviamente i giornalisti non hanno inventato nulla. È vero che un team di ricercatori italiani ha prodotto un tipo di pane usando acqua di mare e lo ha confrontato col pane prodotto in modo tradizionale ottenuto con acqua di rubinetto ed il comune sale da cucina. È anche vero che gli stessi ricercatori hanno posto un accento particolare sulle proprietà salutistiche del pane da essi “inventato” evidenziandone le qualità superiori rispetto al pane che da sempre siamo abituati a mangiare. La loro “invenzione” è stata oggetto di una pubblicazione su International Journal of Food Properties, una rivista della Taylor & Francis con un Impact Factor di 1.845 per il 2017, dal titolo: “Bread chemical and nutritional characteristics as influenced by food grade sea water”. Quello che i tutti i giornalisti e commentatori non sono stati in grado di fare è una valutazione critica dello studio pubblicato, posto che lo abbiano mai letto. Ma possiamo capire. Il loro compito non è fare valutazioni critiche di lavori pubblicati su riviste scientifiche. Sono pagati per riportare la cronaca di ciò che trovano in rete o che viene loro dato in pasto dalle agenzie di stampa degli Enti di Ricerca, come il CNR, che intendono pubblicizzare le proprie attività interne. Un pane salutistico fatto con l’acqua di mare attrae certamente l’attenzione sia verso l’Ente che ha sovvenzionato la ricerca che verso i giornali che riportano la notizia. Ma quanto c’è di vero nel lavoro che si può facilmente scaricare da questo link?

Avvertenze

Da questo momento in poi la lettura può diventare noiosa perché siamo costretti ad entrare in particolari tecnici senza i quali non è possibile rispondere alla domanda che dà il titolo a questo articolo. Naturalmente, è possibile “saltare” direttamente alle conclusioni se non avete voglia di seguire tutti i passi che ci conducono alla constatazione che lo studio pubblicato è superficiale, progettato ed eseguito male e non giustifica affatto l’esaltazione giornalistica di cui abbiamo già riportato. Ma andiamo con ordine.

Una analisi critica

Nella sezione dedicata ai Materiali e Metodi, gli autori scrivono che l’acqua di mare è stata fornita dalla Steralmar srl, una ditta di Bisceglie (in provincia di Barletta-Andria-Trani, BT). Tuttavia, una attenta lettura dell’intero lavoro evidenzia che da nessuna parte gli autori riportano la benché minima analisi chimica dell’acqua che hanno deciso di usare per la produzione del “loro” pane. Non è riportata neanche l’analisi chimica dell’acqua di rubinetto usata per la produzione del pane usato come controllo per il confronto con il pane “innovativo”. Eppure gli autori discutono delle diverse composizioni chimiche delle tipologie di pane che hanno prodotto. Basta leggere le Tabelle 1 e 2 per rendersi conto di quanto essi ritengano rilevanti le differenze in termini chimici tra i pani prodotti. Tutti i ricercatori sanno che quando si cercano differenze tra prodotti ottenuti in modo differente occorre fornire dei validi punti di partenza per poter capire se le differenze che si evidenziano sono dovute ad errori sperimentali o ai “reagenti” che si utilizzano. Ed allora: qual è la concentrazione salina dell’acqua di mare e dell’acqua di rubinetto?  È presente sostanza organica disciolta in entrambe? Ed il loro pH: è lo stesso o è differente?

Il cloruro di sodio

Prendiamo, per esempio, la Tabella 1. Gli autori scrivono che il pane prodotto con acqua di rubinetto (TWB) è stato ottenuto aggiungendo 15 g di cloruro di sodio (quello che nel linguaggio comune è il sale da cucina) a 300 mL di acqua di rubinetto. Nella stessa tabella, non c’è alcuna indicazione sull’ammontare di cloruro di sodio contenuto nei 300 mL di acqua di mare usata per fare il “pane all’acqua di mare” (SWB). Nonostante ciò, gli autori concludono che il pane SWB contiene meno sodio rispetto a quello TWB e ne suggeriscono l’uso nelle diete iposodiche.

Ma per entrare nel merito, proviamo a fare quelli che vengono indicati come “i conti della serva”.

15 g di cloruro di sodio (NaCl) contengono 5.9 g di sodio (diciamo che nel pane TWB ci sono circa 6 g di sodio). L’acqua di mare contiene in media circa 27 g kg-1 di NaCl. Dal momento che la densità media dell’acqua di mare è di circa 1.02 g mL-1 a 4 °C, ne viene che la quantità di cloruro di sodio in 300 mL di acqua di mare corrisponde a 8.3 g. Nei circa otto grammi di cloruro di sodio sono contenuti circa 3 g (3.2 g, per la precisione) di sodio.

In termini percentuali, il contenuto in cloruro sodio per ogni panello non ancora cotto si calcola come:

che per il pane TWB restituisce un contenuto di NaCl pari a 1.6% (ovvero circa 2%), mentre per il pane SWB dà un valore di 0.86% (ovvero un po’ meno dell’1%).

Se, tuttavia, teniamo conto di tutti i possibili sali presenti nell’acqua di mare (la salinità dell’acqua di mare, che NON è dovuta solo al cloruro di sodio – ricordiamo che nel linguaggio chimico, il termine “sale” si riferisce a composti ottenuti per reazione tra un acido e una base – è di circa 35 g kg-1) e che essi non vengono rimossi durante la preparazione del pane, si ottiene che il pane SWB ha un contenuto salino pari a 1.1%.

In base ai contenuti di acqua riportati dagli autori per entrambi i tipi di pane (32.4% e 32.5% per TWB e SWB, rispettivamente), se ne ricava che il contenuto salino per TWB e SWB, come riportato nella Tabella 2 dello studio che stiamo valutando criticamente, non dipende da come il pane viene preparato e cotto, bensì dalla quantità di sale che gli autori decidono scientemente di aggiungere. In altre parole, considerando che l’acqua di mare contiene meno cloruro di sodio di quanto usato per la produzione del pane con la tecnica tradizionale, ne viene che il pane SWB ha meno sodio di quello TWB. Ma gli autori non avrebbero potuto ottenere lo stesso pane tradizionale iposodico aggiungendo meno sale da cucina nel loro preparato di controllo? Per esempio, se avessero preparato un pane tradizionale usando 11 g di cloruro di sodio, invece che i 15 g descritti, avrebbero ottenuto un pane TWB identico, per quanto riguarda il contenuto sodico, a quello SWB. Perché non l’hanno fatto?

Il contenuto di sodio e gli errori analitici

Centriamo la nostra attenzione sui dettagli della Tabella 2. Qui gli autori scrivono che hanno rilevato 1057 e 642 mg di sodio nel pane TWB ed in quello SWB, rispettivamente. Tuttavia, alla luce dei “conti della serva” fatti prima, il contenuto di sodio in TWB avrebbe dovuto essere molto di più (ricordiamo che ci dovrebbero essere circa 6 g, ovvero 6000 mg, di sodio in TWB). Cosa è accaduto? Si è perso cloruro di sodio durante la cottura? Come mai? E come mai gli autori non ritengono che possa essere accaduto lo stesso per il pane SWB? La cosa più grave, tuttavia, a nostro avviso è che gli autori riportano quattro cifre significative per il contenuto di sodio in TWB e tre per quello contenuto in SWB senza alcun accenno di errore sperimentale (per il significato di cifre significative e propagazione dell’errore sperimentale si rimanda al seguente link). Senza l’indicazione dell’errore commesso durante gli esperimenti, 1057 e 642, sebbene possano apparire diversi in termini matematici, sono, in realtà, lo stesso numero.

In realtà, dobbiamo anche ammettere che se guardiamo la Tabella 3, gli autori riportano che il contenuto di sodio in SWB è pari a 6492 mg kg-1 (quattro cifre significative senza errore. Significa che 6492=6500=6400=6300 etc. etc. SIC!) mentre quello in TWB è di 10570 mg kg-1 (cinque cifre significative senza errore. Significa che 10570=10600=10500=10400 etc. etc. SIC!).

Tralasciando per il momento la scorrettezza con cui gli autori riportano i loro risultati ed assumendo che quei valori siano verosimili, ne viene che dalle analisi svolte, il pane ottenuto mediante l’uso di acqua di rubinetto contiene circa 11 g di sodio. Dal momento che i “calcoli della serva” ci dicono che il contenuto di sodio aggiunto in TWB è di circa 6 g, ne viene che circa 5 g di sodio provengono dagli altri ingredienti usati per la produzione del pane.

Andiamo a vedere qual è il contenuto di sodio in SWB. Gli autori dichiarano di aver rilevato circa 7 g di sodio (6492 mg sono appunto 6.5 g ovvero circa 7 g) a fronte dei 3 g di sodio ottenuti dai “calcoli della serva”. La differenza di 4 g è attribuibile ai materiali usati per la panificazione.

La differenza tra sodio aggiunto e sodio trovato in TWB e SWB evidenzia, semmai ce ne fosse stato bisogno, l’importanza nel riportare correttamente gli errori nella valutazione quantitativa dei parametri necessari a distinguere tra prodotti ottenuti usando materiali di partenza identici tranne per l’acqua usata per la panificazione.

Si potrebbe dire: “va bene. In un caso il materiale di partenza fornisce 5 g di sodio, nell’altro 4 g. La differenza di 1 g rientra nell’ambito di un errore sperimentale”.

In realtà non è così.

Gli autori riportano chiaramente che il sodio trovato in TWB è pari a 10570 mg kg-1, ovvero per ogni chilogrammo di pane ci sono 10.570 g di sodio. Dai calcoli sopra riportati, il contenuto di sodio aggiunto è 5.9 g. La differenza è 4.67 g. Nel caso di SWB la differenza tra sodio trovato (6.492 g) e sodio aggiunto (3.2 g) equivale a 3.292 g. Alla luce di quanto finora illustrato ne viene che a parità di materiale (ricordiamo che la differenza tra i pani prodotti è solo nella tipologia di acqua) in un caso il contributo al contenuto di sodio è più alto che nell’altro. Chissà perché in TWB, il contenuto di sodio dovuto al materiale usato per la panificazione è più alto di 1.378 g rispetto a SWB.

Le domande, a questo punto sorgono spontanee: come mai gli autori non hanno fatto una adeguata analisi degli errori sperimentali? Come mai non hanno preparato un pane completamente privo di sale da usare come controllo? Come mai non hanno preparato un pane del tipo TWB con un contenuto più basso di cloruro di sodio da usare come controllo? Come mai non hanno usato acqua di rubinetto proveniente da acquedotti diversi per produrre pane con caratteristiche differenti da confrontare con quello preparato con acqua di mare?

Ancora sull’analisi degli errori

I lettori attenti potrebbero obiettare alle cose che abbiamo scritto che non è vero che gli autori del lavoro non hanno riportato gli errori sperimentali. Lo hanno fatto. Infatti, nella Tabella 3, per esempio, è scritto che il contenuto di sodio in TWB è pari a 10570.000 ± 2.7320 mg kg-1. Insomma, per essere sicuri delle loro conclusioni e per sembrare più scientifici, gli autori hanno riportato un errore con ben quattro cifre decimali e cinque cifre in totale.

La teoria degli errori ci insegna che quando si riporta il valore numerico di una qualsiasi grandezza fisica, il numero di cifre che si possono usare non è quello che viene ottenuto dalla calcolatrice, bensì bisogna fermarsi alla prima cifra contenente l’errore. Facciamo un esempio prendendo proprio quanto scritto dagli autori dello studio sotto esame. Essi hanno scritto che il contenuto di sodio in TWB è  10570.000 ± 2.7320 mg kg-1. Stanno dicendo, in altre parole, che tutte le cifre indicate in grassetto (10570.000) sono affette da errore. In base alla teoria degli errori che tutti quelli che hanno affrontato studi scientifici conoscono (anche gli autori dello studio sotto indagine dovrebbero conoscere la teoria degli errori. Ma evidentemente non è così), il modo corretto per riportare il contenuto di sodio è: 10570 ± 3 mg kg-1. Queste considerazioni si applicano a tutte le cifre riportate in Tabella 3.

I limiti dell’analisi statistica

Gli autori hanno pensato bene di fare un’indagine statistica (Principal Component Analysis, PCA) che hanno riportato nella Figura 1 del loro studio. In questa indagine hanno rilevato che la PCA1 risponde per il 99% dei dati sperimentali.

Tutti quelli che a vario titolo si occupano di scienza ed usano la PCA per spiegare i loro dati sperimentali sanno che una PCA in cui una sola delle componenti ripsonde per il 99% dei dati non ha alcun significato fisico. Affinché una indagine PCA possa avere un significato attendibile è necessario che i dati sperimentali vengano “spalmati” tra almeno due componenti. Infine non c’è alcuna descrizione di come sia stata fatta l’analisi PCA.

Il conflitto di interessi

Last but not least, gli autori alla fine del loro studio affermano di non avere nessun conflitto di interessi. Ma come è possibile se uno di essi lavora proprio per l’azienda che fornisce l’acqua di mare e che non avrebbe alcun interesse a che vengano fuori risultati men che positivi?

Conclusioni

Ci possiamo fidare del lavoro tanto decantato e pubblicizzato dal mondo giornalistico? Alla luce di quanto detto, no. Il lavoro è stato progettato male perché mancano un bel po’ di campioni controllo, i dati sperimentali non sono attendibili e le analisi statistiche sono prive di significato fisico. Questo è uno studio che non avrebbe mai dovuto comparire in letteratura. Purtroppo non è così. I revisori non si sono accorti dei limiti anzidetti ed il lavoro oggi è pubblicato. Esso appartiene, ora, all’intera comunità scientifica che, come abbiamo fatto noi, può scaricarlo e criticarlo nel merito evidenziando la superficialità con cui questo studio è stato, purtroppo, condotto.

Fonte dell’immagine di copertina: Wikimedia Commons

Notizie dal mondo scientifico. Sulle sigarette elettroniche.

All’incirca tre anni fa (era il 28 Luglio del 2016) lanciavo sulla mia pagina facebook un commento su un lavoro scientifico che evidenziava la pericolosità delle sigarette elettroniche (tutta la disamina è qui). Da quel commento ne venne una interessante discussione con persone che cercavano di difendere la minore tossicità di tali oggetti sostitutivi delle sigarette reali. Riporto qui sotto il primo post a cui sono seguiti alcuni aggiornamenti tra cui quello di oggi, 27/07/2019, in coda a questo articolo. Nel ricopiare in questo blog i post di tre anni fa, mi sono accorto che alcuni dei link non sono più raggiungibili, per cui li ho sostituiti con gli analoghi funzionanti.

28/07/2016

Quante volte abbiamo sentito dai fumatori incalliti che le sigarette elettroniche sono innocue? Tutti quelli che ne fanno uso dicono che sono addirittura salutari; non hanno gli effetti negativi delle sigarette reali. Su cosa poggino questa loro sicurezza non è dato sapere. Forse solo sulla loro illusione di poter continuare nel proprio vizio senza preoccuparsi di danni noti a tutti: problemi cardiaci, polmonari e così via cantando.

Ed invece ecco che cominciano ad essere pubblicati studi che attestano come anche il fumo delle sigarette elettroniche sia tutt’altro che salutare. Anzi…

Un lavoro pubblicato su Environmental Science and Technology (cliccare qui o sulla Figura 1)

Figura 1. Link al lavoro del 2016

mostra che la decomposizione termica di glicole polietilenico e glicerina (i principali componenti dei liquidi contenuti nelle sigarette elettroniche oltre ad altri eccipienti tra cui un po’ di profumi ed anche la nicotina) all’interno dei “meccanismi” della sigaretta elettronica, porta alla formazione di formaldeide, acetaldeide ed acroleina tutti con effetti molto tossici.

La scheda di sicurezza della formaldeide è qui, quella della acetaldeide qui, e quella della acroleina qui.

In tutti i casi si tratta di sostanze che possono portare alla morte ed al cancro.

Ci si potrebbe chiedere: ma come mai avviene la decomposizione termica nelle sigarette elettroniche? Beh, il principio di funzionamento delle sigarette elettroniche è basato sulla vaporizzazione dei suddetti solventi su delle “spire” (in Inglese coil) metalliche. Per ottenere la vaporizzazione occorre riscaldare questi “coil” ad elevate temperature mediante l’applicazione di una differenza di potenziale. Sono proprio queste temperature che determinano la degradazione termica anzidetta e la formazione delle sostanze tossiche. Lo studio citato evidenzia che la quantità di molecole tossiche prodotte dipende dal voltaggio utilizzato per innalzare la temperatura dei “coils”. In ogni caso si producono molecole potenzialmente mortali e cancerogene.

Qual è la soluzione? Sempre la stessa: per essere sicuri di non contrarre malattie che possono portare rapidamente alla morte, meglio smettere completamente di fumare….a farci morire velocemente ci pensano già i gas di scarico delle automobili e lo smog delle grandi città; non mettiamoci anche le cose inutili che possiamo facilmente evitare

Altre letture

https://www.sciencenews.org/article/vaping%E2%80%99s-toxic-vapors-come-mainly-e-liquid-solvents

Aggiornamento del 29/07/2016

Grazie a Francesca Nunzi, ho potuto leggere il lavoro originale di cui si parla in questa nota. Chi vuole lo può leggere qui.

Trovo che il lavoro sia ben fatto, originale ed innovativo. Mi sembra scritto molto bene e completo. Gli autori analizzano le problematiche relative all’uso delle sigarette elettroniche tentando di rispondere ad una domanda che tutti ci poniamo: quanto salutari sono questi oggetti rispetto alle sigarette normali? Nel lavoro non c’è un confronto col fumo di sigaretta normale. Aggiungo che un tale confronto avrebbe prodotto una pubblicazione molto più ampia di quelle normalmente accettate sulla rivista in oggetto (Environmental Science and Technology) che, per questo, invita all’uso delle Supplementary Information (SI) di cui gli autori hanno fatto ampio uso. Infatti, molti dettagli che avrebbero avuto pieno titolo ad essere inseriti nel documento principale sono relegati nelle SI. Sotto l’aspetto analitico mi sembra fatto bene. Fanno uso della gas cromatografia con MS in spazio di testa, tecnica principe per le analisi delle emissioni gassose. Usano anche la HPLC con rivelatore UV per l’analisi dei liquidi usati nelle sigarette elettroniche. I risultati mostrano che applicando due diversi voltaggi (3.8 e 4.8 V) per l’accensione delle sigarette elettroniche che hanno monitorato, si producono proprio i prodotti indicati nella nota del 28.07.2016, oltre a tutta un’altra serie di prodotti più o meno pericolosi. Gli autori non si spingono a dire che le sigarette elettroniche sono pericolose (più o meno di quelle tradizionali) e rimandano ad un lavoro successivo l’indagine sulla pericolosità delle componenti derivanti dalla degradazione termica degli e-liquids. Quello che affermano è che la modulazione del voltaggio e, quindi, della temperatura necessaria per la vaporizzazione degli e-liquids determina una più o meno elevata concentrazione di prodotti dalla canceroginità acclarata. Da parte mia non posso che notare, dalle tabelle riportate, che nelle condizioni peggiori la concentrazione dei vari gas tossici non è superiore a 10000 ng/mg ovvero 1% in peso del liquido usato nelle sigarette elettroniche. Quanto questa concentrazione è pericolosa? Non lo so, ma “a naso” a me sembra una concentrazione molto differente da quella che normalmente è presente nel fumo di sigaretta normale che, oltretutto, contiene anche PAH. Nelle loro conclusioni, gli autori scrivono un po’ ciò che tutti quelli interessati a questa nota hanno, più o meno, detto:

Since harmful chemical emissions are primarily due to thermal decomposition of e-liquid constituents, reducing these temperatures is a promising approach to limiting the harm caused by e-cigarettes. Proper maintenance or more frequent replacement of coils may also reduce emissions by avoiding accumulation of polymeric residues.

In altre parole, per ridurre gli effetti potenzialmente nocivi del fumo di sigaretta elettronica conviene usare una temperatura più bassa possibile e manutenere per bene il marchingegno

Aggiornamento del 27/07/2019

Sono passati circa tre anni da quando ho scritto questo post ed ancora non esisteva il mio blog. A distanza di anni il numero di dati sperimentali in merito alla pericolososità delle sigarette elettroniche si è andato accumulando. E’ di queste ore la notizia che l’Organizzazione Mondiale della Sanità ha stabilito che il fumo delle sigarettte elettroniche è pericoloso quanto quelle delle sigarette normali e deve essere regolamentato. Per leggere il rapporto originale della World Health Organization (ovvero l’organizzazione mondiale della sanità) basta cliccare sulla figura qui sotto

Credits dell’immagine di copertina: Lindsay Fox @ https://ecigarettereviewed.com/

Share