Chimica delle superfici e delle interfasi: l’effetto Marangoni e le lacrime del vino

Guardate la foto di Figura 1. Il bicchiere sembra vuoto. In realtà avevo appena finito di bere un buonissimo vino e in controluce si osservano quelle che gli esperti chiamano le “lacrime del vino“. Di cosa si tratta?

Figura 1. Immagine delle lacrime del vino in controluce

Il titolo di questa nota richiama il nome di un fisico italiano, il Dr. Marangoni, che nel 1865 per primo razionalizzò la formazione di queste lacrime. A onor del vero, il Dr. Marangoni studiò la dinamica del trasferimento di massa lungo una superficie.  All’interno del modello da lui sviluppato si inquadra la formazione delle suddette lacrime.

Ma andiamo con ordine.

Prendiamo in considerazione una miscela di due liquidi che, per semplicità, indichiamo con A e B. Dalla chimica sappiamo che ogni liquido è in equilibrio con il suo vapore attraverso la relazione:

Nell’immagine ho considerato le due componenti della miscela separatamente. I pedici (l) e (g) indicano la fase liquida e gassosa, rispettivamente.

Gli equilibri descritti sono tanto più spostati verso la fase gassosa quanto più piccolo è lo spessore della fase liquida. Una spiegazione semplicistica di ciò è che più piccolo è lo spessore, minore è la forza con cui le molecole  sono tenute legate alla superficie del liquido. Come conseguenza, le molecole sulla superficie di uno strato di liquido sottile riescono a “passare” più facilmente alla fase gassosa rispetto a quelle che sono sulla superficie di uno strato di liquido più spesso.

Cosa succede quando mescoliamo i due liquidi?

Quando i due liquidi vengono mescolati, l’equilibrio tra le fasi si può descrivere così:

In altre parole, ciò che è presente nella fase liquida lo è anche in quella gassosa. Ciò che cambia nella composizione della fase liquida rispetto a quella gassosa è il rapporto relativo tra le componenti.

Supponiamo, tanto per esempio, che la componente A abbia un punto di ebollizione più elevato rispetto a quello della componente B. Questo vuol dire che a parità di temperatura, le molecole di B si allontanano dalla superficie liquida più facilmente delle molecole di A. La conseguenza è che mentre la fase liquida contiene una maggiore quantità del composto A (che è più alto bollente), la fase gassosa contiene una maggiore quantità del composto B (che è più basso bollente).

Variazioni delle proprietà fisiche

La miscela fatta da A e B ha proprietà fisiche che sono intermedie tra quelle delle singole componenti. Ma cosa accade quando la stessa miscela si trova in due situazioni fisiche differenti, ovvero in un caso la fase liquida ha uno spessore più grande che nell’altro?

Quando diminuiamo lo spessore della fase liquida, la fase gassosa si arricchisce della componente più basso bollente e la densità del liquido (cioè il peso per unità di volume) tende verso quella della componente più alto bollente. Volendo semplificare con un linguaggio pseudo matematico, possiamo scrivere:

d(A+B) →dA

dove la lettera d indica la densità; il pedice (A+B) si riferisce alla miscela, mentre la freccia (→) si legge “tende”.

La tensione superficiale e la capillatirà

Avete presente l’acqua? Sì…proprio quella che si scrive H2O. Ebbene, quando questa molecola è assieme alle sue sorelle gemelle, accade che si generino delle proprietà che ogni singola molecola presa da sola non ha. In effetti quando diciamo che l’acqua bolle a 100 °C o diventa solida a 0 °C non stiamo parlando di proprietà di una singola molecola. Temperatura di ebollizione, temperatura di fusione, densità etc. sono tutte proprietà che fanno riferimento ad insiemi di molecole che interagiscono tra loro. Le molecole di acqua, in particolare, interagiscono tra loro mediante una rete di legami a idrogeno. Per semplicità rimando ad una mia nota per comprendere il ruolo che i legami a idrogeno hanno nel determinare alcune caratteristiche dell’acqua.

Il ruolo dei legami a idrogeno nel comportamento dell’acqua

Qui sotto, invece, un altro articolo in cui si evidenzia come i legami a idrogeno influenzino la dinamica dei protoni e degli ossidrilioni.

Meccanismo di Grotthuss

I legami a idrogeno sono anche responsabili di quella che viene indicata come tensione superficiale dell’acqua.

Prendiamo una bacinella e riempiamola di acqua. Immaginiamo ora di diventare piccoli fino ad arrivare alle dimensioni delle molecole di acqua. Quello che potremmo immaginarci di vedere all’interno della bacinella è un insieme di molecole che interagiscono tra loro in modo differente a seconda della loro posizione nel contenitore (Figura 2).

Figura 2. Molecole di acqua in una bacinella. Le forze attrattive tra le molecole dipendono dalla posizione nel contenitore

In particolare, le molecole di acqua che sono nel bel mezzo della bacinella sono circondate da analoghe molecole che le attraggono con forze (dovute ai legami a idrogeno intermolecolari) identiche in tutte le direzioni.

Le molecole di acqua che sono accanto alle pareti del recipiente sono attratte con forze di un certo tipo dalle pareti e con forze differenti dalle molecole di acqua ad esse vicine. Cerchiamo di capire perché. Ho già scritto che le forze che consentono alle molecole di acqua di interagire tra loro sono dovute ai legami a idrogeno intermolecolari. Per completezza aggiungo che queste forze vengono indicate come “forze di coesione” perché consentono alle molecole di acqua di essere “coese” tra loro. Le forze con le quali le pareti del recipiente agiscono sulle molecole di acqua con cui entrano in contatto si indicano come “forze di adesione”. Esse possono essere dovute sia alla formazione di dipoli indotti che a legami a idrogeno veri e propri. Questi ultimi, tuttavia, hanno energia differente rispetto a quelli che si formano tra identiche molecole di acqua a causa della differente natura chimica delle pareti del contentinore.

Infine, le molecole di acqua che si trovano in superficie risentono, da un lato, della presenza dei legami a idrogeno con analoghe molecole più interne nel liquido, dall’altro della presenza dell’aria atmosferica con cui esse non possono interagire allo stesso modo. Per questo motivo, l’energia termica necessaria per far “staccare” le molecole dalla superficie è meno intensa di quella necessaria per far allontanare le molecole più interne che sono “ancorate” meglio ad un numero maggiore di molecole di acqua.

Adesso restringiamo la bacinella di prima alle dimensioni di un capillare e cerchiamo di capire cosa accade (Figura 3).

Figura 3. Esempio di risalita capillare

In pratica diminuisce lo spazio a disposizione delle molecole di acqua che cominciano ad interagire sempre più fortemente con le pareti del recipiente. Le molecole a contatto con le pareti iniziano, quindi, ad “arrampicarsi” e si “trascinano” dietro tutte quelle che non sono direttamente interagenti con le pareti stesse. A causa delle forze di coesione più intense nella zona di spazio centrale (quella più lontana dalle pareti, per intenderci) si genera un menisco. Da un punto di vista fisico si osserva un fenomeno che  senza le spiegazioni appena date aparirebbe magico, ovvero quella che è conosciuta comunemente come risalita capillare. Essa spiega la presenza di elevate concentrazioni di sali sulla superficie di suoli indicati come suoli salini, il movimento della linfa nelle piante e l’imbibizione di materiali porosi come la carta Scottex® che usiamo in cucina per asciugare le superfici su cui abbiamo fatto cadere l’acqua.

Le lacrime del vino

Siamo arrivati al momento cruciale: la spiegazione chimico-fisica delle lacrime del vino.

Il vino è una miscela complessa in cui le due componenti più importanti sono acqua e alcol etilico (indicato volgarmente con il solo termine di “alcol”). Non me ne vogliano gli enologi, ma il vino altro non è che una soluzione acquosa di alcol etilico. La poesia che i sommelier e gli enologi vedono nel vino è dovuta ad una piccolissima quantità di altre componenti che sono responsabili del sapore e del profumo di tale bevanda.

Tra le due componenti più abbondanti del vino, l’acqua è la più alto bollente (la temperatura di ebollizione a 1 atm è 100 °C), mentre l’etanolo ha una temperatura di ebollizione più bassa (a 1 atm, l’etanolo bolle a circa 78 °C). Aggiungiamo anche che la densità dell’etanolo a temperatura ambiente è circa 0.78 g/cm3 e quella dell’acqua è circa 1.0 g/cm3. La densità media dei vini è circa 0.99 g/cm3.

Mettiamo ora idealmente del vino in un calice e ruotiamo il calice (Figura 4).

Figura 4. Calici di vino che vengono fatti ruotare (Fonte)

Per effetto della rotazione, si genera un sottilissimo strato di liquido sulle pareti del calice. Alla luce di tutto quanto descritto nei paragrafi precedenti, ne viene che l’alcol etilico si allonatana facilmente da questo strato sottile. A causa di ciò, si intensificano le forze di adesione che spingono il liquido verso l’alto. Più il liquido si sposta verso l’alto, più si assottiglia lo strato e più facilmente l’alcol evapora. Come conseguenza aumenta progressivamente anche la densità del liquido nello strato sottile, ovvero aumenta il peso per unità di volume. Questo perché, alla luce delle spiegazioni date prima, la densità del liquido tende a quella dell’acqua. Quando, per effetto dell’aumento di densità, la forza di gravità diventa predominante sulle forze di adesione, l’anello di liquido che sale verso l’alto si rompe ed incominciano a formarsi gocce ed archetti, ovvero le lacrime del vino. Qualitativamente parlando, più elevato è il contenuto alcolico del vino e più elevato è il numero di gocce ed archetti.

Le lacrime del vino si formano sempre?

No. Non sempre le lacrime si formano. Come abbiamo visto, è necessario che per effetto della rotazione e conseguente evaporazione dell’alcol etilico, si intensifichino le forze di adesione che spingono lo strato sottile di liquido verso l’alto. Come ho già scritto, le forze di adesione sono dovute a interazioni dipolari e/o legami a idrogeno. Questo significa che se non ci sono “agganci” a cui le molecole di acqua si possono ancorare, non si possono formare le lacrime del vino. In altre parole, le lacrime dipendono da quanto bene abbiamo lavato i nostri calici. Se il lavaggio ha completamente “sgrassato“ le pareti del recipiente, gocce ed archetti non si formano.

Fonte dell’immagine di copertina

Su Vandana Shiva e la pseudoscienza

Sono ben note le posizioni antiscientifiche di Vandana Shiva, la guru indiana dell’agricoltura biologica, che segue la filosofia secondo cui “l’agricoltura industriale sarebbe foriera di quasi tutti i disastri economici, ecologici e umanitari del pianeta” (qui).  Non è un caso che il mondo scientifico italiano si sia recentemente ribellato alla decisione del Ministro Fioramonti di indicarla come consulente del MIUR (qui). La stessa Società Italiana di Agronomia è intervenuta nel dibattito, come si evince da questo link, evidenziando che la scelta della Shiva quale consulente del Ministero contrasti con i parametri che il MIUR ha deciso di utilizzare per la costruzione di commissioni di alto profilo scientifico come quelle coinvolte nell’Abilitazione Scientifica Nazionale:

Un ministero che a giusta ragione stabilisce e impone criteri di valutazione e di qualificazione di ricercatori, docenti, strutture di ricerca e Università, che ci sottopone, ripeto a giusta ragione, a continue valutazioni della performance, VQR, abilitazioni basate su indici bibliometrici etc., dovrebbe adottare gli stessi criteri, e anche molto più severi, per istituire commissioni di alto profilo scientifico. Tali commissioni spesso danno un indirizzo sociale, economico e politico a un intero paese. […] La qualificazione scientifica (della SHIVA) è fondata su 62 pubblicazioni, poche delle quali affrontano in modo sistematico i temi della sostenibilità e dell’ecologia e totalizza su Scopus un h index di 13, di gran lunga al di sotto della qualificazione scientifica della maggior parte dei nostri colleghi che su questi temi, in maniera rigorosa, hanno prodotto molte e specifiche pubblicazioni”.

Queste appena riportate sono le parole che il Presidente della Società di Agronomia, Professor Michele Perniola, rivolge a chi considera la Shiva la candidata ideale per occupare il posto di responsabilità che il Ministro Fioramonti aveva deciso di affidarle.

Anche la rete informale Scienze e Tecnologie per l’Agricoltura (SeTA) è intervenuta con una lettera aperta (qui) nella quale viene riportato che:

Tra i più vocali venditori di fumo nel campo del negazionismo scientifico in agricoltura si pone senza dubbio Vandana Shiva, esponente di un antiscientismo radicale e militante e nota per aver diffuso grazie ad una efficace strategia comunicativa alcune fra le peggiori e più tenaci bugie che inquinano il dibattito pubblico. In proposito, si ricordano le sue bugie circa i suicidi degli agricoltori indiani dovute alla coltivazione di cotone transgenico, fino alle recenti bugie circa le cause e i rimedi per il disseccamento rapido dell’ulivo nel nostro Paese: bugie raccontate a fronte di lauti guadagni, considerate le parcelle richieste per i suoi numerosi interventi. Per non parlare delle bugie circa la sterilità delle colture OGM. Oggi non esiste al mondo nessun seme sterile di nessun tipo di pianta Ogm. Moltissimi, anche tra gli scienziati che operano in altri campi sono persuasi da questa bufala, e da parte nostra non ci stancheremo mai di ripetere che è un falso entrato nelle teste di tantissime persone e che inquina da decenni il dibattito su questi temi. A fronte di questi fatti, è impensabile che in un paese occidentale avanzato come il nostro ci si possa avvalere proprio presso il ministero dell’università e della ricerca scientifica della consulenza di Vandana Shiva sul tema dello sviluppo sostenibile: le idee da lei espresse, infatti, portano al più ad un sottosviluppo insostenibile, per la popolazione e per l’ambiente insieme”.

Ma non è solo la scienza italiana ad essere stanca delle sciocchezze, in termini scientifici, propalate da una persona che con l’agricoltura ha poco o niente a che fare. Anche gli scienziati d’oltre oceano sono stanchi.

Il 23 Gennaio 2020 è prevista alla Stanford University (California, USA) una lecture di Vandana Shiva dal titolo “Soil not Oil: Biodiversity-based Agriculture to Address the Climate Crisis” (qui).

Contro l’ufficializzazione presso una prestigiosa università statunitense delle sciocchezze pseudoscientifiche di Vandana Shiva si sono schierati molti accademici di istituzioni sparse in tutto il mondo. Tra le autorità scientifiche schierate contro la lecture di Vandana Shiva ci sono, per esempio, Sir Richard John Roberts (Chief Scientific Officer, New England Biolabs, Ipswich, MA e 1993 Nobel Laureate in Physiology or Medicine) e Nina Fedoroff (Penn State University Emeritus Professor of Biology, former President of the American Association for the Advancement of Science, AAAS).

I docenti/ricercatori anzidetti, insieme ad altri di qua e di là dell’Atlantico (tra cui anche chi scrive), hanno sottoscritto una lettera aperta (a cui tutti sono invitati ad aderire) al Rettore della Stanford University e ai dirigenti del Woods Institute, che ospiterà il convegno, organizzato da una società studentesca nella quale  evidenziano come la Shiva abbia una assurda tendenza alle sciocchezze (come quella secondo cui i semi sterili – che ovviamente non possono germogliare – possono diffondere la sterilità), sia famosa per la sua proverbiale ignoranza (per esempio, affermando che le proteine Bt sono tossiche per tutte le forme viventi, mentre invece lo sono solo per alcune classi di insetti chiaramente identificate e non per pesci, uccelli e mammiferi), abbia la tendenza poco elegante ad offendere (per esempio quando paragona gli agricoltori che decidono liberamente di usare colture OGM a stupratori), rifiuti la tecnologia per alleviare le fatiche (soprattutto di donne e bambini) legate al diserbo manuale, o rifiuti tout court l’uso dei fertilizzanti in agricoltura, paragonandoli ad armi di guerra.

Cosa potrà mai suggerire questa persona, con le sue idee antiscientifiche ed eticamente spregevoli, per aiutare a risolvere i problemi dell’agricoltura, del clima, della biodiversità e della sicurezza alimentare , se non continuare a propalare la pseudoscienza di cui è forte sostenitrice?

Cosa mai può aver spinto i vertici della Stanford University ad accettare che dei propri studenti abbiano invitato Vandana Shiva a tenere una lecture in occasione di un evento dedicato a Stephen Schneider, climatologo di fama mondiale presso la medesima università?

Cliccando qui o sulla figura qui sotto si aprirà il link alla lettera aperta degli scienziati di tutto il mondo alla Stanford University

Questo articolo è apparso sulla Newsletter n. 11 della Società Italiana di Scienza del Suolo

L’immagine di copertina è stata ottenuta da Wikimedia Commons

Il chlorpyrifos: a cosa serve e come funziona

Avete sicuramente sentito nominare negli ultimi giorni il chlorpyrifos e del fatto che il suo utilizzo sia vietato in alcuni paesi della Comunità Europea, ma soprattutto che la EU sta tentando di vietarne l’uso in tutti i paesi membri (qui e qui). Nel caso in cui l’uso di questo agrofarmaco venisse vietato, si avrebbe un’arma in meno  per la lotta a quegli insetti che fanno parecchi danni alle aziende agricole. Pensate che la cimice asiatica (Figura 1) ha provocato in Italia danni per circa 350 milioni di euro solo per il 2019 (qui).

Figura 1. Immagine della cimice asiatica (fonte)

Il chlorpyrifos è un insetticida molto utile per il contrasto alla cimice asiatica, così come per la lotta al punteruolo rosso (Figura 2) che ha decimato la popolazione di palme in tutta Italia negli ultimi anni.

Figura 2. Immagine del punteruolo rosso (fonte)

Al di là delle decisioni che verranno prese entro la fine di Gennaio 2020, qui voglio spiegare alcune caratteristiche di questo agrofarmaco.

Cosa è il chlorpyrifos

Il nome IUPAC è O,O-diethyl-O-3,5,6-trichloro-2-pyridyl-phosphorothioate e la sua struttura è riportata in Figura 3.

Figura 3. Struttura ball-and-stick del chlorpyrifos. Le palline verdi sono atomi di cloro; quelle rosse atomi di ossigeno; le palline grigie sono gli atomi di carbonio; quelle bianche sono atomi di idrogeno; la pallina blu è l’atomo di azoto, la pallina gialla è l’atomo di zolfò, la pallina arancione è l’atomo di fosforo (fonte)

Si tratta di un composto organico la cui azione è quella di inibire l’attività della acetilcolinesterasi.

Bene, direte voi, adesso è tutto chiaro. Vero?

In effetti usare un nome complicato senza spiegarlo è come non spiegare nulla.

L’acetilcolinesterasi è un enzima, ovvero una proteina che ha delle specifiche funzioni all’interno del nostro organismo, che gioca un ruolo importantissimo nella trasmissione degli impulsi nervosi. Esso si trova nelle sinapsi tra le cellule nervose e quelle muscolari e interviene nelle contrazioni muscolari. In particolare, l’acetilcolinesterasi entra in azione dopo che un segnale nervoso è passato, demolendo l’acetilcolina nelle sue due componenti, l’acido acetico e la colina (Figura 4). Questa reazione ferma la trasmissione del segnale.
I due frammenti non vanno perduti, ma vengono riciclati per sintetizzare nuovi neurotrasmettitori per altre contrazioni muscolari. Il tempo necessario per la degradazione della molecola di acetilcolina è di circa 50 microsecondi.

Figura 4. Degradazione della acetilcolina. Nu è l’acronimo di “nucleofilo”, ovvero un sistema ricco di elettroni che reagisce con un elettrofilo, cioè un sistema povero di elettroni. Il nucleofilo è presente nel sito attivo della acetilcolinesterasi (fonte)

Come si vede dalla Figura 4, un gruppo funzionale ricco di elettroni (nucleofilo, Nu) presente nel sito attivo della acetilcolinesterasi (si tratta del gruppo -OH della catena laterale dell’amminoacido serina) attacca il gruppo carbonilico (-C=O) povero di elettroni presente nella acetilcolina determinando la frammentazione della molecola in una colina deprotonata e un sistema in cui il gruppo acetile (CH3CO-) rimane legato all’enzima. Quest’ultimo subisce una reazione di idrolisi con rigenerazione dell’enzima e formazione di acetato e colina.

Quando il chlorpyrifos si inserisce nel sito attivo della acetilcolinesterasi, il gruppo nucleofilo anzidetto va ad attaccare il fosforo presente nell’insetticida (Figura 5). Si formano, quindi, due frammenti (A e B in Figura 5) di cui uno, quello indicato con la lettera A, è l’enzima il cui sito attivo è “bloccato” dalla presenza del residuo contenente il fosforo. Il legame tra la serina e il residuo col fosforo non può essere idrolizzato, ovvero la serina non si può più “liberare” e l’acetilcolinesterasi non può più essere utilizzata per la reazione descritta in Figura 4. Questo significa che non si possono avere più contrazioni muscolari.

Figura 5. Reazione di inibizione dell’acetilcolinesterasi

Un insetto, come la cimice asiatica o il punteruolo rosso, colpito dal chlorpyrifos muore a causa del meccanismo appena descritto.

I limiti del chlorpyrifos

I meccanismi descritti provocano danni anche all’uomo. La concentrazione limite oltre la quale l’insetticida sotto indagine risulta tossico mediante assunzione orale per gli animali è nell’intervallo 32-1000 mg/kg. In altre parole, per risentire degli effetti del chlorpyrifos, un individuo di 70 kg deve assumere una dose orale di insetticida nell’intervallo compreso tra 2 e 70 grammi. Per avere effetto tossico mediante contatto epidermico, un individuo di 70 kg deve venire a contatto con circa 140 g di insetticida (riferimenti). La Comunità Europea sta cercando di proibire l’uso del chlorpyrifos sulla base del principio di precauzione legato al fatto che non è chiara la genotossicità dell’insetticida (qui). Tuttavia, stando a quanto riportato nel rapporto EFSA, gli esperimenti che sembrerebbero indicare genotossicità sono stati condotti con quantità di chlorpyrifos molto al di sopra dei limiti citati. Come al solito è necessario evidenziare che è la dose che fa il veleno. Un uso attento ed oculato di insetticida non provoca alcun danno. Occorre anche evidenziare che l’uso spregiudicato del principio di precauzione “spunta” le armi che gli agricoltori hanno a disposizione per combattere insetti nocivi alla nostra produzione alimentare

 

Fonte dell’immagine di copertina (qui)

I gas nobili che non sono nobili

Avete presente i gas nobili? Sono quelli dell’ultimo gruppo della tavola periodica (riquadro in rosso di Figura 1).

Figura 1. Tavola periodica. Il riquadro in rosso evidenzia il gruppo dei gas nobili (Fonte)

Fin da quando cominciamo a frequentare le scuole superiori (lo so…oggi non si chiamano più così…ma lasciatemi il vezzo di chiamarle ancora nel modo noto quando le frequentavo) ci viene insegnato che i gas nobili prendono questo nome perché sono altezzosi, hanno la puzza sotto al naso…ovvero incarnano lo stereotipo dei nobili dal punto di vista dei popolani: non frequentano nessuno. Chimicamente vuol dire semplicemente che sono non reattivi. A differenza di tutti gli altri elementi della tavola periodica, Elio, Neon, Argo, Cripto, Xeno e Radon non si combinano con nessun altro elemento.

Ma ne siamo veramente sicuri?

No. In effetti non è così. Diciamo pure che, quando ho cominciato i miei studi di Chimica (nell’ormai lontano 1986), un composto dello Xeno era già stato sintetizzato. Nel 1962, infatti, Neil Bartlett riuscì ad ottenere l’esafluoroplatinato di Xeno (XePtF6). La Figura 2 mostra il lavoro di Bartlett pubblicato sui Proceedings of the Chemical Society.

Figura 2. Immagine del lavoro di Neil Bartlett in cui parla della sintesi dell’esafluoroplatinato di Xeno (Fonte)

Quindi, possiamo dire che a partire dal 1962 non si può più dire che i gas nobili siano inerti. Ce ne è almeno uno, lo Xeno, che forma dei composti.

Ma è l’unico?

No, non è l’unico. Facciamo un salto temporale: 1962-2019. Sono passati 57 anni. Ci sono voluti tutti questi anni per ottenere un nuovo composto da un gas nobile. Stavolta si tratta dell’Argo. E’ stato utilizzato in condizioni molto diverse da quelle in cui siamo adatti a vivere per ottenere una lega col Nickel (ArNi). Non ci credete? Ebbene, cliccate sulla figura qui sotto.

Figura 3. Struttura dell’ArNi (Fonte)

Alla fine i gas nobili sono come Superman. Hanno i superpoteri solo quando sono sulla Terra. Se si cambiano le condizioni (come per esempio Superman in presenza della kryptonite), perdono la loro  nobiltà e si comportano come dei “volgari” metalli.

Fonte dell’immagine di copertina

 

La scienza non tace

Come componente dei gruppi antifrodi scientifiche e omeopatia del Patto Trasversale per la Scienza, diffondo anche io un comunicato del Professor Pier Luigi Lo Palco in merito alle illazioni sulla comunità scientifica scritte in un articolo de Il Fatto Quotidiano ed al quale già il Prof. Enrico Bucci aveva dato una risposta (qui).

_____________________________

Con riferimento all’articolo apparso il 28 Novembre sul Fatto Quotidiano a firma di Gianni Barbacetto, intitolato “Ricerche mediche ‘aggiustate’, però la scienza tace”, il Patto Trasversale per la Scienza intende specificare quanto segue.

Innanzitutto, è opportuno ricordare che il Patto, lungi dal tacere, è stato fra i primi a reagire alle notizie di richiesta di archiviazione dei ricercatori indagati dalla procura di Milano, con una lettera aperta che, oltre a denunciare l’assordante silenzio in tema, chiedeva ai vertici di AIRC di fare chiarezza e di dotarsi di regole più stringenti in tema di integrità e alla comunità scientifica italiana di dotarsi di regole chiare di condotta.
Quest’ultima richiesta, in particolare, appare oggi particolarmente importante, proprio in presenza di una difformità di giudizio persino tra Procura e GIP, che pure hanno chiesto e decretato l’archiviazione per gli indagati. È quindi il caso di ribadire che per il PTS, come già dichiarato a luglio, è fondamentale:

1. dotare tutte le istituzioni scientifiche e di ricerca del nostro Paese di un sistema coerente ed omogeneo per la gestione, l’identificazione precoce e la correzione degli eventuali casi di cattiva condotta scientifica

2. far sì che i finanziatori, pubblici e privati, della ricerca scientifica, i quali raccolgono soldi dai cittadini italiani o direttamente o attraverso le tasse, siano essi stessi scevri da conflitti di interesse e dotati di regole chiare per favorire la pratica dell’integrità scientifica

Alla luce poi dei particolari emersi circa le indagini ed il decreto di archiviazione disposto dal GIP, nonché dei commenti apparsi sulla stampa, è necessario ribadire quanto segue.

Innanzitutto, sono alcuni membri della comunità scientifica – non i giornalisti, né la magistratura – ad aver identificato (rendendoli pubblici online) e poi esaminato (nella persona dei periti, appartenenti alla comunità scientifica ed accademica, ma anche di altri esperti che hanno a loro volta esaminato le segnalazioni su siti online dedicati) i casi in esame; dunque è la comunità scientifica che ha messo in moto il meccanismo che dovrà portare alla correzione del record pubblicato, a riprova dei meccanismi di cui la scienza dispone per identificare ed analizzare i propri errori.

Con riguardo poi alle notizie filtrate circa il dispositivo di archiviazione del GIP, il PTS sottolinea quanto segue:
1. nessuno, che non sia membro della comunità scientifica, può giudicare della gravità di un comportamento di violazione dell’integrità di un dato scientifico, visto che solo la comunità scientifica ha le competenze necessarie;
2. compito della magistratura penale è accertare se, in un caso di manipolazione dei dati, vi sia stato un crimine, e non di pesarne la gravità al di fuori del diritto penale, perché se sia “un falso innocuo e innocente”, quando siano escluse condotte criminali, solo la comunità scientifica può stabilirlo;
3. la comunità scientifica ha già cominciato a verificare i casi occorsi nei singoli articoli; questi hanno richiesto già adesso correzioni in almeno 5 degli articoli oggetto di indagine, correzioni occorse a valle dell’analisi tecnica delle immagini in questione da parte di membri esperti della comunità scientifica ed ovviamente condivise almeno dalla maggioranza degli autori dei lavori e dalle riviste;
4. le correzioni di un articolo scientifico non implicano necessariamente frode, ma sono necessarie e non derogabili in tutti i casi di manipolazione (ivi inclusa la duplicazione di dati) accertati; i ricercatori hanno il dovere, con le riviste, di apportare le modifiche opportune (da un corrigendum fino ad una ritrattazione) su ogni articolo che presenti duplicazioni, manipolazioni o altre alterazioni delle immagini o dei dati;
5. nessuno, e meno che mai un giudice, può affermare che, sulla base del fatto che un certo risultato sia stato successivamente replicato o una certa ipotesi scientifica sia poi risultata vera, un dato comportamento manipolatorio sia perdonabile dal punto di vista del metodo scientifico e i dati di un articolo non siano da correggere, sia per errore onesto che per frode;
6. quel ricercatore che, una vota accertato un problema nei dati pubblicati, non procede alle correzioni opportune, ignorando o ostacolando il processo di emendamento necessario, si macchia di cattiva condotta, al pari di chi froda.

Per le ragioni elencate, il PTS auspica che, quanto prima, la comunità scientifica italiana inizi una seria e condivisa discussione sulle regole per indagare e trattare i casi di potenziale cattiva condotta, e che i ricercatori coinvolti dall’indagine correggano al più presto la letteratura scientifica, sia per quel che riguarda i lavori oggetto di indagine, sia per quel che riguarda eventuali altri lavori che dovessero risultare contenere dati problematici.

Pier Luigi Lopalco
Presidente Patto Trasversale per la Scienza

Link originale qui 

Fonte dell’immagine di copertina

A tu per tu con l’esperto: alluminio o plastica?

Continua la serie di interviste per la C1V edizioni in cui si affrontano problemi chimici legati alla vita quotidiana. Dopo aver parlato di acqua e dolcificanti (qui), oggi si affronta un problema molto attuale che riguarda la sostenibilità ambientale. Prendendo spunto dalle iniziative di alcune Istituzioni pubbliche che hanno deciso di fornire bottiglie di alluminio per disincentivare l’uso della plastica, affronto il problema dell’inquinamento da plastica ed evidenzio limiti e vantaggi delle iniziative anzidette.

_________________________________

Professore, la sua attività di ricerca è mirata non solo alla delucidazione dei meccanismi coinvolti nella dinamica di nutrienti e contaminanti nei suoli, ma anche al recupero ambientale. Ha letto sicuramente dell’iniziativa promossa dal Comune di Milano e dall’Università di Padova per combattere la lotta all’inquinamento da plastica. Cosa ne pensa?

Cominciamo col dire che il termine “plastica” individua una moltitudine di materiali che si differenziano tra loro per caratteristiche chimico-fisiche e meccaniche. Forse solo gli addetti ai lavori ricordano che una delle prime “plastiche” ad essere sintetizzate fu il rayon. Si tratta di un derivato della cellulosa – sì, il polimero a base di glucosio che costituisce le fibre vegetali – che fu conosciuta come “seta artificiale”. [continua…]

Fonte dell’immagine di copertina

Arte e scienza del cappuccino

Margherita Aina, giornalista per People for Planet, mi ha chiesto un’intervista durante la quale mi sono divertito moltissimo. Abbiamo parlato di cappuccino e di come si faccia la schiuma di questo delizioso alimento col quale molti di noi fanno la prima colazione (ne avevo già parlato qui).

________________________________

Se siete amanti del cappuccino al bar converrete che un buon cappuccio è fatto da due cose: un buon caffè e una buona schiuma. Soffermiamoci su quest’ultima: a volte è più cremosa, altre così schiumosa che si possono vedere grandi bolle al suo interno, altre volte dopo pochi secondi si scioglie.

Vi siete mai chiesti da cosa dipende? È l’abilità del barista? È la qualità del latte? È la “macchina” che lo produce? Abbiamo provato a chiederlo al professor Pellegrino Conte, docente ordinario di Chimica Agraria presso l’Università degli studi di Palermo e che ha dedicato un articolo molto specifico alla chimica del cappuccino, un tema che usa per aprire le prime lezioni e interessare gli studenti. Abbiamo scoperto che un fattore determinante è una cosa a cui non avevamo pensato: la temperatura [continua…]


Fonte dell’immagine di copertina

Della Xylella e del metodo Scortichini

Sulla epidemia di Xylella che imperversa in Puglia è stato scritto di tutto. Uno dei più impegnati nella rilevazione delle bufale che si leggono in giro per la rete su tale epidemia è Enrico Bucci del quale potete leggere ai seguenti link: qui, qui, qui e qui. Naturalmente, però, a fare più rumore sono soprattutto quei pochi che, non essendo del settore e non capendo nulla di scienza, sbraitano di attentati all’eccellenza Italiana, di boicottaggio della produzione olivicola pugliese e chi più ne ha più ne metta. E come al solito a farne le spese è l’intera società.

Eh…sì…intanto grazie all’azione rumorosa di pochi pseudo scienziati che hanno una grande influenza sull’opinione pubblica[1], l’epidemia di Xylella, che si sta propagando sempre più a Nord della Puglia e del nostro paese[2], sta avendo un impatto notevole sull’economia italiana.

Ma non è di economia che voglio scrivere, anche perché non sono un esperto e rischierei di dire delle grosse sciocchezze. Voglio, piuttosto, puntare l’attenzione su un metodo che secondo alcuni sarebbe la panacea che salverà gli olivi e l’olivicoltura italiana dal dramma Xylella. Si tratta di un metodo che prende il nome dal ricercatore che per primo ne ha pubblicato i risultati su Phytopatologia Mediterranea: metodo Scortichini.

La rivista

Phytopatologia Mediterranea è una rivista di fitopatologia della Firenze University Press con un impact factor di 1.974 per il 2018. Si tratta di un’ottima rivista nel settore della scienza delle piante sebbene l’impact factor sembri molto basso. Per capire perché ritengo questa un’ottima rivista, rimando alla lettura delle note generali in fondo a questo articolo.

Il metodo Scortichini

Lo studio in cui si descrive il metodo che dà il titolo a questo paragrafo è reperibile al link seguente: Scortichini et al. (2018) A zinc, copper and citric acid biocomplex shows promise for control of Xylella fastidiosa subsp. pauca in olive trees in Apulia region (southern Italy), Phytopathologia Mediterranea DOI:  10.14601/Phytopathol_Mediterr-21985

Gli autori descrivono la potenzialità di un preparato, indicato come Dentamet®, nel debellare la Xylella fastidiosa subsp. pauca dalle piante infettate.

Come si valuta la validità di un lavoro?

Una delle prime cose che bisogna fare è andare a verificare la validità dell’impianto sperimentale al netto delle tecniche analitiche utilizzate e dei risultati che da esse vengono ottenuti.

Come indicato nel sito del produttore (qui), il Dentamet® è un concime a base di rame e zinco complessati all’acido citrico. Nello studio summenzionato, tale preparato viene usato in due esperimenti in vitro e due esperimenti in vivo. In entrambi gli esperimenti in vitro è stata valutata la capacità del preparato di inibire la crescita del batterio. Negli esperimenti in vivo, invece, è stata valutata la capacità del rimedio di eliminare il batterio dalle foglie di piante infettate. Bisogna notare che solo quattro foglie sono state usate negli esperimenti in vivo per ogni diluizione del Dentamet®. Infine, gli autori hanno condotto degli esperimenti in campo usando ben quattro piante malate.

Non so…forse il numero quattro è un numero magico per gli autori

Apparentemente sembra tutto ok. Gli autori fanno prima delle indagini in laboratorio per capire se il rimedio funziona ed infine decidono di andare in campo per valutare l’efficienza del rimedio su piante malate. Il problema è che se in laboratorio gli autori sperimentano l’efficienza del preparato su Xylella fastidiosa subsp. fastidiosa – come indicato nel rigo 6 della seconda colonna di pagina 3 nel paragrafo intitolato “Preliminary assays for inhibition efficacy of Dentamet® against Xylella fastidiosa” – in campo, la tipologia di batterio è Xylella fastidiosa subsp. pauca – come indicato anche nel titolo del lavoro stesso. Si potrebbe obiettare: “va bene ed allora? Sempre di Xylella si tratta”. Il punto è che gli essere viventi, quali sono i batteri, sono tutti differenti tra di loro e possono reagire differentemente allo stesso trattamento. Un lavoro sperimentale di tipo biologico progettato bene deve prevedere una congruenza tra ciò che si fa in vitro e ciò che viene sperimentato in campo. Se non c’è congruenza, i risultati ottenuti in campo non si possono spiegare con i modelli ottenuti in laboratorio.

Ma andiamo oltre e guardiamo il numero magico. Gli autori fanno gli esperimenti in vivo, quelli in vitro e quelli in campo su un numero di campioni veramente limitato. In genere, i lavori in ambito biologico che coinvolgono batteri vengono effettuati su un numero enorme di campioni. Questo è necessario per assicurare una significatività statistica che su un numero così piccolo di campioni non è certa.  Stiamo parlando di esseri viventi. Come scritto poche righe più sopra, gli esseri viventi possono reagire in modo differente ai trattamenti che ricevono. In particolare si può dire che dato un numero N sufficientemente grande di campioni, il comportamento della media di essi è centrato sul massimo di una curva come quella rappresentata in Figura 1. Tuttavia un certo numero di campioni avrà un comportamento che si discosterà dal valore medio rappresentato dal massimo indicato in Figura 1 sia verso sinistra che verso destra.

Figura 1. Il comportamento di un numero N di campioni segue l’andamento di una curva come quella Lorentziana usata qui come esempio. La maggior parte dei campioni si attesta intorno al massimo della curva. Alcuni dei campioni hanno un comportamento che si discosta dal massimo sia verso destra che verso sinistra. La curva è stata ottenuta mediante una simulazione con Origin 7.5

Se selezioniamo un numero statisticamente non significativo di campioni, per esempio quattro – come nel caso del lavoro preso in considerazione, è possibile che vengano selezionati sistemi che si trovano lontano dal comportamento medio come nei casi A e B di Figura 2 oppure che per semplice fortuna si ottengano comportamenti centrati intorno al massimo come in Figura 2C. Al contrario solo il campionamento di un gran numero di sistemi consente di ottenere un valore statisticamente significativo come indicato in Figura 2D. C’è da aggiungere anche che più elevato è il numero di campioni analizzati più è possibile applicare metodi di indagine statistica che solo su quattro punti non possono essere utilizzati.

Figura 2. Esempi di campionamenti sbagliati. Campionando solo quattro punti è possibile ottenere comportamenti molto diversificati tra loro come in A e B; solo per caso è possibile che i quattro punti siano centrati attorno al comportamento medio come in C; un numero elevato di campioni si attesta mediamente intorno al comportamento medio come in D.
Conclusioni

Come si vede da tutto quanto scritto fino ad ora, mi sono attenuto solo alla valutazione dei materiali e metodi riportati nel lavoro di Scortichini et al. ed ho centrato la mia attenzione su due cose: la tipologia di batterio su cui gli autori hanno deciso di porre l’attenzione ed il numero statisticamente non significativo di campioni analizzati. Se avessi fatto io la revisione del lavoro citato, lo avrei bocciato solo per questi motivi che peraltro sono stati anche evidenziati dalla European Food Safety Authority (EFSA) in una pubblicazione che si può trovare al seguente link: Effectiveness of in planta control measures for Xylella fastidiosa.

Alcune delle conclusioni dell’EFSA sono:

This control measure may temporarily reduce disease severity in some situations, but some of these studies are based on a limited sample size and additional data are thus needed to verify their effectiveness in reducing the disease. There is no evidence that this treatment could eliminate X. Fastidiosa in field conditions during a long period of time”.

Sono un reviewer piuttosto severo e tra i parametri che valuto per accettare o meno un lavoro, ci sono sia l’analisi statistica che l’indicazione corretta delle cifre significative nelle tabelle che analizzo. Solo dopo positiva valutazione dei parametri anzidetti, passo alla lettura completa dello studio e certifico la congruenza delle conclusioni con i risultati analitici riportati. Il motivo di questo mio modo di agire è che se io pretendo dai miei studenti la corretta indagine statistica e la corretta indicazione delle cifre significative nei loro rapporti scientifici, pretendo allo stesso modo medesima accuratezza da chi studente non è e svolge un lavoro che richiede rigore scientifico ed onestà intellettuale.

NOTE GENERALI

Impact factor

Il valore dell’impact factor di Phytopatologia Mediterranea sembra un valore basso, non è vero? In realtà, come ho avuto modo di scrivere nel mio libro “Frammenti di chimica”, l’impact factor è un valore numerico che si calcola confrontando il numero di citazioni di tutti gli studi pubblicati in un biennio col numero totale di studi pubblicati nello stesso biennio. Facciamo un esempio concreto perché è più semplice a farsi che a dirsi. Immaginiamo che nel 2018 tutti i lavori pubblicati nel 2017 e 2016 nella rivista Tal-dei-Tali siano stati citati 9000 volte. Negli stessi due anni (ovvero 2016 e 2017) il numero totale di lavori pubblicati è stato 13500. Ne viene che l’impact factor è pari a 9000/13500=1.5. Tutte le riviste sono raggruppate assieme per settore scientifico. In altre parole, l’impact factor della rivista Tal-dei-Tali che si occupa, per esempio, di fisiologia vegetale non può essere paragonato a quello della rivista Tizio-Caio che si occupa di chimica dei composti metallorganici. Questo vuol dire che nell’ambito di un dato settore, un impact factor di 1.5 può consentire alla rivista Tal-dei-Tali di essere in alto nella classifica del proprio settore. A questo punto è chiaro che non ha senso parlare di impact factor in senso assoluto ma solo riferito all’ambito disciplinare (ovvero collocazione editoriale) al quale si riferisce la rivista stessa. Nel caso specifico, Phytopatologia Mediterranea è una ottima rivista perché è in alto nella classifica dei settori Agronomy and Crop Science, Horticolture e Plant Science.

Impact factor e qualità della ricerca scientifica

Il valore dell’impact factor e la collocazione editoriale assicurano l’elevata qualità dei lavori pubblicati sulla rivista. Infatti, la citabilità di un lavoro dipende dalla sua qualità, ovvero dalla bontà dell’impianto sperimentale e dalla congruenza dei modelli discussi con i risultati ottenuti. La qualità di un lavoro viene assicurata dal processo di revisione tra pari (la cosiddetta peer review) che a sua volta dipende da quanto bene lavorano tutti quanti fanno parte dell’editorial board della rivista stessa ed i reviewers. Questi ultimi sono i professionisti chiamati a giudicare lo studio inviato per la pubblicazione. Da quanto appena scritto ne viene che impact factor e collocazione editoriale sono condizione necessaria ma non sufficiente ad assicurare la qualità di uno studio pubblicato. Infatti, un qualsiasi intoppo nel processo di revisione tra pari come per esempio la distrazione dei revisori, la loro inesperienza o anche la loro non specificità per l’argomento trattato possono portare alla pubblicazione di studi fallati o con conclusioni parziali ed errate. Più bassa è la qualità della rivista, più elevata è la probabilità di immettere nella letteratura scientifica studi di bassa qualità.

ALTRE NOTE

[1] Sul modo con cui l’opinione pubblica può essere manipolata ci sono trattati di ogni tipo e non è questo il posto adatto per discuterne. Si rimanda alla lettura di saggi specifici come “Propaganda. L’arte di manipolare l’opinione pubblica (La mala parte)” di Edward L. Bernays oppure “Il grande inganno di internet. False notizie e veri complotti. Come difendersi?” di David Puente

[2] Per avere un’idea dei danni che sta provocando l’epidemia di Xylilella basta leggere tutto il reportage apparso sulla rivista divulgativa Le Scienze: http://www.lescienze.it/topics/news/emergenza_xylella-3060239/

Fonte dell’immagine di copertina

Gruppo Omeopatia del Patto Trasversale per la Scienza

Ebbene sì. Nasce il gruppo di lavoro sull’omeopatia nel Patto Trasversale per la Scienza coordinato dal Dr. Salvo Di Grazia. Come chimico e autore di diversi articoli divulgativi contro la validità scientifica dei rimedi omeopatici, ho aderito con piacere a questo gruppo di lavoro per contrastare la pseudoscienza chiamata omeopatia.

_________________________

AL VIA I GRUPPI DI LAVORO DEL PTS

Stanno partendo i gruppi di lavoro del PTS, che si occupano di proporre le priorità delle azioni dell’Associazione.

Con molto orgoglio annunciamo il primo gruppo: quello dedicato all’OMEOPATIA, coordinato da Salvo Di Grazia, che tutti conoscono per il suo instancabile lavoro di debunking medico e in particolare nei confronti dell’omeopatia.

L’omeopatia è una controversa pratica terapeutica che si basa su presupposti stravaganti quali l’assenza di principio attivo nel rimedio omeopatico dovuta ad un processo di diluizione estremo (chiamato “dinamizzazione”) e la cosiddetta “memoria dell’acqua”.
Il gruppo “Omeopatia” del Patto Trasversale per la Scienza cerca di far luce sull’argomento, tramite l’analisi della letteratura scientifica in materia, inoltre offre consulenze di varia natura sul tema.
Fanno parte del gruppo, oltre che il noto medico “MedBunker” Salvo Di Grazia anche il prof. Enrico Bucci, esperto di research integrity, e il prof. Rino Conte, ordinario di chimica.

Salvo Di Grazia (MedBunker) è un medico specialista in ginecologia e ostetricia, autore di libri di divulgazione scientifica si occupa di medicina su internet da più di dieci anni. È stato tra i primi medici, in Italia, a spiegare la differenza tra medicina e ciarlataneria e a smentire le più diffuse bufale mediche. Da qualche anno gestisce diverse pagine social e web sull’argomento.

_________________________

L’annuncio ufficiale lo potete trovare cliccando sull’immagine qui sotto

Fonte dell’immagine di copertina

By Internet Archive Book Images – https://www.flickr.com/photos/internetarchivebookimages/14577828710/

Source book page: https://archive.org/stream/historyofhomoeop00brad/historyofhomoeop00brad#page/n318/mode/1up

No restrictions, https://commons.wikimedia.org/w/index.php?curid=43771541

Pane all’acqua di mare: realtà o fantasia?

di Enrico Bucci e Pellegrino Conte

Vi ricordate il pane fatto con l’acqua di mare?

Qualche tempo fa le principali agenzie di stampa italiane titolarono a nove colonne che ricercatori italiani avevano scoperto che  il pane fatto usando l’acqua di mare, invece che la normale acqua di rubinetto, aveva proprietà salutistiche migliori del pane tradizionale.

Ecco, per esempio, cosa scriveva il Gambero Rosso già nel 2017:

Una nuova ricetta che consente di risparmiare acqua potabile, offrendo un alimento valido anche per chi è obbligato a seguire una dieta povera di sodio: il pane prodotto con l’acqua di mare è l’ultimo, innovativo progetto nato dalla collaborazione dei panificatori associati all’Unipan con Termomar e il Consiglio Nazionale delle Ricerche

mentre l’ANSA nell’Aprile di quest’anno (2019) scriveva:

Arriva il pane all’acqua di mare. E’ senza sale, ma saporito e povero di sodio

a cui faceva seguito il sito de La Cucina Italiana che riportava:

È iposodico e contiene il triplo di magnesio, il quadruplo di iodio, più potassio, ferro e calcio. Adesso viene distribuito anche nei supermercati

Anche il National Geographic ha riportato la notizia scrivendo che:

Lo ha prodotto il CNR, contiene meno sale rispetto a un filone prodotto con acqua dolce, ed è più ricco di iodio, magnesio e potassio

Insomma un tripudio alla genialità italiana che ha confermato il luogo comune secondo cui siamo un “popolo di eroi, di santi, di poeti, di artisti, di navigatori, di colonizzatori, di trasmigratori” e … di scopritori.

Cosa c’è di vero in tutto quello che è stato riportato dalle agenzie di stampa?

Ovviamente i giornalisti non hanno inventato nulla. È vero che un team di ricercatori italiani ha prodotto un tipo di pane usando acqua di mare e lo ha confrontato col pane prodotto in modo tradizionale ottenuto con acqua di rubinetto ed il comune sale da cucina. È anche vero che gli stessi ricercatori hanno posto un accento particolare sulle proprietà salutistiche del pane da essi “inventato” evidenziandone le qualità superiori rispetto al pane che da sempre siamo abituati a mangiare. La loro “invenzione” è stata oggetto di una pubblicazione su International Journal of Food Properties, una rivista della Taylor & Francis con un Impact Factor di 1.845 per il 2017, dal titolo: “Bread chemical and nutritional characteristics as influenced by food grade sea water”. Quello che i tutti i giornalisti e commentatori non sono stati in grado di fare è una valutazione critica dello studio pubblicato, posto che lo abbiano mai letto. Ma possiamo capire. Il loro compito non è fare valutazioni critiche di lavori pubblicati su riviste scientifiche. Sono pagati per riportare la cronaca di ciò che trovano in rete o che viene loro dato in pasto dalle agenzie di stampa degli Enti di Ricerca, come il CNR, che intendono pubblicizzare le proprie attività interne. Un pane salutistico fatto con l’acqua di mare attrae certamente l’attenzione sia verso l’Ente che ha sovvenzionato la ricerca che verso i giornali che riportano la notizia. Ma quanto c’è di vero nel lavoro che si può facilmente scaricare da questo link?

Avvertenze

Da questo momento in poi la lettura può diventare noiosa perché siamo costretti ad entrare in particolari tecnici senza i quali non è possibile rispondere alla domanda che dà il titolo a questo articolo. Naturalmente, è possibile “saltare” direttamente alle conclusioni se non avete voglia di seguire tutti i passi che ci conducono alla constatazione che lo studio pubblicato è superficiale, progettato ed eseguito male e non giustifica affatto l’esaltazione giornalistica di cui abbiamo già riportato. Ma andiamo con ordine.

Una analisi critica

Nella sezione dedicata ai Materiali e Metodi, gli autori scrivono che l’acqua di mare è stata fornita dalla Steralmar srl, una ditta di Bisceglie (in provincia di Barletta-Andria-Trani, BT). Tuttavia, una attenta lettura dell’intero lavoro evidenzia che da nessuna parte gli autori riportano la benché minima analisi chimica dell’acqua che hanno deciso di usare per la produzione del “loro” pane. Non è riportata neanche l’analisi chimica dell’acqua di rubinetto usata per la produzione del pane usato come controllo per il confronto con il pane “innovativo”. Eppure gli autori discutono delle diverse composizioni chimiche delle tipologie di pane che hanno prodotto. Basta leggere le Tabelle 1 e 2 per rendersi conto di quanto essi ritengano rilevanti le differenze in termini chimici tra i pani prodotti. Tutti i ricercatori sanno che quando si cercano differenze tra prodotti ottenuti in modo differente occorre fornire dei validi punti di partenza per poter capire se le differenze che si evidenziano sono dovute ad errori sperimentali o ai “reagenti” che si utilizzano. Ed allora: qual è la concentrazione salina dell’acqua di mare e dell’acqua di rubinetto?  È presente sostanza organica disciolta in entrambe? Ed il loro pH: è lo stesso o è differente?

Il cloruro di sodio

Prendiamo, per esempio, la Tabella 1. Gli autori scrivono che il pane prodotto con acqua di rubinetto (TWB) è stato ottenuto aggiungendo 15 g di cloruro di sodio (quello che nel linguaggio comune è il sale da cucina) a 300 mL di acqua di rubinetto. Nella stessa tabella, non c’è alcuna indicazione sull’ammontare di cloruro di sodio contenuto nei 300 mL di acqua di mare usata per fare il “pane all’acqua di mare” (SWB). Nonostante ciò, gli autori concludono che il pane SWB contiene meno sodio rispetto a quello TWB e ne suggeriscono l’uso nelle diete iposodiche.

Ma per entrare nel merito, proviamo a fare quelli che vengono indicati come “i conti della serva”.

15 g di cloruro di sodio (NaCl) contengono 5.9 g di sodio (diciamo che nel pane TWB ci sono circa 6 g di sodio). L’acqua di mare contiene in media circa 27 g kg-1 di NaCl. Dal momento che la densità media dell’acqua di mare è di circa 1.02 g mL-1 a 4 °C, ne viene che la quantità di cloruro di sodio in 300 mL di acqua di mare corrisponde a 8.3 g. Nei circa otto grammi di cloruro di sodio sono contenuti circa 3 g (3.2 g, per la precisione) di sodio.

In termini percentuali, il contenuto in cloruro sodio per ogni panello non ancora cotto si calcola come:

che per il pane TWB restituisce un contenuto di NaCl pari a 1.6% (ovvero circa 2%), mentre per il pane SWB dà un valore di 0.86% (ovvero un po’ meno dell’1%).

Se, tuttavia, teniamo conto di tutti i possibili sali presenti nell’acqua di mare (la salinità dell’acqua di mare, che NON è dovuta solo al cloruro di sodio – ricordiamo che nel linguaggio chimico, il termine “sale” si riferisce a composti ottenuti per reazione tra un acido e una base – è di circa 35 g kg-1) e che essi non vengono rimossi durante la preparazione del pane, si ottiene che il pane SWB ha un contenuto salino pari a 1.1%.

In base ai contenuti di acqua riportati dagli autori per entrambi i tipi di pane (32.4% e 32.5% per TWB e SWB, rispettivamente), se ne ricava che il contenuto salino per TWB e SWB, come riportato nella Tabella 2 dello studio che stiamo valutando criticamente, non dipende da come il pane viene preparato e cotto, bensì dalla quantità di sale che gli autori decidono scientemente di aggiungere. In altre parole, considerando che l’acqua di mare contiene meno cloruro di sodio di quanto usato per la produzione del pane con la tecnica tradizionale, ne viene che il pane SWB ha meno sodio di quello TWB. Ma gli autori non avrebbero potuto ottenere lo stesso pane tradizionale iposodico aggiungendo meno sale da cucina nel loro preparato di controllo? Per esempio, se avessero preparato un pane tradizionale usando 11 g di cloruro di sodio, invece che i 15 g descritti, avrebbero ottenuto un pane TWB identico, per quanto riguarda il contenuto sodico, a quello SWB. Perché non l’hanno fatto?

Il contenuto di sodio e gli errori analitici

Centriamo la nostra attenzione sui dettagli della Tabella 2. Qui gli autori scrivono che hanno rilevato 1057 e 642 mg di sodio nel pane TWB ed in quello SWB, rispettivamente. Tuttavia, alla luce dei “conti della serva” fatti prima, il contenuto di sodio in TWB avrebbe dovuto essere molto di più (ricordiamo che ci dovrebbero essere circa 6 g, ovvero 6000 mg, di sodio in TWB). Cosa è accaduto? Si è perso cloruro di sodio durante la cottura? Come mai? E come mai gli autori non ritengono che possa essere accaduto lo stesso per il pane SWB? La cosa più grave, tuttavia, a nostro avviso è che gli autori riportano quattro cifre significative per il contenuto di sodio in TWB e tre per quello contenuto in SWB senza alcun accenno di errore sperimentale (per il significato di cifre significative e propagazione dell’errore sperimentale si rimanda al seguente link). Senza l’indicazione dell’errore commesso durante gli esperimenti, 1057 e 642, sebbene possano apparire diversi in termini matematici, sono, in realtà, lo stesso numero.

In realtà, dobbiamo anche ammettere che se guardiamo la Tabella 3, gli autori riportano che il contenuto di sodio in SWB è pari a 6492 mg kg-1 (quattro cifre significative senza errore. Significa che 6492=6500=6400=6300 etc. etc. SIC!) mentre quello in TWB è di 10570 mg kg-1 (cinque cifre significative senza errore. Significa che 10570=10600=10500=10400 etc. etc. SIC!).

Tralasciando per il momento la scorrettezza con cui gli autori riportano i loro risultati ed assumendo che quei valori siano verosimili, ne viene che dalle analisi svolte, il pane ottenuto mediante l’uso di acqua di rubinetto contiene circa 11 g di sodio. Dal momento che i “calcoli della serva” ci dicono che il contenuto di sodio aggiunto in TWB è di circa 6 g, ne viene che circa 5 g di sodio provengono dagli altri ingredienti usati per la produzione del pane.

Andiamo a vedere qual è il contenuto di sodio in SWB. Gli autori dichiarano di aver rilevato circa 7 g di sodio (6492 mg sono appunto 6.5 g ovvero circa 7 g) a fronte dei 3 g di sodio ottenuti dai “calcoli della serva”. La differenza di 4 g è attribuibile ai materiali usati per la panificazione.

La differenza tra sodio aggiunto e sodio trovato in TWB e SWB evidenzia, semmai ce ne fosse stato bisogno, l’importanza nel riportare correttamente gli errori nella valutazione quantitativa dei parametri necessari a distinguere tra prodotti ottenuti usando materiali di partenza identici tranne per l’acqua usata per la panificazione.

Si potrebbe dire: “va bene. In un caso il materiale di partenza fornisce 5 g di sodio, nell’altro 4 g. La differenza di 1 g rientra nell’ambito di un errore sperimentale”.

In realtà non è così.

Gli autori riportano chiaramente che il sodio trovato in TWB è pari a 10570 mg kg-1, ovvero per ogni chilogrammo di pane ci sono 10.570 g di sodio. Dai calcoli sopra riportati, il contenuto di sodio aggiunto è 5.9 g. La differenza è 4.67 g. Nel caso di SWB la differenza tra sodio trovato (6.492 g) e sodio aggiunto (3.2 g) equivale a 3.292 g. Alla luce di quanto finora illustrato ne viene che a parità di materiale (ricordiamo che la differenza tra i pani prodotti è solo nella tipologia di acqua) in un caso il contributo al contenuto di sodio è più alto che nell’altro. Chissà perché in TWB, il contenuto di sodio dovuto al materiale usato per la panificazione è più alto di 1.378 g rispetto a SWB.

Le domande, a questo punto sorgono spontanee: come mai gli autori non hanno fatto una adeguata analisi degli errori sperimentali? Come mai non hanno preparato un pane completamente privo di sale da usare come controllo? Come mai non hanno preparato un pane del tipo TWB con un contenuto più basso di cloruro di sodio da usare come controllo? Come mai non hanno usato acqua di rubinetto proveniente da acquedotti diversi per produrre pane con caratteristiche differenti da confrontare con quello preparato con acqua di mare?

Ancora sull’analisi degli errori

I lettori attenti potrebbero obiettare alle cose che abbiamo scritto che non è vero che gli autori del lavoro non hanno riportato gli errori sperimentali. Lo hanno fatto. Infatti, nella Tabella 3, per esempio, è scritto che il contenuto di sodio in TWB è pari a 10570.000 ± 2.7320 mg kg-1. Insomma, per essere sicuri delle loro conclusioni e per sembrare più scientifici, gli autori hanno riportato un errore con ben quattro cifre decimali e cinque cifre in totale.

La teoria degli errori ci insegna che quando si riporta il valore numerico di una qualsiasi grandezza fisica, il numero di cifre che si possono usare non è quello che viene ottenuto dalla calcolatrice, bensì bisogna fermarsi alla prima cifra contenente l’errore. Facciamo un esempio prendendo proprio quanto scritto dagli autori dello studio sotto esame. Essi hanno scritto che il contenuto di sodio in TWB è  10570.000 ± 2.7320 mg kg-1. Stanno dicendo, in altre parole, che tutte le cifre indicate in grassetto (10570.000) sono affette da errore. In base alla teoria degli errori che tutti quelli che hanno affrontato studi scientifici conoscono (anche gli autori dello studio sotto indagine dovrebbero conoscere la teoria degli errori. Ma evidentemente non è così), il modo corretto per riportare il contenuto di sodio è: 10570 ± 3 mg kg-1. Queste considerazioni si applicano a tutte le cifre riportate in Tabella 3.

I limiti dell’analisi statistica

Gli autori hanno pensato bene di fare un’indagine statistica (Principal Component Analysis, PCA) che hanno riportato nella Figura 1 del loro studio. In questa indagine hanno rilevato che la PCA1 risponde per il 99% dei dati sperimentali.

Tutti quelli che a vario titolo si occupano di scienza ed usano la PCA per spiegare i loro dati sperimentali sanno che una PCA in cui una sola delle componenti ripsonde per il 99% dei dati non ha alcun significato fisico. Affinché una indagine PCA possa avere un significato attendibile è necessario che i dati sperimentali vengano “spalmati” tra almeno due componenti. Infine non c’è alcuna descrizione di come sia stata fatta l’analisi PCA.

Il conflitto di interessi

Last but not least, gli autori alla fine del loro studio affermano di non avere nessun conflitto di interessi. Ma come è possibile se uno di essi lavora proprio per l’azienda che fornisce l’acqua di mare e che non avrebbe alcun interesse a che vengano fuori risultati men che positivi?

Conclusioni

Ci possiamo fidare del lavoro tanto decantato e pubblicizzato dal mondo giornalistico? Alla luce di quanto detto, no. Il lavoro è stato progettato male perché mancano un bel po’ di campioni controllo, i dati sperimentali non sono attendibili e le analisi statistiche sono prive di significato fisico. Questo è uno studio che non avrebbe mai dovuto comparire in letteratura. Purtroppo non è così. I revisori non si sono accorti dei limiti anzidetti ed il lavoro oggi è pubblicato. Esso appartiene, ora, all’intera comunità scientifica che, come abbiamo fatto noi, può scaricarlo e criticarlo nel merito evidenziando la superficialità con cui questo studio è stato, purtroppo, condotto.

Fonte dell’immagine di copertina: Wikimedia Commons