Scienza open access e riviste predatorie. Parte I. Il sistema chiuso

L’articolo che leggete è un mio contributo alla Newsletter n. 12  della Società Italiana di Scienza del Suolo. Si tratta della prima parte di un reportage sui predatory journals.

__________________________________________

Oggi la rete internet è alla portata di tutti. Basta pagare un abbonamento flat ad una qualsiasi delle innumerevoli aziende telefoniche del nostro paese per avere un accesso illimitato a siti di ogni tipo, inclusi quelli di carattere scientifico. Tuttavia, chi non fa parte di un ente (pubblico o privato) che ha accesso alle banche dati scientifiche non può scaricare e leggere lavori che non siano di tipo “open access”.

“Open access”. Sembra essere una moda. Anche la valutazione delle università passa attraverso l’esame del numero di pubblicazioni di tipo “open” dei ricercatori che in esse operano. È per questo che tante istituzioni, anche a livello trans-nazionale, invitano i ricercatori a pubblicare su riviste accessibili a tutti. Devo dire che la questione delle pubblicazioni scientifiche accessibili a tutti è un argomento spinoso.

Vediamo perché.

Nel business editoriale scientifico chiuso, gli editori sono gli unici ad attuare una politica di tipo Win1-Win2-Win3-Win4.

La situazione di Win1 si riferisce al fatto che le case editrici fanno pagare al singolo ricercatore il download di un unico articolo da pochi dollari a qualche centinaio. Tuttavia, questo accade quando l’istituzione di appartenenza non ha pagato nessun abbonamento per l’accesso alle riviste di interesse. Nel caso in cui l’istituzione abbia sottoscritto un abbonamento, il singolo dipendente non è costretto a pagare di tasca sua gli articoli che gli servono per tenersi aggiornato. Gli abbonamenti, che in genere sono per pacchetti di riviste che gli enti di ricerca non possono scegliere, costano un occhio della testa. Si parla di decine di migliaia di euro all’anno. Si badi bene: non si possono scegliere le riviste da inserire nei pacchetti. Ma soprattutto, vengono scelti i pacchetti con le riviste più famose e di copertura più ampia possibile. Questo vuol dire che chi si occupa di nicchie di ricerca ha una probabilità molto alta che le riviste che gli interessano non siano comprese nel pacchetto. Questo che sto scrivendo è valido per ogni casa editrice. Quindi considerando che nel panorama scientifico esistono case come la Elsevier, la Springer, la ACS etc., per ognuna di esse bisogna pagare un abbonamento di diverse decine di migliaia di euro. Si fa presto ad arrivare ad un budget di spesa che vola verso le centinaia di migliaia di euro all’anno. Diciamo che non è poco, considerando la crisi permanente in cui versano da anni le casse delle università e degli enti di ricerca italiani.

Ma non è finita. Le case editrici dei sistemi chiusi si trovano anche nella condizione che io definisco di Win-2. In cosa consiste?  Affinché  possa essere pubblicato, uno studio deve essere sottoposto a revisione tra pari. Gli editor-in-chief di ogni rivista chiedono ad esperti di settore di fare la revisione dei lavori. Il punto è che chiedono ai revisori un surplus di lavoro gratuito. Quindi, ognuno di noi si sobbarca l’onere di leggere e commentare nel merito gli studi dei propri colleghi a discapito del poco tempo libero che ognuno di noi ha. E questo gratuitamente. In altre parole, tutti noi prestiamo la nostra competenza professionale alle case editrici senza remunerazione. Perché lo facciamo? La scusa che abbiamo trovato è che il sistema richiede il nostro apporto. Se non lo facessimo, si pubblicherebbe di tutto. Ma mi chiedo: va bene; evitiamo che venga pubblicato di tutto facendo la revisione tra pari. Ma perché gratis? C’è qualcuno che dice che se non fosse gratis, saremmo corruttibili. E su questo avrei qualcosa da ridire considerando gli scandali che stanno venendo fuori nel mondo scientifico in merito ai plagi, alle pubblicazioni con dati inventati e ai cartelli delle citazioni. Ma, per ora, lasciamo perdere questi aspetti. Rimane la domanda: perché lo facciamo? La mia personale opinione è che lo facciamo per avere una parvenza di potere, ovvero per soddisfare il nostro ego ipertrofico che ci fa pensare che siamo i migliori e che più lavori da referare riceviamo, più siamo bravi. Posso dire che ci vuol molto poco a smontare questa convinzione. Basta fare il rapporto tra numero di riviste che nascono ogni giorno e numero di ricercatori. Gioco forza, ognuno di noi è chiamato a fare da revisore ad un certo numero di studi all’anno. Non siamo bravi. Siamo semplicemente troppo pochi rispetto alla quantità di sciocchezze che vengono inviate per la pubblicazione alle riviste scientifiche.

Arriviamo, ora, alla condizione che io definisco di  Win-3. I lavori che vengono inviati alle riviste scientifiche sono finanziati dalle stesse istituzioni che pagano l’abbonamento alle riviste. In altre parole, la mia università paga la mia ricerca attraverso l’erogazione di fondi (minimi e quando sono disponibili) e di stipendio. Io lavoro per la mia università, ma nello stesso tempo lavoro senza remunerazione, attraverso la mia opera di revisore, per le stesse case editrici alle quali invio i miei studi da pubblicare ed ai quali io stesso non posso accedere se la mia università non ha pagato un abbonamento. La cosa è un po’ contorta, se ci pensiamo bene. C’è qualcuno che stampa su carta (oggi potremmo dire pubblica on line) qualcosa che non gli appartiene perché è di proprietà del ricercatore che l’ha pensata e dell’istituzione che paga il ricercatore per pensare. Certo la stampa costa. Costa la carta, costa il personale necessario alla gestione del flusso di lavori in entrata, costa l’elettricità necessaria a sostenere l’organizzazione della casa editrice etc. etc etc. L’unica cosa che non costa è il lavoro di peer review. Ma ne ho già parlato. Sorge una riflessione: se le case editrici di tipo scientifico rientrano in un ambito imprenditoriale, perché non riescono a ricavare introiti dalla pubblicità o dalla vendita al dettaglio dei loro prodotti? In realtà, di pubblicità sulle riviste ce ne è a iosa, quello che manca è la vendita al grande pubblico. Solo alcune riviste di carattere generalista si possono trovare in edicola. Mi riferisco a Science e Nature che molto spesso trovo esposte nelle edicole degli aeroporti. Eppure sarebbe veramente utile, secondo me, vendere al grande pubblico le riviste specialistiche. Pensiamo solo allo sforzo che i più curiosi dovrebbero fare per masticare l’inglese. Si parla tanto del provincialismo degli italiani che non parlano fluentemente l’inglese, ma nessuno ha mai pensato di diffondere al grande pubblico le riviste con contenuti specialistici per incrementare lo sforzo nella lettura dell’inglese. Parliamo tanto dell’analfabetismo di ritorno che porta le persone più impensabili ad essere delle vere e proprie capre in ambito scientifico, e nessuno ha mai pensato che la vendita al dettaglio, al di fuori dei circuiti istituzionali, potrebbe aiutare le persone a ragionare meglio secondo la logica del metodo scientifico. Tutti questi accorgimenti potrebbero forse essere utili per abbassare i costi degli abbonamenti che le istituzioni sono costrette a pagare per leggere gli studi dei propri ricercatori. In ogni caso, io sono un sognatore, non mi intendo di economia e non ho idea se I sogni di cui sto parlando siano realizzabili o meno.

Veniamo ora alla chiusura del cerchio con la condizione Win4 che è un po’ la summa di quanto discusso fino ad ora.  Le case editrici vendono un prodotto che non comprano. La cosa bella è che lo rivendono, a costi maggiorati, agli stessi che gliene fanno dono. Le università pagano i ricercatori per studi che vengono donati alle case editrici. Queste ultime, a loro volta, chiedono agli stessi ricercatori una valutazione gratuita degli studi anzidetti. Infine, ricercatori ed istituzioni devono comprare il prodotto che loro stessi hanno donato. Fa girare la testa, vero?

Come risolvere il problema?

Ne discuto nel prossimo numero della Newsletter.

Note

Articolo apparso nella Newsletter n. 12 della Società Italiana di Scienza del Suolo

Fonte dell’immagine di copertina 

Questo articolo è un aggiornamento ed un approfondimento di quanto scritto qui.

Come funzionano le maschere filtranti

In questi giorni di crisi in cui siamo costretti ad essere chiusi in casa per salvaguardare la salute nostra e di chi ci è caro, ci si annoia, si legge un libro, si gioca al computer, si vede un film, si lavora (i più fortunati come me possono farlo dal computer), si cucina…si fanno, insomma, tutte quelle attività che per i nostri nonni in tempo di guerra  erano “normali”.

In questa situazione di crisi sanitaria capita di vedere di tutto. Quello che colpisce me è il gran numero di persone che fa uso di mascherine anche in situazioni in cui risultano inutili. Quanti di voi hanno visto automobilisti circolare da soli con la mascherina? E quanti sono quelli che portano a spasso il cane indossando la mascherina in zone solitarie dove è facile tenersi a distanze di sicurezza?

Al di là di ogni tipo di considerazione personale in merito all’uso delle mascherine, tutti noi siamo sicuramente venuti a conoscenza delle disposizioni delle autorità sanitarie che raccomandano l’uso delle mascherine solo a persone infette da coronavirus o a coloro che si trovano ad assistere queste persone. Per tutti gli altri le mascherine sono inutili.

Ma ci siamo mai chiesti come funziona una mascherina e perché le autorità danno certi consigli?

Io mi sono chiesto come diavolo funziona una mascherina ed è per questo che scrivo questo post: ho deciso di annoiarvi ancora più di quel che già non siete annoiati cercando di spiegarvi in cosa consiste questo oggetto che viene catalogato sui luoghi di lavoro come “dispositivo di protezione individuale” o “DPI” ed il cui uso è normato dal D.Lgs. 81/08.

Le dimensioni delle polveri sottili

In molti luoghi di lavoro il personale si trova ad operare in presenza di aerosol e polveri sottili. Queste ultime vengono in genere indicate come PMx, dove la x indica le dimensioni delle particelle espresse in μm.

Quando parliamo di aerosol e polveri sottili stiamo intendendo sistemi che, indipendentemente dalla loro composizione chimica, hanno delle dimensioni molto variabili. Se esse sono comprese tra 2 nm e 2 μm stiamo avendo a che fare con sistemi colloidali che rimangono dispersi in aria per effetto delle loro dimensioni. Grazie ad esse, infatti, la forza di gravità non è in grado di prevalere sulle forze dispersive  come, per esempio, la repulsione tra cariche elettriche oppure le interazioni con le molecole di aria. Come conseguenza, le suddette particelle rimangono disperse in aria fino a che non intervengono fattori che consentono alla forza di gravità di predominare e permettere la deposizione al suolo delle stesse.

Le dimensioni delle polveri sottili in parole povere

Per darvi una idea di cosa significhino i numeri scritti sopra, tenete presente che il nm (si legge nanometro) corrisponde ad un miliardesimo di metro, mentre il μm (si legge micrometro) corrisponde ad un milionesimo di metro. Considerando che la lunghezza di un legame chimico, come il legame C-H, è di circa 0.1 nm, ne viene che 2 nm è una dimensione che corrisponde a circa 20 volte la distanza carbonio-idrogeno, mentre 2 μm corrisponde a circa 20000 volte la stessa distanza. Questo non vi dice ancora nulla, vero? In effetti, se uno non ha studiato chimica non si rende conto di quanto sia piccolo un legame chimico. Allora guardiamo la foto di Figura 1. Si tratta di un acaro della polvere le cui dimensioni sono di circa 0.5 mm, ovvero circa 250 volte più grande di 2 μm che rappresenta il limite superiore dell’intervallo dimensionale in cui ricadono le particelle colloidali. La foto di Figura 1 è stata ottenuta al microscopio elettronico. In altre parole, gli acari della polvere non sono visibili ad occhio nudo. Potete, ora, facilmente immaginare che neanche le particelle colloidali lo siano.

Figura 1. Immagine di un acaro della polvere (Fonte)

Mi potreste dire: “ma cosa dici? Non è vero. Io posso vedere le particelle di smog” (queste nell’immaginario comune sono intese come polveri sottili). Mi dispiace informarvi che le particelle che voi vedete a occhio nudo hanno dimensioni molto più elevate di quelle comprese nell’intervallo 2 nm-2 μm (diciamo almeno più di 1000 volte più grandi), mentre le particelle le cui dimensioni ricadono nell’intervallo anzidetto non le potete vedere se non con la microscopia elettronica. Quando le particelle sono così piccole, l’unico effetto visibile è quello che va sotto il nome di “Effetto Tyndall”. In pratica, la luce che “incontra” le particelle colloidali viene dispersa in tutte le direzioni (Figura 2) con la conseguenza che una soluzione appare opaca o l’aria appare “nebulosa”.

Figura 2. Rappresentazione schematica dell’Effetto Tyndall
Ma cosa c’entra questo con le maschere filtranti?

Come vi dicevo, in molti posti di lavoro, il personale entra in contatto con le polveri sottili. Queste sono pericolosissime per noi dal momento che possono innescare tante patologie, prime tra tutte quelle di tipo respiratorio. I datori di lavoro, quindi, sono obbligati a fornire ai propri dipendenti i dispositivi di protezione individuale tra cui le mascherine. Queste sono in grado di filtrare le polveri sottili che sono presenti nell’aria e di impedire che esse vengano inalate. Esistono almeno tre tipologie di maschere filtranti che vengono indicate con le sigle FFP1, FFP2 e FFP3. La sigla “FFP” sta per “Face Filtering Piece” mentre i numeri da 1 a 3 indicano l’efficacia del filtraggio. In particolare, le maschere FFP1 proteggono da polveri atossiche e non fibrogene la cui inalazione non causa lo sviluppo di malattie, ma può, comunque, irritare le vie respiratorie e rappresentare un inquinamento da cattivi odori. Le maschere FFP2 proteggono da polveri, fumo e aerosol solidi e liquidi dannosi per la salute. In questo caso le maschere intercettano anche particelle fibrogene, ovvero sistemi che, a breve termine, causano irritazione delle vie respiratorie, mentre a lungo termine comportano una riduzione dell’elasticità del tessuto polmonare. Le maschere FFP3 proteggono da polveri, fumo e aerosol solidi e liquidi tossici e dannosi per la salute. Queste maschere sono in grado di proteggere da sostanze nocive cancerogene e radioattive.

La protezione assicurata da queste maschere è di tipo fisico. Più spesso è lo strato di materiale filtrante, più efficace è la protezione. Le maschere di tipo FFP1 consentono di “intercettare” particelle più grandi di 5 μm; le maschere FFP2 consentono di “intercettare” particelle di dimensioni maggiori di 2 μm; le maschere di tipo FFP3 sono capaci di “intercettare” particelle di dimensioni  maggiori di 0.6 μm, ovvero particelle di dimensioni circa 1000 volte più piccole dell’acaro in Figura 1. Tuttavia, le particelle colloidali le cui dimensioni sono comprese tra 0.2 nm e 0.6 μm possono ancora arrivare ai nostri polmoni e causare danni.

E virus e batteri?

Come avrete capito, è tutta questione di dimensioni. In genere i batteri hanno dimensioni pari a circa 0.45 μm, mentre i virus dimensioni comprese nell’intervallo 0.020-0.300 μm. Questo significa che nessuna delle mascherine di cui si è discusso finora sarebbe in grado di trattenere sistemi aventi le predette dimensioni. Tuttavia, se virus e batteri “viaggiano” attaccati a particelle colloidali le cui dimensioni sono almeno superiori a 0.6 μm, allora essi possono essere bloccati dalle maschere filtranti di tipo FFP3. In effetti, le case produttrici di mascherine riportano che le maschere di tipo FFP3 vanno bene per proteggere da esposizione a legionella (un batterio largo tra 0.3 e 0.9 μm e lungo tra 1.5 e 5 μm) e virus quali quelli dell’influenza aviaria, dell’influenza A/H1N1, SARS, e tubercolosi. Bisogna comunque tener presente che lo strato filtrante della mascherina tende ad esaurirsi. La maschera perde la sua efficacia e va sostituita. Cosa vuol dire questo? Che le mascherine FFP sono monouso. Se le si usa in città, magari durante una passeggiata, non vi state difendendo da virus e batteri, ma semplicemente dal particolato sospeso dovuto alla contaminazione ambientale.  Quando tornate a casa dovete buttare via la mascherina e sostituirla con un’altra. Se la usate per difendervi da virus e batteri è perché non state facendo una passeggiata in mezzo ai gas di scarico, ma siete operatori sanitari che devono entrare in contatto con le gocce di saliva di pazienti infetti. La maschera, grazie alla sua azione filtrante, impedisce che questi mezzi veicolanti di patogeni finiscano nel nostro organismo. Dopo l’uso, la maschera va comunque buttata via e sostituita.

E le maschere chirurgiche?

Queste non hanno nulla a che vedere con le maschere di tipo FFP. Mentre queste ultime proteggono dall’inalare sistemi tossici, le maschere chirurgiche hanno il compito di impedire che i chirurghi possano contaminare le ferite dei pazienti durante gli interventi chirurgici. Quindi, le maschere chirurgiche servono per difendere il paziente, non il medico.

Mascherina sì, mascherina no?

Alla luce di tutto quanto scritto, ne viene che è meglio tenersi lontani dalle mascherine fai da te: no carta da forno, no assorbenti, no altre robe raffazzonate. Non servono a nulla. L’unico modo per proteggersi da virus e batteri è seguire le istruzioni di chi ne capisce di più, ovvero dell’Istituto Superiore di Sanità.

Altre letture e riferimenti

Se volete conoscere la fonte delle dimensioni dei pori delle maschere filtranti, cliccate qui: https://www.uvex-safety.it/it/know-how/norme-e-direttive/respiratori-filtranti/significato-delle-classi-di-protezione-ffp/ e qui: http://www.antinfortunisticaroberti.it/news-dett.php?id_news=133 

Se volete avere notizie aggiuntive in merito alle caratteristiche delle maschere filtranti, cliccate qui: https://www.lubiservice.it/blog/mascherine-ffp1-ffp2-e-ffp3-differenze-e-consigli

Se volete sapere quali sono i meccanismi di funzionamento di una maschera filtrante, potete accedere a questa interessante serie di diapositive: http://www.ausl.fe.it/azienda/dipartimenti/sanita-pubblica/servizio-prevenzione-sicurezza-ambienti-di-lavoro/materiale-informativo/corso-utilizzo-dpi-per-operatori-dsp-ottobre-2016/faccaili-filtranti-uso-corretto

Se volete conoscere la fonte da cui è presa l’informazione in merito al filtraggio di alcuni  batteri e virus, cliccate qui: https://www.seton.it/dpi-protezione-respiratoria.html

Se volete conoscere la fonte delle dimensioni dei virus, cliccate qui: https://www.chimica-online.it/biologia/virus.htm

Se volete conoscere la fonte delle dimensione del batterio della legionellosi, cliccate qui: http://www.unpisi.it/docs/PUBBLICAZIONI/ARTICOLI/bonucci%20badii%20legionella.pdf

Se volete sapere di più sull’utilità dei DPI, cliccate qui: https://medicalxpress.com/news/2020-03-masks-gloves-dont-coronavirus-experts.html

Fonte dell’immagine di copertina

Ringraziamenti.

Grazie a Paolo Alemanni e Francesca Santagata per avermi aggiornato sulle norme relative alla sicurezza sul lavoro

 

Pillole di scienza. Alla ricerca degli elettroni di Dirac

Cosa è un elettrone di Dirac?

Si tratta di un elettrone che è descritto dall’equazione di Dirac (Figura 1).

Figura 1. Equazione di Dirac

Semplice vero? Certo come no! Questa è la classica spiegazione a ciambella, ovvero un giro di parole che non spiega nulla se non si è un addetto ai lavori.

Cerchiamo di capire cos’è e perché è importante l’equazione di Dirac.

Ormai è noto a tutti che l’inizio del XX secolo è stato molto prolifico in termini scientifici. È nata, infatti, la meccanica quantistica (MQ) grazie alla quale oggi tutti hanno sentito parlare almeno una volta nella vita dell’equazione di Schoeredinger che, tra le tante cose, permette di descrivere il comportamento degli elettroni.

Una delle cose che viene insegnata a livello semplicistico a tutti gli studenti dei primi anni di corsi di studio scientifici è che l’equazione di Schoeredinger permette di definire gli orbitali come quella zona di spazio in cui esiste una buona probabilità di trovare gli elettroni. Come ho già scritto, questa è una supersemplificazione. Tuttavia fatemela passare per buona perché qui non si sta facendo una lezione di meccanica quantistica, bensì si cerca di fare un po’ di divulgazione per avvicinare concetti complessi a chi non è del settore.

Negli stessi anni in cui nasceva e si sviluppava la MQ, nasceva e si sviluppava anche la teoria della relatività ristretta (RR) di Albert Einstein. Questa si basa sostanzialmente su due postulati. Il primo postulato stabilisce che le leggi della fisica sono le stesse in tutti i sistemi di riferimento inerziali, il secondo afferma che la luce si propaga nel vuoto ad una velocità ben definita pari a 2.99 x 108 m s-1.

”Bene. Bravo. Ed ora? Dove vuoi arrivare mettendo assieme MQ e RR?” vi starete chiedendo.

Abbiate un attimo di pazienza, per favore. Lasciatemi ancora poche parole per arrivare al punto.

Meccanica quantistica e relatività ristretta sono due facce della stessa medaglia.

Fin da quando le due teorie, della MQ e della RR, si sono affermate, gli studiosi hanno cercato di unificarle. Tuttavia, tra le tante difficoltà che essi hanno incontrato, una particolarmente “ostica” è stata quella relativa alla asimmetria tra spazio e tempo della teoria di Schoeredinger che mal si conciliava con la simmetria spazio-temporale di Einstein. In altre parole, mentre Schoeredinger trattava spazio e tempo come se fossero due cose distinte e separate, Einstein considerava le dimensioni spaziali alla stessa stregua della dimensione temporale (prego i miei amici fisici di non essere troppo severi con me se sto semplificando troppo. Anzi, vi invito a correggermi se ritenete che io stia andando fuori dal seminato).

Solo Dirac, grazie alla sua genialità, riuscì a risolvere il problema elaborando una equazione (quella dell’immagine di Figura 1) con la quale riuscì a trattare le particelle quantistiche (quindi anche gli elettroni) nel regime relativistico.

Ma allora, a cosa serve sapere cosa sono gli elettroni di Dirac?

L’equazione di Dirac descrive molto bene il comportamento degli elettroni nei semiconduttori ed in sistemi quali il grafene. Per associazione, anche se studi del genere non sono stati ancora condotti, l’equazione di Dirac dovrebbe descrivere bene anche il comportamento di sistemi simil-grafene quali il biochar. Tuttavia, bisogna aggiungere che il numero di tecniche analitiche capaci di confermare sperimentalmente il comportamento degli elettroni secondo Dirac si può contare sulla punta delle dita di una sola mano. Si tratta di tecniche che sono “maneggiate” con una certa familiarità dai fisici, ma che per un chimico sono alquanto “ostiche”.

La risonanza magnetica nucleare (NMR) e gli elettroni di Dirac.

È di pochi giorni fa la notizia che su Nature Communication è apparso uno studio attraverso cui, per la prima volta, sono stati osservati mediante NMR (una tecnica molto amata dai chimici, incluso me che faccio l’NMR-ista sin dal 1992) gli effetti che gli stati elettronici di Dirac (ovvero quelli descritti dall’equazione di Figura 1) hanno sul comportamento dei nuclei di una lega metallica fatta da Bismuto e Tellurio (Bi2Te3) che viene utilizzata come isolante.
Se avete voglia di leggere l’articolo originale basta cliccare sull’immagine qui sotto.

Figura 2. Immagine tratta dall’articolo di Nature Communications.
Ed allora?

Bella domanda. Intanto si aggiunge una nuova tecnica a quelle già usate per lo studio del comportamento degli elettroni e la verifica sperimentale dell’equazione di Dirac. Inoltre, si aprono nuovi scenari per la progettazione di nuovi materiali con proprietà sempre più sofisticate da poter utilizzare nei campi più disparati come la ricerca spaziale o quella medica.

Per approfondire

What the heck is a Dirac electron?

Dirac electrons

The metal-insulator transition depends on the mass of Dirac electrons

Relatività ristretta

Giorgio Chinnici, Assoluto e relativo, Hoepli ed. 

Giorgio Chinnici, La stella danzante, Hoepli ed. 

Fonte dell’immagine di copertina

 

 

 

 

 

Pane all’acqua di mare: realtà o fantasia?

di Enrico Bucci e Pellegrino Conte

Vi ricordate il pane fatto con l’acqua di mare?

Qualche tempo fa le principali agenzie di stampa italiane titolarono a nove colonne che ricercatori italiani avevano scoperto che  il pane fatto usando l’acqua di mare, invece che la normale acqua di rubinetto, aveva proprietà salutistiche migliori del pane tradizionale.

Ecco, per esempio, cosa scriveva il Gambero Rosso già nel 2017:

Una nuova ricetta che consente di risparmiare acqua potabile, offrendo un alimento valido anche per chi è obbligato a seguire una dieta povera di sodio: il pane prodotto con l’acqua di mare è l’ultimo, innovativo progetto nato dalla collaborazione dei panificatori associati all’Unipan con Termomar e il Consiglio Nazionale delle Ricerche

mentre l’ANSA nell’Aprile di quest’anno (2019) scriveva:

Arriva il pane all’acqua di mare. E’ senza sale, ma saporito e povero di sodio

a cui faceva seguito il sito de La Cucina Italiana che riportava:

È iposodico e contiene il triplo di magnesio, il quadruplo di iodio, più potassio, ferro e calcio. Adesso viene distribuito anche nei supermercati

Anche il National Geographic ha riportato la notizia scrivendo che:

Lo ha prodotto il CNR, contiene meno sale rispetto a un filone prodotto con acqua dolce, ed è più ricco di iodio, magnesio e potassio

Insomma un tripudio alla genialità italiana che ha confermato il luogo comune secondo cui siamo un “popolo di eroi, di santi, di poeti, di artisti, di navigatori, di colonizzatori, di trasmigratori” e … di scopritori.

Cosa c’è di vero in tutto quello che è stato riportato dalle agenzie di stampa?

Ovviamente i giornalisti non hanno inventato nulla. È vero che un team di ricercatori italiani ha prodotto un tipo di pane usando acqua di mare e lo ha confrontato col pane prodotto in modo tradizionale ottenuto con acqua di rubinetto ed il comune sale da cucina. È anche vero che gli stessi ricercatori hanno posto un accento particolare sulle proprietà salutistiche del pane da essi “inventato” evidenziandone le qualità superiori rispetto al pane che da sempre siamo abituati a mangiare. La loro “invenzione” è stata oggetto di una pubblicazione su International Journal of Food Properties, una rivista della Taylor & Francis con un Impact Factor di 1.845 per il 2017, dal titolo: “Bread chemical and nutritional characteristics as influenced by food grade sea water”. Quello che i tutti i giornalisti e commentatori non sono stati in grado di fare è una valutazione critica dello studio pubblicato, posto che lo abbiano mai letto. Ma possiamo capire. Il loro compito non è fare valutazioni critiche di lavori pubblicati su riviste scientifiche. Sono pagati per riportare la cronaca di ciò che trovano in rete o che viene loro dato in pasto dalle agenzie di stampa degli Enti di Ricerca, come il CNR, che intendono pubblicizzare le proprie attività interne. Un pane salutistico fatto con l’acqua di mare attrae certamente l’attenzione sia verso l’Ente che ha sovvenzionato la ricerca che verso i giornali che riportano la notizia. Ma quanto c’è di vero nel lavoro che si può facilmente scaricare da questo link?

Avvertenze

Da questo momento in poi la lettura può diventare noiosa perché siamo costretti ad entrare in particolari tecnici senza i quali non è possibile rispondere alla domanda che dà il titolo a questo articolo. Naturalmente, è possibile “saltare” direttamente alle conclusioni se non avete voglia di seguire tutti i passi che ci conducono alla constatazione che lo studio pubblicato è superficiale, progettato ed eseguito male e non giustifica affatto l’esaltazione giornalistica di cui abbiamo già riportato. Ma andiamo con ordine.

Una analisi critica

Nella sezione dedicata ai Materiali e Metodi, gli autori scrivono che l’acqua di mare è stata fornita dalla Steralmar srl, una ditta di Bisceglie (in provincia di Barletta-Andria-Trani, BT). Tuttavia, una attenta lettura dell’intero lavoro evidenzia che da nessuna parte gli autori riportano la benché minima analisi chimica dell’acqua che hanno deciso di usare per la produzione del “loro” pane. Non è riportata neanche l’analisi chimica dell’acqua di rubinetto usata per la produzione del pane usato come controllo per il confronto con il pane “innovativo”. Eppure gli autori discutono delle diverse composizioni chimiche delle tipologie di pane che hanno prodotto. Basta leggere le Tabelle 1 e 2 per rendersi conto di quanto essi ritengano rilevanti le differenze in termini chimici tra i pani prodotti. Tutti i ricercatori sanno che quando si cercano differenze tra prodotti ottenuti in modo differente occorre fornire dei validi punti di partenza per poter capire se le differenze che si evidenziano sono dovute ad errori sperimentali o ai “reagenti” che si utilizzano. Ed allora: qual è la concentrazione salina dell’acqua di mare e dell’acqua di rubinetto?  È presente sostanza organica disciolta in entrambe? Ed il loro pH: è lo stesso o è differente?

Il cloruro di sodio

Prendiamo, per esempio, la Tabella 1. Gli autori scrivono che il pane prodotto con acqua di rubinetto (TWB) è stato ottenuto aggiungendo 15 g di cloruro di sodio (quello che nel linguaggio comune è il sale da cucina) a 300 mL di acqua di rubinetto. Nella stessa tabella, non c’è alcuna indicazione sull’ammontare di cloruro di sodio contenuto nei 300 mL di acqua di mare usata per fare il “pane all’acqua di mare” (SWB). Nonostante ciò, gli autori concludono che il pane SWB contiene meno sodio rispetto a quello TWB e ne suggeriscono l’uso nelle diete iposodiche.

Ma per entrare nel merito, proviamo a fare quelli che vengono indicati come “i conti della serva”.

15 g di cloruro di sodio (NaCl) contengono 5.9 g di sodio (diciamo che nel pane TWB ci sono circa 6 g di sodio). L’acqua di mare contiene in media circa 27 g kg-1 di NaCl. Dal momento che la densità media dell’acqua di mare è di circa 1.02 g mL-1 a 4 °C, ne viene che la quantità di cloruro di sodio in 300 mL di acqua di mare corrisponde a 8.3 g. Nei circa otto grammi di cloruro di sodio sono contenuti circa 3 g (3.2 g, per la precisione) di sodio.

In termini percentuali, il contenuto in cloruro sodio per ogni panello non ancora cotto si calcola come:

che per il pane TWB restituisce un contenuto di NaCl pari a 1.6% (ovvero circa 2%), mentre per il pane SWB dà un valore di 0.86% (ovvero un po’ meno dell’1%).

Se, tuttavia, teniamo conto di tutti i possibili sali presenti nell’acqua di mare (la salinità dell’acqua di mare, che NON è dovuta solo al cloruro di sodio – ricordiamo che nel linguaggio chimico, il termine “sale” si riferisce a composti ottenuti per reazione tra un acido e una base – è di circa 35 g kg-1) e che essi non vengono rimossi durante la preparazione del pane, si ottiene che il pane SWB ha un contenuto salino pari a 1.1%.

In base ai contenuti di acqua riportati dagli autori per entrambi i tipi di pane (32.4% e 32.5% per TWB e SWB, rispettivamente), se ne ricava che il contenuto salino per TWB e SWB, come riportato nella Tabella 2 dello studio che stiamo valutando criticamente, non dipende da come il pane viene preparato e cotto, bensì dalla quantità di sale che gli autori decidono scientemente di aggiungere. In altre parole, considerando che l’acqua di mare contiene meno cloruro di sodio di quanto usato per la produzione del pane con la tecnica tradizionale, ne viene che il pane SWB ha meno sodio di quello TWB. Ma gli autori non avrebbero potuto ottenere lo stesso pane tradizionale iposodico aggiungendo meno sale da cucina nel loro preparato di controllo? Per esempio, se avessero preparato un pane tradizionale usando 11 g di cloruro di sodio, invece che i 15 g descritti, avrebbero ottenuto un pane TWB identico, per quanto riguarda il contenuto sodico, a quello SWB. Perché non l’hanno fatto?

Il contenuto di sodio e gli errori analitici

Centriamo la nostra attenzione sui dettagli della Tabella 2. Qui gli autori scrivono che hanno rilevato 1057 e 642 mg di sodio nel pane TWB ed in quello SWB, rispettivamente. Tuttavia, alla luce dei “conti della serva” fatti prima, il contenuto di sodio in TWB avrebbe dovuto essere molto di più (ricordiamo che ci dovrebbero essere circa 6 g, ovvero 6000 mg, di sodio in TWB). Cosa è accaduto? Si è perso cloruro di sodio durante la cottura? Come mai? E come mai gli autori non ritengono che possa essere accaduto lo stesso per il pane SWB? La cosa più grave, tuttavia, a nostro avviso è che gli autori riportano quattro cifre significative per il contenuto di sodio in TWB e tre per quello contenuto in SWB senza alcun accenno di errore sperimentale (per il significato di cifre significative e propagazione dell’errore sperimentale si rimanda al seguente link). Senza l’indicazione dell’errore commesso durante gli esperimenti, 1057 e 642, sebbene possano apparire diversi in termini matematici, sono, in realtà, lo stesso numero.

In realtà, dobbiamo anche ammettere che se guardiamo la Tabella 3, gli autori riportano che il contenuto di sodio in SWB è pari a 6492 mg kg-1 (quattro cifre significative senza errore. Significa che 6492=6500=6400=6300 etc. etc. SIC!) mentre quello in TWB è di 10570 mg kg-1 (cinque cifre significative senza errore. Significa che 10570=10600=10500=10400 etc. etc. SIC!).

Tralasciando per il momento la scorrettezza con cui gli autori riportano i loro risultati ed assumendo che quei valori siano verosimili, ne viene che dalle analisi svolte, il pane ottenuto mediante l’uso di acqua di rubinetto contiene circa 11 g di sodio. Dal momento che i “calcoli della serva” ci dicono che il contenuto di sodio aggiunto in TWB è di circa 6 g, ne viene che circa 5 g di sodio provengono dagli altri ingredienti usati per la produzione del pane.

Andiamo a vedere qual è il contenuto di sodio in SWB. Gli autori dichiarano di aver rilevato circa 7 g di sodio (6492 mg sono appunto 6.5 g ovvero circa 7 g) a fronte dei 3 g di sodio ottenuti dai “calcoli della serva”. La differenza di 4 g è attribuibile ai materiali usati per la panificazione.

La differenza tra sodio aggiunto e sodio trovato in TWB e SWB evidenzia, semmai ce ne fosse stato bisogno, l’importanza nel riportare correttamente gli errori nella valutazione quantitativa dei parametri necessari a distinguere tra prodotti ottenuti usando materiali di partenza identici tranne per l’acqua usata per la panificazione.

Si potrebbe dire: “va bene. In un caso il materiale di partenza fornisce 5 g di sodio, nell’altro 4 g. La differenza di 1 g rientra nell’ambito di un errore sperimentale”.

In realtà non è così.

Gli autori riportano chiaramente che il sodio trovato in TWB è pari a 10570 mg kg-1, ovvero per ogni chilogrammo di pane ci sono 10.570 g di sodio. Dai calcoli sopra riportati, il contenuto di sodio aggiunto è 5.9 g. La differenza è 4.67 g. Nel caso di SWB la differenza tra sodio trovato (6.492 g) e sodio aggiunto (3.2 g) equivale a 3.292 g. Alla luce di quanto finora illustrato ne viene che a parità di materiale (ricordiamo che la differenza tra i pani prodotti è solo nella tipologia di acqua) in un caso il contributo al contenuto di sodio è più alto che nell’altro. Chissà perché in TWB, il contenuto di sodio dovuto al materiale usato per la panificazione è più alto di 1.378 g rispetto a SWB.

Le domande, a questo punto sorgono spontanee: come mai gli autori non hanno fatto una adeguata analisi degli errori sperimentali? Come mai non hanno preparato un pane completamente privo di sale da usare come controllo? Come mai non hanno preparato un pane del tipo TWB con un contenuto più basso di cloruro di sodio da usare come controllo? Come mai non hanno usato acqua di rubinetto proveniente da acquedotti diversi per produrre pane con caratteristiche differenti da confrontare con quello preparato con acqua di mare?

Ancora sull’analisi degli errori

I lettori attenti potrebbero obiettare alle cose che abbiamo scritto che non è vero che gli autori del lavoro non hanno riportato gli errori sperimentali. Lo hanno fatto. Infatti, nella Tabella 3, per esempio, è scritto che il contenuto di sodio in TWB è pari a 10570.000 ± 2.7320 mg kg-1. Insomma, per essere sicuri delle loro conclusioni e per sembrare più scientifici, gli autori hanno riportato un errore con ben quattro cifre decimali e cinque cifre in totale.

La teoria degli errori ci insegna che quando si riporta il valore numerico di una qualsiasi grandezza fisica, il numero di cifre che si possono usare non è quello che viene ottenuto dalla calcolatrice, bensì bisogna fermarsi alla prima cifra contenente l’errore. Facciamo un esempio prendendo proprio quanto scritto dagli autori dello studio sotto esame. Essi hanno scritto che il contenuto di sodio in TWB è  10570.000 ± 2.7320 mg kg-1. Stanno dicendo, in altre parole, che tutte le cifre indicate in grassetto (10570.000) sono affette da errore. In base alla teoria degli errori che tutti quelli che hanno affrontato studi scientifici conoscono (anche gli autori dello studio sotto indagine dovrebbero conoscere la teoria degli errori. Ma evidentemente non è così), il modo corretto per riportare il contenuto di sodio è: 10570 ± 3 mg kg-1. Queste considerazioni si applicano a tutte le cifre riportate in Tabella 3.

I limiti dell’analisi statistica

Gli autori hanno pensato bene di fare un’indagine statistica (Principal Component Analysis, PCA) che hanno riportato nella Figura 1 del loro studio. In questa indagine hanno rilevato che la PCA1 risponde per il 99% dei dati sperimentali.

Tutti quelli che a vario titolo si occupano di scienza ed usano la PCA per spiegare i loro dati sperimentali sanno che una PCA in cui una sola delle componenti ripsonde per il 99% dei dati non ha alcun significato fisico. Affinché una indagine PCA possa avere un significato attendibile è necessario che i dati sperimentali vengano “spalmati” tra almeno due componenti. Infine non c’è alcuna descrizione di come sia stata fatta l’analisi PCA.

Il conflitto di interessi

Last but not least, gli autori alla fine del loro studio affermano di non avere nessun conflitto di interessi. Ma come è possibile se uno di essi lavora proprio per l’azienda che fornisce l’acqua di mare e che non avrebbe alcun interesse a che vengano fuori risultati men che positivi?

Conclusioni

Ci possiamo fidare del lavoro tanto decantato e pubblicizzato dal mondo giornalistico? Alla luce di quanto detto, no. Il lavoro è stato progettato male perché mancano un bel po’ di campioni controllo, i dati sperimentali non sono attendibili e le analisi statistiche sono prive di significato fisico. Questo è uno studio che non avrebbe mai dovuto comparire in letteratura. Purtroppo non è così. I revisori non si sono accorti dei limiti anzidetti ed il lavoro oggi è pubblicato. Esso appartiene, ora, all’intera comunità scientifica che, come abbiamo fatto noi, può scaricarlo e criticarlo nel merito evidenziando la superficialità con cui questo studio è stato, purtroppo, condotto.

Fonte dell’immagine di copertina: Wikimedia Commons

Rete informale SETA – Scienze e Tecnologie per l’Agricoltura

È nata la Rete Informale SETA – Scienze e Tecnologie per l’Agricoltura che raccoglie professionisti del settore (accademici, liberi professionisti ed operatori agricoli) per lo sviluppo ed il sostegno ad una agricoltura sostenibile mediante l’uso delle conoscenze scientifiche e delle tecnologie più attuali.

Nelle immagini che seguono potete leggere il Manifesto per l’Agricoltura del XXI secolo da cui riporto uno stralcio:

<Crediamo necessario guardare all’agricoltura in un’ampia prospettiva di spazio e di tempo: essa si deve prioritariamente preoccupare di assicurare ad un’Umanità in crescita cibo sufficiente in termini quantitativi, sicuro in termini qualitativi, appropriato in termini nutrizionali ed equamente distribuito; lo deve fare incrementando la propria capacità produttiva – quanto meno fintanto che non si giungerà alla stabilità demografica – senza provocare il depauperamento irreversibile delle risorse naturali, al contempo adottando logiche di multifunzionalità che mirino alla tutela del paesaggio, del benessere e della cultura delle comunità locali. In tal senso riteniamo che questi obiettivi possano essere raggiunti soltanto attraverso l’impiego integrato di tutte le tecnologie disponibili, sulla base dei principi di sostenibilità economica, sociale e ambientale>

Potete chiedere informazioni scrivendo all’indirizzo: info@setanet.it

A breve sarà disponibile anche il modulo per l’adesione alla Rete Informale SETA.

C’è nessunooooooo? Giocare con i numeri

Quando ero più giovane andava per la maggiore una simpatica pubblicità sulla particella di sodio. Ve la ricordate?

Era simpatica, in effetti.

Il sodio in acqua

Il sodio è un elemento del primo gruppo della tavola periodica che ha la caratteristica di reagire violentemente con l’acqua in una reazione di ossido-riduzione che porta alla formazione dello ione Na+.

Ma non è di questo che voglio parlavi.

Il sodio e la salute umana

Che lo ione sodio sia coinvolto nei problemi cardiovascolari è ben acclarato nella letteratura medica. Di conseguenza, quando un individuo è affetto da ipertensione, il medico può consigliare l’uso di acque adatte alle diete iposodiche.

In base al D.L. n. 176 del 8/10/2011, su G.U.  Serie Generale n. 258 del 5/11/2011, possono essere definite acque adatte alle diete povere di sodio tutte quelle in cui il contenuto dello ione Na+ è ≤ 20 mg L-1. L’ho scritto anche nel mio libro “Frammenti di Chimica. Come smascherare falsi miti e leggende“, dove riporto  che se anche le acque hanno un contenuto di sodio ≥ 20 mg L-1 sono comunque potabili. L’unico inconveniente è che possono avere un sapore non necessariamente gradito.

Lo stesso D.L. n. 176 del 8/10/2011, su G.U.  Serie Generale n. 258 del 5/11/2011 citato poco fa, prende in considerazione la possibilità che un’acqua potabile possa avere un elevato contenuto di ione sodio. Infatti viene riportato che quando un’acqua ha un contenuto di sodio ≥ 200 mg L-1 essa deve essere obbligatoriamente indicata come “acqua sodica”.  Come riportato nell’Enciclopedia Medica, le acque sodiche “sono indicate in stati di carenze specifiche”.

Consigli del Ministero della Salute

Se andiamo sul sito internet del Ministero della Salute (qui), leggiamo che “l’Organizzazione Mondiale della Sanità (OMS) raccomanda un consumo massimo di 5 grammi al giorno di sale, corrispondenti a circa 2 grammi al giorno di sodio“. Questo vuol dire che dobbiamo limitare il consumo di sodio nell’alimentazione giornaliera utilizzando una corretta pratica alimentare. Si parla di ione sodio, non dell’elemento metallico che dà l’esplosione a contatto con l’acqua che avete visto nel secondo filmato di quest’articolo.

In che modo tenere sotto controllo l’assunzione di ione sodio? È lo stesso Ministero della Salute a suggerircelo:

  • Leggiamo attentamente l’etichetta nutrizionale per scegliere, in ciascuna categoria, i prodotti a minore contenuto di sale e cercare i prodotti a basso contenuto di sale, cioè inferiore a 0.3 grammi per 100 g (corrispondenti a 0.12 g di sodio)
  • Riduciamo l’uso di sale aggiunto in cucina, preferendo comunque, ove necessario, minime quantità di sale iodato.
  • Limitiamo l’uso di altri condimenti contenenti sodio (dadi da brodo, maionese, salse, ecc.) e utilizziamo in alternativa spezie, erbe aromatiche, succo di limone o aceto per insaporire ed esaltare il sapore dei cibi.
  • Non portiamo in tavola sale o salse salate, in modo che non si acquisisca l’abitudine di aggiungere sale sui cibi, soprattutto tra i più giovani della famiglia.
  • Riduciamo il consumo di alimenti trasformati ricchi di sale (snack salati, patatine in sacchetto, alcuni salumi e formaggi, cibi in scatola).
  • Scoliamo e risciacquiamo verdure e legumi in scatola, prima di consumarli.
  • Evitiamo l’aggiunta di sale nelle pappe dei bambini, almeno per il primo anno di vita.
Giocare con i numeri

Ritorniamo ai consigli dell’OMS.  Dobbiamo scegliere quegli alimenti che  contengano meno di  1200 mg kg-1 di sodio.

A questo punto quelli di voi che leggono solo distrattamente mi daranno del pazzo: da dove è venuto fuori questo numero così elevato? È scritto sopra: 0.12 g di sodio per 100 g di sale corrispondono a 1200 mg di sodio ogni chilogrammo (cioè 1000 g) di sale; è molto semplice fare i calcoli per cui non offendo la vostra intelligenza proponendoveli.

In parole povere mi sono messo a giocare coi numeri. Questo vezzo di giocare coi numeri per dare l’impressione che qualcosa sia diverso da quello che effettivamente è, è tipico di quanti, per lavoro, impostano le campagne pubblicitarie di tanti prodotti alimentari come le acque destinate al consumo umano introdotte col filmato sulla particella di sodio inserito all’inizio di questo articolo.

Ne volete un esempio? Eccovi la foto dell’etichetta dell’acqua che ho preso oggi a pranzo

Figura 1. Etichetta di una nota acqua minerale. Si noti il modo in cui viene espressa la concentrazione di sodio

È perfettamente evidenziato che la quantità di sodio è < 0.0005 %. Un numero spaventosamente piccolo, vero? Uno che legge distrattamente pensa: “WOW, praticamente non c’è sodio. Deve essere particolarmente adatta per gli ipertesi”. Ma guardando con attenzione, poco più su nell’etichetta è scritto che il contenuto di sodio è 4.1 mg L-1. Alla luce del D.L. n. 176 del 8/10/2011, su G.U.  Serie Generale n. 258 del 5/11/2011 questa è un’acqua adatta per diete iposodiche.

Ma, adesso, dite la verità: 0.0005 non dà l’impressione di essere di gran lunga più piccolo di 4.1?

In realtà sono esattamente la stessa cosa. Sono state usate due unità di misura differenti per indicare lo stesso valore numerico (in realtà il valore percentuale è approssimato, ma non è importante ai fini della discussione). La legge impone di indicare il contenuto di sodio in mg L-1 ; l’azienda di imbottigliamento ha scelto di riportare, evidenziandolo a bella posta, anche il contenuto percentuale cosicché il consumatore distratto possa essere portato a pensare che la quantità di sodio sia molto più bassa di quella che effettivamente è. Si tratta di un escamotage che fa leva sulle sensazioni che nascono in noi quando leggiamo i numeri.

Conclusioni

Giocare con i numeri per suscitare sensazioni in modo da indirizzare le scelte dei consumatori è cosa molto comune. Non è una cosa grave. Non bisogna, tuttavia, farsi trarre in inganno. Le scelte, soprattutto alimentari, vanno fatte con oculatezza e sapendo ciò che si fa.

Fonte dell’immagine di copertina: https://commons.wikimedia.org/wiki/Water#/media/File:Water_Impact_0.jpg

Dieta e salute: cosa fanno gli italiani?

 

Cosa fanno gli italiani quando si tratta di alimentazione? Siamo proprio sicuri che siano coerenti con se stessi? Un articolo di Francesco Mercadante su Econopoly de Il Sole 24 Ore ci spiega che la coerenza non è esattamente ciò che contraddistingue i nostri connazionali. A dirlo non sono delle elucubrazioni personali, ma i numeri contenuti nei rapporti COOP 2018 e CENSIS-Coldiretti. In questa sede, Francesco ha deciso di chiedermi cosa sia l’agricoltura biologica e quali possono essere i limiti ed i vantaggi di questo tipo di pratica che oggi sembra andare per la maggiore.

_____________________________________

[Inchiesta completa…] In considerazione della dinamica conflittuale più volte emersa nella nostra inchiesta, ci è parso necessario e naturale interpellare un esperto, uno scienziato che si è occupato a lungo della querelle tra “biologico e non”, il professore Pellegrino Conte, ordinario di chimica agraria all’Università degli Studi di Palermo, nonché membro della Commissione Abilitazione Scientifica Nazionale per il settore chimica agraria, pedologia e genetica agraria e membro del Comitato Scientifico dell’Osservatorio Buona Sanità. Al professore, anzitutto, abbiamo chiesto: che cos’è l’agricoltura biologica?

La risposta di Conte, senza dubbio, mette in crisi la comune interpretazione. Eccola, di seguito, in un ampio e ricco virgolettato!

“Si può dire che non esiste agricoltura che non sia biologica. Tuttavia, come spesso accade, i termini scientifici vengono privati del loro significato ed utilizzati fuori contesto con un significato differente da quello originale. Oggi, secondo l’accezione comune, per “agricoltura biologica” s’intende un tipo di agricoltura “naturale”, sebbene, quando interrogati nel merito, pochi sappiano cosa significhi questo aggettivo. Il termine “naturale” ha assunto il significato di “sano”, “bello”, “giusto”. In altre parole, l’agricoltura biologica, coi suoi prodotti naturali, è qualcosa che fa bene perché ci consente di consumare prodotti salutari e di preservare l’ambiente in cui viviamo. È davvero così? [Continua…]

Italiani sempre a dieta, salutisti a parole. Ma non sanno cos’è il biologico

 

Per saperne di più

Rapporto COOP 2018

Rapporto Censis-Coldiretti

Fonte dell’immagine di copertina (qui)

Salute e Società. Tra scienza e pseudoscienza – 2

Il 25 Ottobre 2018 abbiamo inaugurato a Palermo i Workshop CNMP itineranti dedicati alla corretta divulgazione scientifica dal titolo: “Salute e Società. Tra scienza e pseudoscienza”.  Cliccando sull’immagine qui sotto, trovate tutti gli interventi dei relatori che si sono avvicendati nell’aula magna GP Ballatore del Dipartimento di Scienze Agrarie, Alimentari e Forestali dell’Università degli studi di Palermo.

Col nuovo anno si riparte.

Il 27 Febbraio 2019 presso l’Università degli Studi di Genova si terrà il secondo dei workshop itineranti su “Salute e Società. Tra scienza e pseudoscienza“. Come per il primo, anche a questo secondo incontro parteciperanno esperti di caratura internazionale che spiegheranno i meccanismi dietro i miti e le leggende che si incontrano sul web e cercheranno di farci capire quali sono le basi del pensiero critico che ci devono consentire di affrontare questa guerra senza esclusione di colpi tra mondo scientifico e mondo magico popolato di omeopatia, antivaccinismo, scie chimiche e altre amenità di questo tipo.

Per le informazioni in merito agli interventi e per l’iscrizione all’evento potete cliccare sull’immagine della locandina qui sotto

Consentitemi di rubarvi ancora pochi minuti per ringraziare non solo il Rettore dell’Università di Genova che ospita questo evento, la C1Vedizioni che si fa promotore di questi Workshop itineranti, ma anche l’associazione ZEUS che sta facendo un lavoro magnifico per assicurare la perfetta riuscita di questo evento. Lasciatemi portare alla vostra attenzione tutti gli enti e le società che patrocinano il secondo CNMP Workshop: l’Ufficio Regionale Scolastico per la Liguria del MIUR, il CICAP, l’Osservatorio Buona Sanità (di cui ho l’onore di far parte come componente del Comitato Scientifico) e l’associazione BIOFOR dei biologi forensi.

Infine, come docente dell’Università di Palermo sono particolarmente orgoglioso di poter ringraziare i miei studenti che attraverso l’associazione Intesa Universitaria e ASAP (Associazione Studenti Agraria Palermo) hanno deciso di dare il loro contributo alla pubblicizzazione dell’evento e di impegnarsi in prima persona nella corretta divulgazione scientifica.

Se i figli sono migliori dei padri, allora per noi c’è ancora speranza.

Scienza e novità – nuove strategie chimiche per l’agricoltura

In questi giorni si leggono tanti soloni discettare di dogmatismo scientifico perché il mondo accademico, almeno una parte consistente di esso, bolla come pseudoscientifiche le elucubrazioni esoteriche di chi cerca di ammantare di scientificità la pratica agricola che va sotto il nome di biodinamica®. Ricordo brevemente che si tratta di una pratica che si basa sulle concezioni filosofiche di Rudolf Steiner, vissuto tra il 1861 ed il 1925, il quale dettò alcune regole per la produzione alimentare che avevano come obiettivo l’equilibrio “spirituale” tra l’uomo e la Terra. Non è questo il momento per evidenziare le sciocchezze di Steiner. Ne ho scritto qualcosa qui e recentemente, assieme ad Enrico Bucci, ne ho parlato anche qui. Voglio, piuttosto, centrare l’attenzione sul fatto che i soliti redivivi Giordano Bruno e Galileo Galilei pensano di essere innovativi e che la scienza ufficiale brutta e cattiva si opponga alle loro novità per motivi economici o di arrivismo carrieristico. Tralasciando queste accuse che qualificano solo chi le fa, è da un po’ di tempo che non racconto di novità in ambito scientifico. Oggi voglio raccontarvi di nuove scoperte che la chimica – sì, proprio quella che produce le tanto vituperate sostanze tossiche (qui, per esempio) – sta facendo per aiutare la produzione agricola.

Chi mi segue sa che qualche volta ho parlato delle grandi scoperte scientifiche. Tra queste bisogna certamente annoverare il processo Haber-Bosch grazie al quale è possibile convertire l’azoto molecolare in ammoniaca.

Vi chiederete: embé?

Da un punto di vista chimico, l’azoto molecolare (N2) è una delle molecole più stabili (ovvero irreattive) che esistano in natura. L’energia di dissociazione della molecola di azoto è di circa 900 kJ mol-1. Ai non chimici questa informazione quantitativa è inutile. Vediamo di trasformarla in qualcosa di più comprensibile.

La reazione del processo Haber-Bosch (che potete trovare descritta qui) è:

N2 + 3H2 = 2NH3

Per ottenere questa conversione attualmente bisogna operare a 500 °C (contro i 600 °C del processo originario) e 150 bar (contro i 300 bar del processo originario). In altre parole, occorre una temperatura particolarmente alta (voi mettereste la mano nel piombo o nel rame fusi? Ecco…neanche io. 500 °C è una temperatura alla quale sia il rame che il piombo sono in fase liquida) ed una pressione altrettanto drastica (150 bar corrispondono approssimativamente alla pressione esercitata dall’acqua quando scendiamo ad una profondità di circa 1500 m).

L’importanza di questa reazione è legata al fatto che l’aria che noi respiriamo è costituita per l’80 % di azoto molecolare che è, quindi, disponibile a basso costo. La conversione Haber-Bosch consente di ottenere ammoniaca dalla quale poter, poi, sintetizzare molecole quali il solfato di ammonio che vengono usate, tra l’altro, per arricchire di azoto disponibile i suoli. Ricordo che l’azoto è un elemento importantissimo non solo per l’uomo, ma anche per le piante – ed in generale per tutti gli esseri viventi. Il motivo è che esso è presente in molecole come DNA e RNA, e nel nostro corredo proteico. Una carenza di azoto porta le piante a condizioni di stress in quanto esse non sono in grado di sintetizzare le predette molecole. Vi renderete conto, quindi, che l’uso di concimi a base di azoto è estremamente importante per conservare la fertilità dei suoli (che è la capacità di un suolo di sostenere la vita) e consentire la produzione alimentare per fornire sostentamento alla popolazione mondiale attualmente ancora in crescita.

Ebbene, fatta questa lunga premessa su un processo chimico oggi molto importante per le sue implicazioni in agricoltura, veniamo alla novità (l’articolo originale è qui. Se non avete possibilità di accesso a JACS, potete leggerne un riassunto qui).

Ricercatori statunitensi si sono messi a studiare in modo sistematico un fenomeno dall’apparente non riproducibilità.

Circa 75 anni fa si osservò che il biossido di titanio (TiO2), un composto inorganico usato come catalizzatore nella chimica verde, come sbiancante nelle vernici e nei dentifrici, nella forma allotropica indicata come rutilo  (Figura 1) riesce a convertire l’azoto molecolare in ammoniaca secondo lo schema riportato più su in condizioni molto blande, ovvero temperatura e pressione ambiente.

Figura 1. Struttura del rutilo (Fonte)

Il fenomeno veniva osservato solo saltuariamente. Tuttavia, nel tempo un certo numero di ricercatori ha condotto studi computazionali dai quali si è evinto che la non ripetibilità della conversione era legata al fatto che centro dell’attenzione nell’ottenimento del biossido di titanio era un prodotto con elevato grado di purezza. Quando tracce di impurezze carboniose erano presenti sulla superficie del catalizzatore, esso funzionava ottimamente a temperatura e pressione ambiente per convertire azoto molecolare in ammoniaca. Nel lavoro su JACS (una delle riviste più autorevoli della American Chemical Society) sono riportate finalmente le prove sperimentali di quanto ottenuto attraverso la computazione.

Qual è la morale di questa storia. I “bufalari” sono usi opporsi alla scienza perché definiscono gli scienziati chiusi nelle loro posizioni dogmatiche. Questi ignoranti ed arroganti neanche si rendono conto che se un fenomeno non viene osservato, non c’è nessun motivo per studiarlo. Quali ipotesi si dovrebbero formulare se il fenomeno semplicemente non esiste? Invece, la conversione di azoto in ammoniaca, sebbene saltuaria, era evidente. Bisognava solo capire quali fossero le condizioni necessarie a rendere ripetibile e riproducibile il fenomeno. Una volta individuate queste condizioni, si è ottenuta la fissazione dell’azoto in modo più conveniente del processo Haber-Bosch. Si tratta ora solo di replicare lo studio in laboratori indipendenti e ingegnerizzate il tutto in modo da produrre fertilizzanti a costo molto più basso dell’attuale.

Altro che le scemenze sulla biodinamica o sulla agro-omeopatia che esistono solo nella testa dei seguaci di queste pseudoscienze.

Fonte dell’immagine di copertinahttp://www.fritegotto.it/News-Due-moli-di-azoto-e-tre-di-idrogeno/

Salute e Società. Tra scienza e pseudoscienza: lo streaming

Il 25 Ottobre 2018, presso il Dipartimento Scienze Agrarie, Alimentari e Forestali dell’Università degli Studi di Palermo, si è concluso il primo CNMP workshop dal titolo “Salute e Società. Tra scienza e pseudoscienza”. Tanti i relatori: il Prof. Dobrilla, il Prof. Fuso, il Dr. De Vincentiis,  il Prof. Cappello, il Prof. Burioni, il Dr. Saia, il Prof. Bonaccorsi, il Dr. Cartabellotta, il Dr. Mercadante, ed io stesso.

In Figura 1 si riporta il programma completo col titolo degli interventi.

Figura 1. Programma dettagliato del Workshop

Obiettivo dell’evento è stato quello di avvicinare il mondo accademico alla società civile per far comprendere in cosa consista il lavoro scientifico e in che modo poter riconoscere le fake news (o bufale, che dir si voglia). Tra i partecipanti oltre a professionisti di ogni settore, anche tantissimi studenti (Figura 3).

Figura 2. Il pubblico di studenti e professionisti intervenuti al Workshop

È stata una grande soddisfazione vedere un numero così elevato di studenti. Questo vuol dire che anche le menti più giovani sono curiose ed hanno voglia di apprendere i meccanismi attraverso cui si possono riconoscere le pseudoscienze così da poter dare esse stesse un contributo attivo alla lotta contro maghi, imbonitori e truffatori.

L’evento è stato condiviso in diretta streaming dalla pagina facebook della C1Vedizioni.

Qui di seguito trovate i filmati caricati sul mio canale YouTube personale delle singole presentazioni. Nello stesso canale potete anche trovare lo streaming completo nel caso aveste voglia e tempo di (ri)vivere tutte le emozioni e gli errori tecnici che, inevitabilmente, accompagnano l’organizzazione di un evento complesso come un Workshop.

Introduzione della Dr.ssa Tocci e intervento del Prof. Giorgio Dobrilla

 Medicina insolita nell’era 2.0

Intervento del Prof. Silvano Fuso

Chimica buona e chimica cattiva

Intervento del Dr. Armando De Vincentiis

Scienza e autoinganni

Intervento del Prof. Roberto Burioni

I vaccini, la scienza e le bugie

Intervento del Prof. Francesco Cappello

Il ruolo dell’anatomia umana nella battaglia contro la pseudoscienza

Intervento del Prof. Gugliemo Bonaccorsi

Prevenire le bufale con l’Health Literacy

Intervento del Dr. Nino Cartabellotta

Miti, presunzioni ed evidenze: un mix di ingredienti e le fake news sono servite!

Intervento del Dr. Sergio Saia

Le bufale scientifiche sul frumento e sui derivati

Intervento del Dr. Francesco Mercadante

Incubatori di devianze. Il linguaggio dei social network tra paradossi, cattiverie e mondi impossibili

Intervento Prof. Pellegrino Conte e conclusioni

La chimica contro le bufale

I patrocini

L’evento ha ricevuto il patrocinio morale dell’Università degli Studi di Palermo (UNIPA), del Dipartimento Scienze Agrarie, Alimentari e Forestali (SAAF), del Dottorato di Ricerca in Scienze Agrarie, Alimentari e Forestali, della Associazione Italiana Società Scientifiche Agrarie (AISSA), della Società Italiana di Chimica Agraria (SICA), della Associazione Italiana di Ingegneria Agraria (AIIA), della Società Italiana di Pedologia (SiPE), della Società Italiana di Scienza del Suolo (SISS), del CICAP Puglia, della Fondazione GIMBE, della Società Italiana di Biologia Sperimentale (SIBS), dell’associazione dei Biologi Forensi (BIOFOR), dell’Associazione Studentesca Agraria Palermo (ASAP) e Intesa Universitaria (Figura 3).

Figura 3. Loghi delle Società ed Associazioni che hanno dato il patrocinio morale al Workshop “Salute e Società. Tra scienza e pseudoscienza”