La chimica-fisica nell’esplosione di Beirut

Ieri, 4 Agosto 2020, siamo tutti stati testimoni, grazie alle immagini che ci sono giunte attraverso i vari canali internet, della esplosione che ha fatto tanti morti e feriti in Libano. Qui sotto un filmato preso da YouTube in cui si vedono diverse prospettive dell’esplosione.

Questo articolo non vuole essere di carattere politico, né avallare alcuna ipotesi sulle cause dell’esplosione. In questa sede voglio solo prendere in considerazione la chimica-fisica che c’è stata dietro l’esplosione attribuita da diverse fonti giornalistiche al nitrato di ammonio.

il nitrato di ammonio è ben noto come fertilizzante.

Come fertilizzante, il nitrato di ammonio (NH4NO3) è veramente efficiente. Si tratta di un sale con una solubilità in acqua, a 20°C, di circa 1900 g per litro . Quando viene disposto sul suolo, esso si scioglie nella soluzione circolante (ovvero l’acqua che è lì presente) dissociandosi in anione nitrato (NO3) e catione ammonio (NH4+).

Dei due ioni, il nitrato, la forma di azoto direttamente disponibile per la nutrizione vegetale, può essere perso facilmente per lisciviazione, mentre l’ammonio rimane legato ai colloidi del suolo e si può perdere per volatilizzazione attraverso la sua conversione in ammoniaca. La sua maggiore capacità di rimanere legato ai colloidi del suolo dà il tempo ai microorganismi di poterlo convertire in nitrato e, quindi, renderlo disponibile per le piante.

Ma non è certo per una lezione sui fertilizzanti che sto scrivendo questo post.

Il nitrato di ammonio si decompone termicamente a protossido di azoto (N2O) e acqua fino a una temperatura di circa 250 °C:

NH4NO3 → N2O + 2 H2O

Al di sopra di questa temperatura avviene un’altra reazione:

2 NH4NO3 → O2  + 2 N2 +  4 H2O

Come si vede, entrambe le reazioni producono dei gas (N2O, N2 e O2). Anche l’acqua riportata nelle reazioni anzidette non si presenta in forma liquida, ma sotto forma di vapore alle temperature ben al di sopra dei 100 °C che servono per innescare le reazioni descritte.

Adesso facciamo due conti facili facili e cerchiamo di capire quanto gas si produce.

Se partiamo da 1.00 g di nitrato di ammonio, corrispondenti a 0.0125 mol, si ottengono, dalla prima reazione, il medesimo numero di moli di protossido di azoto (che corrispondono a 0.550 g di prodotto) e il doppio delle moli di acqua, ovvero 0.450 g di acqua sotto forma di vapore.

Se la temperatura aumenta oltre i 250 °C, dalla seconda reazione si ricava che 1.00 g di nitrato di ammonio si trasforma in 0.350 g di azoto molecolare, 0.200 g di ossigeno molecolare e 0.450 g di acqua sotto forma di vapore.

Su tutti i giornali si legge che la quantità di nitrato di ammonio stoccata nel porto di Beirut fosse di circa 3000 ton, ovvero 3 x 109 g (si legge 3 miliardi di grammi). È facile, a questo punto, calcolare che se la prima reazione (quella in cui si produce protossido di azoto e acqua) fosse stata l’unica responsabile della deflagrazione, si sarebbero ottenuti circa 1.4 x 103 tonnellate di acqua e circa 1.6 x 103 tonnellate di protossido di azoto. Se, invece, solo la seconda reazione fosse stata responsabile della deflagrazione si sarebbero ottenuti circa 1.4 x 103 tonnellate di acqua, 1.0 x 103 tonnellate di azoto molecolare e circa 0.6 x 103 tonnellate di ossigeno molecolare.

È intuitivo pensare che entrambe le reazioni abbiano avuto luogo, assieme a tante altre di cui però non si conosce la natura (per esempio, c’erano tubazioni di gas? oltre al nitrato di ammonio quante altre sostanze potenzialmente esplodenti potevano essere presenti? etc. etc.). In definitiva, provate a comprimere in uno spazio ristretto come quello di un capannone o di un deposito, dove sono già presenti altri gas, ovvero quelli atmosferici, le tre tonnellate complessive di gas ad alta temperatura ed in espansione e vi renderete conto del perché si è avuto l’effetto devastante osservato nel filmato che ho messo all’inizio dell’articolo.

Ma facciamo parlare i numeri.

La temperatura sviluppata durante la detonazione del nitrato di ammonio è all’incirca di un migliaio di gradi centigradi (Fonte). Considerando il numero totale di moli dei diversi gas sviluppati ed applicando banalmente la legge dei gas ideali (per avere solo qualitativamente idea della forza per unità di superficie sviluppata durante l’esplosione) si ottiene una pressione di circa 1.1 x 104 atm.  Per darvi solo un’idea di cosa significhi una pressione del genere, immaginate di scendere sott’acqua. Ogni 10 m, la pressione esercitata dalla massa di acqua che circonda il vostro corpo aumenta di una atmosfera. Per arrivare a circa 11000 atmosfere dovete scendere a una profondità approssimativa di circa 110 km. Il punto più profondo che si conosca è la fossa delle Marianne a circa 11 km dalla superficie dell’oceano Pacifico. La fossa delle Marianne è individuata dal puntino rosso che vedete in Figura 1.

Figura 1. Fossa delle Marianne. La sua profondità è di circa 11 km

Impressionante!

Il fungo “atomico”.

Qualcuno ha paragonato il fungo bianco che si osserva nel filmato all’inizio dell’articolo a quello prodotto da un’esplosione atomica. In realtà le cose stanno diversamente.

Un’esplosione atomica sarebbe stata seguita da una contaminazione radioattiva che avrebbe messo in allarme tutti i paesi nelle vicinanze del Libano, inclusa l’Italia. Per quanto è dato sapere, fino ad ora non pare siano state previste precauzioni per contaminazione nucleare come quelle che furono adottate all’indomani dei disastri della centrale di Chernobyl o di quella di Fukushima.

Allora cos’era quel fungo bianco?

Vi ho spiegato più su che le reazioni di degradazione del nitrato di ammonio hanno prodotto tonnellate di gas (incluso il vapor d’acqua) che si sono espanse prima nel capannone dove il sale era conservato e poi nell’atmosfera. La forza esercitata dalle molecole dei vari gas prodotti durante le reazioni di decomposizione termica del nitrato di ammonio ha generato un’onda che si è propagata molto velocemente. L’elevata velocità dell’onda ha compresso molto rapidamente tutte le molecole di gas presenti in atmosfera, incluse quelle dell’acqua sotto forma vapore. Come conseguenza, molto verosimilmente, si è avuta una rapida condensazione di queste ultime con formazione della nuvola bianca osservata. Nelle condizioni atmosferiche di Beirut al momento dell’esplosione, la nuvola bianca ottenuta verosimilmente  per condensazione delle molecole di acqua vapore si è, poi, rapidamente dissipata.

Il fenomeno osservato non è né più né meno che quello che accade quando un aereo supersonico abbatte la barriera del suono generando una nuvola di acqua condensata intorno a se stesso. Ma di questo ho parlato in un altro articolo.

Più veloci del suono

Aggiornamento in tempo reale.

Mi fanno giustamente notare che un’altra possibile reazione di degradazione termica del nitrato di ammonio è:

4 NH4NO3 → 2 NH3 + 3 NO2 + NO + N2 + 5 H2O

In questa reazione si ha la formazione del biossido di azoto e dell’ammoniaca che sono altri gas che vanno ad aggiungersi a quelli già descritti. In più essi sono anche tossici. A quanto pare, dalle ultime notizie, è stata consigliata l’evacuazione di quella parte di Beirut coinvolta nell’esplosione. Questo si potrebbe giustificare non solo per il pericolo dovuto alla instabilità delle abitazioni, ma anche a quello dovuto alla contaminazione dell’aria. Inoltre, il biossido di azoto è un gas rossastro e questo giustificherebbe il colore che si vede dopo la dissipazione della nube bianca. Bisogna anche dire, però, che il colore rossiccio potrebbe essere dovuto anche ad altro. Ne ho parlato anche in un altro articolo:

La chimica dei giochi pirotecnici

Aggiornamento n. 2

Ho fatto un po’ di calcoli. L’esplosione di Beirut potrebbe aver sprigionato un’energia di circa 1.26 kT (si legge kilotoni). Qui trovate informazioni un po’ più dettagliate su questa unità di misura. La bomba atomica di Hiroshima sprigionò un’energia di circa 15 kT (riferimento). In pratica, la potenza dell’esplosione di Beirut potrebbe essere stata circa l’8 % di quella di Hiroshima. Aspettiamo, ovviamente, le valutazioni degli esperti.

Disclaimer

Quanto ho scritto in questo articolo si basa sulle informazioni lette sui principali quotidiani che attribuiscono la responsabilità dell’esplosione di Beirut al nitrato di ammonio. I miei calcoletti mi permettono di dire che è plausibile. Una quantità elevata di nitrato di ammonio conservata in un luogo chiuso può dar luogo a degli effetti devastanti. Resta, naturalmente, da capire come mai si siano innescate le condizioni che hanno portato alla decomposizione termica del nitrato di ammonio. Ma questo è un lavoro che devono fare gli investigatori.

Ringraziamenti

Devo dire che questo articolo ha ricevuto un grande successo. Nel momento in cui scrivo questi ringraziamenti, l’articolo ha raggiunto oltre 40000 lettori. Molti mi hanno fatto notare errori ed incongruenze. Li ringrazio veramente tantissimo uno per uno. Mettere i nomi di tutti è impossibile perché critiche e commenti sono sparsi un po’ ovunque ed è difficile ritrovarli tutti. Sappiate solo che cerco di leggere tutto e di tener conto di tutto quello che mi fate notare. Questo articolo non è più solo mio, ma di tutti quelli che hanno contribuito al suo miglioramento.

Altre letture

L’ennesima strage da trascuratezza chimica.

Molecole a due facce

Incidente di Tianjin.

Il Disastro di Texas City

Il Disastro di Halifax

Chimica e fisica degli incendi (documento dei vigili del fuoco)

Fonte dell’immagine di copertina

 

Giulio Cesare ed i cambiamenti climatici

“Cosa c’entra Giulio Cesare con i cambiamenti climatici?”, vi starete chiedendo. Oppure state pensando: “ed ecco un altro prof. che è andato fuori di testa e fa associazioni pseudoscientifiche come capita a tutti”.

Ebbene no, miei cari lettori. Proprio ieri ho comprato il numero di Agosto 2020 della rivista Le Scienze. Ogni tanto ho bisogno di leggere riviste divulgative serie per fare pace con il mondo e convincermi che non tutto è perduto. Sapeste cosa mi scrivono certi figuri nei commenti del blog! Faccio passare solo i commenti che mi divertono di più, ma ce ne sono altri che, al confronto, la teoria della memoria dell’acqua è roba seria.

Ma torniamo a Giulio Cesare ed ai cambiamenti climatici.

Dicevo che ho preso Le Scienze di Agosto. A pagina 24, ci sono 13 righe in cui si parla delle cause che hanno portato Roma a diventare Impero dopo l’assassinio di Giulio Cesare occorso alle idi di Marzo del 44 a.C.. La notizia la potete leggere anche qui.

Devo dire che la lettura mi ha incuriosito ed ho cominciato a cercare in rete. Quello che ho trovato mi ha molto affascinato.

Pensate: è documentato che nel periodo immediatamente successivo a quello in cui Cesare fu assassinato, ci sono stati un paio di anni di freddo intenso. La temperatura, pare, si sia abbassata di circa 7 °C, mentre le precipitazioni si fecero molto più intense aumentando dal 50 al 120 % rispetto agli anni precedenti. Potete facilmente immaginare cosa vuol dire a livello agricolo un abbassamento della temperatura ed un aumento della pioggia di tale intensità. Ci sono stati sicuramente momenti di carestia che, assieme ai problemi politici che si sono presentati nello stesso periodo, possono essere considerati la concausa del passaggio dalla Repubblica all’Impero. In effetti, le peggiorate condizioni di vita dei contadini nel I secolo avanti Cristo, portarono a scontri sociali che si conclusero con la pace Augustea che riportò ordine nella società romana (Riferimento).

Una delle ipotesi che è stata formulata per spiegare le peggiorate condizioni di vita dei contadini romani nel I secolo a.C. è l’eruzione dell’Etna avvenuta nel 44 a.C. (Riferimento). Si è ipotizzato che tale eruzione avesse portato in atmosfera una quantità tale di polveri sottili da schermare i raggi del sole e provocare gli sconvolgimenti climatici associati ai periodi di carestia summenzionati. Tuttavia, pur rimanendo valida l’idea che una eruzione vulcanica fosse stata responsabile del cambiamento climatico iniziato a cavallo del 43-44 a.C., l’ipotesi dell’effetto dell’eruzione dell’Etna sul clima della penisola è stata sempre abbastanza controversa (Riferimento).

All’inizio di Luglio è apparso su Proceedings of the National Academy of the United States of America (PNAS), una rivista molto quotata nel mondo scientifico, un articolo a firma di un gruppo di ricercatori di diversa nazionalità dal titolo: “Extreme climate after massive eruption of Alaska’s Okmok volcano in 43 BCE and effects on the late Roman Republic and Ptolemaic Kingdom”. Lo potete scaricare, previo pagamento di 10 USD, cliccando sull’immagine qui sotto.

In questo lavoro i ricercatori hanno discusso delle analisi effettuate su carote di ghiaccio prelevate nell’Artico. Essi hanno evidenziando come la più probabile causa degli sconvolgimenti climatici occorsi nel I secolo a.C. fosse  non l’eruzione dell’Etna, ma quella del vulcano Okmok situato in Alaska.

Fonte dell’immagine

Nell’immagine qui sotto potete avere contezza delle distanze a livello planetario tra la posizione del vulcano ed il continente Europeo.

Sembra strano che l’eruzione di un vulcano così distante dall’Europa possa averne influenzato il clima, vero?

Vediamo allora cosa hanno fatto gli studiosi.

A quanto pare ogni vulcano ha una impronta chimica univoca in termini di molecole immesse in atmosfera per effetto delle eruzioni. I ricercatori hanno non solo attribuito le sostanze trovate nelle carote di ghiaccio proprio al vulcano Okmok, ma hanno anche datato l’eruzione relativa alla seconda metà del I secolo a.C.. Inoltre, usando i dati chimici identificati nelle carote di ghiaccio, i ricercatori hanno fatto delle simulazioni computazionali. In base ad esse, hanno potuto stabilire che intorno al 43 a.C. l’eruzione dell’Okmok ha portato in atmosfera tante di quelle particelle che si è avuta una riduzione della temperatura non solo in Europa, ma anche nel continente Africano. Come controprova delle loro simulazioni, i ricercatori hanno anche effettuato analisi dendrologiche  che hanno confermato le ipotesi sul ruolo dell’Omkok nelle variazioni climatiche del I secolo a.C..

Interessante, vero, come un’eruzione vulcanica a migliaia di chilometri di distanza dall’Europa possa aver indirizzato la politica romana.

Fonte dell’immagine di copertina

Le armi chimiche: i veleni naturali

Sapete che cosa è la chimica delle sostanze naturali? Si tratta di una branca della chimica che studia le proprietà chimiche (per esempio, struttura e conformazione) e la reattività di metaboliti primari e secondari delle piante e degli animali. La Treccani ne dà una bella definizione:

“È quel settore delle scienze chimiche che ha per oggetto lo studio della struttura, delle proprietà chimiche, delle trasformazioni delle sostanze organiche presenti negli organismi viventi (animali, piante o microorganismi), nonché del loro ruolo biologico”.

Perché vi sto dando questa definizione? Semplicemente perché sto leggendo un bel libro dal titolo “Storia dei veleni. Da Socrate ai giorni nostri” (Figura 1) in cui si descrivono le potenzialità venefiche di tantissime sostanze di origine naturale.

Figura 1. Libro sui veleni che ho acquistato recentemente

Non credo sia una novità che l’uso dei veleni sia noto fin dall’antichità. Essi venivano utilizzati sia per la caccia che per la guerra. Per esempio, nella seconda metà del XIX secolo, Alfred Fontan descrisse degli interessantissimi ritrovamenti nella grotta inferiore di Massat, nell’Ariège (Figura 2), un sito risalente all’epoca magdaleniana.

Figura 2. Zona dell’Ariege dove si trovano le grotte di Massat (Di TUBS – Opera propria. Questa grafica vettoriale non W3C-specificata è stata creata con Adobe Illustrator. Questa immagine vettoriale include elementi che sono stati presi o adattati da questa:  France adm-2 location map.svg (di NordNordWest)., CC BY-SA 3.0 de, https://commons.wikimedia.org/w/index.php?curid=45555827)

In particolare, tra i tanti reperti, furono individuate delle punte di lancia e freccia con delle interessanti scalanature (Figura 3).

Figura 3. Punte di lancia e freccia del periodo Magdaleniano (Fonte)

Negli anni successivi gli studiosi hanno compreso che le scanalature sulle punte di freccia e lancia servivano per fare aderire i veleni in modo tale che le prede (o i nemici), una volta colpiti anche in modo non mortale, potessero morire per effetto del veleno introdotto attraverso le ferite. Ancora oggi le popolazioni primitive che vivono nelle zone meno esplorate del pianeta fanno uso,  per la caccia o per la guerra, di punte  simili a quelle ritrovate nelle grotte di Messat .

Siete curiosi di sapere come si fa a rendere “velenosa” una punta di freccia o di lancia?

I veleni, come leggerete nel paragrafo successivo, vengono per lo più estratti dalle piante.  Jean de Maleissye, nel libro che sto leggendo, ci spiega come facevano alcune popolazioni dello Zimbabwe a preparare le loro armi. Molto verosimilmente, la stessa tecnica era applicata dalle popolazioni primitive.

“Si faceva a pezzi la pianta, la si mescolava ad acqua e si faceva bollire il tutto per molto tempo. Poi si lasciava ridurre il liquido finché non si addensava, assumendo la consistenza della pece. Il veleno veniva fissato sull’estremità superiore dell’arma tramite una cordicella che gli indigeni arrotolavano attorno alla punta. Lo spazio libero fra ogni spira di corda tratteneva infatti il veleno, quando vi si immergeva la punta dell’arma. Si lasciava seccare il preparato velenoso, poi si toglieva il filo. Con tutta probabilità, la cordicella consentiva di trattenere il veleno su superfici minuscole. Tale artificio impediva infatti al veleno di staccarsi prematuramente in grandi placche”.

Come cacciavano le popolazioni della civiltà magdaleniana?

Non lo sappiamo, in realtà. Possiamo immaginare dalle ricostruzioni basate sugli utensili ritrovati in giro per l’Europa, che i magdaleniani “dopo aver colpito con una o più frecce avvelenate un grande cervo o una renna, [ne seguono] le tracce per ore o anche per giorni, fintanto che, stremato dal veleno, dalla perdita di sangue e dallo sforzo compiuto, il grande animale non crolla in un bosco ceduo” (Fonte). Una volta catturata la preda, i cacciatori rimuovono la parte avvelenata e fanno a pezzi tutto il resto della carcassa che viene usata per alimentarsi.

Origine dei veleni

In genere si tratta di sostanze che vengono estratte dalle piante. Una di queste è la Aconitum napellus o aconito,  una pianta che cresce in zone montuose e nota, per le sue proprietà tossiche, già a i tempi dei Galli e dei Germani (Figura 4).

Figura 4. Aconito, pianta molto comune ed estremamente tossica

Le sue parti, incluse le radici, contengono miscele complesse di alcaloidi quali: aconitina, napellina, pseudoaconitina, aconina, sparteina, efedrina (Figura 5).

Figura 5. Struttura chimica dei principali alcaloidi presenti nei tessuti di Aconitum napellus.

Tutte queste molecole hanno attività neuro- e cardio-tossica. La loro dose letale è dell’ordine di pochi milligrammi (1-4 mg) per chilogrammo di peso corporeo.  Immaginate, quindi, cosa può succedere se una freccia avvelenata con questa miscela di alcaloidi vi colpisse anche in un punto non vitale. Il veleno entrerebbe nel sangue e sareste soggetti a “rallentamento dei battiti cardiaci, diminuzione della pressione arteriosa e rallentamento del ritmo respiratorio” fino a  paralisi cardiaca e respiratoria (Fonte). Anche l’ingestione di questa miscela di alcaloidi porta alla stessa fine.

Ma volete sapere un’altra cosa? Avete presente la “potentissima” medicina tradizionale cinese?

Ebbene, nel 2018, è stato pubblicato un lavoro di revisione della letteratura scientifica in merito alla tossicità degli alcaloidi dell’aconito. Il lavoro è liberamente scaricabile qui. Nell’introduzione si evidenzia come gli estratti della radice di questa pianta siano usati nella medicina tradizionale cinese come rimedi per problemi cardiovascolari, artriti reumatoidi, bronchite, dolori generici e ipotiroidismo. Non sono un medico, però a me sembra quasi la panacea di ogni male (mi correggano i medici che leggono questo articolo se sbaglio, per favore). Nella stessa introduzione viene anche rilevato che le autorità sanitarie di molti paesi asiatici sono costrette a regolamentare l’uso di questo preparato a causa della sua elevata tossicità. Infatti, tra il 2001 e il 2010 sono stati osservati, per esempio, ben 5000 casi di tossicità da alcaloidi di aconito. Come mai tutte queste intossicazioni? Semplicemente perché, come evidenziato anche in un lavoro del 2019 pubblicato su Forensic Science, Medicine and Pathology, una rivista della Springer con impact factor nel 2019 di 1.611 (si può liberamente scaricare qui), gli estratti di aconito vengono usati senza prescrizione medica ed è facile usare la logica spicciola secondo cui se la quantità x mi permette di guarire, allora la quantità xn mi farà guarire più velocemente. 

Conclusioni

La natura ci è nemica? Neanche per sogno. Allora ci è amica? neanche per sogno parte seconda. Alla natura non importa nulla di noi. I veleni possono essere considerati  la risposta evolutiva delle prede ai predatori. Quando, in modo casuale ed imprevedibile, una modifica genetica consente la nascita di una pianta con un corredo metabolico appena un po’ diverso da quello delle sue “compagne”, è possibile che essa diventi indigesta, ovvero tossica, per i predatori. Questa nuova caratteristica favorisce la sopravvivenza della pianta modificata rispetto alle sue “sorelle” non modificate. Nel momento in cui tutte le piante non modificate si sono esaurite a causa della pressione alimentare dei predatori, rimangono in vita solo quelle modificate da cui i predatori si tengono lontani… a meno di non capire che esse possono essere sfruttate non a fini alimentari ma per la caccia e per la guerra.

Fonte dell’immagine di copertina

Scienza open access e riviste predatorie. Parte II. Il sistema aperto

Nella prima parte di questo reportage (che appare nella Newsletter della Società Italiana di Scienza del Suolo) ho discusso dei limiti del sistema chiuso delle riviste scientifiche. In quella sede, l’aggettivo “chiuso” si riferiva al fatto che le case editrici non permettono l’accesso libero dei ricercatori agli studi che vengono pubblicati: neanche ai loro stessi lavori. Quante volte mi è capitato, per esempio, di dover chiedere il favore a qualche collega straniero di scaricare per me i miei stessi lavori e di inviarmene una copia in pdf? Ormai non le conto più. Le conclusioni del precedente articolo (le trovate qui sotto) erano che il sistema chiuso sul quale si è basata la diffusione delle ricerche scientifiche fino ad ora, non è sostenibile sotto l’aspetto economico.

Scienza open access e riviste predatorie. Parte I. Il sistema chiuso

Meglio l’open access, allora? La pubblicazione open access è quel tipo di articolo per cui chi legge non ha bisogno di pagare nulla. In altre parole, se tutti noi che, a vario titolo, ci occupiamo di scienza cominciassimo a pubblicare in maniera “open”, tutte le università e centri di ricerca risparmierebbero un bel po’ di soldi che potrebbero essere investiti in ben altro: borse di studio, nuovi reclutamenti di ricercatori e docenti, apparecchiature scientifiche e…chi più ne ha, più ne metta.

Devo dire che questa è la realtà ideale. Vado nel mio ufficio, mi siedo alla scrivania, accendo il computer e faccio la mia ricerca bibliografica. Dal momento che tutti pubblichiamo in open access, la mia università non ha necessità di pagare alcun abbonamento (esoso) ed io posso accedere e scaricare tutto quello che voglio.

Bello il mondo ideale, vero?

Il problema è che le case editrici tutto sono tranne che enti filantropici. Da qualche parte devono pure far soldi. Ed in effetti il problema economico si è spostato: non sono più le università a dover pagare per gli abbonamenti in modo da consentire ai ricercatori di poter essere aggiornati, ma sono i ricercatori che, per poter pubblicare su una rivista open access, devono pagare una tassa di pubblicazione. Questa tassa è dovuta solo se il lavoro supera il processo di peer review e viene accettato per la pubblicazione.

A questo punto, il più scafato tra noi ha già capito quale è l’inghippo. Ma andiamo con ordine.

Vi riporto qui sotto una tabella in cui è possibile leggere il costo (in dollari statunitensi per omogeneità di riferimento) che dovrei sostenere per pubblicare in maniera open su alcune delle riviste del mio settore o su alcune di quelle che si adattano meglio alla tipologia di ricerca che faccio (chimica-fisica ambientale):

Queste sono solo alcune delle riviste serie che sono completamente open (ACS Omega) oppure ibride (tutte le altre della lista), ovvero consentono all’autore di scegliere se pubblicare col sistema chiuso o quello open.

Ormai anche le pietre sanno che per il biennio 2018-2020 (prorogato fino a giugno 2021) sono uno dei commissari per l’abilitazione scientifica nazionale (ASN) per il mio settore concorsuale. Perché vi dico questo? Semplicemente per farvi capire che sono uno di quelli che conoscono abbastanza bene le regole che devono essere applicate sia per avere l’abilitazione che per superare un qualsiasi concorso universitario. Ebbene, tra queste regole (che non vengono stabilite dai commissari, ma calate dall’alto dal Ministero dell’Università) c’è il cosiddetto h-index – di cui ho parlato nel mio blog qui – nonché la somma degli impact factor delle riviste su cui un candidato ha pubblicato.

Non voglio aprire un altro fronte per cui non voglio discutere dell’aberrazione di una valutazione basata sui parametri anzidetti. Il mio scopo è solo quello di farvi capire che l’h-index di un ricercatore aumenta con l’aumentare delle citazioni e della visibilità dei suoi lavori.

Quando un articolo pubblicato diviene visibile e può avere alte possibilità di citazione? Ovvio…quando è open access, naturalmente.

Ed eccoci arrivati al punto: se ho tante pubblicazioni open access, a meno di non essere una capra e pubblicare sciocchezze sesquipedali, ho una ottima possibilità di essere visibile e di veder citati i miei lavori. Oddio…anche se pubblico sciocchezze sesquipedali ho ottime possibilità di essere citato…ma in negativo. E non è esattamente bello per la reputazione. Basta prendere in considerazione le sciocchezze pubblicate negli ultimi anni da un premio Nobel come Luc Montagnier, per rendersi conto che egli è oggi solo una patetica figura che cerca di riguadagnare quella visibilità che lo ha abbagliato – soddisfacendo il suo ego – quando ha vinto il premio Nobel nel 2008.

Ma sto divagando…

Considerando i costi che un ricercatore deve sostenere per poter pubblicare in open access, cosa si può concludere dalla disamina di questa seconda puntata?

Se sono un ricercatore che studia un ambito scientifico per cui è difficile reperire fondi, mi conviene il sistema chiuso. Faccio il mio lavoro col minimo di soldi che riesco a trovare, scrivo il mio rapporto scientifico e invio il lavoro ad una delle riviste che non mi chiedono di pagare per la pubblicazione. Pagherà chi ha bisogno di sapere cosa ho fatto, fermo restando che, come autore, posso inviare gratuitamente il lavoro pubblicato a chiunque me ne faccia richiesta.

Se sono un ricercatore che è in grado di attrarre molti fondi, mi conviene pubblicare sulle riviste open. Parte dei miei fondi sono, in ogni caso, destinati alla mia università per spese di gestione; mettiamo tra queste anche il libero accesso alle informazioni scientifiche. Questo implica una maggiore visibilità ed una maggiore penetrazione delle mie ricerche nel mondo scientifico, anche quello non direttamente collegato al mio specifico settore disciplinare. Maggiore visibilità per il ricercatore significa anche maggiore visibilità per l’istituzione di appartenenza che, quindi, ha tutto l’interesse a privilegiare l’open access invece che la pubblicazione chiusa. Ed infatti, attualmente molte, se non tutte, le università in Italia chiedono che i lavori scientifici vengano pubblicati anche sulle riviste open access.

Il problema è che quando il mercato diventa libero si innesca la concorrenza ed è possibile, anzi certo, che si possa incorrere in delle truffe.

Ma questo sarà oggetto del prossimo articolo nel prossimo numero della Newsletter.


Questo articolo è apparso nella Newsletter n. 13 della SISS (qui)

Chimica e storia. In memoria dei caduti per effetto dei gas in guerra

29 giugno 1916. Ore 5:30. I soldati italiani che vivono nelle trincee scavate sul Monte San Michele nel Carso isontino si stanno lentamente svegliando quando “una cortina di fumo non più alta di due metri […] rotola adagio, dato che non c’è vento, verso di noi”[1].

Panoramica della zona del Monte San Michele (Fonte)

I soldati, allarmati dai loro ufficiali,  indossano le protezioni antigas costituite da “una maschera che ha una pinzetta che serve per chiudere le narici e una specie di filtro dal quale parte una gomma che termina con una specie di testina, la quale si tiene in bocca e così si respira. In più ha una membrana con elastico che copre la faccia e le orecchie perfettamente. Inoltre, ci hanno dato una pezzuola di gomma come quella della membrana della maschera: questa in caso si deve mettere in mezzo alle gambe e legare con le fettucce che è dotata. In più una scatola di vasellina speciale, da ungere tutto attorno a questa pezzuola e anche sotto le ascelle, perché i gas che possono buttare, ti prendono nelle parti deboli e possono uccidere anche senza respirarli”[2].

È il primo attacco con i gas che l’esercito austro-ungarico sferra contro il fronte italiano dislocato sul monte San Michele. L’attacco, in poche ore (dalle 5:30 alle 9:30 circa) si conclude con la morte di circa 7000 italiani, un numero enorme considerando che più o meno lo stesso numero di soldati è deceduto nell’insieme di tutte le guerre risorgimentali[3]. Tuttavia, non tutti sono morti per effetto dei gas. I feriti, i moribondi, i soldati intontiti dai gas sono finiti a colpi di mazze ferrate.

Mazze ferrate usate da tutti gli schieramenti belligeranti durante la Prima guerra mondiale (Fonte)
L’effetto del gas dal diario del cap. med. Giuseppe Pisanò dal posto di medicazione sul San Michele[4]

“L’individuo che si trova sotto l’azione dei gas venefici presenta grande agitazione dovuta in gran parte alla difficoltà del respiro, pallore accentuato del volto e delle mucose visibili: miosi. In molti casi il colorito è terreo, come quello dei malarici, in altri è cianotico con accentuazione alle labbra e alle orbite, i muscoli del volto e delle labbra sono scossi da movimenti tonico-clonici, così pure la lingua, e dalla bocca e dalle nari fuoriescono muco e bava spumosi lievemente  colorati in rosso uniforme dal sangue.

La respirazione è estremamente difficile […]. Gli spazi intercostali sono tesi, rigidi sì da richiamare alla mente un’altra grave intossicazione: quella da virus tetanico. […] Alla ascoltazione del torace si rivelano ronchi sibilanti e rantoli a medie bolle diffusi su tutto l’ambito toracico. […] Passando all’apparato gastrointestinale si nota: vomito, defecazioni e orinazioni non contenibili: le feci non sono diarroiche, ma sono mollicce e intensamente colorate in giallo-oro, così pure le urine. Esiste inoltre in quasi tutti una sensazione di violento e molesto dolore all’epigastrio con irradiazioni all’aia gastrica e all’aia colica sì da avere anche qui l’impressione della esistenza di uno spasmo tonico-clonico alla muscolatura liscia dei visceri addominali. […] Il sangue (e ciò potei constatare avendo praticato un salasso in un caso molto grave che fu poi seguito da decesso) è molto scuro, coagula lentamente formando un coagulo di consistenza molliccia, ed il siero che si separa contiene discreta quantità di sangue emolizzato, cosa del resto dimostrata anche dalla presenza, nello sputo e nel vomito, di guigna già rilevata”.

Questi descritti sono sola una parte dei sintomi dovuti all’avvelenamento da gas usati la mattina del 29 giugno 1916 dalle truppe austroungariche. L’ufficiale medico Pisanò descrive anche una possibile cura per alleviare le sofferenze degli avvelenati e per rimetterli in sesto: cardiotonici, morfina ed atropina che, secondo il dottore, erano in grado di “calmare lo stimolo stizzoso della tosse, permettendo una migliore ossigenazione del sangue” con  “notevole benefica influenza su tutta la ulteriore evoluzione del male”.

Quali furono i gas usati dall’esercito austroungarico?

Si tratta di una miscela di cloro molecolare e fosgene. Sono aggressivi soffocanti che hanno un tempo di permanenza nell’ambiente molto veloce e, per questo, permettono agli attaccanti di sopraggiungere a sorpresa sugli attaccati e decimarli. È quanto effettivamente accaduto. Tuttavia, stando al bollettino del Generale Cadorna, le riserve italiane si sono comportate molto bene e, nonostante le perdite subite, sono riuscite a ricacciare indietro i soldati nemici.

Il cloro fu scoperto nel 1774 da Carl Wilhelm Scheele, un chimico svedese, che pensò erroneamente potesse contenere ossigeno. Fu solo nel 1810 che Humphry Davy, un chimico inglese, capì che non si trattava di un gas contenente ossigeno, ma di qualcosa di nuovo che chiamò cloro, da chloros che vuol dire verde. Infatti, il cloro molecolare si presenta come un gas dal colore verde. “Gli effetti del cloro sulla salute umana dipendono dalla quantità di cloro presente e dalla durata e frequenza di esposizione. Gli effetti dipendono inoltre dalla salute dell’individuo o delle condizioni dell’ambiente a seguito di esposizione.

La respirazione di piccole quantità di cloro in brevi periodi di tempo ha effetti negativi sull’apparato respiratorio umano. Gli effetti vanno da tosse e dolori toracici, a ritenzione di acqua nei polmoni. Il cloro irrita la pelle, gli occhi e l’apparato respiratorio. Questi effetti non tendono ad accadere ai livelli di cloro normalmente trovati nell’ambiente” (Fonte).

Il fosgene (COCl2) è un composto noto fin dal XIX secolo. Scoperto da John Davy, esso è estremamente reattivo e viene usato come intermedio in molte reazioni chimiche. Penetrando negli alveoli, il fosgene provoca un aumento della permeabilità degli stessi permettendo al plasma di uscire. Il sangue perde volume, si concentra e si verifica anossemia. In altre parole, si riduce la concentrazione di anidride carbonica nel sangue ed aumenta quella di ossigeno che ha, in quelle condizioni, una elevata affinità per l’emoglobina. Questo vuol dire che quando l’emoglobina arriva nelle cellule non rilascia l’ossigeno necessario ai processi metabolici cosicché i tessuti cominciano a “morire” per mancanza di ossigeno.

Conclusioni

L’uso dei gas nella Prima guerra mondiale è stato un orrore che non ci ha insegnato nulla. Ancora oggi in molte parti del mondo i gas vengono usati per uccidere sia militari che popolazioni civili. E dire che il bando alle armi chimiche non è cosa nuova. Infatti, già nel 1874, con la dichiarazione di Bruxelles, l’uso dei gas come armi fu proibito. Nel tempo, il bando è stato più volte reiterato, ma, nonostante questo, ci sono ancora degli individui (non mi sento di definirli animali perché ho rispetto per questi esseri viventi, ma nemmeno esseri umani perché un essere umano non dovrebbe permettere uccisioni così abominevoli) che fanno largo uso di armi vietate da tutte le convenzioni.

Questo articoletto serve per onorare non solo la memoria dei soldati italiani caduti sul monte San Michele il 29 giugno 1916, ma anche tutti coloro che sono stati vittime dell’uso dei gas in guerra.

Riferimenti

[1] N. Mantoan “La guerra dei gas. 1914-1918” Gaspari editore (2004), 3^ ed.

[2] N. Mantoan, Op. Cit.

[3] N. Mantoan, Op. Cit.

[4] N. Mantoan, Op. Cit.

Fonte dell’immagine di copertina

Quattro chiacchiere col chimico

Oggi facciamo quattro chiacchiere sul vino. Al link qui sotto l’intervista con VinOsa

Il vino nella scienza e la scienza del vino. Quattro chiacchiere con il chimico.

C’è anche il link alla pagina Facebook:

Quattro chiacchiere, molto scientifiche, con Rino Conte, ordinario di chimica agraria, che ci spiega un po' di cose relative alla scienza e alla "chimica" del vino.Grazie Rino Conte per la disponibilità! 🙂

Publiée par VinOsa sur Jeudi 4 juin 2020

Fonte dell’immagine di copertina

La chimica delle mascherine chirurgiche

Chi mi segue sicuramente sa che qualche tempo fa ho dedicato un articolo alle mascherine necessarie per proteggerci dalla diffusione  del Covid19.

Come funzionano le maschere filtranti

 

In esso ho solo accennato alla funzione delle mascherine chirurgiche. Ora voglio entrare nel dettaglio della loro chimica.

Alzi la mano chi di voi non ha mai sentito parlare del tessuto non tessuto detto anche TNT.

No…non è il trinitrotoluene, noto per la sua potenzialità esplosiva. Quindi, se tra i miei lettori c’è qualche appassionato di “fuochi artificiali” non cerchi di dar fuoco al TNT di cui parlo in questo articoletto perché non otterrà alcun botto particolare, ma solo una bella fiamma.

Torniamo a noi.

Se facciamo una banale ricerca in Wikipedia, si trova che il tessuto non tessuto è un materiale in cui non è possibile distinguere una trama ben precisa come nel caso dei normali tessuti che indossiamo. Insomma si tratta di un materiale che viene ottenuto mediante dei procedimenti industriali particolari che, per ora, non rappresentano oggetto di discussione.

Le sue peculiarità lo rendono molto versatile tanto è vero che viene utilizzato in diversi campi: da quello edilizio a quello tessile, fino ad arrivare al campo medico. Ebbene sì, anche in campo medico questo materiale viene utilizzato. Infatti, santo Google alla richiesta di informazioni sul tessuto non tessuto restituisce, tra i tanti siti web, un link a un’azienda che vende chilometri di tessuto non tessuto per la fabbricazione delle mascherine chirurgiche di cui oggi abbiamo estrema necessità a causa del virus SARS-CoV2.

Ma cosa è questo TNT? Appurato che la sigla non si riferisce al trinitrotoluene, noto esplosivo, di cosa si tratta?

Ebbene, non è altro che banalissima plastica. Il termine che ho appena usato non è molto corretto, se vogliamo essere puntigliosi. Infatti, “plastica” è un termine generico che si riferisce a una classe di composti molto differenti tra di loro sia per caratteristiche chimiche che caratteristiche fisiche.

La plastica con cui è fatto il TNT può essere o polipropilene o poliestere. In realtà, se vogliamo essere ancora puntigliosi, bisognerebbe parlare di poliesteri e non di poliestere. Infatti, anche questa è una classe di composti che differiscono tra loro per proprietà chimiche e fisiche. In ogni caso, sono più che sicuro che ne avete già sentito parlare, non foss’altro per il fatto che questi nomi li trovate scritti sulle etichette dei vostri capi di abbigliamento quando leggete che assieme al cotone essi contengono anche poliestere e polipropilene (Figura 1).

Figura 1. Tipica etichetta di un capo di vestiario (Fonte)

Per poter avere una idea di quali siano gli oggetti di uso comune  che contengono le plastiche anzidette, potete far riferimento alla Figura 2.

Figura 2. Tipici oggetti fatti di plastica
Ma veniamo alle mascherine chirurgiche.

Esse sono fatte da strati sovrapposti di tessuti ottenuti sia con polipropilene che con poliestere. In particolare, lo stato esterno è costituito da un foglio di polipropilene che viene trattato per farlo diventare idrofobo e conferirgli resistenza meccanica. Lo strato intermedio può essere fatto sia da polistirene che da polipropilene che vengono lavorati in modo da produrre un foglio sottile con pori di diametro nell’intervallo 1-3 μm. Infine, il terzo strato (quando è presente) è fatto da polipropilene che ha il compito di proteggere il volto dallo strato intermedio filtrante (Figura 3). La capacità filtrante verso l’esterno (ovvero la capacità di trattenere le goccioline di sudore/saliva) di queste mascherine è molto elevata. Tuttavia, esse hanno una bassa capacità filtrante dall’esterno (Riferimento).

Figura 3. Strati di polipropilene con cui sono fatte le mascherine chirurgiche (Fonte)

Insomma, da questa breve digressione avete capito che le mascherine chirurgiche che indossiamo in questi giorni sono fatte di plastica.

C’è un impatto ambientale di questa plastica? Beh…se l’argomento vi intriga posso rimandare ad un secondo articolo l’impatto che le mascherine che usiamo hanno sull’ambiente.

Fonte dell’immagine di copertina

Webinar Europeo sulla risonanza magnetica nucleare a ciclo di campo

Avete voglia di saperne di più sulla risonanza magnetica nucleare a ciclo di campo che di tanto in tanto introduco anche nei miei articoli?

Venerdì 8 maggio 2020  sarà una giornata di studi dedicata proprio a questa tecnica ed alle sue applicazioni in diversi campi: dalla teoria alle applicazioni in campo oncologico a quelle in campo ambientale fino ad arrivare alle applicazioni in ambito energetico.

La giornata organizzata nell’ambito di un progetto COST, si svolgerà in modalità telematica sulla piattaforma WebEx. Per poter avere accesso ai webinar bisogna richiedere l’iscrizione al seguente indirizzo eurelax@matman.uwm.edu.pl chiedendo di partecipare a uno o a più seminari. Vi verrà inviata una mail con le indicazioni da seguire per potervi connettere.

Se volete avere una idea del programma e di come potersi iscrivere potete cliccare sulle immagini qui sotto.

ah…dimenticavo…ci sono anche io. Vi aspetto

 

Glifosato: miti e leggende

Il glifosato oggi rappresenta il demone da sconfiggere.

Ormai giornali di ogni tipo, dai quotidiani a tiratura nazionale ai giornalini di quartiere, fanno a gara ad indicare il Roundup®,  il fitofarmaco che contiene il glifosato quale principio attivo,  come il nemico da sconfiggere perché responsabile di tutti i mali di questa terra.

Un po’ di tempo fa, tempo recente, mi è capitato di leggere in una di quelle pagine di complottisti che imperversano in rete, che il glifosato è responsabile anche dell’insorgenza della pandemia da SARS-CoV-2. Insomma, manca solo il gomito della lavandaia ed il ginocchio del tennista (citazione liberamente ispirata a “Tre uomini in barca per non parlar del cane” di Jerome K. Jerome) per incoronare il glifosato come principe del male.

Chi mi conosce e mi segue da un po’ di tempo, sa che non sono nuovo a prendere posizioni in merito al glifosato. Per esempio, ne parlai già a suo tempo in un articolo che potete trovare qui:

Glifosato sì, glifosato no: è veramente un pericolo?

Un po’ più recentemente, invece, ho anche evidenziato la faziosità di certi scienziati che pubblicano lavori sulla tossicità di questo composto con dubbia (si fa per dire) qualità sia progettuale che sperimentale. L’articoletto lo potete trovare qui:

Il glifosato nei lavori medici

“Allora perché ci ritorni su?”, mi potreste chiedere.

Semplicemente perché ogni tanto bisogna ricordare che la chimica è una scienza e non tiene conto delle opinioni di nessuno, anche se a parlare è un premio Nobel. Le sciocchezze sono tali anche se a dirle è il padreterno sceso in terra. La scienza si basa sui fatti ed i fatti sono quelli che vi descrivo adesso. Peraltro questi sono anche i fatti che racconto ai miei studenti nelle mie lezioni sia di Chimica del Suolo che di Recupero delle Aree Degradate.

Cos’è il glifosato?

Solo per completezza, il nome IUPAC del glifosato è N-(fosfonometil)-glicina. La sua struttura è quella rappresentata in Figura 1.

Figura 1. Struttura del glifosato

Benché nel suo nome compaia il termine “glicina”, che è un amminoacido che assolve a diverse funzioni importantissime nel nostro organismo (Figura 2), esso ha delle funzioni biochimiche che sono completamente diverse da quelle dell’amminoacido glicina.

Figura 2. Funzioni biochimiche della glicina
La via sintetica dell’acido shichimico

Quello che gli scienziati della domenica non sanno, o fanno finta di non sapere, è che esiste una relazione diretta tra struttura ed attività biochimica. Questo vuol dire che la N-(fosfonometil)-glicina non ha le stesse caratteristiche dell’amminoacido da cui essa deriva. Ed infatti, se andiamo a studiare il meccanismo di funzionamento di questo composto, ci accorgiamo che esso è un “competitore” del fosfoenolpiruvato per i siti attivi di un enzima che è coinvolto nel metabolismo dell’acido shichimico (Figura 3).

Figura 3. Processo del metabolismo dell’acido shikimico in cui il glifosato compete con il foosfoenolpiruvato (da: Schönbrunn et al., 2001, Interaction of the herbicide glyphosate with its target  enzyme 5-enolpyruvylshikimate 3-phosphate synthase in atomic detail, PNAS, 98:1376–1380)

Traduco quanto detto in termini più semplici. Il metabolismo dell’acido shichimico è una parte del metabolismo vegetale grazie alla quale le piante sintetizzano degli amminoacidi che abbiamo deciso di chiamare “essenziali”. Ricordo che tutti gli amminoacidi sono importanti perché sono coinvolti nei processi di sintesi delle proteine. Senza certi amminoacidi, proteine che svolgono numerose funzioni importantissime nel nostro organismo non possono essere sintetizzate. Questo implica insorgenza di patologie più o meno mortali.  La “essenzialità” degli amminoacidi citati discende dal fatto che noi animali non siamo in grado di auto-produrceli e li dobbiamo assimilare dalla dieta mangiando proprio i vegetali. Il fatto che noi non auto-produciamo gli amminoacidi essenziali e dobbiamo assumerli dalla dieta, ci consente di intuire immediatamente che nel nostro metabolismo non è compresa la via sintetica dell’acido shichimico. Se noi non “godiamo” di questa meravigliosa (in senso chimico per chi è in grado di apprezzare i passaggi chimici in essa coinvolti) via sintetica, vuol dire che anche tutti gli enzimi che mediano le reazioni comprese nella via dell’acido shichimico non sono presenti nel nostro organismo. In definitiva, quindi,  il glifosato non è in grado di agire nell’organismo umano come fa, invece, nelle piante.

La tossicità del glifosato.

Ora, però, non mettetemi in bocca quello che non ho detto. Ho detto che il glifosato è in grado di inibire la via metabolica dell’acido shichimico, tipica delle piante. Questo non vuol dire che esso non sia tossico ad elevate concentrazioni per gli animali. Infatti, per esempio, recentemente è stato pubblicato un lavoro in cui sono stati studiati gli effetti teratogeni di “dosi da cavallo” di glifosato iniettate direttamente nei feti di alcuni ratti (riferimento). Il lavoro, che immediatamente è stato usato dagli amici della natura (come se gli scienziati odiassero il mondo che li circonda) come cavallo di battaglia per dar contro a tutti quelli che fanno uso di questo erbicida, è stato, in realtà, messo sotto la lente di ingrandimento dalla comunità scientifica a livello mondiale. Ciò che tutti gli addetti ai lavori hanno stigmatizzato è stato l’uso strumentale e fazioso di questo studio che dimostra solo che se i feti vengono esposti a dosi massicce di glifosato subiscono degli effetti deleteri. In altre parole, questo studio non dimostra nulla se non che è la dose che fa il veleno. Ma questo è noto fin dai tempi di Paracelso. In Campania, regione dalla quale provengo, c’è un modo di dire molto caratteristico quando si vuole evidenziare la lapalissianità di uno studio. Tuttavia, per ovvi motivi di decenza, evito di usare il turpiloquio. In ogni caso, per avere un’idea delle critiche circostanziate al lavoro di cui sto parlando, rimando al blog del mio amico Enrico Bucci che ha scritto l’articolo che trovate qui sotto.

Glifosate e bugie

Quanto è tossico il glifosato?

Poco fa ho scritto che il glifosato è tossico ad alte concentrazioni. Ma chiunque mastichi un poco il linguaggio scientifico sa benissimo che “elevato”, “grande”, “piccolo”, “alto”, “basso” etc. sono tutti aggettivi privi di significato. Da un punto di vista scientifico, noi dobbiamo sempre quantificare l’ammontare di un certo composto chimico oltre il quale si possono avere effetti negativi sulla salute. A tale scopo abbiamo definito la cosiddetta LD50, ovvero la dose di composto che somministrata per via orale, per contatto dermale, per inalazione etc. uccide il 50% (ovvero la metà) della popolazione di animali usati come target di riferimento.  Più elevato è il valore della LD50, meno tossico è il composto preso in considerazione se paragonato ad altri composti chimici.  Ed allora se cerchiamo le schede di sicurezza del glifosato e di altri prodotti chimici di uso comune, possiamo elaborare il grafico che è mostrato in Figura 4.

Figura 4. Confronto tra i valori di LD50 del glifosato con quelli di sostanze di uso comune

In questo grafico ho paragonato la tossicità orale (espressa in milligrammi di principio attivo per chilogrammo in peso dei target animali usati per misurare la LD50) del glifosato con quella dell’acido acetico (presente nell’aceto), dell’acido citrico (presente negli agrumi), dell’alcol etilico (presente, per esempio, nei vini), dell’aspirina, dell’ibuprofene (il principio attivo dell’OKI o del Moment, farmaci di uso comune), della caffeina (presente nel thé e nel caffè) e della nicotina (presente nelle foglie di tabacco). A colpo d’occhio si evidenzia subito che il glifosato è molto meno tossico (il valore della LD50 è il più alto) di composti che vengono ritenuti innocui. Evidentemente, l’esposizione mediatica a cui è stato sottoposto il glifosato negli ultimi anni, ha alterato sia la percezione del pericolo che quella del rischio legate all’assunzione per via orale dell’erbicida rispetto a quella di altri sistemi di uso più comune e quotidiano.

Pericolo e rischio: una definizione

Occorre sottolineare per i non addetti ai lavori che pericolo e rischio non sono sinonimi e non possono essere considerati interscambiabili. Riprendendo una bella definizione che ho trovato sul sito della Società Chimica Italiana (qui), il pericolo è una qualità intrinseca di un determinato fattore avente il potenziale di causare danni​, mentre il rischio è la probabilità di raggiungere il livello potenziale di danno nelle effettive condizioni di impiego​. In altre parole, un composto può essere pericoloso ma non rischioso, ossia avere una valenza mortale ma non essere concentrato a sufficienza. Come detto in precedenza: è la dose che fa il veleno​.

A cosa è dovuta la tossicità del glifosato?

In realtà, sarebbe meglio chiedere a cosa non è dovuta la tossicità di tale principio attivo. Infatti, girando un po’ per la rete internet, è venuto fuori che quando la concentrazione di glifosato supera certe dosi, esso compete con l’amminoacido glicina per la sintesi proteica. Avendo una struttura un po’ diversa dalla glicina, le proteine che si ottengono hanno delle conformazioni (ovvero delle caratteristiche strutturali tridimensionali) che non le rendono adatte ad assolvere i compiti per cui esse sono sintetizzate. Si innescano, quindi, patologie mortali. Devo dire la verità. Leggendo questa informazione ho ritenuto che essa fosse verosimile. In realtà, sicuro di me, ho dimenticato che la chimica è una scienza e, per questo, prima di ritenere verosimile una informazione occorre andare a verificare da dove questa informazione è scaturita. Ebbene, devo aggiungere che studiare per scrivere gli articoli in questo blog mi fa bene. Infatti, proprio per cercare le fonti della notizia in merito alla competizione glicina/glifosato, mi sono imbattuto in un bellissimo studio dal titolo: “Glyphosate does not substitute for glycine in proteins of actively dividing mammalian cells”. Il lavoro lo potete scaricare liberamente cliccando direttamente sull’immagine di Figura 5.

Figura 5. Studio in cui si dimostra che glicina e glifosato non competono tra loro per la sintesi proteica

In questo lavoro si evidenzia che la intercambiabilità glicina/glifosato è un mito. Una falsa informazione messa in giro ad arte per supportare delle posizioni antiscientifiche. Per semplicità riporto solo le conclusioni, piuttosto chiare, presenti alla fine dell’abstract dello studio anzidetto: “the assertion that glyphosate substitutes for glycine in protein polypeptide chains is incorrect“. Come potete leggere voi stessi, gli autori parlano di “assertion” che in inglese vuol dire “a declaration that is made emphatically (as if no supporting evidence were necessary)” (da: “Advanced English Dictionary and Thesaurus”, app per iPad).   In conclusione, se navigando in rete vi imbattete in qualcuno che dice che il glifosato si sostituisce alla glicina, potete cancellare la pagina dalla memoria del computer. Se invece leggete la notizia sulla stampa…beh…sapete adesso che potete bruciare quel giornale. Se è un vostro amico/contatto in Facebook…cancellatelo. Non vale la pena leggere quello che scrive.

Ma allora come funziona il glifosato negli animali?

La mia risposta è: non lo so. Non ho la più pallida idea di quali siano i meccanismi chimici alla base della tossicità del glifosato oltre una certa dose limite. Fino ad ora, per quanto ho potuto verificare in rete, sono pubblicati lavori che riportano di effetti negativi e fanno ipotesi (per esempio qui) che non sono sperimentalmente verificate se non in vitro. L’unica cosa che mi è chiara è che il glifosato può complessare micronutrienti metallici che funzionano da co-fattori in molti processi metabolici inibendone, quindi, l’utilizzo negli enzimi in cui essi dovrebbero essere presenti. Ma questa è una informazione che potete già leggere nel mio articolo del 2017 (qui) e che riprende le conclusioni di un lavoro del 2013 che potete liberamente scaricare qui. Peraltro, la particolare natura chimica del glifosato lo rende molto polare e, di conseguenza, particolarmente solubile in acqua. Come spiega Donatello Sandroni nel suo libro “Orco glifosato“, esso viene espulso per 2/3 nelle feci e 1/3 nelle urine​. In altre parole, se rimaniamo al di sotto delle concentrazioni limite previste per legge (in Europa la concentrazione limite assimilabile dagli organismi umani è 0.3 mg/kg/d​), il glifosato non si accumula nell’organismo.

Da tutto quanto avete letto fino ad ora, appare chiaro che non è possibile semplificare il comportamento del glifosato quando entra a contatto con il nostro organismo. Dire che il glifosato è un demone che innesca patologie di ogni tipo, semplicemente non corrisponde a verità.

Perché si possa avere un effetto tossico è necessario superare di gran lunga le soglie limite di cui abbiamo discusso fino ad ora.

Dalla Figura 4 abbiamo imparato che la LD50 di glifosato per assunzione orale è di 5 g per kg di peso corporeo. In altre parole, per cominciare ad avere effetti negativi un individuo di peso medio pari a 80 kg deve ingerire almeno 400 g di glifosato in un unico shot. Ma adesso abbiamo anche imparato che il limite massimo di glifosato che un individuo può assumere ogni giorno è 0.3 mg/kg. Se una persona pesa 80 kg, può ingerire al massimo 24 mg di glifosato al giorno. In altre parole si tratta di una quantità di glifosato circa 200 volte inferiore a quella necessaria per avere problemi di salute.

Impatto ambientale del glifosato.

Uno dei problemi che vengono spesso presi in considerazione da chi demonizza il glifosato è legato alla sua persistenza al suolo che influenzerebbe la comunità microbica presente ed al fatto che è solubile in acqua per cui può facilmente arrivare a contaminare le acque potabili.  In realtà anche quella appena indicata è una semplificazione del comportamento del glifosato. Essa è fatta in modo strumentale e fazioso ad uso e consumo di chi, non avendo strumenti adeguati, non può comprendere a fondo che si tratta di mezze verità.

Il glifosato (con la struttura rappresentata in Figura 1) è una molecola che ha almeno tre siti con i quali si può agganciare alle componenti organiche ed inorganiche presenti nei suoli. Questo, da un punto di vista ambientale, vuol dire che esso può essere lisciviato verso le falde acquifere abbastanza difficilmente rimanendo a disposizione dei microorganismi del suolo che lo possono degradare a molecole più semplici e meno tossiche. Infatti, è noto già da parecchio tempo (per esempio qui) che il glifosato subisce nei suoli processi di degradazione microbica, mentre sono poco importanti quelli di tipo fotochimico (ovvero ad opera della luce del sole) e meccanico (ovvero ad opera delle lavorazioni del suolo). È, comunque, anche vero che l’elevata solubilità del glifosato in acqua possa portare a dei concreti problemi alle forme di vita acquifere qualora esso fosse utilizzato in prossimità di tali fonti. In ogni caso, i microorganismi che vivono in acqua possono “lavorare” come quelli terrestri per decomporre il glifosato a sistemi più semplici e meno tossici. In altre parole, sia che finisca in acqua, sia che finisca al suolo, il glifosato non rimane in quei comparti a tempo indefinito, ma viene degradato microbiologicamente. Il problema è capire quali sono le concentrazioni limite di glifosato oltre le quali l’attività dei microorganismi viene inficiata. Vi ricorda qualcosa? Ma certo. È la dose che fa il veleno. Oltre un certo limite il glifosato diventa tossico anche per i microorganismi. Questo vuol dire che per evitare problemi di tipo ambientale non possiamo usare il glifosato tutti i giorni a tutte le concentrazioni possibili. Occorre una gestione oculata dell’uso di tale erbicida. Del resto…voi mangereste una sacher torte da 5 kg tutta assieme sapendo che subito dopo dovreste essere portati in pronto soccorso per intossicazione alimentare? Non è meglio centellinare la torta in modo da evitare i problemi di salute e godere del dolce per un tempo più prolungato?

Adesso permettetemi di entrare in qualche dettaglio chimico che mi serve per capire cosa bisogna fare per progettare un uso oculato del glifosato.

Volete sapere come si degrada nei suoli il glifosato? Seguendo lo schema della Figura 6.  Qui, il pathway più importante è quello riportato nella parte sinistra della figura.

Il glifosato viene prima degradato ad acido amminometilfosfonico  (AMPA) ed acido gliossilico. Mentre il primo viene trasformato in fosfato e metilammina e quest’ultima in ammonio ed anidride carbonica, l’acido gliossilico si ossida completamente ad acqua ed anidride carbonica. In definitiva i prodotti finali di questa via di degradazione sono fosfato, ammonio, anidride carbonica ed acqua.

Il meccanismo di degradazione riportato nella parte destra di Figura 6 è stato individuato in laboratorio ed avviene ad opera di microorganismi che vengono isolati dal suolo e studiati in vitro. In pratica, il glifosato viene decomposto a fosfato e sarcosina. La sarcosina viene, poi, trasformata in glicina.

Figura 6. I due pathway di degradazione del glifosato. Il primo a sinistra è la via biochimica che avviene nei suoli, il secondo a destra è la via biochimica che è stata studiata in microorganismi isolati dal suolo e studiati in vitro (da Giesy et al., 2000, Ecotoxicological risk assessment for Roundup® herbicide, Rev. Environ. Contam. Toxicol., 167: 35-120)

Il meccanismo di degradazione riportato a sinistra nella Figura 6 si può semplificare anche in questo modo: G→A→M, dove la G indica il glifosato, la A l’acido amminometilfosfonico e la M la metilammina. Se facciamo l’assunzione che la velocità di degradazione da G ad A e da A a M segua in entrambi i casi una cinetica del primo ordine, dopo calcoli più o meno complicati, si ottengono delle equazioni che possono essere graficate come in Figura 7.

Figura 7. Variazione della quantità di glifosato (curva e punti in blu) e acido amminometilfosfonico (curva e punti in arancione) nel tempo dopo deposizione al suolo di 193 mg ha-1 di una soluzione di Roundup® con concentrazione di principio attivo pari a 57.1 mM.

La curva blu indica la scomparsa nel tempo del glifosato, mentre quella in arancione l’andamento temporale di AMPA. La concentrazione di quest’ultimo prima aumenta, poi, man mano che il glifosato diminuisce, comincia a diminuire perché i microorganismi del suolo cominciano ad utilizzarlo come nutrimento per ricavare energia per il loro metabolismo.

Nelle condizioni descritte nella didascalia della figura, occorrono circa 100 giorni per arrivare a un contenuto di glifosato pari a circa 20 mg ha-1, mentre ne occorrono circa 250 per arrivare ad una analoga concentrazione di AMPA.

I diagrammi di Figura 7 sono stati ottenuti utilizzando i parametri dei suoli forestali riportati in Giesy et al., 2000, Ecotoxicological risk assessment for Roundup® herbicide, Rev. Environ. Contam. Toxicol., 167: 35-120. Questo vuol dire che a seconda del pH, temperatura, tessitura etc (ovvero le caratteristiche dei suoli soggetti alla contaminazione da glifosato), le tempistiche di degradazione possono cambiare.

Come va usato il glifosato?

Alla luce di quanto scritto fino ad ora, possiamo dire che le applicazioni di glifosato devono essere progettate in modo tale da tener conto delle caratteristiche chimico fisiche dei suoli sui quali esso verrà applicato. Due applicazioni successive non si possono fare a pochi giorni di distanza. Occorre attendere che i microorganismi facciano il loro “lavoro” portando la concentrazione dei contaminanti a livelli predefiniti, prima di poter fare una seconda applicazione.

Conclusioni

Da tutto quanto scritto in questo articolo, si capisce che non è il glifosato ad essere un problema. I problemi sono l’ignoranza e la superficialità che impediscono di capire che, se non si seguono le indicazioni degli esperti nell’uso di un erbicida, si possono avere seri problemi sia ambientali che di salute.

Cosa rispondere a tutti coloro che sono per il “NO” a tutto? Semplicemente che devono studiare. Il “no” non risolve i problemi, anzi li incrementa. La semplificazione estrema di cui essi si fanno portavoce, non consente di comprendere che i problemi ambientali (e non solo quelli) sono complessi. Problemi complessi ammettono solo risposte/soluzioni complesse.

Immagine di copertina: By W.carter – Own work, CC0, https://commons.wikimedia.org/w/index.php?curid=86493357

Credibilità scientifica e h-index

Recentemente sul quotidiano Il Tempo è apparso un articolo dal titolo “Burioni, Pregliasco e Brusaferro . Gli esperti più scarsi del mondo” in cui i nomi di tre medici che ultimamente occupano le prime pagine dei giornali non sono neanche messi in ordine alfabetico. L’articolo che trovate qui è un attacco neanche troppo velato alla credibilità di questi tre professionisti che ci avvertono dei pericoli della pandemia da SARS-Cov-2. L’attacco viene sferrato usando uno dei parametri (non l’unico) utilizzato per la valutazione comparativa dei candidati a posti più o meno importanti nel mondo accademico e della ricerca scientifica: l’h-index.

Cos’è l’h-index?

Per i non addetti ai lavori, si tratta di un indice che serve per valutare l’impatto che il lavoro di uno scienziato ha sulla comunità scientifica di riferimento. Se un lavoro pubblicato è molto importante, esso viene citato tantissimo e l’h-index di quello scienziato aumenta in modo proporzionale al numero delle citazioni che riceve.

Nel mondo da classifiche calcistiche in cui viviamo, questo parametro sembra molto utile, vero?

In effetti sembra così. Il problema è che questo parametro deve essere necessariamente contestualizzato. Prima di usarlo è necessario entrare nel merito del lavoro di uno scienziato. Se così non fosse tutte le commissioni di cui faccio parte e di cui ho fatto parte (inclusa quella relativa all’Abilitazione Scientifica Nazionale del mio settore concorsuale) non avrebbero alcun senso. Se bastasse solo valutare il valore dell’h-index per fare una classifica di idoneità ad una data posizione accademica, non sarebbe necessario rompere le scatole ai docenti universitari per includerli nelle commissioni: basterebbe il lavoro di un semplice ragioniere che non dovrebbe fare altro che accedere ai data base accademici, estrarre il valore dell’h-index e, poi, mettere i nomi dei candidati in ordine di h-index decrescente. Al contrario, se a me serve un ricercatore che abbia esperienza in fisiologia vegetale, non vado a vedere solo il suo h-index, ma vado a valutare anche l’attinenza della sua ricerca con la posizione che egli deve occupare. Se al concorso si presenta un ricercatore in filologia romanza con h-index 40 ed uno in fisiologia vegetale con h-index 20, sceglierò il secondo dei due perché la sua attività di ricerca è più attinente al profilo di cui si sente il bisogno. Da tutto ciò si evince che l’articolo pubblicato su Il Tempo è fallace proprio in questo. Il giornalista, di cui non conosco il nome e neanche mi interessa perché sto valutando solo quello che ha scritto, ha messo a confronto gli h-index di una serie di scienziati più o meno famosi senza andare a vedere se i settori di cui essi si occupano sono congruenti gli uni con gli altri e se i lavori scientifici che hanno pubblicato siano congruenti con la virologia. Questo giornalista si è solo peritato di agire come un tipico ragioniere che legge dei numeri e li mette in fila dal più grande al più piccolo. Alla luce di questa classifica ha concluso che Burioni (persona che conosco personalmente e che stimo moltissimo) è uno scienziato tra i più scarsi del mondo. A questo giornalista non importa neanche minimamente ciò che il Prof. Burioni dice. Ciò che gli importa è che un parametro, che nel mondo universitario noi utilizziamo con tanta oculatezza, collochi questo scienziato in fondo alla classifica che egli ha deciso autonomamente di stilare senza tener in alcun conto delle differenze che possono esistere tra i diversi settori scientifici in cui gli scienziati da egli presi in considerazione si muovono. Ed allora perché non inserire nella stessa classifica anche il Prof. Guido Silvestri che ha un h-index di 66 (qui) e che si muove su posizioni analoghe a quelle di Burioni? Ma…poi…siamo sicuri che Anthony Fauci, con h-index 174 e consigliere di Trump, non sia in linea con quanto dicono Burioni e Silvestri? Il giornalista che ha scritto l’articolo che sto commentando, probabilmente, pensa di no. Non tiene conto del fatto che Trump è una scheggia impazzita, che gli americani hanno eletto a loro rappresentante uno che è fallito ben due volte, e che questa persona non brilli certo in quanto a cultura e preparazione scientifica.

Gli h-index e la credibilità scientifica.

Ora voglio usare gli stessi criteri del giornalista de Il Tempo per fare una mia classifica di scienziati. Partiamo dalla fisica. Penso che io non abbia bisogno di presentare Enrico Fermi. È una gloria italiana che ha dato un contributo notevole alla fisica mondiale. Trovate una sua biografia qui. Il suo h-index è 28 (qui). Incredibile vero? Nonostante abbia vinto un premio Nobel, Enrico Fermi ha un h-index confrontabile con quello di Burioni che il giornalista de Il Tempo ha giudicato scarso. Però in effetti sto confrontando un medico con un fisico, peraltro deceduto già da molto tempo. Non sono paragoni da fare. Andiamo a prendere un altro fisico che è diventato famoso qualche tempo fa, all’inizio degli anni 2000: Jan Hendrik Schön. Ho parlato di questo scienziato qui. Fu uno studioso della superconduttività nei sistemi organici. In odore da Nobel fino a che si scoprì che inventava i dati. Gli è stato ritirato anche il dottorato di ricerca. Ebbene, se andiamo a leggere l’h-index di Schön su Scopus, risulta che esso è pari a 32 (qui). In definitiva, usando i parametri del giornalista de Il Tempo, Enrico Fermi è più scarso di Jan Hendrik Schön. Ma quale tra i due ha maggiore credibilità? Enrico Fermi che ha lavorato seriamente ed ha dato un contributo alla fisica riconosciuto dall’intera comunità scientifica oppure Jan Schön che, invece, ha lavorato in modo poco serio arrivando ad inventarsi i dati pur di avere quella notorietà internazionale che non meritava?
Voglio continuare. Ritorniamo nel campo medico e prendiamo Wakefield. Sì, proprio il medico che è stato radiato dall’ordine dei medici e dalla comunità scientifica per aver inventato di sana pianta la correlazione tra vaccini ed autismo. Il suo h-index è 45 (qui) dovuto principalmente alle oltre 1500 citazioni che il suo lavoro su The Lancet, pubblicato nel 1998 e poi ritrattato una decina di anni dopo, sulla correlazione vaccini-autismo ha ricevuto. Usando i parametri del giornalista de Il Tempo, Burioni è più scarso di Wakefield. Ma voi nelle mani di chi mettereste la vostra salute: di Burioni o di Wakefield? Io non ho dubbi, per quanto mi riguarda: mi affiderei senza ombra di dubbi a Burioni.

Conclusioni

Ho scritto questo articolo per far capire quanta spazzatura ci sia in rete in merito a come vengono usati i numeri che hanno significato solo nell’ambito per cui quei numeri sono stati introdotti. Al di fuori dell’ambito accademico, l’h-index non può essere utilizzato. In ogni caso, anche in ambito accademico va utilizzato non in senso assoluto ma assieme a tutta una serie di parametri che servono per valutare la credibilità di uno scienziato. Usando un linguaggio matematico, l’h-index è condizione necessaria ma non sufficiente a farsi un’idea del lavoro di qualcuno.

Fonte dell’immagine di copertina