Glifosato: miti e leggende

Il glifosato oggi rappresenta il demone da sconfiggere.

Ormai giornali di ogni tipo, dai quotidiani a tiratura nazionale ai giornalini di quartiere, fanno a gara ad indicare il Roundup®,  il fitofarmaco che contiene il glifosato quale principio attivo,  come il nemico da sconfiggere perché responsabile di tutti i mali di questa terra.

Un po’ di tempo fa, tempo recente, mi è capitato di leggere in una di quelle pagine di complottisti che imperversano in rete, che il glifosato è responsabile anche dell’insorgenza della pandemia da SARS-CoV-2. Insomma, manca solo il gomito della lavandaia ed il ginocchio del tennista (citazione liberamente ispirata a “Tre uomini in barca per non parlar del cane” di Jerome K. Jerome) per incoronare il glifosato come principe del male.

Chi mi conosce e mi segue da un po’ di tempo, sa che non sono nuovo a prendere posizioni in merito al glifosato. Per esempio, ne parlai già a suo tempo in un articolo che potete trovare qui:

Glifosato sì, glifosato no: è veramente un pericolo?

Un po’ più recentemente, invece, ho anche evidenziato la faziosità di certi scienziati che pubblicano lavori sulla tossicità di questo composto con dubbia (si fa per dire) qualità sia progettuale che sperimentale. L’articoletto lo potete trovare qui:

Il glifosato nei lavori medici

“Allora perché ci ritorni su?”, mi potreste chiedere.

Semplicemente perché ogni tanto bisogna ricordare che la chimica è una scienza e non tiene conto delle opinioni di nessuno, anche se a parlare è un premio Nobel. Le sciocchezze sono tali anche se a dirle è il padreterno sceso in terra. La scienza si basa sui fatti ed i fatti sono quelli che vi descrivo adesso. Peraltro questi sono anche i fatti che racconto ai miei studenti nelle mie lezioni sia di Chimica del Suolo che di Recupero delle Aree Degradate.

Cos’è il glifosato?

Solo per completezza, il nome IUPAC del glifosato è N-(fosfonometil)-glicina. La sua struttura è quella rappresentata in Figura 1.

Figura 1. Struttura del glifosato

Benché nel suo nome compaia il termine “glicina”, che è un amminoacido che assolve a diverse funzioni importantissime nel nostro organismo (Figura 2), esso ha delle funzioni biochimiche che sono completamente diverse da quelle dell’amminoacido glicina.

Figura 2. Funzioni biochimiche della glicina
La via sintetica dell’acido shichimico

Quello che gli scienziati della domenica non sanno, o fanno finta di non sapere, è che esiste una relazione diretta tra struttura ed attività biochimica. Questo vuol dire che la N-(fosfonometil)-glicina non ha le stesse caratteristiche dell’amminoacido da cui essa deriva. Ed infatti, se andiamo a studiare il meccanismo di funzionamento di questo composto, ci accorgiamo che esso è un “competitore” del fosfoenolpiruvato per i siti attivi di un enzima che è coinvolto nel metabolismo dell’acido shichimico (Figura 3).

Figura 3. Processo del metabolismo dell’acido shikimico in cui il glifosato compete con il foosfoenolpiruvato (da: Schönbrunn et al., 2001, Interaction of the herbicide glyphosate with its target  enzyme 5-enolpyruvylshikimate 3-phosphate synthase in atomic detail, PNAS, 98:1376–1380)

Traduco quanto detto in termini più semplici. Il metabolismo dell’acido shichimico è una parte del metabolismo vegetale grazie alla quale le piante sintetizzano degli amminoacidi che abbiamo deciso di chiamare “essenziali”. Ricordo che tutti gli amminoacidi sono importanti perché sono coinvolti nei processi di sintesi delle proteine. Senza certi amminoacidi, proteine che svolgono numerose funzioni importantissime nel nostro organismo non possono essere sintetizzate. Questo implica insorgenza di patologie più o meno mortali.  La “essenzialità” degli amminoacidi citati discende dal fatto che noi animali non siamo in grado di auto-produrceli e li dobbiamo assimilare dalla dieta mangiando proprio i vegetali. Il fatto che noi non auto-produciamo gli amminoacidi essenziali e dobbiamo assumerli dalla dieta, ci consente di intuire immediatamente che nel nostro metabolismo non è compresa la via sintetica dell’acido shichimico. Se noi non “godiamo” di questa meravigliosa (in senso chimico per chi è in grado di apprezzare i passaggi chimici in essa coinvolti) via sintetica, vuol dire che anche tutti gli enzimi che mediano le reazioni comprese nella via dell’acido shichimico non sono presenti nel nostro organismo. In definitiva, quindi,  il glifosato non è in grado di agire nell’organismo umano come fa, invece, nelle piante.

La tossicità del glifosato.

Ora, però, non mettetemi in bocca quello che non ho detto. Ho detto che il glifosato è in grado di inibire la via metabolica dell’acido shichimico, tipica delle piante. Questo non vuol dire che esso non sia tossico ad elevate concentrazioni per gli animali. Infatti, per esempio, recentemente è stato pubblicato un lavoro in cui sono stati studiati gli effetti teratogeni di “dosi da cavallo” di glifosato iniettate direttamente nei feti di alcuni ratti (riferimento). Il lavoro, che immediatamente è stato usato dagli amici della natura (come se gli scienziati odiassero il mondo che li circonda) come cavallo di battaglia per dar contro a tutti quelli che fanno uso di questo erbicida, è stato, in realtà, messo sotto la lente di ingrandimento dalla comunità scientifica a livello mondiale. Ciò che tutti gli addetti ai lavori hanno stigmatizzato è stato l’uso strumentale e fazioso di questo studio che dimostra solo che se i feti vengono esposti a dosi massicce di glifosato subiscono degli effetti deleteri. In altre parole, questo studio non dimostra nulla se non che è la dose che fa il veleno. Ma questo è noto fin dai tempi di Paracelso. In Campania, regione dalla quale provengo, c’è un modo di dire molto caratteristico quando si vuole evidenziare la lapalissianità di uno studio. Tuttavia, per ovvi motivi di decenza, evito di usare il turpiloquio. In ogni caso, per avere un’idea delle critiche circostanziate al lavoro di cui sto parlando, rimando al blog del mio amico Enrico Bucci che ha scritto l’articolo che trovate qui sotto.

Glifosate e bugie

Quanto è tossico il glifosato?

Poco fa ho scritto che il glifosato è tossico ad alte concentrazioni. Ma chiunque mastichi un poco il linguaggio scientifico sa benissimo che “elevato”, “grande”, “piccolo”, “alto”, “basso” etc. sono tutti aggettivi privi di significato. Da un punto di vista scientifico, noi dobbiamo sempre quantificare l’ammontare di un certo composto chimico oltre il quale si possono avere effetti negativi sulla salute. A tale scopo abbiamo definito la cosiddetta LD50, ovvero la dose di composto che somministrata per via orale, per contatto dermale, per inalazione etc. uccide il 50% (ovvero la metà) della popolazione di animali usati come target di riferimento.  Più elevato è il valore della LD50, meno tossico è il composto preso in considerazione se paragonato ad altri composti chimici.  Ed allora se cerchiamo le schede di sicurezza del glifosato e di altri prodotti chimici di uso comune, possiamo elaborare il grafico che è mostrato in Figura 4.

Figura 4. Confronto tra i valori di LD50 del glifosato con quelli di sostanze di uso comune

In questo grafico ho paragonato la tossicità orale (espressa in milligrammi di principio attivo per chilogrammo in peso dei target animali usati per misurare la LD50) del glifosato con quella dell’acido acetico (presente nell’aceto), dell’acido citrico (presente negli agrumi), dell’alcol etilico (presente, per esempio, nei vini), dell’aspirina, dell’ibuprofene (il principio attivo dell’OKI o del Moment, farmaci di uso comune), della caffeina (presente nel thé e nel caffè) e della nicotina (presente nelle foglie di tabacco). A colpo d’occhio si evidenzia subito che il glifosato è molto meno tossico (il valore della LD50 è il più alto) di composti che vengono ritenuti innocui. Evidentemente, l’esposizione mediatica a cui è stato sottoposto il glifosato negli ultimi anni, ha alterato sia la percezione del pericolo che quella del rischio legate all’assunzione per via orale dell’erbicida rispetto a quella di altri sistemi di uso più comune e quotidiano.

Pericolo e rischio: una definizione

Occorre sottolineare per i non addetti ai lavori che pericolo e rischio non sono sinonimi e non possono essere considerati interscambiabili. Riprendendo una bella definizione che ho trovato sul sito della Società Chimica Italiana (qui), il pericolo è una qualità intrinseca di un determinato fattore avente il potenziale di causare danni​, mentre il rischio è la probabilità di raggiungere il livello potenziale di danno nelle effettive condizioni di impiego​. In altre parole, un composto può essere pericoloso ma non rischioso, ossia avere una valenza mortale ma non essere concentrato a sufficienza. Come detto in precedenza: è la dose che fa il veleno​.

A cosa è dovuta la tossicità del glifosato?

In realtà, sarebbe meglio chiedere a cosa non è dovuta la tossicità di tale principio attivo. Infatti, girando un po’ per la rete internet, è venuto fuori che quando la concentrazione di glifosato supera certe dosi, esso compete con l’amminoacido glicina per la sintesi proteica. Avendo una struttura un po’ diversa dalla glicina, le proteine che si ottengono hanno delle conformazioni (ovvero delle caratteristiche strutturali tridimensionali) che non le rendono adatte ad assolvere i compiti per cui esse sono sintetizzate. Si innescano, quindi, patologie mortali. Devo dire la verità. Leggendo questa informazione ho ritenuto che essa fosse verosimile. In realtà, sicuro di me, ho dimenticato che la chimica è una scienza e, per questo, prima di ritenere verosimile una informazione occorre andare a verificare da dove questa informazione è scaturita. Ebbene, devo aggiungere che studiare per scrivere gli articoli in questo blog mi fa bene. Infatti, proprio per cercare le fonti della notizia in merito alla competizione glicina/glifosato, mi sono imbattuto in un bellissimo studio dal titolo: “Glyphosate does not substitute for glycine in proteins of actively dividing mammalian cells”. Il lavoro lo potete scaricare liberamente cliccando direttamente sull’immagine di Figura 5.

Figura 5. Studio in cui si dimostra che glicina e glifosato non competono tra loro per la sintesi proteica

In questo lavoro si evidenzia che la intercambiabilità glicina/glifosato è un mito. Una falsa informazione messa in giro ad arte per supportare delle posizioni antiscientifiche. Per semplicità riporto solo le conclusioni, piuttosto chiare, presenti alla fine dell’abstract dello studio anzidetto: “the assertion that glyphosate substitutes for glycine in protein polypeptide chains is incorrect“. Come potete leggere voi stessi, gli autori parlano di “assertion” che in inglese vuol dire “a declaration that is made emphatically (as if no supporting evidence were necessary)” (da: “Advanced English Dictionary and Thesaurus”, app per iPad).   In conclusione, se navigando in rete vi imbattete in qualcuno che dice che il glifosato si sostituisce alla glicina, potete cancellare la pagina dalla memoria del computer. Se invece leggete la notizia sulla stampa…beh…sapete adesso che potete bruciare quel giornale. Se è un vostro amico/contatto in Facebook…cancellatelo. Non vale la pena leggere quello che scrive.

Ma allora come funziona il glifosato negli animali?

La mia risposta è: non lo so. Non ho la più pallida idea di quali siano i meccanismi chimici alla base della tossicità del glifosato oltre una certa dose limite. Fino ad ora, per quanto ho potuto verificare in rete, sono pubblicati lavori che riportano di effetti negativi e fanno ipotesi (per esempio qui) che non sono sperimentalmente verificate se non in vitro. L’unica cosa che mi è chiara è che il glifosato può complessare micronutrienti metallici che funzionano da co-fattori in molti processi metabolici inibendone, quindi, l’utilizzo negli enzimi in cui essi dovrebbero essere presenti. Ma questa è una informazione che potete già leggere nel mio articolo del 2017 (qui) e che riprende le conclusioni di un lavoro del 2013 che potete liberamente scaricare qui. Peraltro, la particolare natura chimica del glifosato lo rende molto polare e, di conseguenza, particolarmente solubile in acqua. Come spiega Donatello Sandroni nel suo libro “Orco glifosato“, esso viene espulso per 2/3 nelle feci e 1/3 nelle urine​. In altre parole, se rimaniamo al di sotto delle concentrazioni limite previste per legge (in Europa la concentrazione limite assimilabile dagli organismi umani è 0.3 mg/kg/d​), il glifosato non si accumula nell’organismo.

Da tutto quanto avete letto fino ad ora, appare chiaro che non è possibile semplificare il comportamento del glifosato quando entra a contatto con il nostro organismo. Dire che il glifosato è un demone che innesca patologie di ogni tipo, semplicemente non corrisponde a verità.

Perché si possa avere un effetto tossico è necessario superare di gran lunga le soglie limite di cui abbiamo discusso fino ad ora.

Dalla Figura 4 abbiamo imparato che la LD50 di glifosato per assunzione orale è di 5 g per kg di peso corporeo. In altre parole, per cominciare ad avere effetti negativi un individuo di peso medio pari a 80 kg deve ingerire almeno 400 g di glifosato in un unico shot. Ma adesso abbiamo anche imparato che il limite massimo di glifosato che un individuo può assumere ogni giorno è 0.3 mg/kg. Se una persona pesa 80 kg, può ingerire al massimo 24 mg di glifosato al giorno. In altre parole si tratta di una quantità di glifosato circa 200 volte inferiore a quella necessaria per avere problemi di salute.

Impatto ambientale del glifosato.

Uno dei problemi che vengono spesso presi in considerazione da chi demonizza il glifosato è legato alla sua persistenza al suolo che influenzerebbe la comunità microbica presente ed al fatto che è solubile in acqua per cui può facilmente arrivare a contaminare le acque potabili.  In realtà anche quella appena indicata è una semplificazione del comportamento del glifosato. Essa è fatta in modo strumentale e fazioso ad uso e consumo di chi, non avendo strumenti adeguati, non può comprendere a fondo che si tratta di mezze verità.

Il glifosato (con la struttura rappresentata in Figura 1) è una molecola che ha almeno tre siti con i quali si può agganciare alle componenti organiche ed inorganiche presenti nei suoli. Questo, da un punto di vista ambientale, vuol dire che esso può essere lisciviato verso le falde acquifere abbastanza difficilmente rimanendo a disposizione dei microorganismi del suolo che lo possono degradare a molecole più semplici e meno tossiche. Infatti, è noto già da parecchio tempo (per esempio qui) che il glifosato subisce nei suoli processi di degradazione microbica, mentre sono poco importanti quelli di tipo fotochimico (ovvero ad opera della luce del sole) e meccanico (ovvero ad opera delle lavorazioni del suolo). È, comunque, anche vero che l’elevata solubilità del glifosato in acqua possa portare a dei concreti problemi alle forme di vita acquifere qualora esso fosse utilizzato in prossimità di tali fonti. In ogni caso, i microorganismi che vivono in acqua possono “lavorare” come quelli terrestri per decomporre il glifosato a sistemi più semplici e meno tossici. In altre parole, sia che finisca in acqua, sia che finisca al suolo, il glifosato non rimane in quei comparti a tempo indefinito, ma viene degradato microbiologicamente. Il problema è capire quali sono le concentrazioni limite di glifosato oltre le quali l’attività dei microorganismi viene inficiata. Vi ricorda qualcosa? Ma certo. È la dose che fa il veleno. Oltre un certo limite il glifosato diventa tossico anche per i microorganismi. Questo vuol dire che per evitare problemi di tipo ambientale non possiamo usare il glifosato tutti i giorni a tutte le concentrazioni possibili. Occorre una gestione oculata dell’uso di tale erbicida. Del resto…voi mangereste una sacher torte da 5 kg tutta assieme sapendo che subito dopo dovreste essere portati in pronto soccorso per intossicazione alimentare? Non è meglio centellinare la torta in modo da evitare i problemi di salute e godere del dolce per un tempo più prolungato?

Adesso permettetemi di entrare in qualche dettaglio chimico che mi serve per capire cosa bisogna fare per progettare un uso oculato del glifosato.

Volete sapere come si degrada nei suoli il glifosato? Seguendo lo schema della Figura 6.  Qui, il pathway più importante è quello riportato nella parte sinistra della figura.

Il glifosato viene prima degradato ad acido amminometilfosfonico  (AMPA) ed acido gliossilico. Mentre il primo viene trasformato in fosfato e metilammina e quest’ultima in ammonio ed anidride carbonica, l’acido gliossilico si ossida completamente ad acqua ed anidride carbonica. In definitiva i prodotti finali di questa via di degradazione sono fosfato, ammonio, anidride carbonica ed acqua.

Il meccanismo di degradazione riportato nella parte destra di Figura 6 è stato individuato in laboratorio ed avviene ad opera di microorganismi che vengono isolati dal suolo e studiati in vitro. In pratica, il glifosato viene decomposto a fosfato e sarcosina. La sarcosina viene, poi, trasformata in glicina.

Figura 6. I due pathway di degradazione del glifosato. Il primo a sinistra è la via biochimica che avviene nei suoli, il secondo a destra è la via biochimica che è stata studiata in microorganismi isolati dal suolo e studiati in vitro (da Giesy et al., 2000, Ecotoxicological risk assessment for Roundup® herbicide, Rev. Environ. Contam. Toxicol., 167: 35-120)

Il meccanismo di degradazione riportato a sinistra nella Figura 6 si può semplificare anche in questo modo: G→A→M, dove la G indica il glifosato, la A l’acido amminometilfosfonico e la M la metilammina. Se facciamo l’assunzione che la velocità di degradazione da G ad A e da A a M segua in entrambi i casi una cinetica del primo ordine, dopo calcoli più o meno complicati, si ottengono delle equazioni che possono essere graficate come in Figura 7.

Figura 7. Variazione della quantità di glifosato (curva e punti in blu) e acido amminometilfosfonico (curva e punti in arancione) nel tempo dopo deposizione al suolo di 193 mg ha-1 di una soluzione di Roundup® con concentrazione di principio attivo pari a 57.1 mM.

La curva blu indica la scomparsa nel tempo del glifosato, mentre quella in arancione l’andamento temporale di AMPA. La concentrazione di quest’ultimo prima aumenta, poi, man mano che il glifosato diminuisce, comincia a diminuire perché i microorganismi del suolo cominciano ad utilizzarlo come nutrimento per ricavare energia per il loro metabolismo.

Nelle condizioni descritte nella didascalia della figura, occorrono circa 100 giorni per arrivare a un contenuto di glifosato pari a circa 20 mg ha-1, mentre ne occorrono circa 250 per arrivare ad una analoga concentrazione di AMPA.

I diagrammi di Figura 7 sono stati ottenuti utilizzando i parametri dei suoli forestali riportati in Giesy et al., 2000, Ecotoxicological risk assessment for Roundup® herbicide, Rev. Environ. Contam. Toxicol., 167: 35-120. Questo vuol dire che a seconda del pH, temperatura, tessitura etc (ovvero le caratteristiche dei suoli soggetti alla contaminazione da glifosato), le tempistiche di degradazione possono cambiare.

Come va usato il glifosato?

Alla luce di quanto scritto fino ad ora, possiamo dire che le applicazioni di glifosato devono essere progettate in modo tale da tener conto delle caratteristiche chimico fisiche dei suoli sui quali esso verrà applicato. Due applicazioni successive non si possono fare a pochi giorni di distanza. Occorre attendere che i microorganismi facciano il loro “lavoro” portando la concentrazione dei contaminanti a livelli predefiniti, prima di poter fare una seconda applicazione.

Conclusioni

Da tutto quanto scritto in questo articolo, si capisce che non è il glifosato ad essere un problema. I problemi sono l’ignoranza e la superficialità che impediscono di capire che, se non si seguono le indicazioni degli esperti nell’uso di un erbicida, si possono avere seri problemi sia ambientali che di salute.

Cosa rispondere a tutti coloro che sono per il “NO” a tutto? Semplicemente che devono studiare. Il “no” non risolve i problemi, anzi li incrementa. La semplificazione estrema di cui essi si fanno portavoce, non consente di comprendere che i problemi ambientali (e non solo quelli) sono complessi. Problemi complessi ammettono solo risposte/soluzioni complesse.

Immagine di copertina: By W.carter – Own work, CC0, https://commons.wikimedia.org/w/index.php?curid=86493357

Credibilità scientifica e h-index

Recentemente sul quotidiano Il Tempo è apparso un articolo dal titolo “Burioni, Pregliasco e Brusaferro . Gli esperti più scarsi del mondo” in cui i nomi di tre medici che ultimamente occupano le prime pagine dei giornali non sono neanche messi in ordine alfabetico. L’articolo che trovate qui è un attacco neanche troppo velato alla credibilità di questi tre professionisti che ci avvertono dei pericoli della pandemia da SARS-Cov-2. L’attacco viene sferrato usando uno dei parametri (non l’unico) utilizzato per la valutazione comparativa dei candidati a posti più o meno importanti nel mondo accademico e della ricerca scientifica: l’h-index.

Cos’è l’h-index?

Per i non addetti ai lavori, si tratta di un indice che serve per valutare l’impatto che il lavoro di uno scienziato ha sulla comunità scientifica di riferimento. Se un lavoro pubblicato è molto importante, esso viene citato tantissimo e l’h-index di quello scienziato aumenta in modo proporzionale al numero delle citazioni che riceve.

Nel mondo da classifiche calcistiche in cui viviamo, questo parametro sembra molto utile, vero?

In effetti sembra così. Il problema è che questo parametro deve essere necessariamente contestualizzato. Prima di usarlo è necessario entrare nel merito del lavoro di uno scienziato. Se così non fosse tutte le commissioni di cui faccio parte e di cui ho fatto parte (inclusa quella relativa all’Abilitazione Scientifica Nazionale del mio settore concorsuale) non avrebbero alcun senso. Se bastasse solo valutare il valore dell’h-index per fare una classifica di idoneità ad una data posizione accademica, non sarebbe necessario rompere le scatole ai docenti universitari per includerli nelle commissioni: basterebbe il lavoro di un semplice ragioniere che non dovrebbe fare altro che accedere ai data base accademici, estrarre il valore dell’h-index e, poi, mettere i nomi dei candidati in ordine di h-index decrescente. Al contrario, se a me serve un ricercatore che abbia esperienza in fisiologia vegetale, non vado a vedere solo il suo h-index, ma vado a valutare anche l’attinenza della sua ricerca con la posizione che egli deve occupare. Se al concorso si presenta un ricercatore in filologia romanza con h-index 40 ed uno in fisiologia vegetale con h-index 20, sceglierò il secondo dei due perché la sua attività di ricerca è più attinente al profilo di cui si sente il bisogno. Da tutto ciò si evince che l’articolo pubblicato su Il Tempo è fallace proprio in questo. Il giornalista, di cui non conosco il nome e neanche mi interessa perché sto valutando solo quello che ha scritto, ha messo a confronto gli h-index di una serie di scienziati più o meno famosi senza andare a vedere se i settori di cui essi si occupano sono congruenti gli uni con gli altri e se i lavori scientifici che hanno pubblicato siano congruenti con la virologia. Questo giornalista si è solo peritato di agire come un tipico ragioniere che legge dei numeri e li mette in fila dal più grande al più piccolo. Alla luce di questa classifica ha concluso che Burioni (persona che conosco personalmente e che stimo moltissimo) è uno scienziato tra i più scarsi del mondo. A questo giornalista non importa neanche minimamente ciò che il Prof. Burioni dice. Ciò che gli importa è che un parametro, che nel mondo universitario noi utilizziamo con tanta oculatezza, collochi questo scienziato in fondo alla classifica che egli ha deciso autonomamente di stilare senza tener in alcun conto delle differenze che possono esistere tra i diversi settori scientifici in cui gli scienziati da egli presi in considerazione si muovono. Ed allora perché non inserire nella stessa classifica anche il Prof. Guido Silvestri che ha un h-index di 66 (qui) e che si muove su posizioni analoghe a quelle di Burioni? Ma…poi…siamo sicuri che Anthony Fauci, con h-index 174 e consigliere di Trump, non sia in linea con quanto dicono Burioni e Silvestri? Il giornalista che ha scritto l’articolo che sto commentando, probabilmente, pensa di no. Non tiene conto del fatto che Trump è una scheggia impazzita, che gli americani hanno eletto a loro rappresentante uno che è fallito ben due volte, e che questa persona non brilli certo in quanto a cultura e preparazione scientifica.

Gli h-index e la credibilità scientifica.

Ora voglio usare gli stessi criteri del giornalista de Il Tempo per fare una mia classifica di scienziati. Partiamo dalla fisica. Penso che io non abbia bisogno di presentare Enrico Fermi. È una gloria italiana che ha dato un contributo notevole alla fisica mondiale. Trovate una sua biografia qui. Il suo h-index è 28 (qui). Incredibile vero? Nonostante abbia vinto un premio Nobel, Enrico Fermi ha un h-index confrontabile con quello di Burioni che il giornalista de Il Tempo ha giudicato scarso. Però in effetti sto confrontando un medico con un fisico, peraltro deceduto già da molto tempo. Non sono paragoni da fare. Andiamo a prendere un altro fisico che è diventato famoso qualche tempo fa, all’inizio degli anni 2000: Jan Hendrik Schön. Ho parlato di questo scienziato qui. Fu uno studioso della superconduttività nei sistemi organici. In odore da Nobel fino a che si scoprì che inventava i dati. Gli è stato ritirato anche il dottorato di ricerca. Ebbene, se andiamo a leggere l’h-index di Schön su Scopus, risulta che esso è pari a 32 (qui). In definitiva, usando i parametri del giornalista de Il Tempo, Enrico Fermi è più scarso di Jan Hendrik Schön. Ma quale tra i due ha maggiore credibilità? Enrico Fermi che ha lavorato seriamente ed ha dato un contributo alla fisica riconosciuto dall’intera comunità scientifica oppure Jan Schön che, invece, ha lavorato in modo poco serio arrivando ad inventarsi i dati pur di avere quella notorietà internazionale che non meritava?
Voglio continuare. Ritorniamo nel campo medico e prendiamo Wakefield. Sì, proprio il medico che è stato radiato dall’ordine dei medici e dalla comunità scientifica per aver inventato di sana pianta la correlazione tra vaccini ed autismo. Il suo h-index è 45 (qui) dovuto principalmente alle oltre 1500 citazioni che il suo lavoro su The Lancet, pubblicato nel 1998 e poi ritrattato una decina di anni dopo, sulla correlazione vaccini-autismo ha ricevuto. Usando i parametri del giornalista de Il Tempo, Burioni è più scarso di Wakefield. Ma voi nelle mani di chi mettereste la vostra salute: di Burioni o di Wakefield? Io non ho dubbi, per quanto mi riguarda: mi affiderei senza ombra di dubbi a Burioni.

Conclusioni

Ho scritto questo articolo per far capire quanta spazzatura ci sia in rete in merito a come vengono usati i numeri che hanno significato solo nell’ambito per cui quei numeri sono stati introdotti. Al di fuori dell’ambito accademico, l’h-index non può essere utilizzato. In ogni caso, anche in ambito accademico va utilizzato non in senso assoluto ma assieme a tutta una serie di parametri che servono per valutare la credibilità di uno scienziato. Usando un linguaggio matematico, l’h-index è condizione necessaria ma non sufficiente a farsi un’idea del lavoro di qualcuno.

Fonte dell’immagine di copertina

Fa freddo lassù?

Checché ne dicano chimici e fisici, le due discipline di cui essi sono rappresentanti sono strettamente correlate tra di loro. A certi livelli sono talmente incuneate l’una nell’altra che è difficile dire quando finisce la chimica e quando comincia la fisica. Prendete per esempio la quantomeccanica. Tutti quelli che ne parlano sono fisici, ma questa branca della fisica può essere considerata anche chimica grazie agli sforzi compiuti da Linus Pauling che, nella prima metà del XX secolo, si “inventò” la chimica quantistica, o quantochimica, per spiegare la natura del legame chimico (Figura 1).

Figura 1. Raccolta dei lavori di Linus Pauling in cui viene identificata la natura del legame chimico.

Fino a che Pauling non si impadronì della quantomeccanica per adattarla alla chimica, la rottura e la formazione dei legami chimici rimase in una sorta di limbo che faceva dei chimici dei veri e propri praticoni, abilissimi nel “maneggiare” le molecole, ma ancora lontani dal poter prima progettare e poi realizzare in laboratorio quanto avevano in mente.

Perché vi scrivo tutto questo?

Dovete sapere che in questo periodo di quarantena sono costretto a fare lezione per via telematica. Mi manca fortissimamente il contatto con gli studenti ed il poter trasferire le mie conoscenze non solo con le parole ma anche con la prossemica e con l’attività di laboratorio. In questo contesto sto studiando le lezioni che devo fare nelle prossime settimane per il mio corso di “Recupero delle aree degradate”. Una delle ultime lezioni riguarda la contaminazione atmosferica. È proprio ripassando le diapositive che presenterò tra un paio di settimane che ho realizzato anche a me stesso ciò che dico normalmente agli studenti dei miei corsi: chimica e fisica sono parenti stretti; non si può capire la chimica se non si conosce la fisica e non si può comprendere a fondo la fisica se non si hanno anche conoscenze chimiche. Sono sicuro che i miei amici fisici dissentiranno da quanto ho appena scritto, ma lasciatemi dire che chi afferma che per conoscere la fisica non c’è bisogno della chimica ha profonde falle cognitive. È come dire che la conoscenza umanistica non serve a chi si occupa di scienza. In realtà, la conoscenza umanistica aiuta a pensare, a mettere ordine nelle proprie idee, nel proprio modo di esprimersi e nel modo di presentare ciò che sappiamo.

Ma andiamo con ordine.

La fisica dell’atmosfera è direttamente legata alla sua chimica.
Nella Figura 2 si evidenzia la geografia dell’atmosfera con l’indicazione dei cambiamenti di temperatura (quindi una proprietà fisica) che si osservano man mano che ci allontaniamo dalla superficie terrestre.

Figura 2. Geografia dell’atmosfera con indicazioni dei cambiamenti di temperatura che si osservano al variare dell’altezza.

Usando il linguaggio tipico della Scienza del Suolo, la Figura 2 mostra il profilo dell’atmosfera nel quale è possibile individuare diversi orizzonti. L’orizzonte più vicino al suolo ha un’altezza di circa 16 km. Esso viene indicato col termine di troposfera in cui il suffisso “tropo” è di derivazione greca e vuol dire “mutazione”, “cambiamento”. La composizione chimica della troposfera è abbastanza complessa. Essa è costituita non solo da ossigeno ed azoto molecolari, ma anche da vapor d’acqua, anidride carbonica e tutte le altre varie anidridi come quelle di azoto e zolfo che hanno sia origine antropica che origine naturale. Per effetto dell’energia termica rilasciata dal suolo, le molecole di gas più vicine ad esso si riscaldano, diminuiscono di densità e si muovono verso l’alto venendo sostituite dalle molecole di gas più fredde e più dense che si trovano ad altezze maggiori. Si realizzano, quindi, delle correnti ascensionali (Figura 3) che sono sfruttate, per esempio, dai deltaplanisti o da chi è appassionato di volo senza motore.

Figura 3. Schema delle correnti ascensionali che si realizzano per effetto del riscaldamento al suolo delle molecole di gas atmosferico.

È proprio grazie all’energia termica rilasciata dal suolo che possiamo spiegare perché nella troposfera la temperatura diminuisce con l’altezza. Infatti, più vicini siamo al suolo, più risentiamo del calore emesso dalla superficie terrestre. Più ci allontaniamo dal suolo, più si riduce la temperatura per effetto della dissipazione del calore che proviene dalla superficie terrestre.
Tra 16 e 50 km di altezza c’è l’orizzonte atmosferico che viene definito stratosfera. In questo orizzonte c’è una concentrazione media di ozono che è dell’ordine delle decine di parti per milioni (v/v) contro i 0.04 ppm medi presenti nella troposfera. Questa elevata concentrazione di ozono rende conto dell’aumento di temperatura che si osserva man mano che ci si allontana dalla superficie terrestre e si passa dai 16 ai 50 km di altezza. Infatti, le radiazioni luminose provenienti dal suolo, da un lato, consentono la degradazione dell’ozono (O3) ad ossigeno molecolare (O2) ed ossigeno radicalico (O∙) in una reazione esotermica, dall’altro consentono un aumento dell’energia cinetica dei gas della stratosfera con conseguente aumento dell’energia termica.
Tra 50 ed 85 km c’è l’orizzonte che chiamiamo mesosfera. In questo orizzonte si osserva di nuovo una diminuzione di temperatura all’aumentare dell’altezza. Infatti, la temperatura della mesosfera può arrivare fino a -90°C. Questa diminuzione di temperatura è legata alla riduzione della densità dei gas ivi contenuti. L’energia termica proveniente dal Sole, pur incrementando l’energia cinetica delle molecole di gas, non è, tuttavia, in grado (a causa della bassa concentrazione di tali gas) di portare ad un aumento della temperatura.
L’orizzonte incluso tra 85 e 500 km di altezza prende il nome di termosfera. La composizione chimica della termosfera vede la presenza di molecole di ossigeno e molecole contenenti azoto. La radiazione elettromagnetica proveniente dal sole consente la ionizzazione delle molecole anzidette in reazioni di tipo esotermico. L’esotermicità delle reazioni appena citate, associate all’aumento dell’energia cinetica dei sistemi gassosi presenti nella termosfera, portano ad un aumento della temperatura che può arrivare fino a 1200 °C. Gli ioni presenti nella termosfera non solo sono in grado di far “rimbalzare” le onde radio consentendo, quindi, le comunicazioni sul globo terrestre, ma sono anche responsabili delle aurore boreali. Infatti, essi assorbono energia solare riemettendola sotto forma di radiazioni luminose che danno luogo alle meravigliose scenografie che si osservano nell’emisfero Nord del nostro pianeta (Figura 4).

Figura 4. Aurora boreale (Fonte).
Conclusioni

Fa freddo lassù? La risposta corretta è: dipende. Dipende dall’altezza a cui ci troviamo e dalla chimica degli orizzonti del profilo atmosferico. Come dicevo più su, questo post nasce dal desiderio di condividere con voi le meraviglie di due discipline interconnesse tra loro: la chimica e la fisica. Come potete intuire leggendo questo breve articolo, le conoscenze chimiche riescono a spiegare i fenomeni fisici che si osservano nell’atmosfera. Spero possiate perdonare le inesattezze che sicuramente ho scritto e che tutto ciò possa innescare una discussione interessante.

Altre letture

Fundamentals of physics and chemistry of atmosphere

Fonte dell’immagine di copertina

 

 

Bustine di Scienza. Come si scrive un lavoro scientifico? Parte 1. La scelta del titolo

In questo periodo di emergenza e di clausura obbligatoria necessaria per evitare il diffondersi di una epidemia che sta facendo molti morti, ognuno di noi è impegnato in attività che nella vita frenetica pre-pandemia erano passate in secondo piano. Per questo, tra una lezione e l’altra che mi trovo a preparare facendo uso del tablet (sto imparando ad usare il mio tablet in un modo che non avrei mai immaginato), ho deciso di riprendere la rubrica “Bustine di Scienza” e di fornire degli strumenti ready-to-use a tutti coloro che, a vario titolo, studenti in primis, sono coinvolti nella scrittura di un lavoro scientifico (sia esso un rapporto breve, una tesina, una tesi di laurea o un lavoro destinato ad una rivista scientifica vera e propria).

Questa “bustina” è dedicata alla scelta del titolo di un lavoro

Sembra una stupidaggine. Mi direte: ma cosa vuoi che sia un titolo? Beh…posso dire che il titolo è una parte importantissima di un qualsiasi lavoro scritto. Basta ricordare che nella redazione dei giornali esiste la figura  del titolista che ha il compito di “inventarsi” dei titoli per gli articoli che vengono pubblicati. Quante volte avete letto dei titoli acchiappaclick che non avevano alcuna relazione col contenuto dell’articolo stesso? Ecco…questa è una cosa da evitare come la peste. E sapete perché? Perdete di credibilità. Ora…questo può non importare a certi giornalisti privi di scrupoli, ma la credibilità per una persona che vuole entrare nel mondo scientifico è fondamentale. La credibilità è direttamente legata all’etica scientifica, ovvero a tutta quella serie di comportamenti che consentono di affrontare con oggettività, al meglio delle proprie conoscenze, la discussione dei propri dati sperimentali. Affrontare con oggettività la discussione dei propri dati sperimentali significa evitare il cherry-picking e riconoscere i propri bias cognitivi così da evitarli. Significa anche non “innamorarsi” delle proprie idee e rigettarle se esse non sono funzionali alla spiegazione di ciò che è venuto fuori dagli esperimenti. Sapete quanti pseudo scienziati sono quelli che si innamorano delle proprie idee? A me vengono in mente tutti quelli che si dedicano all’omeopatia e non hanno il minimo senso etico a suggerire l’uso di rimedi inutili per la cura di patologie anche gravi (ma ne ho parlato, per esempio, qui).

Cos’è un titolo?

Il titolo deve riportare col più piccolo numero di parole possibile il contenuto del proprio articolo. Esso deve consentire di vendere il prodotto del proprio pensiero al pubblico più ampio possibile, invitandolo alla lettura. Questo è tanto più vero se il lavoro viene indicizzato nei database che non consentono di leggerne l’abstract così da decidere se vale la pena o meno scaricarlo e perdere tempo a trovare le informazioni che si cercano.

Da un punto di vista “operativo” il titolo deve contenere delle parole chiave che descrivano accuratamente quanto contenuto nel lavoro. Le parole chiave sono anche quelle che consentono al lavoro di essere facilmente trovato in una ricerca su internet. Parole chiave inesatte o inaccurate impediscono al lavoro di essere trovato in rete e di raggiungere l’audience desiderata.

Ci sono poche utili regole da seguire per trovare un buon titolo per il proprio lavoro:

  1. Un titolo provvisorio va scritto prima di iniziare la propria elaborazione
  2. È importante non affezionarsi ad esso, ma criticarlo e cambiarlo se non risponde più al contenuto del proprio lavoro
  3. Deve contenere poche parole. Diciamo che al massimo devono essere 10-12 parole
  4. Il titolo deve contenere il messaggio che si vuole dare col proprio lavoro
  5. Bisogna usare come prima parola un termine importante che possa colpire e che possa essere facilmente individuabile nei motori di ricerca
  6. Non bisogna usare nel titolo le parole che poi verranno indicate come key-words. Questo perché le parole contenute nel titolo vengono usate come key-words addizionali a quelle indicate a parte
  7. Bisogna evitare di usare acronimi e non bisogna mai usare cose del tipo “uno studio di…”, “Osservazioni su…”, etc etc
  8. Bisogna evitare le ridondanze
  9. Nei lavori di carattere chimico, non usare la nomenclatura IUPAC, ma il nome commerciale o di uso comune di un determinato composto chimico
  10. Nel caso di lavori divisi in più parti, evitare l’uso dei numeri romani (es. Part II) che possono essere interpretati male in campi di ricerca diversi dal proprio
  11. Verificare, prima di inviare il lavoro, che il titolo rifletta quanto scritto nell’abstract e nel resto del lavoro

    Qui sotto si riportano pochi esempi di titoli di lavori scientifici:


 

 

 

Scienza open access e riviste predatorie. Parte I. Il sistema chiuso

L’articolo che leggete è un mio contributo alla Newsletter n. 12  della Società Italiana di Scienza del Suolo. Si tratta della prima parte di un reportage sui predatory journals.

__________________________________________

Oggi la rete internet è alla portata di tutti. Basta pagare un abbonamento flat ad una qualsiasi delle innumerevoli aziende telefoniche del nostro paese per avere un accesso illimitato a siti di ogni tipo, inclusi quelli di carattere scientifico. Tuttavia, chi non fa parte di un ente (pubblico o privato) che ha accesso alle banche dati scientifiche non può scaricare e leggere lavori che non siano di tipo “open access”.

“Open access”. Sembra essere una moda. Anche la valutazione delle università passa attraverso l’esame del numero di pubblicazioni di tipo “open” dei ricercatori che in esse operano. È per questo che tante istituzioni, anche a livello trans-nazionale, invitano i ricercatori a pubblicare su riviste accessibili a tutti. Devo dire che la questione delle pubblicazioni scientifiche accessibili a tutti è un argomento spinoso.

Vediamo perché.

Nel business editoriale scientifico chiuso, gli editori sono gli unici ad attuare una politica di tipo Win1-Win2-Win3-Win4.

La situazione di Win1 si riferisce al fatto che le case editrici fanno pagare al singolo ricercatore il download di un unico articolo da pochi dollari a qualche centinaio. Tuttavia, questo accade quando l’istituzione di appartenenza non ha pagato nessun abbonamento per l’accesso alle riviste di interesse. Nel caso in cui l’istituzione abbia sottoscritto un abbonamento, il singolo dipendente non è costretto a pagare di tasca sua gli articoli che gli servono per tenersi aggiornato. Gli abbonamenti, che in genere sono per pacchetti di riviste che gli enti di ricerca non possono scegliere, costano un occhio della testa. Si parla di decine di migliaia di euro all’anno. Si badi bene: non si possono scegliere le riviste da inserire nei pacchetti. Ma soprattutto, vengono scelti i pacchetti con le riviste più famose e di copertura più ampia possibile. Questo vuol dire che chi si occupa di nicchie di ricerca ha una probabilità molto alta che le riviste che gli interessano non siano comprese nel pacchetto. Questo che sto scrivendo è valido per ogni casa editrice. Quindi considerando che nel panorama scientifico esistono case come la Elsevier, la Springer, la ACS etc., per ognuna di esse bisogna pagare un abbonamento di diverse decine di migliaia di euro. Si fa presto ad arrivare ad un budget di spesa che vola verso le centinaia di migliaia di euro all’anno. Diciamo che non è poco, considerando la crisi permanente in cui versano da anni le casse delle università e degli enti di ricerca italiani.

Ma non è finita. Le case editrici dei sistemi chiusi si trovano anche nella condizione che io definisco di Win-2. In cosa consiste?  Affinché  possa essere pubblicato, uno studio deve essere sottoposto a revisione tra pari. Gli editor-in-chief di ogni rivista chiedono ad esperti di settore di fare la revisione dei lavori. Il punto è che chiedono ai revisori un surplus di lavoro gratuito. Quindi, ognuno di noi si sobbarca l’onere di leggere e commentare nel merito gli studi dei propri colleghi a discapito del poco tempo libero che ognuno di noi ha. E questo gratuitamente. In altre parole, tutti noi prestiamo la nostra competenza professionale alle case editrici senza remunerazione. Perché lo facciamo? La scusa che abbiamo trovato è che il sistema richiede il nostro apporto. Se non lo facessimo, si pubblicherebbe di tutto. Ma mi chiedo: va bene; evitiamo che venga pubblicato di tutto facendo la revisione tra pari. Ma perché gratis? C’è qualcuno che dice che se non fosse gratis, saremmo corruttibili. E su questo avrei qualcosa da ridire considerando gli scandali che stanno venendo fuori nel mondo scientifico in merito ai plagi, alle pubblicazioni con dati inventati e ai cartelli delle citazioni. Ma, per ora, lasciamo perdere questi aspetti. Rimane la domanda: perché lo facciamo? La mia personale opinione è che lo facciamo per avere una parvenza di potere, ovvero per soddisfare il nostro ego ipertrofico che ci fa pensare che siamo i migliori e che più lavori da referare riceviamo, più siamo bravi. Posso dire che ci vuol molto poco a smontare questa convinzione. Basta fare il rapporto tra numero di riviste che nascono ogni giorno e numero di ricercatori. Gioco forza, ognuno di noi è chiamato a fare da revisore ad un certo numero di studi all’anno. Non siamo bravi. Siamo semplicemente troppo pochi rispetto alla quantità di sciocchezze che vengono inviate per la pubblicazione alle riviste scientifiche.

Arriviamo, ora, alla condizione che io definisco di  Win-3. I lavori che vengono inviati alle riviste scientifiche sono finanziati dalle stesse istituzioni che pagano l’abbonamento alle riviste. In altre parole, la mia università paga la mia ricerca attraverso l’erogazione di fondi (minimi e quando sono disponibili) e di stipendio. Io lavoro per la mia università, ma nello stesso tempo lavoro senza remunerazione, attraverso la mia opera di revisore, per le stesse case editrici alle quali invio i miei studi da pubblicare ed ai quali io stesso non posso accedere se la mia università non ha pagato un abbonamento. La cosa è un po’ contorta, se ci pensiamo bene. C’è qualcuno che stampa su carta (oggi potremmo dire pubblica on line) qualcosa che non gli appartiene perché è di proprietà del ricercatore che l’ha pensata e dell’istituzione che paga il ricercatore per pensare. Certo la stampa costa. Costa la carta, costa il personale necessario alla gestione del flusso di lavori in entrata, costa l’elettricità necessaria a sostenere l’organizzazione della casa editrice etc. etc etc. L’unica cosa che non costa è il lavoro di peer review. Ma ne ho già parlato. Sorge una riflessione: se le case editrici di tipo scientifico rientrano in un ambito imprenditoriale, perché non riescono a ricavare introiti dalla pubblicità o dalla vendita al dettaglio dei loro prodotti? In realtà, di pubblicità sulle riviste ce ne è a iosa, quello che manca è la vendita al grande pubblico. Solo alcune riviste di carattere generalista si possono trovare in edicola. Mi riferisco a Science e Nature che molto spesso trovo esposte nelle edicole degli aeroporti. Eppure sarebbe veramente utile, secondo me, vendere al grande pubblico le riviste specialistiche. Pensiamo solo allo sforzo che i più curiosi dovrebbero fare per masticare l’inglese. Si parla tanto del provincialismo degli italiani che non parlano fluentemente l’inglese, ma nessuno ha mai pensato di diffondere al grande pubblico le riviste con contenuti specialistici per incrementare lo sforzo nella lettura dell’inglese. Parliamo tanto dell’analfabetismo di ritorno che porta le persone più impensabili ad essere delle vere e proprie capre in ambito scientifico, e nessuno ha mai pensato che la vendita al dettaglio, al di fuori dei circuiti istituzionali, potrebbe aiutare le persone a ragionare meglio secondo la logica del metodo scientifico. Tutti questi accorgimenti potrebbero forse essere utili per abbassare i costi degli abbonamenti che le istituzioni sono costrette a pagare per leggere gli studi dei propri ricercatori. In ogni caso, io sono un sognatore, non mi intendo di economia e non ho idea se I sogni di cui sto parlando siano realizzabili o meno.

Veniamo ora alla chiusura del cerchio con la condizione Win4 che è un po’ la summa di quanto discusso fino ad ora.  Le case editrici vendono un prodotto che non comprano. La cosa bella è che lo rivendono, a costi maggiorati, agli stessi che gliene fanno dono. Le università pagano i ricercatori per studi che vengono donati alle case editrici. Queste ultime, a loro volta, chiedono agli stessi ricercatori una valutazione gratuita degli studi anzidetti. Infine, ricercatori ed istituzioni devono comprare il prodotto che loro stessi hanno donato. Fa girare la testa, vero?

Come risolvere il problema?

Ne discuto nel prossimo numero della Newsletter.

Note

Articolo apparso nella Newsletter n. 12 della Società Italiana di Scienza del Suolo

Fonte dell’immagine di copertina 

Questo articolo è un aggiornamento ed un approfondimento di quanto scritto qui.

Come funzionano le maschere filtranti

In questi giorni di crisi in cui siamo costretti ad essere chiusi in casa per salvaguardare la salute nostra e di chi ci è caro, ci si annoia, si legge un libro, si gioca al computer, si vede un film, si lavora (i più fortunati come me possono farlo dal computer), si cucina…si fanno, insomma, tutte quelle attività che per i nostri nonni in tempo di guerra  erano “normali”.

In questa situazione di crisi sanitaria capita di vedere di tutto. Quello che colpisce me è il gran numero di persone che fa uso di mascherine anche in situazioni in cui risultano inutili. Quanti di voi hanno visto automobilisti circolare da soli con la mascherina? E quanti sono quelli che portano a spasso il cane indossando la mascherina in zone solitarie dove è facile tenersi a distanze di sicurezza?

Al di là di ogni tipo di considerazione personale in merito all’uso delle mascherine, tutti noi siamo sicuramente venuti a conoscenza delle disposizioni delle autorità sanitarie che raccomandano l’uso delle mascherine solo a persone infette da coronavirus o a coloro che si trovano ad assistere queste persone. Per tutti gli altri le mascherine sono inutili.

Ma ci siamo mai chiesti come funziona una mascherina e perché le autorità danno certi consigli?

Io mi sono chiesto come diavolo funziona una mascherina ed è per questo che scrivo questo post: ho deciso di annoiarvi ancora più di quel che già non siete annoiati cercando di spiegarvi in cosa consiste questo oggetto che viene catalogato sui luoghi di lavoro come “dispositivo di protezione individuale” o “DPI” ed il cui uso è normato dal D.Lgs. 81/08.

Le dimensioni delle polveri sottili

In molti luoghi di lavoro il personale si trova ad operare in presenza di aerosol e polveri sottili. Queste ultime vengono in genere indicate come PMx, dove la x indica le dimensioni delle particelle espresse in μm.

Quando parliamo di aerosol e polveri sottili stiamo intendendo sistemi che, indipendentemente dalla loro composizione chimica, hanno delle dimensioni molto variabili. Se esse sono comprese tra 2 nm e 2 μm stiamo avendo a che fare con sistemi colloidali che rimangono dispersi in aria per effetto delle loro dimensioni. Grazie ad esse, infatti, la forza di gravità non è in grado di prevalere sulle forze dispersive  come, per esempio, la repulsione tra cariche elettriche oppure le interazioni con le molecole di aria. Come conseguenza, le suddette particelle rimangono disperse in aria fino a che non intervengono fattori che consentono alla forza di gravità di predominare e permettere la deposizione al suolo delle stesse.

Le dimensioni delle polveri sottili in parole povere

Per darvi una idea di cosa significhino i numeri scritti sopra, tenete presente che il nm (si legge nanometro) corrisponde ad un miliardesimo di metro, mentre il μm (si legge micrometro) corrisponde ad un milionesimo di metro. Considerando che la lunghezza di un legame chimico, come il legame C-H, è di circa 0.1 nm, ne viene che 2 nm è una dimensione che corrisponde a circa 20 volte la distanza carbonio-idrogeno, mentre 2 μm corrisponde a circa 20000 volte la stessa distanza. Questo non vi dice ancora nulla, vero? In effetti, se uno non ha studiato chimica non si rende conto di quanto sia piccolo un legame chimico. Allora guardiamo la foto di Figura 1. Si tratta di un acaro della polvere le cui dimensioni sono di circa 0.5 mm, ovvero circa 250 volte più grande di 2 μm che rappresenta il limite superiore dell’intervallo dimensionale in cui ricadono le particelle colloidali. La foto di Figura 1 è stata ottenuta al microscopio elettronico. In altre parole, gli acari della polvere non sono visibili ad occhio nudo. Potete, ora, facilmente immaginare che neanche le particelle colloidali lo siano.

Figura 1. Immagine di un acaro della polvere (Fonte)

Mi potreste dire: “ma cosa dici? Non è vero. Io posso vedere le particelle di smog” (queste nell’immaginario comune sono intese come polveri sottili). Mi dispiace informarvi che le particelle che voi vedete a occhio nudo hanno dimensioni molto più elevate di quelle comprese nell’intervallo 2 nm-2 μm (diciamo almeno più di 1000 volte più grandi), mentre le particelle le cui dimensioni ricadono nell’intervallo anzidetto non le potete vedere se non con la microscopia elettronica. Quando le particelle sono così piccole, l’unico effetto visibile è quello che va sotto il nome di “Effetto Tyndall”. In pratica, la luce che “incontra” le particelle colloidali viene dispersa in tutte le direzioni (Figura 2) con la conseguenza che una soluzione appare opaca o l’aria appare “nebulosa”.

Figura 2. Rappresentazione schematica dell’Effetto Tyndall
Ma cosa c’entra questo con le maschere filtranti?

Come vi dicevo, in molti posti di lavoro, il personale entra in contatto con le polveri sottili. Queste sono pericolosissime per noi dal momento che possono innescare tante patologie, prime tra tutte quelle di tipo respiratorio. I datori di lavoro, quindi, sono obbligati a fornire ai propri dipendenti i dispositivi di protezione individuale tra cui le mascherine. Queste sono in grado di filtrare le polveri sottili che sono presenti nell’aria e di impedire che esse vengano inalate. Esistono almeno tre tipologie di maschere filtranti che vengono indicate con le sigle FFP1, FFP2 e FFP3. La sigla “FFP” sta per “Face Filtering Piece” mentre i numeri da 1 a 3 indicano l’efficacia del filtraggio. In particolare, le maschere FFP1 proteggono da polveri atossiche e non fibrogene la cui inalazione non causa lo sviluppo di malattie, ma può, comunque, irritare le vie respiratorie e rappresentare un inquinamento da cattivi odori. Le maschere FFP2 proteggono da polveri, fumo e aerosol solidi e liquidi dannosi per la salute. In questo caso le maschere intercettano anche particelle fibrogene, ovvero sistemi che, a breve termine, causano irritazione delle vie respiratorie, mentre a lungo termine comportano una riduzione dell’elasticità del tessuto polmonare. Le maschere FFP3 proteggono da polveri, fumo e aerosol solidi e liquidi tossici e dannosi per la salute. Queste maschere sono in grado di proteggere da sostanze nocive cancerogene e radioattive.

La protezione assicurata da queste maschere è di tipo fisico. Più spesso è lo strato di materiale filtrante, più efficace è la protezione. Le maschere di tipo FFP1 consentono di “intercettare” particelle più grandi di 5 μm; le maschere FFP2 consentono di “intercettare” particelle di dimensioni maggiori di 2 μm; le maschere di tipo FFP3 sono capaci di “intercettare” particelle di dimensioni  maggiori di 0.6 μm, ovvero particelle di dimensioni circa 1000 volte più piccole dell’acaro in Figura 1. Tuttavia, le particelle colloidali le cui dimensioni sono comprese tra 0.2 nm e 0.6 μm possono ancora arrivare ai nostri polmoni e causare danni.

E virus e batteri?

Come avrete capito, è tutta questione di dimensioni. In genere i batteri hanno dimensioni pari a circa 0.45 μm, mentre i virus dimensioni comprese nell’intervallo 0.020-0.300 μm. Questo significa che nessuna delle mascherine di cui si è discusso finora sarebbe in grado di trattenere sistemi aventi le predette dimensioni. Tuttavia, se virus e batteri “viaggiano” attaccati a particelle colloidali le cui dimensioni sono almeno superiori a 0.6 μm, allora essi possono essere bloccati dalle maschere filtranti di tipo FFP3. In effetti, le case produttrici di mascherine riportano che le maschere di tipo FFP3 vanno bene per proteggere da esposizione a legionella (un batterio largo tra 0.3 e 0.9 μm e lungo tra 1.5 e 5 μm) e virus quali quelli dell’influenza aviaria, dell’influenza A/H1N1, SARS, e tubercolosi. Bisogna comunque tener presente che lo strato filtrante della mascherina tende ad esaurirsi. La maschera perde la sua efficacia e va sostituita. Cosa vuol dire questo? Che le mascherine FFP sono monouso. Se le si usa in città, magari durante una passeggiata, non vi state difendendo da virus e batteri, ma semplicemente dal particolato sospeso dovuto alla contaminazione ambientale.  Quando tornate a casa dovete buttare via la mascherina e sostituirla con un’altra. Se la usate per difendervi da virus e batteri è perché non state facendo una passeggiata in mezzo ai gas di scarico, ma siete operatori sanitari che devono entrare in contatto con le gocce di saliva di pazienti infetti. La maschera, grazie alla sua azione filtrante, impedisce che questi mezzi veicolanti di patogeni finiscano nel nostro organismo. Dopo l’uso, la maschera va comunque buttata via e sostituita.

E le maschere chirurgiche?

Queste non hanno nulla a che vedere con le maschere di tipo FFP. Mentre queste ultime proteggono dall’inalare sistemi tossici, le maschere chirurgiche hanno il compito di impedire che i chirurghi possano contaminare le ferite dei pazienti durante gli interventi chirurgici. Quindi, le maschere chirurgiche servono per difendere il paziente, non il medico.

Mascherina sì, mascherina no?

Alla luce di tutto quanto scritto, ne viene che è meglio tenersi lontani dalle mascherine fai da te: no carta da forno, no assorbenti, no altre robe raffazzonate. Non servono a nulla. L’unico modo per proteggersi da virus e batteri è seguire le istruzioni di chi ne capisce di più, ovvero dell’Istituto Superiore di Sanità.

Altre letture e riferimenti

Se volete conoscere la fonte delle dimensioni dei pori delle maschere filtranti, cliccate qui: https://www.uvex-safety.it/it/know-how/norme-e-direttive/respiratori-filtranti/significato-delle-classi-di-protezione-ffp/ e qui: http://www.antinfortunisticaroberti.it/news-dett.php?id_news=133 

Se volete avere notizie aggiuntive in merito alle caratteristiche delle maschere filtranti, cliccate qui: https://www.lubiservice.it/blog/mascherine-ffp1-ffp2-e-ffp3-differenze-e-consigli

Se volete sapere quali sono i meccanismi di funzionamento di una maschera filtrante, potete accedere a questa interessante serie di diapositive: http://www.ausl.fe.it/azienda/dipartimenti/sanita-pubblica/servizio-prevenzione-sicurezza-ambienti-di-lavoro/materiale-informativo/corso-utilizzo-dpi-per-operatori-dsp-ottobre-2016/faccaili-filtranti-uso-corretto

Se volete conoscere la fonte da cui è presa l’informazione in merito al filtraggio di alcuni  batteri e virus, cliccate qui: https://www.seton.it/dpi-protezione-respiratoria.html

Se volete conoscere la fonte delle dimensioni dei virus, cliccate qui: https://www.chimica-online.it/biologia/virus.htm

Se volete conoscere la fonte delle dimensione del batterio della legionellosi, cliccate qui: http://www.unpisi.it/docs/PUBBLICAZIONI/ARTICOLI/bonucci%20badii%20legionella.pdf

Se volete sapere di più sull’utilità dei DPI, cliccate qui: https://medicalxpress.com/news/2020-03-masks-gloves-dont-coronavirus-experts.html

Fonte dell’immagine di copertina

Ringraziamenti.

Grazie a Paolo Alemanni e Francesca Santagata per avermi aggiornato sulle norme relative alla sicurezza sul lavoro

 

Pillole di scienza. Alla ricerca degli elettroni di Dirac

Cosa è un elettrone di Dirac?

Si tratta di un elettrone che è descritto dall’equazione di Dirac (Figura 1).

Figura 1. Equazione di Dirac

Semplice vero? Certo come no! Questa è la classica spiegazione a ciambella, ovvero un giro di parole che non spiega nulla se non si è un addetto ai lavori.

Cerchiamo di capire cos’è e perché è importante l’equazione di Dirac.

Ormai è noto a tutti che l’inizio del XX secolo è stato molto prolifico in termini scientifici. È nata, infatti, la meccanica quantistica (MQ) grazie alla quale oggi tutti hanno sentito parlare almeno una volta nella vita dell’equazione di Schoeredinger che, tra le tante cose, permette di descrivere il comportamento degli elettroni.

Una delle cose che viene insegnata a livello semplicistico a tutti gli studenti dei primi anni di corsi di studio scientifici è che l’equazione di Schoeredinger permette di definire gli orbitali come quella zona di spazio in cui esiste una buona probabilità di trovare gli elettroni. Come ho già scritto, questa è una supersemplificazione. Tuttavia fatemela passare per buona perché qui non si sta facendo una lezione di meccanica quantistica, bensì si cerca di fare un po’ di divulgazione per avvicinare concetti complessi a chi non è del settore.

Negli stessi anni in cui nasceva e si sviluppava la MQ, nasceva e si sviluppava anche la teoria della relatività ristretta (RR) di Albert Einstein. Questa si basa sostanzialmente su due postulati. Il primo postulato stabilisce che le leggi della fisica sono le stesse in tutti i sistemi di riferimento inerziali, il secondo afferma che la luce si propaga nel vuoto ad una velocità ben definita pari a 2.99 x 108 m s-1.

”Bene. Bravo. Ed ora? Dove vuoi arrivare mettendo assieme MQ e RR?” vi starete chiedendo.

Abbiate un attimo di pazienza, per favore. Lasciatemi ancora poche parole per arrivare al punto.

Meccanica quantistica e relatività ristretta sono due facce della stessa medaglia.

Fin da quando le due teorie, della MQ e della RR, si sono affermate, gli studiosi hanno cercato di unificarle. Tuttavia, tra le tante difficoltà che essi hanno incontrato, una particolarmente “ostica” è stata quella relativa alla asimmetria tra spazio e tempo della teoria di Schoeredinger che mal si conciliava con la simmetria spazio-temporale di Einstein. In altre parole, mentre Schoeredinger trattava spazio e tempo come se fossero due cose distinte e separate, Einstein considerava le dimensioni spaziali alla stessa stregua della dimensione temporale (prego i miei amici fisici di non essere troppo severi con me se sto semplificando troppo. Anzi, vi invito a correggermi se ritenete che io stia andando fuori dal seminato).

Solo Dirac, grazie alla sua genialità, riuscì a risolvere il problema elaborando una equazione (quella dell’immagine di Figura 1) con la quale riuscì a trattare le particelle quantistiche (quindi anche gli elettroni) nel regime relativistico.

Ma allora, a cosa serve sapere cosa sono gli elettroni di Dirac?

L’equazione di Dirac descrive molto bene il comportamento degli elettroni nei semiconduttori ed in sistemi quali il grafene. Per associazione, anche se studi del genere non sono stati ancora condotti, l’equazione di Dirac dovrebbe descrivere bene anche il comportamento di sistemi simil-grafene quali il biochar. Tuttavia, bisogna aggiungere che il numero di tecniche analitiche capaci di confermare sperimentalmente il comportamento degli elettroni secondo Dirac si può contare sulla punta delle dita di una sola mano. Si tratta di tecniche che sono “maneggiate” con una certa familiarità dai fisici, ma che per un chimico sono alquanto “ostiche”.

La risonanza magnetica nucleare (NMR) e gli elettroni di Dirac.

È di pochi giorni fa la notizia che su Nature Communication è apparso uno studio attraverso cui, per la prima volta, sono stati osservati mediante NMR (una tecnica molto amata dai chimici, incluso me che faccio l’NMR-ista sin dal 1992) gli effetti che gli stati elettronici di Dirac (ovvero quelli descritti dall’equazione di Figura 1) hanno sul comportamento dei nuclei di una lega metallica fatta da Bismuto e Tellurio (Bi2Te3) che viene utilizzata come isolante.
Se avete voglia di leggere l’articolo originale basta cliccare sull’immagine qui sotto.

Figura 2. Immagine tratta dall’articolo di Nature Communications.
Ed allora?

Bella domanda. Intanto si aggiunge una nuova tecnica a quelle già usate per lo studio del comportamento degli elettroni e la verifica sperimentale dell’equazione di Dirac. Inoltre, si aprono nuovi scenari per la progettazione di nuovi materiali con proprietà sempre più sofisticate da poter utilizzare nei campi più disparati come la ricerca spaziale o quella medica.

Per approfondire

What the heck is a Dirac electron?

Dirac electrons

The metal-insulator transition depends on the mass of Dirac electrons

Relatività ristretta

Giorgio Chinnici, Assoluto e relativo, Hoepli ed. 

Giorgio Chinnici, La stella danzante, Hoepli ed. 

Fonte dell’immagine di copertina

 

 

 

 

 

Perché i termini “scienza” e “biodinamica” nella stessa frase sono un ossimoro

Ogni tanto ritorno alla carica con l’agricoltura biodinamica. Ne ho parlato a varie riprese qui, qui, qui, qui, e qui. Mi chiederete voi: ma allora perché parlarne ancora una volta? Semplicemente perché ancora una volta delle Istituzioni pubbliche come un Ministero della Repubblica, una Università pubblica, una Regione ed un Comune hanno concesso il patrocinio per un convegno sulla biodinamica che si terrà a Firenze dal 26 al 29 Febbraio (qui).

Cosa vuol dire patrocinio?

Dalla Treccani on line possiamo leggere che il patrocinio è un “sostegno da parte di un’istituzione“. E quando si concede un sostegno? Quando si condividono i contenuti di una certa attività. Non c’è molto da aggiungere. Se io, Ministro o Rettore o Sindaco o altro rappresentante Istituzionale concedo un patrocinio è perché sono convinto della validità di certe attività e voglio legare la mia Istituzione alle predette attività. Cosa pensare, quindi? È possibile che un Ministero, una Università, una Regione e un Comune, attraverso la concessione del patrocinio, condividano i contenuti del convegno e, più in generale, approvino l’esoterismo alla base dell’agricoltura biodinamica? Secondo me no. Probabilmente, la concessione del patrocinio è avvenuta automaticamente senza che qualcuno si sia veramente reso conto di ciò che concedere il patrocinio ad un convegno del genere avrebbe potuto significare.

Ma non è finita. Al convegno prendono parte anche docenti universitari. Perché lo fanno? Probabilmente sono seguaci di Steiner oppure, più  probabilmente, hanno una falsa idea del significato di libertà di ricerca e di scienza (ne ho parlato qui). Perché falsa? Faccio un esempio banale: non c’è bisogno di chiedere se chi mi legge conosce la differenza tra astronomia ed astrologia. La prima è una scienza, la seconda una favoletta sulla quale si basa la formulazione degli oroscopi. Si tratta della medesima differenza che esiste tra l’agricoltura attuale, basata sull’uso della scienza e delle tecnologie moderne, e la biodinamica, basata sulle idee di una specie di filosofo vissuto agli inizi del ‘900 e, praticamente, sempre uguale a se stessa.

Invocare libertà di scienza e ricerca pretendendo di dare pari dignità scientifica all’agricoltura moderna ed alla biodinamica è lo stesso che attribuire scientificità all’astrologia.

E’ mia opinione che gli accademici che con la loro attività sdoganano la biodinamica come pratica scientifica non facciano un buon servizio alla Scienza. Ovviamente ognuno è libero di fare ciò che vuole della propria dignità scientifica ed ognuno è libero di fare ricerca su qualsiasi cosa sia di proprio gradimento. Ciò che è importante è che non vengano impegnate risorse pubbliche per attività di ricerca che si fondano sull’esoterismo.

Come componente della Rete Informale Scienza e Tecnologie per l’Agricoltura (SETA), sono anche io tra i firmatari della lettera aperta che potete leggere qui sotto cliccando sulle immagini. In questa sede spieghiamo nei dettagli perché l’agricoltura biodinamica non può essere considerata scienza. Le nostre argomentazioni si basano esclusivamente sulla lettura dei disciplinari che devono seguire tutti coloro che vogliono usare il termine “biodinamica” sull’etichetta dei loro prodotti.

Buona lettura.

Fonte dell’immagine di copertina

Davide contro Golia

Davide contro Golia. Vi ricordate dell’Associazione per l’Agricoltura Biodinamica? Ne ho parlato qualche tempo fa quando ho evidenziato quali fossero le competenze di chi gestisce in Italia una delle più grandi aziende sull’agricoltura che segue i dettami esoterici di quel buontempone di Rudolf Steiner. L’articolo a cui faccio riferimento lo trovate qui sotto.

Agricoltura biodinamica – fatti, misfatti e contraddizioni. Parte I: Competenze

Devo dire che ultimamente la Rete Informale SeTA di cui faccio parte deve fare tanta paura al Dott. Triarico, presidente e responsabile dell’associazione anzidetta, dal momento che ci attacca ogni quando può. Sembra quasi di trovarsi di fronte a qualcuno che cerca in tutti i modi di attaccare briga per litigare. Noi abbiamo dalla nostra la Scienza, quella con la maiuscola, che ci consente di agire in scienza e coscienza.

Vi chiederete adesso perché questo articolo si intitola Davide contro Golia. Ebbene lo potete leggere nella lettera qui sotto. Buona lettura

Fonte dell’immagine di copertina

Pillole di scienza: le meraviglie dell’aromaticità

Chiedo scusa ai miei lettori, ma questa pillola di scienza oggi è dedicata ai miei studenti ed a tutti quelli che hanno studiato la chimica organica. Per questo motivo userò un linguaggio poco divulgativo ed abbastanza tecnico.

Il linguaggio comune ed il linguaggio scientifico: usi ed abusi

Il termine “aromatico” viene attribuito, nel linguaggio comune, a un oggetto che emana un buon odore. Si tratta quindi di una qualità che viene associata a qualcosa di “buono”. Quante volte abbiamo sentito, o noi stessi abbiamo detto, “senti che buon aroma di caffè” oppure “hmmmm che buon profumo ha questa zuppa” laddove il termine “profumo” è sinonimo di “aroma”.

Ebbene, noi chimici, a causa delle limitazioni del nostro linguaggio, siamo abituati a prendere i termini comuni ed a cambiar loro di significato per attribuirne uno di carattere molto più tecnico. Ecco perché mi salta subito la mosca al naso quando sento le persone parlare di chimica o, più in generale, di scienza usando termini tecnici di cui, però, non conoscono il significato. Queste persone pensano che usare parole prese dal linguaggio scientifico e messe in fila in modo casuale dia un’àura di scientificità alle cose che dicono. Solo per citare pochi esempi mi vengono in mente quelli che esaltano la biodinamica scrivendo “robe” come quelle che vedete nell’immagine qui sotto. Cliccando sull’immagine si apre la pagina dalla quale ho fatto lo screenshot.

Che dire poi di quelli che si sono votati all’omeopatia, pratica esoterica di cui parlo abbondantemente in uno dei capitoli del mio libro “Frammenti di Chimica“? Ne ho già parlato tante volte. Alcune delle chicche sono analizzate nel link qui sotto:

Omeopatia, ultima frontiera

Cosa significa aromatico in chimica

Lasciamo da parte le polemiche e concentriamoci sul significato dell’aggettivo “aromatico” nel linguaggio chimico. Se cerchiamo sulla Treccani online, possiamo leggere:

aromàtico agg. [dal lat. tardo aromatĭcus, gr. ἀρωματικός] (pl. m. –ci). – […] In chimica organica, composti a. (così denominati perché vi appartengono molte sostanze aromatiche), serie di composti ciclici nella cui molecola sono contenuti uno o più sistemi a sei atomi di carbonio disposti ad anello (distinti in omociclici e eterociclici a seconda che ai vertici dell’anello si trovino tutti atomi di carbonio o anche altri atomi)

Questo è il classico esempio di informazione così generale da perdere completamente di significato in termini chimici. Infatti esistono tanti composti omociclici ed eterociclici che non hanno assolutamente la caratteristica di essere aromatici. E non necessariamente devono essere presenti sistemi ciclici a sei atomi di carbonio.

La regola di Hückel

Da un punto di vista chimico un sistema organico si dice aromatico quando:

  1. contiene 4n+2 elettroni π (con n intero e  ≥ 0)
  2. è ciclico e planare

In tutti gli altri casi il sistema si dice antiaromatico. I sistemi aromatici hanno come peculiarità la bassa reattività, ovvero elevata stabilità chimica.

Vediamo alcuni esempi di composti aromatici ed antiaromatici

Il benzene è un sistema ciclico con la struttura descritta nella figura seguente:

La posizione dei doppi legami cambia e le due strutture, del tutto equivalenti, sono indicate come ibridi di risonanza. Nel sistema π del benzene sono presenti 6 elettroni, ovvero rispetta la regola del 4n+2 per n=1. Qui sotto viene evidenziato come l’ibridazione (sp2) degli atomi di carbonio consenta alla molecola di avere una struttura planare.

Entrambe le condizioni della regola di Hückel sono rispettate ed il benzene può essere considerato un composto aromatico.

Prendiamo adesso in considerazione il [10]annulene qui sotto:

C’è un anello, ci sono 10 elettroni π. Il numero di elettroni nel sistema π segue la regola di Hückel del 4n+2 per n=2. Tuttavia il composto non è aromatico perché non ha una struttura planare:

(Fonte)

La non planarità è dovuta al fatto che gli atomi di idrogeno indicati nella figura sottostante si respingono per effetto sterico portando la molecola ad avere una struttura a twist.

(Fonte)

 

Lo ione tropilio

Quando si studia la chimica organica e si arriva al capitolo sull’aromaticità, ci si imbatte anche nello ione tropilio (o catione cicloeptatrienile) che viene, in genere, indicato come lo ione più grande avente caratteristiche aromatiche. Esso si ottiene per allontanamento dello ione idruro dal cicloeptatriene. Quest’ultimo, pur avendo 6 elettroni π (n=1 nella regola di Hückel), non è aromatico a causa di un carbonio sp3 che lo rende non planare. Quando lo ione idruro viene allontanato, tutti gli atomi di carbonio risultano di tipo sp2, il sistema diventa planare, il numero di elettroni è quello previsto dalla regola di Hückel e lo ione è aromatico.

I sistemi aromatici “giganti”

La regola di Hückel è un utile strumento per comprendere cosa significhi il termine “aromatico” in chimica . Questa regola è di applicabilità generale e può essere validata sperimentalmente attraverso l’uso della spettroscopia di risonanza magnetica nucleare (NMR). Infatti, gli elettroni del sistema π di un composto aromatico generano una corrente di anello (ring current) responsabile di un campo magnetico locale che si addiziona o si sottrae al campo magnetico applicato durante l’esperimento NMR. La variazione del campo magnetico dovuta alla corrente di anello comporta  uno shift dei segnali dei nuclei soggetti a tale fenomeno. Per un approfondimento di carattere didattico cliccare qui.

(Fonte)

La spettroscopia di risonanza magnetica nucleare è la tecnica usata per sfatare un mito in base al quale più grande è la molecola contenente 4n+2 elettroni π e più facilmente essa è in grado di deformarsi così da allontanarsi dalle condizioni strutturali che soddisfano la regola di Hückel.

Nel 2016 è stato pubblicato un lavoro (qui) in cui viene descritta una molecola aromatica contenente fino a 62 elettroni π (ovvero n=15 nella regola del 4n+2):

Come mai una molecola così grande, la più grande sintetizzata fino al 2016, si comporta come un sistema aromatico rispettando la regola di Hückel? Gli autori dell’articolo ipotizzano che l’enorme flessibilità della molecola consenta la coesistenza di tanti conformeri. Tra questi possono sussistere dei conformeri in cui le nuvole elettroniche di tipo π interagiscano tra loro in modo da portare ad una delocalizzazione elettronica in grado di soddisfare la regola di Hückel. Questa stessa spiegazione è stata usata per giustificare il comportamento aromatico di una molecola sintetizzata più recentemente (il lavoro è stato pubblicato il 20 Gennaio 2020, qui) contenente ben 162 elettroni π (ovvero n=40 nella regola del 4n+2). Si tratta di una vera e propria ruota gigantesca in cui coesistono 12 anelli porfirinici.

(Fonte)
Conclusioni

A questo punto mi potreste chiedere: ok. Bella tutta ‘sta storia, ma a che serve? Voglio evidenziare che la sintesi di molecole così grandi consente di mettere a punto protocolli che possono essere usati per la sintesi di molecole diverse e con attività biochimiche da sfruttare per l’elaborazione di nuovi farmaci. Per poter “vedere” queste molecole è necessario spingersi ai limiti delle tecniche analitiche più utilizzate in chimica. Questo vuol dire che vengono migliorate le caratteristiche di tecniche che possono diventare di applicazione sempre più ampia e consentire di arrivare a limiti finora inesplorati. Infine, queste molecole aromatiche giganti possono essere utilizzate per studiare gli effetti quantistici a livello nanoscopico ben oltre i limiti imposti dalle dimensioni della costante di Planck.

Quando leggo queste notizie, che per me sono affascinanti perché mi consentono di immergermi in un mondo tutto mio, mi ricordo perché mi sono innamorato della chimica ed ho fatto del mio hobby il mio lavoro.

Letture consigliate

Even Huge Molecules Follow the Quantum World’s Bizarre Rules

Quantum superposition of molecules beyond 25 kDa

Porphyrin wheel sets record as largest aromatic ring

[62]Tetradecaphyrin and Its Mono- and Bis-ZnII Complexes

Global aromaticity at the nanoscale

Fonte dell’immagine di copertina

Share