Pensieri in libertà su suolo, agricoltura e altre facezie

Mi scuseranno i miei lettori se pubblico un articolo un po’ noioso. Gli argomenti di cui tratto qui sono un riassunto delle ultime paio di lezioni del mio corso di Chimica dei suoli forestali. Approfitto del mio blog come fonte di dispense di studio.

Cosa è un suolo

Il suolo è un sistema complesso che per definizione è la risultante delle interazioni tra idrosfera, litosfera, atmosfera e biosfera. Questa definizione di carattere generale implica che il suolo non è soltanto composto da sistemi inorganici (tra cui i minerali argillosi giocano un ruolo fondamentale), ma anche da una componente aerea (l’aria tellurica), una componente liquida (la cosiddetta soluzione circolante) ed infine una componente organica che comprende anche gli esseri viventi che, morfologicamente parlando, vanno da una scala micro ad una scala macro.

L’impoverimento del suolo

La produzione alimentare e quella dei tessuti si basa proprio sulla complessa interazione tra le componenti anzidette. Questo vuol dire che quando una pianta viene raccolta per produrre cibo o fibre tessili, il suolo si impoverisce sia delle componenti inorganiche che di quelle organiche utilizzate dalla pianta per passare dallo stadio di seme a quello adulto.

Il depauperamento del suolo, per effetto della riduzione del contenuto di componenti inorganiche facilmente disponibili per le piante e del contenuto di sostanza organica,  implica una riduzione della fertilità intesa come capacità di sostenere la vita. La riduzione della fertilità comporta anche la riduzione della produttività agricola con conseguenze negative sia di tipo economico che di tipo alimentare. In altre parole, a parità di superficie coltivata si riduce la quantità di alimenti e fibre tessili disponibile per soddisfare il fabbisogno di una popolazione in costante crescita.

Quando negli anni del boom economico l’industria chimica scoprì che l’uso di sali inorganici facilmente solubili nella soluzione circolante consentiva il miglioramento della produzione agricola, si pensò di aver trovato la panacea di ogni male. In parole povere, si pensò che l’uso massivo di concimazioni inorganiche potesse consentire guadagni progressivamente crescenti sia in termini economici che in termini di produzione alimentare (necessaria a soddisfare la crescente domanda di cibo da parte della popolazione mondiale) su superfici di suolo sempre più piccole.

Fu dimenticato il ruolo fondamentale ricoperto dalla sostanza organica, sensu lato, nel migliorare le qualità del suolo quali pH, tessitura, struttura, porosità e capacità assorbenti tra cui la ben nota capacità di scambio ionico. L’impoverimento del suolo si associava a fenomeni erosivi che sfociavano in quella che oggi è nota come desertificazione (Fonte). La conseguenza di tutto ciò fu la progressiva contaminazione ambientale.

L’agricoltura sostenibile

Quando ci si rese conto del ruolo che tutte le componenti del suolo, nessuna esclusa, avevano nello sviluppo della cosiddetta fertilità, si cominciarono a mettere in atto tutte quelle pratiche che nel 1992, nella conferenza mondiale sull’ambiente tenutasi a Rio de Janeiro, furono codificate con l’aggettivo “sostenibile” (qui la Dichiarazione di Rio sull’Ambiente e lo Sviluppo). La sostenibilità agricola consiste, quindi, nella possibilità di usare il suolo per la produzione alimentare e tessile mentre si preservano tutte quelle caratteristiche che sono necessarie alla conservazione della fertilità per le generazioni future.

Attualmente le pratiche agricole sostenibili sono confluite in quella che si chiama agricoltura integrata. Questa tipologia di agricoltura fa largo uso di tutto il sapere scientifico e tecnologico che è in continuo divenire. Per esempio, nella pratica viti-vinicola, e non solo, si fa uso dei droni e delle osservazioni satellitari che consentono interventi mirati, direi di tipo chirurgico, con notevole riduzione dell’impatto ambientale (Fonte).

Lo sviluppo scientifico e tecnologico ha portato anche all’ottenimento di piante resistenti a molte patologie prima estremamente impattanti. Mi riferisco alla tanto demonizzata tecnologia degli organismi geneticamente modificati che consente non solo la riduzione quantitativa degli agrofarmaci potenzialmente tossici per gli esseri viventi, essere umano incluso, ma anche l’ottenimento di cibo arricchito di nutrienti essenziali per la lotta alle conseguenze fisiche della povertà alimentare (mi riferisco, per esempio, al tanto demonizzato Golden rise®). Sugli OGM ho scritto già un articolo qualche tempo fa:

Gli OGM per le biodiversità

Sulla terminologia scientifica e sull’uguaglianza naturale=buono

Da scienziati dobbiamo avere la sensibilità di usare i termini nel modo giusto e secondo le accezioni che vengono date in ambito scientifico. Se per primi noi stessi non facciamo questo esercizio, non possiamo, poi, pretendere che le persone che non hanno la medesima formazione culturale utilizzino le parole per il significato che esse hanno realmente.

Mi riferisco, in modo particolare, alle locuzioni “prodotti chimici”, “concimazione chimica”, “fertilizzanti chimici”, etc. che vengono riproposte ogni qual volta si parla di agricoltura.

L’aggettivo “chimico” è ridondante quando è associato a termini come “prodotti”, “concimazione” e “fertilizzanti”. La predetta ridondanza, che rientra, purtroppo, nel linguaggio comune, dà adito alla dilagante chemofobia secondo la quale tutto ciò che è chimico è “cattivo”, tutto ciò che è naturale è buono. Come ho scritto nel mio libro “Frammenti di Chimica”, l’uguaglianza naturale=buono non tiene conto del fatto che i veleni più devastanti sono proprio di origine naturale. Alcuni esempi sono le piretrine – insetticidi ed antiparassitari – presenti in alcune specie di crisantemi (Fonte),  il curaro – dall’attività neurotossica – fatto da principi attivi prevalentemente di origine vegetale (Fonte),  le bufotossine prodotte da certe specie di rospi (Fonte) e potrei continuare. Le succitate sostanze, però, se usate nelle dosi opportune hanno attività farmacologica consentendo di curare alcune patologie anche mortali per l’essere umano.

Come per l’uguaglianza naturale=buono, il medesimo discorso si applica a quella chimico=cattivo, dove per “chimico”, nell’accezione “popolana”, si intende la chimica di sintesi, quella, cioè, deputata alla sintesi di composti aventi proprietà chimico-fisiche-biologiche di interesse per tutti gli esseri viventi. Alcuni esempi? La nitroglicerina è il composto di sintesi usato per fabbricare la dinamite (Fonte). Si tratta di un potente esplosivo che diede inizio all’industria degli esplosivi usati ancora oggi in tante battaglie e guerre. Ebbene, l’attività esplosiva di questa molecola è dovuta alla presenza di tre gruppi nitro (-NO3) che conferiscono una certa instabilità chimica al prodotto. Quando la molecola è sottoposta a forte agitazione o a variazioni termiche dà luogo a una reazione che può essere descritta dalla seguente equazione:

3C3H5N3O9  → 12CO2 + 6N2 + O2 + 10H2O + ΔH (-1.5 MJ mol-1)

Si sviluppano gas e una quantità enorme di energia termica che sono responsabili della deflagrazione quando la molecola è inserita in un contenitore chiuso.

Quando la nitroglicerina viene assunta per via orale – in concentrazioni farmacologiche, il processo di degradazione segue altre vie dando luogo alla formazione di monossido di azoto (NO) che è un potente vasodilatatore. Si tratta del vasodilatatore che è in grado di rimediare ai dolori dell’angina pectoris (Fonte). Altri esempi di prodotti di sintesi che vengono usati nella comune pratica medica sono l’insulina – prodotta in laboratorio grazie all’azione di microrganismi geneticamente modificati, l’aspirina – che si ottiene per acetilazione dell’acido salicilico, l’ibuprofene – che si può ottenere sia mediante il processo Hoechts che il processo Boot, etc. etc.

Da questi pochi esempi si capisce come non tutto quello che è naturale faccia bene alla salute e non tutto ciò che è prodotto in laboratorio sia nocivo. In definitiva le uguaglianze naturale=buono e chimico=cattivo sono solo delle trovate pubblicitarie per super-semplificare problemi complessi a persone che non sono abituate al ragionamento controintuitivo (io le chiamo “menti semplici”).

Sul consumo dei suoli

Fatta questa osservazione che mi consente di dire di essere in costante disaccordo con chiunque usi in modo ridondante o sbagliato termini che appartengono alla disciplina chimica, bisogna avere dati alla mano per capire come venga praticata l’agricoltura nei diversi territori del nostro Paese e di come il suolo venga sfruttato. I dati ci sono forniti dall’ISPRA (Fonte).

 

Regione Suolo consumato 2020 [%] Suolo consumato 2020 [ettari] Incremento 2019-2020 [consumo di suolo annuale netto in ettari]
Lombardia 12.1 288504 765
Veneto 11.9 217744 682
Campania 10.4 141343 211
Emilia-Romagna 8.9 200404 425
Puglia 8.1 157718 493
Lazio 8.1 139508 431
Friuli-Venezia Giulia 8.0 63267 65
Liguria 7.2 39260 33
Marche 6.9 64887 145
Piemonte 6.7 169393 439
Sicilia 6.5 166920 400
Toscana 6.2 141722 214
Umbria 5.3 44427 48
Calabria 5.0 76116 86
Abruzzo 5.0 53768 247
Molise 3.9 17317 64
Sardegna 3.3 79545 251
Basilicata 3.2 31600 83
Trentino-Alto Adige 3.1 42772 76
Valle d’Aosta 2.1 6993 14
Italia 7.1 2143209 5175

Fonte della tabella

Dalla tabella si evince come le diverse regioni Italiane si comportino diversamente nei confronti della risorsa non rinnovabile “suolo”. Le Regioni meno virtuose nel 2020 sono state Lombardia, Veneto e Campania con un consumo di suolo maggiore del 10%. Questo numero significa che fatta 100 la superficie delle regioni, nel 2020 le tre Regioni hanno perduto più del 10% della loro superficie rispetto all’anno precedente. Perdere una superficie vuol dire che essa viene sottratta alla produzione alimentare e delle fibre tessili per esigenze di tipo insediativo (Fonte).

Sugli effetti del consumo di suolo sull’attività agricola e l’uso dei fitofarmaci

Usando la logica comune ne viene che se una parte della superficie di un Paese viene sottratta alla produzione alimentare, ciò che ne rimane deve subire uno stress maggiore per soddisfare le esigenze nutritive di una popolazione in costante aumento. Come conseguenza, sembrerebbe chiara la veridicità del sentire comune secondo il quale la pratica agricola fa sempre più largo uso di fitofarmaci contribuendo alla progressiva contaminazione ambientale.

Ancora una volta bisogna ribadire che affermazioni straordinarie richiedono prove straordinarie. Le nostre prove vengono sempre dall’ISPRA e, in particolare, dall’ultimo rapporto pubblicato nel 2019 e relativo alla “Distribuzione per uso agricolo dei prodotti fitosanitari (erbicidi, fungicidi, insetticidi, acaricidi e vari)”. In tale rapporto si riporta chiaramente che:

Nel 2016 sono stati immessi in commercio circa 124 mila t di prodotti fitosanitari (p.f.), con una diminuzione dell’ 8,8% rispetto al 2015 (Tabella 1). Di questi il 49,2% è costituito da fungicidi, il 17,6% da insetticidi e acaricidi, il 18,2 % da erbicidi e il 15% dai vari. Per quanto riguarda il contenuto in principi attivi (p.a.) si registra un calo complessivo del 4,8 %, pari a 3.063 t. Il 60,6% del totale di p.a. è costituito dai fungicidi, seguono, nell’ordine, i vari (16,7%), gli erbicidi (12,4%), gli insetticidi e gli acaricidi (9,6%) e i biologici (0,7%). Nel periodo 2006–2016, la distribuzione dei p.f. presenta una contrazione del 16,7% (24.884 t). Cala il quantitativo di tutte le categorie: fungicidi (-19,6%), insetticidi e acaricidi (-19,2%), erbicidi (- 14,7%) e dei vari (-3%). Anche nel 2016, in linea con le due annate precedenti, i consumi di p.a. biologici aumentano (+15,5 % rispetto al 2015), confermando un’inversione di tendenza. La distribuzione delle trappole, anch’essa associata a criteri di difesa innovativi e a minor impatto sull’ambiente, subisce un crollo passando da poco più di 583 mila a poco più di 191 mila unità. Considerando anche le classi di tossicità previste prima della definitiva entrata in vigore del nuovo sistema di classificazione introdotto dal Regolamento (CE) n.1272/2008, nel 2016 i p.f. molto tossici e tossici rappresentano il 3,9% del totale, i nocivi il 25,7% e i non classificabili il restante 70,3%. Rispetto al 2015 si rileva una decisa riduzione in tutte le categorie: molto tossici e tossici (-29,7%), nocivi (-10,4%), non classificabili (-6,6%). Nel lungo periodo (2006-2016) i molto tossici e tossici registrano una riduzione del 41,9%. I nocivi, che alternano aumenti e diminuzioni, presentano invece un sostanziale aumento (+38%). La distribuzione dei p.f. non classificabili, anch’essa con andamenti fluttuanti, risulta decisamente minore (-25,7%). Nel periodo 2006–2016 si assiste, nel complesso, a un’accentuata contrazione dei consumi in p.a. (-26%), con dinamiche diverse e talora irregolari per le varie categorie. Diminuiscono notevolmente i p.a. di tutte le categorie (insetticidi e acaricidi -47,3%, fungicidi – 28,1 %, erbicidi – 16,1%, vari -5,9%) ad esclusione dei biologici, che continuano ad aumentare (+252%). In valore assoluto essi si attestano, nel 2016, intorno alle 409 t, superiore rispetto a tutti gli anni precedenti. Tutti i p.a. dimostrano un andamento complessivamente in diminuzione, ma fluttuante. Ciò si verifica in modo più evidente per i fungicidi. Tale andamento rispecchia in modo particolare scelte e necessità di natura tecnica ed agronomica (andamento climatico), ma non si possono escludere anche strategie commerciali delle industrie produttrici”.

Andando al 2020, invece, l’ISPRA ha pubblicato il “Rapporto nazionale pesticidi nelle acque” relativo al biennio 2018-2019 dal quale si evince che:

dove il monitoraggio viene eseguito in modo più capillare, tanto più vengono riscontrate presenze di agrofarmaci nelle acque. Tuttavia, questo aumento dei punti che presentano tracce di agrofarmaci non dovrebbe essere confuso con un peggioramento generale della gestione degli agrofarmaci. In ogni caso dal rapporto appare anche che il monitoraggio delle acque superficiali e delle acque profonde, mostra segni di miglioramento rispetto al rapporto precedente. Difatti, per le acque superficiali il 79% dei campioni ha presentato concentrazioni di agrofarmaci inferiori agli SQA (Standard di Qualità Ambientale, nel 2016 erano il 76,1%), mentre per le acque sotterranee i punti di monitoraggio al di sotto degli SQA sono stati quasi il 95% (nel 2016 erano il 91,7%). Anche la vendita di prodotti fitosanitari, come visto, sta mostrando da tempo dei trend in diminuzione sia in termini di quantità assolute che di quantità per ettaro di SAU: i prodotti fitosanitari sono diminuiti del 22,4%, mentre i principi attivi del 27%” (Fonte).

In altre parole, le opinioni personali, le sensazioni soggettive, l’idea che “quando eravamo piccoli si stava meglio” oppure i casi particolari limitati a pochi ettari di suolo (rispetto alla superficie nazionale) in cui gli agricoltori si comportano come criminali, non contano ai fini di una demonizzazione di una agricoltura che sta assumendo sempre più un aspetto sostenibile e, di conseguenza, rispettoso dell’unico pianeta sul quale, per il momento, siamo in grado di vivere.

Sull’agricoltura biologica

Ritorniamo per un momento all’uguaglianza naturale=buono di cui si argomentava più su. Questa associazione del tutto arbitraria e fuorviante viene, in realtà, diffusa – per semplicità argomentativa e per la facilità con cui riesce a penetrare le menti già predisposte a credere che tutto ciò che è presente in natura sia buono e salutare – dagli organismi istituzionali che governano le nostre società. L’esempio si trova in un sito web della Comunità Europea (qui) in cui si riporta:

L’agricoltura biologica è un metodo agricolo volto a produrre alimenti con sostanze e processi naturali”.

A questa affermazione che non definisce in modo puntuale il significato di “naturale” e di cosa siano le sostanze ed i processi naturali – sebbene esista tutta una branca della chimica che prenda il nome di Chimica delle sostanze naturali e che si occupa del comportamento chimico, fisico e biologico dei metaboliti secondari di origine vegetale – si aggiunge anche:

incoraggia a:

  • usare l’energia e le risorse naturali in modo responsabile
  • mantenere la biodiversità
  • conservare gli equilibri ecologici regionali
  • migliorare la fertilità del suolo
  • mantenere la qualità delle acque”.

che, tutto sommato, non è altro che un decalogo della pratica agricola sostenibile che va sotto il nome di agricoltura integrata di cui ho già parlato in precedenza. In altre parole, l’agricoltura biologica è una tipologia di agricoltura integrata che in più offre una certificazione che documenta – o dovrebbe farlo – il basso impatto ambientale dell’attività che viene svolta sotto il cappello del termine “biologico”.

La certificazione “biologica” impone anche l’uso di prodotti fitosanitari opportunamente elencati in liste di prodotti consentiti. Una di queste liste aggiornate al 2020 è presente sul sito del Ministero della Salute (qui), un’altra, meno recente, su quello della Feder-Bio (qui). Per chi è abituato a leggere numeri e tabelle salta subito all’occhio che tra i prodotti fitosanitari ammessi in agricoltura biologica sono presenti numerosi composti a base di rame (Cu). Il rame tutto è tranne che “naturale” e, inoltre, ha una forte attività tossica per tanti organismi viventi, tra cui l’uomo (Fonte). Ma questa è solo una delle tante contraddizioni dell’agricoltura biologica. Un’altra, meno evidente, è legata alla bassa produttività di questa pratica agricola (Fonte). Questo vuol dire che per produrre quanto pratiche agricole non biologiche c’è bisogno di superfici molto estese, ovvero è necessario disboscare con conseguente incremento di gas serra (in particolare anidride carbonica) e tutto ciò che segue in termini di cambiamenti climatici. Di agricoltura biologica dei suoi limiti e vantaggi si parla anche sulla pagina del SeTA (Scienze e Tecnologie per l’Agricoltura) a questo Link.

Sull’illusione dei residui dei fitofarmaci

Molto spesso i no-tutto (di cui ho accennato in una intervista qui) hanno paura anche dell’aria che respirano e si impressionano solo a leggere nomi IUPAC (International Union of Pure and Applied Chemistry) di composti che non sono per nulla pericolosi. Conoscete la beffa del monossido di diidrogeno? No? Bene, la potete leggere qui.

La chemofobia si alimenta anche grazie alle notizie allarmistiche sulla presenza di residui di fitofarmaci che attenterebbero alla salute pubblica. Non molto tempo fa è stata data ampia diffusione a delle analisi fatte da una associazione di produttori su spaghetti di brand piuttosto famosi (qui).

La tabella qui sotto riporta nella prima colonna le aziende prese in considerazione; nella seconda il contenuto di glifosate trovato, espresso come milligrammi (mg) di principio attivo per chilogrammo (kg) di pasta; nella terza la percentuale di glifosato rispetto al limite di legge di 10 mg/kg; nella quarta la quantità di pasta in chilogrammi che contiene la dose di 10 mg/kg indicata come limite massimo di residuo. Infine, nella quinta colonna si riporta la quantità di pasta in chilogrammi che un individuo di 80 kg dovrebbe assumere in un solo giorno per raggiungere il limite di 0.3 mg/kg/d previsto dalla Comunità Europea (ne ho già parlato qui).

È facile capire che le quantità di residui individuati non solo sono ben al di sotto dei limiti di legge, ma sono anche molto al di sotto dei limiti che potrebbero portarci a problemi di salute. Nel XXI secolo è ancora valido il principio stabilito da Paracelso nel XVI secolo in base al quale è la dose che fa il veleno. In altre parole, la presenza di un sistema chimico tossico non vuol dire che esso lo sia veramente perché ciò che importa è quanto di quel sistema è presente in un dato alimento.

Marca degli spaghetti Contenuto in glifosate (mg/kg) Percentuale rispetto al limite di legge (10 mg/kg) Quantità di pasta necessaria per raggiungere il limite di legge (kg) Quantità di pasta che un individuo di 80 kg deve assumere per raggiungere il limite di 0.3 mg/kg/d previsto dalla EU
Riscossa 0.146 1.46 68 164
Divella 0.068 0.68 147 353
Garofalo 0.03 0.3 333 800
De Cecco 0.017 0.17 588 1412
Rummo 0.016 0.16 625 1500
Barilla 0.013 0.13 769 1846

Fonte dell’immagine di copertina (This image is licensed under the Creative Commons Attribution-Share Alike 4.0 International license)

I segreti della grandine

Ogni anno sentiamo parlare di enormi “palle” di ghiaccio che cadono dal cielo e fanno danni enormi non sono solo alle cose (auto, case, etc.), ma anche alle attività produttive come l’agricoltura.

Oggi non mi voglio interessare dei danni che può fare la grandine, ma solo concentrarmi  sui meccanismi della sua formazione per capire a cosa essa sia dovuta e perché i chicchi di grandine possono avere dimensioni variabili fino ad arrivare a quelle di una palla come evidenziato nella foto di copertina.

La geografia dell’atmosfera

La parte di spazio che si estende dalla superficie terrestre fino a circa 16 km di altezza prende il nome di troposfera. È qui che avvengono i fenomeni climatici. L’aria della troposfera è composta non solo da ossigeno e azoto, ma anche da acqua, ossidi di azoto e zolfo, anidride carbonica, monossido di carbonio, gas nobili, sostanze organiche volatili che derivano sia dall’attività antropica che da quella naturale (per esempio, le molecole odorose che vengono rilasciate dalle piante), virus, batteri, funghi, spore e molto altro ancora. Naturalmente tutti questi sistemi sono posizionati a quote differenti in funzione delle loro dimensioni, cosicché, per esempio, virus, batteri, funghi e spore sono più vicini al suolo.

L’esperienza comune ci insegna che quando andiamo su in montagna la temperatura si abbassa. E chi è abituato a viaggiare in aereo sa che più in alto si sale più la temperatura tende a scendere: quanti di quelli che viaggiano in aereo non hanno mai letto sui monitor all’interno delle cabine che la temperatura esterna è di -32 °C oppure addirittura di -50 °C?

Vi siete mai chiesti perché?

Ne avevo già parlato l’anno scorso. Una spiegazione approfondita sulle variazioni di temperatura al variare della quota è al link seguente:

Fa freddo lassù?

In breve, possiamo dire che più vicini siamo al suolo, più risentiamo della radiazione elettromagnetica (indicata come infrarosso) proveniente dalla Terra.

Rimando al mio articolo dell’anno scorso per capire perché ci sono oscillazioni termiche man mano che si passa dalla troposfera alla stratosfera, da questa alla mesosfera e da quest’ultima alla termosfera.

E’ proprio la troposfera che dobbiamo tener d’occhio per spiegare la formazione della grandine.

Come si forma la grandine

Tutto ha inizio nei cumulonembi. Si tratta di nuvole a forte sviluppo verticale che si formano per effetto di processi convettivi attraverso cui enormi quantità di aria, contenente acqua, vengono movimentate sia verso l’alto che verso il basso, raggiungendo altezze che possono arrivare fino a 12-16 km. In queste enormi nubi le temperature sono molto variabili potendo passare da valori pari a 0 °C a valori compresi tra -50 e -60 °C.

Tutti noi sappiamo che quando l’acqua è a 0 °C si trova nello stato solido. Tuttavia, non tutti sanno che esiste una condizione che si chiama sopraffusione nella quale l’acqua è in una condizione metastabile, ovvero, in assenza di perturbazioni, essa permane nella fase liquida. Divertitevi a vedere cosa accade per effetto della sopraffusione:

L’acqua sopraffusa è presente prevalentemente nelle zone basse dei cumulonembi, mentre nelle zone più alte si formano dei piccolissimi granelli di ghiaccio, detti embrioni – il mio vecchio professore di chimica analitica li avrebbe chiamati “gemme” – che, per effetto delle correnti convettive, tendono a portarsi nelle zone basse delle nuvole. Quando i minuscoli granelli di ghiaccio incontrano l’acqua sopraffusa, la catturano. In questo modo le dimensioni delle gemme aumentano. Le correnti convettive riportano questi granelli accresciuti di nuovo verso l’alto e poi ancora verso il basso dove si accrescono ulteriormente. Quando le dimensioni delle particelle di ghiaccio diventano tali da non poter essere più trasportate dalle correnti convettive, queste ricadono verso terra sotto forma di grandine. Una descrizione più particolareggiata e corretta della formazione della grandine la potete trovare cliccando sull’immagine qui sotto.

Le dimensioni della grandine

Come ho scritto più su, la grandine si presenta di dimensioni molto differenti: si va da piccolissimi chicchi (pochi millimetri) fino a pezzi di ghiaccio delle dimensioni di palle da tennis o da baseball. Come mai c’è questa diversificazione?

Beh…tutto dipende dalla velocità con cui essa si forma, dalla direzione delle correnti convettive, dalla concentrazione di acqua sopraffusa e dalla temperatura alla base ed in quota del cumulonembo.

Nel filmato qui sotto potete osservare un “bombardamento” di grandine occorso a Rozzano circa una settimana fa (la notizia è qui)

Fonte dell’immagine di copertina

Scienza e cultura

Ieri sera (il 26 Giugno 2021) ho partecipato ad un interessante evento culturale a Bassano del Grappa: La Milanesiana. Si tratta di un progetto itinerante che ha raggiunto il suo ventiduesimo anno di età. Ha come oggetto un tema differente per ogni anno. Quest’anno l’evento è stato dedicato al progresso.

Benché accattivante, il tema non viene spiegato molto bene. Nel programma, che si può trovare a questo link, è scritto:

Il tema di questa ventiduesima edizione, come quello degli ultimi anni, è stato scelto da Claudio Magris: il Progresso. Un tema già in sé denso di paradossi. Dopo quello che abbiamo vissuto possiamo ancora parlare di progresso? E possiamo farlo in modo univoco? Possiamo dire, forse, che ci sono tanti progressi, almeno quanti sono i passi indietro?

Belle parole. Ma cos’è il progresso?

Non voglio addentrarmi in una discussione sul significato di progresso. Ciò che, in realtà, mi ha colpito e mi ha lasciato con l’amaro in bocca è stata la distinzione tra progresso scientifico e progresso culturale introdotta nei primi minuti della presentazione dell’evento ideato da Elisabetta Sgarbi. Questa distinzione mi ha fatto riflettere e mi porta a riflettere “ad alta voce” su questo blog in cui, tra le tante cose, spesso condivido le mie perplessità.

Se una persona dallo spessore culturale di Elisabetta Sgarbi sente la necessità di parlare di progresso scientifico e progresso culturale, separando la scienza dalla cultura, vuol dire che l’influenza del pensiero di Gentile secondo cui “il sapere scientifico veniva relegato nella categoria dell’utilità e nello stesso tempo gli si negava il valore di conoscenza concettuale e soprattutto di cultura” è ancora viva e vegeta.

Eppure le prime pagine dei libri di filosofia del liceo sono occupate dal pensiero dei rappresentanti della scuola di Mileto: Talete, Anassimandro e Anassimene. Nella loro ricerca del principio delle cose (l’acqua per Talete, l’apeiron o l’indefinito per Anassimandro e l’aria per Anassimene), questi Maestri facevano uso di un primordiale metodo scientifico basato sull’osservazione e sull’induzione. In altre parole, partendo dalla constatazione di certi fatti osservati (per esempio, l’acqua necessaria alla vita per Talete, l’aria che permea ogni cosa per Anassimene, oppure un insieme di fattori che Anassimandro chiama “indefinito”) questi pensatori traevano conclusioni di carattere generale sull’origine della vita e delle cose che ci circondano. E cosa dire di Democrito che, basandosi sull’osservazione che un coltello può tagliare un oggetto in pezzi sempre più piccoli fino ad un punto oltre il quale non è più possibile proseguire, introdusse il concetto di a-tomo, ovvero di indivisibile? Se vogliamo, lo stesso Aristotele può essere considerato come un precursore del moderno scienziato. Pur con le limitazioni del suo tempo, nella sua Fisica, Aristotele aveva osservato che tutto ciò che ci circonda è generato dalla combinazione di aria, acqua, terra e fuoco a cui bisogna aggiungere l’etere indispensabile per la comprensione della natura dei corpi celesti. Arrivando ad epoche più recenti, non si può non ricordare Leonardo da Vinci conosciuto non solo per le sue doti artistiche, ma anche per quelle ingegneristiche e scientifiche, oppure Göthe, appassionato di chimica, che, nelle sue “Affinità elettive“, descrive in modo sublime il concetto di affinità chimica usato ancora oggi per spiegare la formazione dei legami chimici:

Bisogna vedere in azione davanti ai propri occhi queste sostanze all’apparenza inerti, e tuttavia intimamente sempre disposte, ed osservare con partecipazione il loro cercarsi, attirarsi, assorbirsi, distruggersi, divorarsi, consumarsi, e poi il loro riemergere dalla più intima congiunzione in forma mutata, nuova, inattesa: allora si che si deve attribuire loro un vivere eterno, anzi, addirittura intelletto e ragione, dal momento che i nostri sensi appaiono appena sufficienti ad osservarli e la nostra ragione a stento capace di interpretarli“.

Lo stesso Kant ha dedicato parte della sua opera al pensiero scientifico, così come Heisenberg , sì – proprio quello del principio di indeterminazione, ha usato la sua logica scientifica per dare un contributo alla filosofia. E cosa dire di Schöredinger che col suo “Che cos’è la vita?” ha influenzato generazioni di scienziati che, poi, hanno dato un contributo notevole allo sviluppo delle conoscenze umane (Monod, De Duve, etc)? Vogliamo parlare anche di Edward O. Wilson o di Stephen J. Gould che col loro lavoro hanno consentito di capire in che modo si sviluppano le società di esseri viventi?

Tutto questo semplicemente per dire che quello che noi identifichiamo come pensiero scientifico è in tutto e per tutto pensiero umano e, in misura più o meno variabile, contribuisce allo sviluppo culturale della comunità di cui facciamo parte. In questo senso, per cultura non intendo la conoscenza della storia, della filosofia, della letteratura o, più genericamente, l’insieme delle conoscenze puramente concettuali “sensu Gentile“, ma l’intero spettro di conoscenze che acquisiamo durante la nostra vita e trasmettiamo alle generazioni future.  Che il pensiero scientifico consenta anche di produrre tecnologia e di  risolvere problemi di natura tecnica è solo un dettaglio che è insito nella natura stessa di tale pensiero.

Fonte dell’immagine di copertina

Ancora su anidride carbonica e mascherine

Vi ricordate la lettera aperta che all’inizio di ottobre ho scritto ad Enrico Montesano? No!? Eccola nel link qui sotto:

Lettera aperta ad Enrico Montesano

In questa lettera facevo notare al mai dimenticato Rugantino che quanto asseriva in merito alla pericolosità delle mascherine erano tutte sciocchezze. Lo facevo con la solita metodica scientifica, ovvero considerando gli aspetti quantitativi relativi alla dimensione delle molecole di anidride carbonica e quella dei pori delle mascherine attraverso cui il gas passa.

Per darvi una idea grafica delle conclusioni in merito al rapporto dimensionale tra la molecola di anidride carbonica e un poro di una mascherina chirurgica, potete far riferimento alla Figura 1.

Figura 1. Il puntino a sinistra è la rappresentazione di una molecola di anidride carbonica. Il cerchio a sinistra è la rappresentazione di un poro di una mascherina chirurgica.

In questa figura, considerando unitaria la dimensione della molecola di CO2 (il puntino a sinistra), un poro di una mascherina chirurgica risulta circa 800 volte più grande della molecola di anidride carbonica (cerchio a sinistra in Figura 1).

Nei giorni successivi alla pubblicazione della lettera aperta c’è stato un delirio di interventi (tra messaggi nel blog e lettere ai miei indirizzi e-mail) tutti a carattere monotematico. Ad eccezione di tre/quattro persone che si sono complimentate per aver finalmente evidenziato, numeri alla mano, l’incongruenza di quanto detto da Montensano e i figuri a cui egli si ispira, c’è stata gente che, per lo più in un italiano stentato e dimostrando di aver saltato tutte le lezioni sulle equivalenze fatte alle scuole elementari, pretendeva di mettere in dubbio i numeri riportati nella mia lettera aperta. Le argomentazioni andavano dall’aver usato concetti di chimica troppo complicati (SIC!), alla matematica troppo difficile (SIC!), al fatto che io non uso la mascherina in modo continuativo e non so cosa vuol dire stare tutto il giorno con questo dispositivo di protezione individuale, al fatto che non soffro di patologie che mi impediscono di indossare la mascherina. E potrei continuare.

Nel marasma di commenti tutti sulla falsariga di quanto appena riportato, ci sono stati alcuni interventi che meritano la mia attenzione. In sintesi, si tratta di commenti che evidenziano come le mie argomentazioni siano corrette considerando una singola molecola di CO2 ed un singolo poro di una mascherina chirurgica. Tuttavia, avrei dovuto considerare che noi espiriamo milioni di miliardi di molecole di anidride carbonica. I pori della mascherina rappresentano, quindi, un “collo di bottiglia” attraverso cui tutte quelle molecole non riescono a fuoriuscire tra un respiro e l’altro, con la conseguenza che reimmettiamo nel nostro organismo la CO2 che abbiamo appena espirato.

Purtroppo, la logica che ci ha consentito di sopravvivere alle belve feroci per arrivare fino ad oggi, non si può applicare in ambito scientifico dove i modelli che vengono sviluppati sono tutti, ma proprio tutti, controintuitivi. Inoltre, fare  affermazioni senza il supporto di dati numerici non è esattamente corretto sotto il profilo scientifico. Infatti, tutti i commenti in merito all’azione “collo di bottiglia” esercitata dalle mascherine erano di tipo aneddotico. Nessuno, ma proprio nessuno, si è mai peritato di fornire un modello matematico per spiegare i propri ragionamenti.

Vediamo perché l’idea del “collo di bottiglia” che non permette il passaggio della CO2 che espiriamo è completamente sbagliata.

Basta una banale ricerca in rete per trovare che la permeabilità (intesa come il flusso di gas che passa attraverso le mascherine per unità di superficie) è di circa 10 litri al minuto (L min-1) per le mascherine chirurgiche e di circa 5 L min-1 per le mascherine tipo FFP2 (qui). Volete sapere cosa significano questi numeri? Semplicemente che per ogni centimetro quadrato di mascherina, passano 10 L min-1 e 5 L min-1 (a seconda della tipologia di mascherina) di aria. Questi numeri sono stati misurati usando una pressione di esercizio di circa 20 mbar, ovvero la pressione esercitata dall’apparato respiratorio a riposo (qui). In ogni caso, più alta è la pressione esercitata contro le mascherine, maggiore è la loro permeabilità (qui). Considerando che il flusso di aria che espiriamo mediamente è di circa 6 L min-1 (qui), ne viene che di anidride carbonica tra la mascherina ed il viso non rimane nulla. In altre parole, non c’è alcun rischio di respirare la propria anidride carbonica.

Da dove viene, allora, la convinzione che le mascherine consentirebbero di respirare la propria “aria usata”?

Si tratta solo di fattori psicologici che nulla hanno a che fare con la reale capacità di una qualsiasi mascherina di impedire il passaggio dell’aria che fuoriesce dai nostri polmoni (qui e qui). In pratica, chi afferma che non riesce a respirare è solo vittima delle proprie impressioni personali che non hanno niente a che vedere con la realtà chimico-fisica delle mascherine il cui uso è fortemente consigliato (assieme alle distanze di sicurezza e ad elementari norme igieniche) per ridurre la dffusione del contagio da SARS-COV-2.

Note

Alcuni lettori del blog mi hanno chiesto come mai le mascherine chirurgiche vanno indossate in un ben preciso verso, ovvero con la parte colorata rivolta verso l’esterno. La risposta è stata data qualche tempo fa in questo link. In sintesi, la parte colorata di una mascherina chirurgica è fatta da materiale idrorepellente. Questo riduce la possibilità che le eventuali goccioline di saliva espirate da persone con cui, per esempio, stiamo parlando, possano penetrare attraverso lo strato colorato e raggiungere gli strati interni con possibilità di contaminarci.

Altri lettori mi hanno chiesto come mai gli occhiali si appannano quando indossiamo la mascherina. L’appannamento è dovuto al fatto che l’aria che espiriamo è calda. Quando le molecole di acqua calda che espiriamo entrano a contatto con la superficie fredda dei nostri occhiali, condensano dando luogo al fenomeno dell’appannamento (qui).

Letture e riferimenti

Characterization of face masks

An overview of filtration efficiency through the masks: Mechanisms of the aerosols penetration

Air permeability and pore characterization of surgical mask and gowns

On respiratory droplets and face masks

Characteristics of Respirators and Medical Masks

FONTE DELL’IMMAGINE DI COPERTINA

Lettera aperta ad Enrico Montesano

Avete presente le dichiarazioni di Enrico Montesano, indimenticabile protagonista di uno dei film più trash degli anni ’70 dal titolo “Febbre da cavallo”, in merito alle mascherine che dobbiamo indossare per proteggerci dal virus del Covid-19? Riporto dai giornali (qui, qui e qui, per esempio):

Le mascherine che oggi vengono usate ci fanno respirare la nostra anidride carbonica.

Ecco. È proprio per questa affermazione che desidero scrivere una lettera aperta ad Enrico Montesano.

_______________________________________________________________

Caro Enrico,

nonostante la differenza di età che ci contraddistingue o, forse, proprio per quella, mi permetto di darti del “tu” perché quando ero un bambino e poi un adolescente sei stato uno dei comici che più mi hanno messo di buon umore. Sebbene “Febbre da cavallo” io lo giudichi un trash, non posso negare che è uno dei miei film preferiti perché ogni volta che lo riguardo mi proietto in un’epoca in cui ero molto più spensierato di adesso.

Caro Enrico, quando fai certe affermazioni e citi certi figuri dei quali ti fidi in merito a problemi di ordine sanitario, non ci fai una bella figura. Ovviamente sei libero di credere in chi ti pare, ma non puoi aspettarti, poi, il rispetto che meriteresti come attore quando entri in un campo della conoscenza che non ti compete. Anche se dici di informarti, penso che le tue fonti non siano esattamente attendibili.

Lasciando perdere tutte le sciocchezze che hai detto in merito al Covid-19 ed alle mascherine, mi voglio soffermare solo su quello che hai detto in merito all’anidride carbonica. Naturalmente, come dicevo sopra, sei libero di credere in chi ti pare e ritenere che io dica sciocchezze. L’unica cosa è che le mie “sciocchezze” sono verificabili, mentre le tue e quelle dei figuri che citi non lo sono per il semplice motivo che sono ben lontane dalla realtà.

Andiamo più nel merito.

Le mascherine che indossiamo non ci fanno respirare la nostra anidride carbonica nelle normali condizioni in cui le usiamo. Vediamo perché.

Ho già scritto in merito al meccanismo di funzionamento delle mascherine. Basta cliccare qui sotto

Come funzionano le maschere filtranti

In questo articolo ho messo in evidenza che le dimensioni dei pori delle mascherine sono dell’ordine dei micrometri. Prendiamo solo i pori più piccoli delle mascherine più efficaci: 0.2 μm, ovvero la 0.2 milionesima parte del metro, in altre parole 0.2 x 10-6 m. Sembra una dimensione molto piccola, vero Enrico?

Ed ora ti invito a scaricare un programmino di chimica computazionale che io uso sul tablet. Si chiama WebMO. La versione per iPad che uso io costa solo circa 5 €. Non penso che l’acquisto sia impossibile per te. Grazie a questo programmino è possibile disegnare la molecola di anidride carbonica e studiarla in tutte le sue caratteristiche. È un programmino estremamente intuitivo e facile da usare. Superato il panico di chi non conosce la chimica vedrai che lo apprezzerai molto.

Ebbene, caro Enrico, grazie a questo programmino, la molecola di anidride carbonica è quella che ti riporto qui sotto:

Ho evidenziato gli atomi di ossigeno e di carbonio in modo da permettere al programmino di fornire la distanza tra questi due atomi. Come leggi in basso, la distanza è circa 1.275 Å, ovvero 1.275 x 10-10 m. Se consideriamo, in prima approssimazione, la molecola di anidride carbonica in continua rotazione, possiamo considerarla come una sfera del diametro pari a 2 x 1.275 x 10-10 m, ovvero una sfera del diametro di 2.550 x 10-10 m.

Adesso, come si faceva alle scuole elementari, facciamo il rapporto tra le dimensioni di un poro di una mascherina e quella del diametro della sfera suddetta:

0.2 x 10-6 m/2.55 x 10-10 m = 784

In altre parole, mio caro Enrico, il poro più piccolo della mascherina più efficace è circa 800 volte più grande della molecola di anidride carbonica.

Sai cosa vuol dire questo?

Leggo da Wikipedia che tu sei alto 1.73 m. Se immagini di essere la molecola di anidride carbonica, devi moltiplicare la tua altezza per 784 ed ottieni la larghezza del tunnel nel quale decidi di passare. Si tratta, cioè, di un tunnel la cui larghezza è di circa 1356 m, ovvero 1 km e circa 400 m. Non mi vorrai mica far credere che non riesci ad attraversare un buco di questa larghezza?

Capisci, adesso, caro Enrico, perché hai detto una sciocchezza sesquipedale?

Ti saluto affettuosamente ricordando sempre con enorme piacere, oltre che tanta nostalgia per il tempo passato, i tuoi film ed il tuo famoso Rugantino.

Tuo,

Rino

Fonte dell’immagine di copertina

Dubbi sul vaccino anti-Covid russo

Recentemente è apparso su The Lancet, autorevole rivista scientifica di carattere medico, un lavoro che illustra l’efficacia di un vaccino anti-Covid sviluppato da ricercatori russi. Il lavoro è disponibile qui. Tuttavia, dall’analisi dei dati riportati nel lavoro, sono venuti fuori alcuni limiti che fanno dubitare della serietà del lavoro. È per questo che alcuni scienziati, tra cui il sottoscritto, si sono fatti latori di una lettera aperta in cui chiedono di poter analizzare i dati bruti da cui sono state ottenute le figure che sembrano artefatte.

La lettera è disponibile cliccando sulla figura qui sotto


La stessa lettera è stata pubblicata su Il Foglio (qui)

Oli, sali e zuccheri

Oggi ho trovato una bella sorpresa on line. La C1V edizioni ha reso disponibili le presentazioni fatte nel 2018 in occasione del secondo Convegno Nazionale Medicina e Pseudoscienza (CNMP).  Durante il convegno ho fatto una lunga lezione divulgativa sulle false informazioni in merito agli oli, ai sali ed agli zuccheri. Qualche mese dopo avrei pubblicato “Frammenti di Chimica” in cui si trovano molte delle cose che ho detto in quel convegno.
Se volete divertirvi ad ascoltarmi, qui sotto ci sono i miei tre interventi.

Prima parte

Seconda parte

Terza parte

In realtà il congegno del 2018 è stato molto ricco. Hanno partecipato tutti gli scienziati attivi nella lotta alle bufale: da Silvio Garattini a Piero Angela, da Roberto Burioni a Francesco Galassi e tanti tanti altri. Se volete fare un viaggio nel tempo e partecipare al convegno, potete iscrivervi al canale YouTube della C1V e ascoltare tutte le presentazioni. Basta cliccare sull’immagine qui sotto.

 

Giulio Cesare ed i cambiamenti climatici

“Cosa c’entra Giulio Cesare con i cambiamenti climatici?”, vi starete chiedendo. Oppure state pensando: “ed ecco un altro prof. che è andato fuori di testa e fa associazioni pseudoscientifiche come capita a tutti”.

Ebbene no, miei cari lettori. Proprio ieri ho comprato il numero di Agosto 2020 della rivista Le Scienze. Ogni tanto ho bisogno di leggere riviste divulgative serie per fare pace con il mondo e convincermi che non tutto è perduto. Sapeste cosa mi scrivono certi figuri nei commenti del blog! Faccio passare solo i commenti che mi divertono di più, ma ce ne sono altri che, al confronto, la teoria della memoria dell’acqua è roba seria.

Ma torniamo a Giulio Cesare ed ai cambiamenti climatici.

Dicevo che ho preso Le Scienze di Agosto. A pagina 24, ci sono 13 righe in cui si parla delle cause che hanno portato Roma a diventare Impero dopo l’assassinio di Giulio Cesare occorso alle idi di Marzo del 44 a.C.. La notizia la potete leggere anche qui.

Devo dire che la lettura mi ha incuriosito ed ho cominciato a cercare in rete. Quello che ho trovato mi ha molto affascinato.

Pensate: è documentato che nel periodo immediatamente successivo a quello in cui Cesare fu assassinato, ci sono stati un paio di anni di freddo intenso. La temperatura, pare, si sia abbassata di circa 7 °C, mentre le precipitazioni si fecero molto più intense aumentando dal 50 al 120 % rispetto agli anni precedenti. Potete facilmente immaginare cosa vuol dire a livello agricolo un abbassamento della temperatura ed un aumento della pioggia di tale intensità. Ci sono stati sicuramente momenti di carestia che, assieme ai problemi politici che si sono presentati nello stesso periodo, possono essere considerati la concausa del passaggio dalla Repubblica all’Impero. In effetti, le peggiorate condizioni di vita dei contadini nel I secolo avanti Cristo, portarono a scontri sociali che si conclusero con la pace Augustea che riportò ordine nella società romana (Riferimento).

Una delle ipotesi che è stata formulata per spiegare le peggiorate condizioni di vita dei contadini romani nel I secolo a.C. è l’eruzione dell’Etna avvenuta nel 44 a.C. (Riferimento). Si è ipotizzato che tale eruzione avesse portato in atmosfera una quantità tale di polveri sottili da schermare i raggi del sole e provocare gli sconvolgimenti climatici associati ai periodi di carestia summenzionati. Tuttavia, pur rimanendo valida l’idea che una eruzione vulcanica fosse stata responsabile del cambiamento climatico iniziato a cavallo del 43-44 a.C., l’ipotesi dell’effetto dell’eruzione dell’Etna sul clima della penisola è stata sempre abbastanza controversa (Riferimento).

All’inizio di Luglio è apparso su Proceedings of the National Academy of the United States of America (PNAS), una rivista molto quotata nel mondo scientifico, un articolo a firma di un gruppo di ricercatori di diversa nazionalità dal titolo: “Extreme climate after massive eruption of Alaska’s Okmok volcano in 43 BCE and effects on the late Roman Republic and Ptolemaic Kingdom”. Lo potete scaricare, previo pagamento di 10 USD, cliccando sull’immagine qui sotto.

In questo lavoro i ricercatori hanno discusso delle analisi effettuate su carote di ghiaccio prelevate nell’Artico. Essi hanno evidenziando come la più probabile causa degli sconvolgimenti climatici occorsi nel I secolo a.C. fosse  non l’eruzione dell’Etna, ma quella del vulcano Okmok situato in Alaska.

Fonte dell’immagine

Nell’immagine qui sotto potete avere contezza delle distanze a livello planetario tra la posizione del vulcano ed il continente Europeo.

Sembra strano che l’eruzione di un vulcano così distante dall’Europa possa averne influenzato il clima, vero?

Vediamo allora cosa hanno fatto gli studiosi.

A quanto pare ogni vulcano ha una impronta chimica univoca in termini di molecole immesse in atmosfera per effetto delle eruzioni. I ricercatori hanno non solo attribuito le sostanze trovate nelle carote di ghiaccio proprio al vulcano Okmok, ma hanno anche datato l’eruzione relativa alla seconda metà del I secolo a.C.. Inoltre, usando i dati chimici identificati nelle carote di ghiaccio, i ricercatori hanno fatto delle simulazioni computazionali. In base ad esse, hanno potuto stabilire che intorno al 43 a.C. l’eruzione dell’Okmok ha portato in atmosfera tante di quelle particelle che si è avuta una riduzione della temperatura non solo in Europa, ma anche nel continente Africano. Come controprova delle loro simulazioni, i ricercatori hanno anche effettuato analisi dendrologiche  che hanno confermato le ipotesi sul ruolo dell’Omkok nelle variazioni climatiche del I secolo a.C..

Interessante, vero, come un’eruzione vulcanica a migliaia di chilometri di distanza dall’Europa possa aver indirizzato la politica romana.

Fonte dell’immagine di copertina

Le armi chimiche: i veleni naturali

Sapete che cosa è la chimica delle sostanze naturali? Si tratta di una branca della chimica che studia le proprietà chimiche (per esempio, struttura e conformazione) e la reattività di metaboliti primari e secondari delle piante e degli animali. La Treccani ne dà una bella definizione:

“È quel settore delle scienze chimiche che ha per oggetto lo studio della struttura, delle proprietà chimiche, delle trasformazioni delle sostanze organiche presenti negli organismi viventi (animali, piante o microorganismi), nonché del loro ruolo biologico”.

Perché vi sto dando questa definizione? Semplicemente perché sto leggendo un bel libro dal titolo “Storia dei veleni. Da Socrate ai giorni nostri” (Figura 1) in cui si descrivono le potenzialità venefiche di tantissime sostanze di origine naturale.

Figura 1. Libro sui veleni che ho acquistato recentemente

Non credo sia una novità che l’uso dei veleni sia noto fin dall’antichità. Essi venivano utilizzati sia per la caccia che per la guerra. Per esempio, nella seconda metà del XIX secolo, Alfred Fontan descrisse degli interessantissimi ritrovamenti nella grotta inferiore di Massat, nell’Ariège (Figura 2), un sito risalente all’epoca magdaleniana.

Figura 2. Zona dell’Ariege dove si trovano le grotte di Massat (Di TUBS – Opera propria. Questa grafica vettoriale non W3C-specificata è stata creata con Adobe Illustrator. Questa immagine vettoriale include elementi che sono stati presi o adattati da questa:  France adm-2 location map.svg (di NordNordWest)., CC BY-SA 3.0 de, https://commons.wikimedia.org/w/index.php?curid=45555827)

In particolare, tra i tanti reperti, furono individuate delle punte di lancia e freccia con delle interessanti scalanature (Figura 3).

Figura 3. Punte di lancia e freccia del periodo Magdaleniano (Fonte)

Negli anni successivi gli studiosi hanno compreso che le scanalature sulle punte di freccia e lancia servivano per fare aderire i veleni in modo tale che le prede (o i nemici), una volta colpiti anche in modo non mortale, potessero morire per effetto del veleno introdotto attraverso le ferite. Ancora oggi le popolazioni primitive che vivono nelle zone meno esplorate del pianeta fanno uso,  per la caccia o per la guerra, di punte  simili a quelle ritrovate nelle grotte di Messat .

Siete curiosi di sapere come si fa a rendere “velenosa” una punta di freccia o di lancia?

I veleni, come leggerete nel paragrafo successivo, vengono per lo più estratti dalle piante.  Jean de Maleissye, nel libro che sto leggendo, ci spiega come facevano alcune popolazioni dello Zimbabwe a preparare le loro armi. Molto verosimilmente, la stessa tecnica era applicata dalle popolazioni primitive.

“Si faceva a pezzi la pianta, la si mescolava ad acqua e si faceva bollire il tutto per molto tempo. Poi si lasciava ridurre il liquido finché non si addensava, assumendo la consistenza della pece. Il veleno veniva fissato sull’estremità superiore dell’arma tramite una cordicella che gli indigeni arrotolavano attorno alla punta. Lo spazio libero fra ogni spira di corda tratteneva infatti il veleno, quando vi si immergeva la punta dell’arma. Si lasciava seccare il preparato velenoso, poi si toglieva il filo. Con tutta probabilità, la cordicella consentiva di trattenere il veleno su superfici minuscole. Tale artificio impediva infatti al veleno di staccarsi prematuramente in grandi placche”.

Come cacciavano le popolazioni della civiltà magdaleniana?

Non lo sappiamo, in realtà. Possiamo immaginare dalle ricostruzioni basate sugli utensili ritrovati in giro per l’Europa, che i magdaleniani “dopo aver colpito con una o più frecce avvelenate un grande cervo o una renna, [ne seguono] le tracce per ore o anche per giorni, fintanto che, stremato dal veleno, dalla perdita di sangue e dallo sforzo compiuto, il grande animale non crolla in un bosco ceduo” (Fonte). Una volta catturata la preda, i cacciatori rimuovono la parte avvelenata e fanno a pezzi tutto il resto della carcassa che viene usata per alimentarsi.

Origine dei veleni

In genere si tratta di sostanze che vengono estratte dalle piante. Una di queste è la Aconitum napellus o aconito,  una pianta che cresce in zone montuose e nota, per le sue proprietà tossiche, già a i tempi dei Galli e dei Germani (Figura 4).

Figura 4. Aconito, pianta molto comune ed estremamente tossica

Le sue parti, incluse le radici, contengono miscele complesse di alcaloidi quali: aconitina, napellina, pseudoaconitina, aconina, sparteina, efedrina (Figura 5).

Figura 5. Struttura chimica dei principali alcaloidi presenti nei tessuti di Aconitum napellus.

Tutte queste molecole hanno attività neuro- e cardio-tossica. La loro dose letale è dell’ordine di pochi milligrammi (1-4 mg) per chilogrammo di peso corporeo.  Immaginate, quindi, cosa può succedere se una freccia avvelenata con questa miscela di alcaloidi vi colpisse anche in un punto non vitale. Il veleno entrerebbe nel sangue e sareste soggetti a “rallentamento dei battiti cardiaci, diminuzione della pressione arteriosa e rallentamento del ritmo respiratorio” fino a  paralisi cardiaca e respiratoria (Fonte). Anche l’ingestione di questa miscela di alcaloidi porta alla stessa fine.

Ma volete sapere un’altra cosa? Avete presente la “potentissima” medicina tradizionale cinese?

Ebbene, nel 2018, è stato pubblicato un lavoro di revisione della letteratura scientifica in merito alla tossicità degli alcaloidi dell’aconito. Il lavoro è liberamente scaricabile qui. Nell’introduzione si evidenzia come gli estratti della radice di questa pianta siano usati nella medicina tradizionale cinese come rimedi per problemi cardiovascolari, artriti reumatoidi, bronchite, dolori generici e ipotiroidismo. Non sono un medico, però a me sembra quasi la panacea di ogni male (mi correggano i medici che leggono questo articolo se sbaglio, per favore). Nella stessa introduzione viene anche rilevato che le autorità sanitarie di molti paesi asiatici sono costrette a regolamentare l’uso di questo preparato a causa della sua elevata tossicità. Infatti, tra il 2001 e il 2010 sono stati osservati, per esempio, ben 5000 casi di tossicità da alcaloidi di aconito. Come mai tutte queste intossicazioni? Semplicemente perché, come evidenziato anche in un lavoro del 2019 pubblicato su Forensic Science, Medicine and Pathology, una rivista della Springer con impact factor nel 2019 di 1.611 (si può liberamente scaricare qui), gli estratti di aconito vengono usati senza prescrizione medica ed è facile usare la logica spicciola secondo cui se la quantità x mi permette di guarire, allora la quantità xn mi farà guarire più velocemente. 

Conclusioni

La natura ci è nemica? Neanche per sogno. Allora ci è amica? neanche per sogno parte seconda. Alla natura non importa nulla di noi. I veleni possono essere considerati  la risposta evolutiva delle prede ai predatori. Quando, in modo casuale ed imprevedibile, una modifica genetica consente la nascita di una pianta con un corredo metabolico appena un po’ diverso da quello delle sue “compagne”, è possibile che essa diventi indigesta, ovvero tossica, per i predatori. Questa nuova caratteristica favorisce la sopravvivenza della pianta modificata rispetto alle sue “sorelle” non modificate. Nel momento in cui tutte le piante non modificate si sono esaurite a causa della pressione alimentare dei predatori, rimangono in vita solo quelle modificate da cui i predatori si tengono lontani… a meno di non capire che esse possono essere sfruttate non a fini alimentari ma per la caccia e per la guerra.

Fonte dell’immagine di copertina

Scienza open access e riviste predatorie. Parte II. Il sistema aperto

Nella prima parte di questo reportage (che appare nella Newsletter della Società Italiana di Scienza del Suolo) ho discusso dei limiti del sistema chiuso delle riviste scientifiche. In quella sede, l’aggettivo “chiuso” si riferiva al fatto che le case editrici non permettono l’accesso libero dei ricercatori agli studi che vengono pubblicati: neanche ai loro stessi lavori. Quante volte mi è capitato, per esempio, di dover chiedere il favore a qualche collega straniero di scaricare per me i miei stessi lavori e di inviarmene una copia in pdf? Ormai non le conto più. Le conclusioni del precedente articolo (le trovate qui sotto) erano che il sistema chiuso sul quale si è basata la diffusione delle ricerche scientifiche fino ad ora, non è sostenibile sotto l’aspetto economico.

Scienza open access e riviste predatorie. Parte I. Il sistema chiuso

Meglio l’open access, allora? La pubblicazione open access è quel tipo di articolo per cui chi legge non ha bisogno di pagare nulla. In altre parole, se tutti noi che, a vario titolo, ci occupiamo di scienza cominciassimo a pubblicare in maniera “open”, tutte le università e centri di ricerca risparmierebbero un bel po’ di soldi che potrebbero essere investiti in ben altro: borse di studio, nuovi reclutamenti di ricercatori e docenti, apparecchiature scientifiche e…chi più ne ha, più ne metta.

Devo dire che questa è la realtà ideale. Vado nel mio ufficio, mi siedo alla scrivania, accendo il computer e faccio la mia ricerca bibliografica. Dal momento che tutti pubblichiamo in open access, la mia università non ha necessità di pagare alcun abbonamento (esoso) ed io posso accedere e scaricare tutto quello che voglio.

Bello il mondo ideale, vero?

Il problema è che le case editrici tutto sono tranne che enti filantropici. Da qualche parte devono pure far soldi. Ed in effetti il problema economico si è spostato: non sono più le università a dover pagare per gli abbonamenti in modo da consentire ai ricercatori di poter essere aggiornati, ma sono i ricercatori che, per poter pubblicare su una rivista open access, devono pagare una tassa di pubblicazione. Questa tassa è dovuta solo se il lavoro supera il processo di peer review e viene accettato per la pubblicazione.

A questo punto, il più scafato tra noi ha già capito quale è l’inghippo. Ma andiamo con ordine.

Vi riporto qui sotto una tabella in cui è possibile leggere il costo (in dollari statunitensi per omogeneità di riferimento) che dovrei sostenere per pubblicare in maniera open su alcune delle riviste del mio settore o su alcune di quelle che si adattano meglio alla tipologia di ricerca che faccio (chimica-fisica ambientale):

Queste sono solo alcune delle riviste serie che sono completamente open (ACS Omega) oppure ibride (tutte le altre della lista), ovvero consentono all’autore di scegliere se pubblicare col sistema chiuso o quello open.

Ormai anche le pietre sanno che per il biennio 2018-2020 (prorogato fino a giugno 2021) sono uno dei commissari per l’abilitazione scientifica nazionale (ASN) per il mio settore concorsuale. Perché vi dico questo? Semplicemente per farvi capire che sono uno di quelli che conoscono abbastanza bene le regole che devono essere applicate sia per avere l’abilitazione che per superare un qualsiasi concorso universitario. Ebbene, tra queste regole (che non vengono stabilite dai commissari, ma calate dall’alto dal Ministero dell’Università) c’è il cosiddetto h-index – di cui ho parlato nel mio blog qui – nonché la somma degli impact factor delle riviste su cui un candidato ha pubblicato.

Non voglio aprire un altro fronte per cui non voglio discutere dell’aberrazione di una valutazione basata sui parametri anzidetti. Il mio scopo è solo quello di farvi capire che l’h-index di un ricercatore aumenta con l’aumentare delle citazioni e della visibilità dei suoi lavori.

Quando un articolo pubblicato diviene visibile e può avere alte possibilità di citazione? Ovvio…quando è open access, naturalmente.

Ed eccoci arrivati al punto: se ho tante pubblicazioni open access, a meno di non essere una capra e pubblicare sciocchezze sesquipedali, ho una ottima possibilità di essere visibile e di veder citati i miei lavori. Oddio…anche se pubblico sciocchezze sesquipedali ho ottime possibilità di essere citato…ma in negativo. E non è esattamente bello per la reputazione. Basta prendere in considerazione le sciocchezze pubblicate negli ultimi anni da un premio Nobel come Luc Montagnier, per rendersi conto che egli è oggi solo una patetica figura che cerca di riguadagnare quella visibilità che lo ha abbagliato – soddisfacendo il suo ego – quando ha vinto il premio Nobel nel 2008.

Ma sto divagando…

Considerando i costi che un ricercatore deve sostenere per poter pubblicare in open access, cosa si può concludere dalla disamina di questa seconda puntata?

Se sono un ricercatore che studia un ambito scientifico per cui è difficile reperire fondi, mi conviene il sistema chiuso. Faccio il mio lavoro col minimo di soldi che riesco a trovare, scrivo il mio rapporto scientifico e invio il lavoro ad una delle riviste che non mi chiedono di pagare per la pubblicazione. Pagherà chi ha bisogno di sapere cosa ho fatto, fermo restando che, come autore, posso inviare gratuitamente il lavoro pubblicato a chiunque me ne faccia richiesta.

Se sono un ricercatore che è in grado di attrarre molti fondi, mi conviene pubblicare sulle riviste open. Parte dei miei fondi sono, in ogni caso, destinati alla mia università per spese di gestione; mettiamo tra queste anche il libero accesso alle informazioni scientifiche. Questo implica una maggiore visibilità ed una maggiore penetrazione delle mie ricerche nel mondo scientifico, anche quello non direttamente collegato al mio specifico settore disciplinare. Maggiore visibilità per il ricercatore significa anche maggiore visibilità per l’istituzione di appartenenza che, quindi, ha tutto l’interesse a privilegiare l’open access invece che la pubblicazione chiusa. Ed infatti, attualmente molte, se non tutte, le università in Italia chiedono che i lavori scientifici vengano pubblicati anche sulle riviste open access.

Il problema è che quando il mercato diventa libero si innesca la concorrenza ed è possibile, anzi certo, che si possa incorrere in delle truffe.

Ma questo sarà oggetto del prossimo articolo nel prossimo numero della Newsletter.


Questo articolo è apparso nella Newsletter n. 13 della SISS (qui)