Esprit de char

➡ Read in English

Che cos’hanno in comune un fuoco che non brucia, un terreno che diventa più fertile e un clima che forse possiamo ancora salvare?
La risposta sta in un materiale oscuro e poroso, nato dal calore ma fatto per resistere al tempo: il biochar.

Immaginate un carbone che, invece di dissolversi in fumo, rimane nel suolo per secoli. Non è carbone da ardere, ma carbone che custodisce carbonio. Un paradosso? Forse sì. Eppure è proprio qui che la scienza ci invita a guardare più da vicino.

Un enigma nella giungla

Tutto comincia in Amazzonia. Quando i primi archeologi e pedologi iniziarono a scavare nella foresta pluviale, trovarono qualcosa di inatteso: macchie di terra scura e fertile che si distinguevano nettamente dal rosso povero degli Oxisols circostanti. Gli indigeni la chiamavano “Terra Preta do Indios”, la “terra nera degli indios”.

Com’era possibile che suoli notoriamente poverissimi e instabili, incapaci di trattenere nutrienti, ospitassero invece zone in cui le piante crescevano rigogliose?

Negli anni Duemila, studi pionieristici di Bruno Glaser e colleghi mostrarono che quelle terre nere contenevano fino a 70 volte più carbonio nero rispetto ai suoli circostanti. Non un carbonio qualsiasi, ma il prodotto della combustione incompleta di biomassa: charcoal, carbone vegetale. Non il fuoco distruttivo degli incendi, ma quello controllato dei focolari domestici, dei forni di cottura, delle pratiche agricole precolombiane.

Dalla leggenda alla scienza

La Terra Preta non era un fenomeno naturale. Era la traccia lasciata da comunità indigene che, 1500–2500 anni fa, avevano imparato a trasformare residui di cucina, legno e scarti organici in un suolo fertile e duraturo. Non slash-and-burn, la bruciatura che divora foreste e libera CO₂, ma slash-and-char: un modo per intrappolare carbonio e costruire fertilità.

Quel carbone, altamente aromatico e stabile, sopravvive nel suolo per secoli. Con il tempo, l’ossidazione ne arricchisce i bordi di gruppi carbossilici, che aumentano la capacità di trattenere nutrienti. È così che un materiale apparentemente inerte diventa uno scrigno di fertilità, capace di sostenere colture ben oltre il tempo degli indigeni che lo produssero.

Ed è da questa eredità che nasce la parola che oggi usiamo: biochar. Non più soltanto un reperto archeologico, ma una tecnologia da ripensare in chiave moderna.

Il biochar oggi

Il nome potrebbe sembrare una trovata di marketing, ma non lo è. È il termine scelto dalla comunità scientifica per indicare il materiale carbonioso ottenuto dalla pirolisi di biomasse di scarto – legno, residui agricoli, perfino sottoprodotti animali – e applicato volontariamente al suolo per migliorarne la qualità.

Perché dovremmo interessarcene?
Perché sappiamo che l’aumento della temperatura globale è dovuto alle attività umane, e abbiamo bisogno di strumenti nuovi per rallentare la corsa dei gas serra. Il biochar, se ben prodotto e ben usato, sembra offrire proprio questo:

  • intrappolare carbonio nei suoli, togliendolo dall’atmosfera;
  • migliorare la struttura dei terreni, rendendoli più fertili e meno erodibili;
  • adsorbire sostanze tossiche, ripulendo acque e suoli inquinati;
  • modificare il pH, favorendo la crescita delle piante.

Tutto questo non è teoria: sono osservazioni sperimentali che hanno acceso un entusiasmo globale. Ma… funziona sempre così?

I segreti nei pori

Il punto è che il biochar non è mai uguale a sé stesso. Dipende dalla biomassa di partenza, dalle temperature di pirolisi, dalle condizioni di produzione. Alcuni biochar sono stabili e utili; altri, invece, si degradano più in fretta o rilasciano ciò che dovrebbero trattenere.

E allora come capire quali biochar funzionano davvero?

È qui che entrano in gioco le tecniche che uso nel mio lavoro. Con la risonanza magnetica nucleare (NMR) possiamo osservare il comportamento dell’acqua confinata nei pori del biochar: come si muove, quanto resta intrappolata, quali interazioni crea con ioni e contaminanti. In pratica, possiamo ascoltare la “vita interiore” di un pezzo di carbone.

Queste informazioni ci permettono di costruire modelli più affidabili e di distinguere tra biochar efficaci e biochar illusori. È un lavoro di pazienza, ma necessario: se vogliamo usare il biochar come strumento di sostenibilità, dobbiamo capire i suoi meccanismi più profondi.

Esprit de char

Il National MagLab ha raccontato parte di questa avventura in un articolo dal titolo evocativo: Esprit de char. “Lo spirito del carbone”: un nome che rende bene l’idea. Perché il biochar non è solo un materiale tecnico, è un ponte tra passato e futuro. Un carbone antico, ma con un compito nuovo: aiutarci a riscrivere il rapporto tra l’uomo, il suolo e il clima.

E domani?

Sarà allora il biochar la chiave di un’agricoltura davvero sostenibile?
Non dobbiamo illuderci: non è una bacchetta magica. Non basterà da solo a risolvere la crisi climatica o a rigenerare i suoli impoveriti. Ma può essere uno strumento potente, se usato con intelligenza.

Forse, in fondo, l’“esprit de char” non è altro che questo: la memoria di un fuoco che, anziché consumare, ha creato. Un fuoco che ancora oggi può insegnarci a trasformare l’ombra in risorsa, il carbone in futuro.

Per approfondire:

E qualche mio vecchio post divulgativo:

Esprit de char (English)

What do a fire that doesn’t burn, a soil that becomes more fertile, and a climate we might still save have in common?
The answer lies in a dark, porous material, born from heat yet made to resist time: biochar.

Imagine a charcoal that, instead of turning into smoke, remains in the soil for centuries. Not charcoal for burning, but charcoal that locks carbon away. A paradox? Perhaps. And yet this is precisely where science invites us to look closer.

A jungle enigma

It all begins in the Amazon basin. When the first archaeologists and soil scientists dug into the rainforest, they found something unexpected: patches of dark, fertile earth standing out against the poor, reddish Oxisols all around. The locals called it “Terra Preta do Indios”, the “black earth of the Indians.”

How was it possible that soils known for being extremely poor and unstable, unable to hold nutrients, could instead host areas where plants thrived so vigorously?

In the early 2000s, pioneering studies by Bruno Glaser and colleagues revealed that these black soils contained up to 70 times more black carbon than their surroundings. Not just any carbon, but the product of the incomplete combustion of biomass: charcoal. Not the destructive fire of wild burns, but the controlled fires of domestic hearths, cooking stoves, and pre-Columbian farming practices.

From legend to science

Terra Preta was not a natural phenomenon. It was the trace left by indigenous communities who, 1,500–2,500 years ago, had learned how to turn kitchen waste, wood, and organic residues into fertile, enduring soil. Not slash-and-burn, the practice that devours forests and releases CO₂, but slash-and-char: a way to trap carbon and build fertility.

That charcoal, highly aromatic and chemically stable, survives in soil for centuries. Over time, oxidation enriches its edges with carboxylic groups, increasing its nutrient-holding capacity. In this way, an apparently inert material becomes a treasure chest of fertility, able to sustain crops long after the indigenous people who created it had disappeared.

And it is from this legacy that the word we use today was born: biochar. No longer just an archaeological curiosity, but a technology to be reimagined for modern times.

Biochar today

The name may sound like a marketing gimmick, but it isn’t. It’s the term chosen by the scientific community to define the carbon-rich material produced by the pyrolysis of waste biomass – wood, agricultural residues, even animal by-products – and deliberately applied to soil to improve its quality.

Why should we care?
Because we know that global warming is driven by human activity, and we need new tools to slow the race of greenhouse gases. Biochar, if properly produced and applied, seems to offer exactly this:

  • locking carbon into soils, keeping it out of the atmosphere;
  • improving soil structure, making it more fertile and less prone to erosion;
  • adsorbing toxic substances, helping to clean polluted soils and waters;
  • altering soil pH, favoring plant growth.

This isn’t theory: these are experimental findings that have sparked worldwide enthusiasm. But… does it always work that way?

Secrets in the pores

The truth is that biochar is never the same. It depends on the feedstock, on the pyrolysis temperature, and on the production conditions. Some biochars are stable and effective; others degrade quickly or release what they were meant to retain.

So how do we know which biochar really works?

This is where the techniques I use in my research come into play. With nuclear magnetic resonance (NMR) we can observe how water behaves inside biochar pores: how it moves, how long it remains trapped, how it interacts with ions and contaminants. In practice, we can listen to the “inner life” of a piece of charcoal.

Such information allows us to build more reliable models and to distinguish effective biochar from illusory ones. It’s painstaking work, but essential: if we want biochar to be a true sustainability tool, we must first understand its deepest mechanisms.

Esprit de char

The National MagLab told part of this story in an article with an evocative title: Esprit de char. “The spirit of charcoal”: a name that captures the essence. Because biochar is not just a technical material—it’s a bridge between past and future. An ancient charcoal with a new task: to help rewrite the relationship between humans, soils, and climate.

And tomorrow?

So, is biochar the key to truly sustainable agriculture?
We shouldn’t fool ourselves: it’s no magic wand. Biochar alone won’t solve the climate crisis or restore degraded soils. But it can be a powerful tool – if used wisely.

Perhaps, in the end, the “esprit de char” is nothing more than this: the memory of a fire that, instead of consuming, created. A fire that still today can teach us how to turn shadow into resource, charcoal into future.

Further reading:

And some of my earlier blog posts (in Italian):

 

Dal lisenkoismo ai “fatti alternativi”: un monito per l’Italia

Introduzione

Mi accingo a scrivere questo articolo prendendo spunto da un recente pezzo del mio amico e collega Enrico Bucci, pubblicato su Il Foglio e disponibile anche sul suo blog al seguente link: Contro il populismo sanitario.

Ad Enrico va il merito di aver messo a fuoco con grande chiarezza un nodo cruciale del dibattito contemporaneo: l’uso distorto di parole come libertà e pluralismo per giustificare la presenza, nei tavoli scientifici, di opinioni che nulla hanno a che vedere con la solidità delle prove.

Partendo dalle sue riflessioni, vorrei proporre un parallelismo storico che ci aiuta a comprendere meglio la posta in gioco, ma che al tempo stesso mostra come noi italiani non abbiamo mai fatto buon uso delle lezioni che la storia ci consegna.

Non è un caso, del resto, se oggi viviamo in una realtà che, a mio avviso, ricorda la fine dell’Impero Romano e preannuncia gli anni più bui dell’alto medioevo. Pur disponendo di una tecnologia senza precedenti e di possibilità di conoscenza mai così ampie, siamo circondati da ignoranza bieca e da un populismo slogan-based che erode secoli di evoluzione culturale.

Il parallelismo di cui voglio discutere ci porta indietro di quasi un secolo, nell’Unione Sovietica di Stalin, quando un agronomo di nome Trofim Denisovič Lysenko riuscì a piegare la scienza alle esigenze della politica, con conseguenze drammatiche.

Chi era Lysenko

Trofim Denisovič Lysenko nacque in Ucraina nel 1898, in un’epoca in cui la genetica mendeliana stava già gettando basi solide in Europa e negli Stati Uniti, aprendo una nuova stagione di scoperte che avrebbe cambiato per sempre la biologia. Mentre il mondo avanzava verso la modernità scientifica, egli imboccò una via diversa: più comoda per la retorica del potere che per la verità sperimentale.

Convinto che i caratteri acquisiti dalle piante durante la loro vita – come l’adattamento al freddo – potessero essere trasmessi alle generazioni successive, Lysenko resuscitava sotto nuove vesti un lamarckismo ormai screditato. Non era innovazione, ma regressione: una costruzione ideologica spacciata per scienza, utile a chi voleva piegare la natura alla volontà politica.

La sua pratica più celebre, la cosiddetta vernalizzazione, prometteva raccolti miracolosi. “Educando” i semi al gelo, sosteneva, li si sarebbe resi più fertili e produttivi. Una favola travestita da metodo, priva di fondamento sperimentale, che però parlava il linguaggio dei sogni collettivi e delle promesse facili: quello stesso linguaggio che i regimi totalitari e i populismi di ogni epoca amano usare per sedurre le masse e zittire la scienza.

L’appoggio di Stalin

Il destino di Lysenko cambiò radicalmente nel 1935, quando presentò le sue teorie davanti al vertice del regime. In quell’occasione, Stalin lo incoraggiò pubblicamente con un secco ma inequivocabile: «Bravo, compagno Lysenko!». Quelle parole, apparentemente banali, furono in realtà una sentenza: da quel momento, la sua ascesa divenne inarrestabile.

Non contavano più le prove, non contavano i dati, non contava la comunità scientifica internazionale: ciò che contava era la fedeltà ideologica. Lysenko incarnava perfettamente il messaggio che Stalin voleva trasmettere al popolo: la natura, come l’uomo sovietico, era malleabile, poteva essere piegata e trasformata a piacere dal potere politico.

In un Paese dove il dissenso significava prigione o morte, l’agronomo ucraino divenne il simbolo della “scienza ufficiale”, il vessillo di una biologia che non cercava la verità, ma l’approvazione del dittatore. La fedeltà alla linea sostituiva la fedeltà ai fatti: e da quel momento, in URSS, non era più la scienza a guidare la politica, ma la politica a decidere che cosa fosse scienza.

Il crimine contro la ragione

Il prezzo di questa deriva fu immenso, pagato non solo dalla comunità scientifica ma da milioni di cittadini sovietici.

La genetica mendeliana venne bandita come “scienza borghese” e i libri che la insegnavano finirono al macero. Le cattedre universitarie furono svuotate, i laboratori costretti ad abbandonare ricerche rigorose per piegarsi alle direttive di regime. In un colpo solo, l’Unione Sovietica si amputò di decenni di progresso scientifico.

Gli scienziati che osavano resistere pagarono un prezzo terribile. Il caso più emblematico fu quello di Nikolaj Vavilov, uno dei più grandi genetisti del XX secolo, che aveva dedicato la vita a raccogliere semi da ogni angolo del pianeta per assicurare all’umanità la sicurezza alimentare. Arrestato, processato come “nemico del popolo” e internato in un gulag, morì di stenti nel 1943. La sua fine è il simbolo di una scienza libera sacrificata sull’altare della fedeltà ideologica.

Le pratiche agricole di Lysenko, prive di fondamento, furono applicate su larga scala e condannarono intere regioni alla fame. Le promesse di raccolti miracolosi si infransero nella realtà dei campi sterili, e carestie devastanti falciarono milioni di vite.

Così, nel nome di un dogma politico, la verità fu soffocata, la scienza ridotta a propaganda e la popolazione trasformata in vittima sacrificale. Il lisenkoismo non fu soltanto un errore scientifico: fu un crimine storico contro la ragione e contro il popolo.

Le ombre di casa nostra

Il fascismo italiano

E non è necessario guardare soltanto a Mosca per cogliere questo meccanismo. Anche l’Italia fascista impose il suo controllo alle università attraverso il giuramento di fedeltà al regime. Solo dodici professori ebbero il coraggio di rifiutare: un numero esiguo, che mostra quanto fragile diventi la libertà accademica quando il potere politico pretende obbedienza invece di pensiero critico.

Il fascismo non si fermò lì: con il Manifesto della razza, firmato da accademici italiani compiacenti, la scienza fu ridotta a strumento di propaganda, piegata a giustificare l’ideologia razzista del regime. È un precedente che dovrebbe farci rabbrividire, perché dimostra che anche nel nostro Paese la comunità scientifica può essere sedotta, intimidita o resa complice.

L’Italia di oggi

E oggi? Il controllo non passa più attraverso giuramenti di fedeltà o manifesti infami, ma attraverso nuove forme di ingerenza: la burocratizzazione estrema, la trasformazione dell’università in un apparato amministrativo svuotato di senso critico, e persino la proposta – inquietante – di introdurre i servizi segreti all’interno degli atenei (Servizi segreti nelle università: i rischi del ddl sicurezza; Ricerca pubblica, servizi segreti: il ddl sicurezza e l’università). Cambiano le forme, ma la logica resta la stessa: soffocare la libertà del sapere sotto il peso del controllo politico.

Pluralismo o propaganda?

Oggi nessuno rischia più il gulag, ma il meccanismo che vediamo riproporsi ha la stessa logica corrosiva.

Ieri, in Unione Sovietica, l’accesso al dibattito scientifico era subordinato alla fedeltà ideologica al regime.
Oggi, in Italia e in altre democrazie occidentali, il rischio è che l’accesso ai tavoli scientifici sia garantito non dalla forza delle prove ma dalla forza delle pressioni politiche e mediatiche, camuffate sotto la parola rassicurante di pluralismo.

Qui sta l’inganno: confondere due piani radicalmente diversi.

  • Il pluralismo politico è un pilastro della democrazia: rappresenta valori, interessi, visioni del mondo.
  • Il pluralismo scientifico invece non è questione di sensibilità o di opinioni: è confronto tra ipotesi sottoposte allo stesso vaglio, alla stessa verifica, alla stessa brutalità dei fatti.

Se i due piani vengono confusi, allora ogni opinione – per quanto priva di fondamento – reclama pari dignità. È così che la pseudoscienza trova la sua sedia accanto alla scienza: l’omeopatia diventa “alternativa terapeutica”, la biodinamica “agricoltura innovativa”, il no-vax “voce da ascoltare”. È il falso equilibrio, l’illusione che esista sempre una “controparte” legittima anche quando le prove hanno già da tempo pronunciato il loro verdetto.

Ecco il punto: quando la politica impone la par condicio delle opinioni in campo scientifico, non difende la democrazia, ma la tradisce. Toglie ai cittadini la bussola della conoscenza verificata e li abbandona in balìa delle narrazioni. È la stessa logica che portò Lysenko al trionfo: non contavano i dati, contava il gradimento del potere.

Oggi, in un’Italia soffocata da slogan e da populismi che si travestono di democrazia mentre erodono la cultura, questo monito pesa come un macigno. La lezione di Lysenko ci dice che non esiste compromesso tra scienza e ideologia: o la scienza resta fedele al metodo e ai fatti, o smette di essere scienza e diventa propaganda.

Conclusione

La vicenda di Lysenko non è un reperto da manuale di storia della scienza: è un monito vivo, che parla a noi, oggi. Ci ricorda che ogni volta che la politica pretende di piegare la scienza a logiche di consenso, ogni volta che si invoca il “pluralismo” per spalancare le porte a tesi già smentite, ogni volta che l’evidenza viene relativizzata in nome della rappresentanza, non stiamo ampliando la democrazia: stiamo segando il ramo su cui essa stessa si regge.

La scienza non è perfetta, ma è l’unico strumento che l’umanità abbia costruito per distinguere il vero dal falso in campo naturale. Se la sostituiamo con il gioco delle opinioni, ci ritroveremo non in una società più libera, ma in una società più fragile, più manipolabile, più esposta all’arbitrio dei potenti di turno.

Ecco perché il parallelismo con il lisenkoismo non è un eccesso retorico, ma un allarme. Allora furono milioni le vittime della fame; oggi rischiamo vittime diverse, più silenziose ma non meno gravi: la salute pubblica, l’ambiente, la fiducia stessa nelle istituzioni.

La domanda che dobbiamo porci, senza ipocrisie, è semplice:
vogliamo una scienza libera che guidi la politica, o una politica che fabbrica la sua scienza di comodo?

La storia ci ha già mostrato cosa accade quando si sceglie la seconda strada. Ignorarlo, oggi, sarebbe un crimine non meno grave di quello commesso ieri. Oggi l’Italia deve scegliere se vuole una scienza libera o un nuovo lisenkoismo democratico

 

«I really believe deeply in science; it is my life and the purpose of my life. I do not hesitate to give my life even for the smallest bit of science.»
– Nikolai Vavilov, parole attribuite a Vavilov durante la prigionia

I cambiamenti climatici? Sì, siamo noi i responsabili.

Vi siete mai trovati di fronte a un negazionista climatico? Io sì!

C’è chi dice che i cambiamenti climatici non esistono, perché “oggi piove” o “ieri faceva freddo”. A questi ho già risposto nei primi due articoli della serie, parlando del riscaldamento globale e dei suoi effetti locali – temporali compresi – e del grande rimescolamento che avviene negli oceani.

Ma poi ci sono quelli che ammettono sì, il clima sta cambiando, però non è colpa nostra. “È il Sole!”, “Sono i vulcani!”, “È sempre successo!”.

Ecco, è a loro che è dedicato questo articolo.

Perché sì, il clima è sempre cambiato: durante le ere glaciali e le fasi interglaciali, le grandi estinzioni, le migrazioni dei continenti, ma mai così, e mai così in fretta.

La temperatura media globale è aumentata di oltre un grado in poco più di un secolo. La concentrazione di CO2 nell’atmosfera ha superato le 420 parti per milione, un valore che non si era mai visto negli ultimi 800.000 anni e probabilmente nemmeno negli ultimi tre milioni.

E questo non lo dicono gli opinionisti, ma le carote di ghiaccio estratte dall’Antartide e dalla Groenlandia, dove ogni bolla d’aria intrappolata è una macchina del tempo (Staffelbach et al., 1991; Berends et al., 2021; Bauska, 2024).

La traccia dell’uomo

Quando osserviamo il passato del clima, vediamo che le sue variazioni sono state guidate da forzanti naturali: cicli orbitali (i cosiddetti cicli di Milanković), variazioni dell’attività solare, grandi eruzioni vulcaniche. Questi meccanismi hanno regolato per millenni l’alternarsi di periodi glaciali e interglaciali. Tuttavia, nessuna di queste spiegazioni è sufficiente a giustificare l’aumento repentino e marcato della temperatura media globale registrato negli ultimi 150 anni.

Solo includendo nei modelli climatici le forzanti antropiche – in particolare le emissioni di gas serra derivanti dalla combustione di combustibili fossili, la deforestazione su larga scala, l’allevamento intensivo e l’uso massiccio di fertilizzanti – è possibile riprodurre fedelmente l’andamento osservato del riscaldamento globale (Stott et al., 2000; Meehl et al., 2004; Lee et al., 2016; Abatzoglou et al., 2018; Schlunegger et al., 2019; He et al., 2023; Tjiputra et al., 2023; Abera et al., 2024; Gong et al. 2024).

Questa evidenza è stata raccolta e consolidata da decenni di ricerca, culminando nella sintesi fornita dall’Intergovernmental Panel on Climate Change (IPCC) nel suo Sesto Rapporto di Valutazione (AR6, 2021), dove si legge:

“It is unequivocal that human influence has warmed the atmosphere, ocean and land.”

È la prima volta che l’IPCC utilizza il termine “inequivocabile” per descrivere l’influenza umana sul sistema climatico. Questo non è frutto di una singola analisi o di un’interpretazione soggettiva, ma il risultato di milioni di osservazioni, migliaia di simulazioni indipendenti e centinaia di studi scientifici pubblicati su riviste peer-reviewed. Un risultato convergente, robusto e statisticamente solido, ottenuto da comunità scientifiche di tutto il mondo.

In altre parole, senza introdurre l’uomo nelle equazioni, il riscaldamento osservato non si spiega.

La firma fossile

Anche la chimica ci aiuta a riconoscere con chiarezza il responsabile. Il carbonio che proviene dai combustibili fossili ha una composizione isotopica distinta rispetto a quello attivamente scambiato tra atmosfera, biosfera e oceani. In particolare, il rapporto tra gli isotopi stabili del carbonio (13C/12C) è un indicatore chiave: i combustibili fossili, derivati dalla sostanza organica vegetale antica, sono naturalmente poveri in 13C. Quando bruciamo carbone, petrolio o gas naturale, questo carbonio “leggero” si riversa nell’atmosfera, abbassando il δ13C atmosferico in modo misurabile (Keeling et al., 1979; Francey et al., 1999).

Questo segnale isotopico rappresenta una vera e propria firma chimica dell’origine fossile della CO2 in eccesso. È come se la Terra ci stesse restituendo lo scontrino della nostra attività industriale.

Un’ulteriore conferma arriva dal monitoraggio del radiocarbonio (14C): essendo un isotopo radioattivo con un’emivita di circa 5.700 anni, è completamente assente nei combustibili fossili, che hanno milioni di anni. L’immissione massiccia di CO2 fossile diluisce il contenuto di 14C nell’atmosfera, un fenomeno noto come Suess effect (Suess, 1955; Graven et al., 2012).

Ma la CO2 non è l’unico gas climalterante in aumento. A questo si aggiungono due gas serra minori ma molto più potenti per unità di massa: il metano (CH4) e il protossido di azoto (N2O). Il metano è rilasciato da fonti naturali, ma in misura crescente anche da allevamenti intensivi, risaie e attività estrattive (Kirschke et al., 2013), mentre il protossido di azoto deriva principalmente dall’uso agricolo di fertilizzanti azotati (Syakila & Kroeze, 2011). Entrambi i gas contribuiscono in modo sostanziale al riscaldamento globale, con un potere climalterante rispettivamente 28–34 volte (CH4) e circa 265 volte (N2O) superiore a quello della CO2 su scala centennale (IPCC AR6, 2021).

La loro crescita, documentata in registrazioni atmosferiche e bolle d’aria nei ghiacci, segue l’espansione delle attività agricole e industriali umane, non eventi naturali. Anche qui, la firma è inequivocabile.

Gli alibi non reggono

C’è chi punta il dito contro i vulcani, sostenendo che siano loro a rilasciare enormi quantità di CO₂. Ma questa affermazione è smentita dai dati: le emissioni vulcaniche annue di anidride carbonica sono stimate intorno ai 0,26 gigatonnellate, contro le oltre 36 gigatonnellate prodotte ogni anno dalle attività umane (Andres et al., 2012; Burton et al., 2013). In altre parole, le emissioni antropiche superano quelle vulcaniche di almeno 100 volte. I vulcani, inoltre, spesso hanno effetti raffreddanti temporanei sul clima, a causa degli aerosol solforici che riflettono la luce solare (come accadde dopo l’eruzione del Pinatubo nel 1991; Soden et al., 2002).

Altri tirano in ballo il Sole. Ma le osservazioni satellitari dal 1978 in poi mostrano che l’irraggiamento solare totale (TSI) è rimasto sostanzialmente stabile o ha addirittura subito una lieve diminuzione. Se il Sole fosse il responsabile del riscaldamento, ci aspetteremmo un riscaldamento uniforme in tutta l’atmosfera. Invece, ciò che si osserva è un riscaldamento netto nella troposfera e un raffreddamento nella stratosfera — una firma tipica dell’effetto serra (Santer et al., 2013).

Altri ancora evocano vaghi “cicli naturali”, ma senza mai specificare quali. I cicli oceanici come El Niño o la PDO (Pacific Decadal Oscillation) possono modulare il clima a livello regionale e su scala interannuale o decadale, ma non spiegano la tendenza globale e persistente all’aumento delle temperature. Sono fluttuazioni attorno a una curva che, negli ultimi decenni, ha una pendenza chiaramente positiva.

La verità è che ogni singolo grande ente scientifico mondiale — dalla NASA alla NOAA, dal Met Office britannico fino al Centro Europeo Copernicus, e naturalmente l’IPCC — concorda su questo punto:

la causa principale del riscaldamento globale osservato dal 1850 a oggi è l’attività umana.

Non è tutta colpa nostra?

Certo, i sistemi climatici sono complessi. Una componente naturale è sempre presente.
Ma i modelli climatici sono in grado di isolare le diverse forzanti: senza introdurre le emissioni antropiche, non si riesce a riprodurre l’aumento delle temperature globali osservato nel XX e XXI secolo (Weart, 2009; IPCC AR5, 2013; Rosenzweig & Neofotis, 2013; White, 2025).
Senza l’uomo, questo riscaldamento non ci sarebbe stato. E senza l’uomo, non sarà possibile fermarlo.

Una responsabilità storica

Siamo la prima generazione a vedere, misurare e comprendere gli effetti del cambiamento climatico su scala planetaria. Ma siamo anche — con ogni probabilità — l’ultima che ha ancora tempo per intervenire e limitare i danni più gravi.
Non parliamo di proiezioni astratte o scenari lontani: le ondate di calore, gli incendi fuori scala, la fusione dei ghiacci, le migrazioni forzate per siccità o inondazioni sono già realtà, e sono il frutto diretto di decenni di emissioni accumulate.

A causare il cambiamento climatico è stata l’attività dell’uomo moderno, non l’uomo in quanto specie.
Abbiamo costruito un modello economico basato sull’uso massiccio di combustibili fossili, sull’espansione urbana, sull’agricoltura intensiva, sull’estrazione incessante di risorse. Questo sistema ci ha dato energia, mobilità, benessere. Ma ha anche rotto l’equilibrio termico del pianeta.

Il clima sta cambiando per colpa nostra. Ma proprio per questo, possiamo ancora cambiarlo noi.

Non basta più ridurre “un po’” le emissioni o piantare qualche albero. Serve una trasformazione sistemica:

  • Decarbonizzare i trasporti, l’energia e l’industria, puntando su fonti rinnovabili come l’eolico e il solare, ma senza pregiudizi ideologici nei confronti del nucleare, che – come ho già discusso nell’articolo L’atomo della pace – resta una delle poche fonti capaci di fornire energia a basse emissioni su larga scala.
  • rivedere le pratiche agricole e alimentari, riducendo l’impatto ambientale della produzione primaria attraverso un uso più razionale di risorse come acqua, fertilizzanti e suolo, e promuovendo sistemi colturali e zootecnici improntati alla sostenibilità. L’agricoltura integrata, che prevede un equilibrio tra coltivazioni e allevamenti, può contribuire a mantenere la fertilità dei suoli, ridurre le emissioni climalteranti e garantire una produzione alimentare efficiente e resiliente. Anche la lotta agli sprechi resta fondamentale lungo tutta la filiera.
  • proteggere e ripristinare gli ecosistemi naturali, perché foreste, zone umide e suoli ricchi di sostanza organica svolgono un ruolo chiave come serbatoi di carbonio. Intervenire su scala paesaggistica significa rafforzare la capacità del pianeta di tamponare gli effetti del riscaldamento globale, rallentando i feedback più pericolosi.
  • adattare città e territori agli eventi estremi già in corso, ripensando la gestione del rischio, l’urbanizzazione selvaggia e l’impermeabilizzazione del suolo. L’aumento delle temperature e la frequenza di fenomeni meteorologici estremi impongono infrastrutture più resilienti, spazi verdi urbani, reti idriche e sistemi di allerta progettati per il clima che verrà – non per quello che avevamo.

E accanto alle scelte politiche e industriali, anche le azioni individuali contano: ridurre gli sprechi, consumare meno e meglio, informarsi, partecipare, votare con consapevolezza.

Non è una colpa da espiare.
Non serve sentirsi inadeguati o sopraffatti.
È una responsabilità storica che possiamo ancora scegliere di assumerci.
Perché, se il problema è stato causato dall’uomo, la soluzione può venire solo da noi.

Glifosato e cancro: nuovo studio, molti titoli… pochi fatti

di Enrico Bucci & Pellegrino Conte

Se c’è una cosa che la scienza dovrebbe insegnarci, è che non tutti gli studi hanno la stessa valenza e importanza. Alcuni sono ben progettati, trasparenti e ci aiutano a capire meglio il mondo; altri, invece, presentano fragilità nelle premesse, nel metodo o nell’interpretazione dei dati.

L’ultimo studio pubblicato nel 2025 su Environmental Health da un gruppo di ricerca dell’Istituto Ramazzini ha fatto molto discutere, sostenendo che anche dosi di glifosato ritenute sicure possano aumentare il rischio di tumori nei ratti. Da qui è nato il timore che, se aumenta la possibilità di avere tumori nei ratti, anche l’essere umano possa correre lo stesso rischio. Tuttavia, un’analisi attenta rivela numerosi limiti sull’effettiva rilevanza dei risultati.

Vediamo perché.

Dosi scelte e perché non sono realistiche

Lo studio ha previsto tre dosi di glifosato somministrate ai ratti:

  • 0.5 mg/kg al giorno (l’ADI, ovvero la dose giornaliera accettabile in Europa)
  • 5 mg/kg al giorno (10 volte l’ADI)
  • 50 mg/kg al giorno (NOAEL, che corrisponde alla dose massima senza effetti osservati).

A prima vista, trovare effetti anche alla dose più bassa potrebbe sembrare preoccupante. Ma c’è un dettaglio importante: l’ADI non è una soglia tossicologica, ma un limite iper-cautelativo. Come viene calcolata?

  1. Si prende la dose più alta che non ha causato effetti negli animali (es. 50 mg/kg).
  2. Si divide per 100: 10 per la variabilità interspecie (topo vs uomo) e 10 per la variabilità intraspecie (uomo vs uomo).
  3. Si ottiene l’ADI (0.5 mg/kg).

Quindi, se uno studio trova effetti giusto all’ADI, non è un fallimento del sistema: è la conferma che il sistema di sicurezza funziona.

E nella vita reale? L’EFSA ha stimato che l’esposizione reale della popolazione è centinaia di volte inferiore all’ADI. Per raggiungere 0.5 mg/kg, un adulto di 70 kg dovrebbe mangiare 10 kg di soia OGM al giorno, tutti i giorni. E anche gli agricoltori professionisti non si avvicinano a quei livelli.

Discrepanze tra dosi dichiarate e dosi realmente usate

Come si può facilmente immaginare, il lavoro che stiamo valutando non è passato inosservato. La comunità scientifica si è subito attivata per verificare se quanto riportato fosse attendibile, e questo è un aspetto cruciale. In un contesto saturo di informazioni, dove distinguere il falso dal vero o dal verosimile è sempre più difficile, avere dei riferimenti affidabili per valutare la solidità di uno studio è fondamentale. Dimostra anche che la scienza non resta chiusa in una torre d’avorio: controlla, discute e, se necessario, corregge.

Un’analisi particolarmente accurata pubblicata su PubPeer  ha evidenziato come gli autori dello studio mirassero a somministrare ai ratti tre livelli “target” di esposizione giornaliera al glifosato, corrispondenti, come già indicato nel paragrafo precedente, all’ADI europea di 0,5 mg per chilo di peso corporeo, a 5 mg/kg e infine al NOAEL di 50 mg/kg, calibrando la concentrazione del principio attivo nell’acqua da bere sulla base di un consumo medio di 40 mL e di un peso medio di 400 g. Tuttavia, nei grafici relativi al peso e al consumo d’acqua, visibili già a partire dalla quinta settimana di vita, si nota chiaramente che i ratti più giovani, ancora ben al di sotto dei 400 g, continuano a bere quantità di acqua vicine a quelle stimate per gli adulti. Questo significa che, anziché ricevere esattamente i dosaggi “target”, i cuccioli assumono in realtà molto più glifosato, spesso oltre il doppio di quanto previsto per l’ADI, proprio nel momento in cui la loro vulnerabilità ai possibili effetti tossici è maggiore.

Colpisce poi il fatto che i pannelli che riportano l’effettiva assunzione giornaliera di glifosato inizino soltanto alla tredicesima settimana, escludendo dalla visualizzazione le prime dieci settimane successive allo svezzamento, quando il sovradosaggio è più pronunciato. In questo modo il lettore non ha modo di rendersi conto di quanto i ratti più giovani abbiano effettivamente superato i livelli di riferimento, né di valutare eventuali conseguenze sulla salute in questa fase critica dello sviluppo.

La mancanza di qualsiasi discussione nel testo centrale su questa esposizione eccessiva nei cuccioli rappresenta una lacuna significativa, perché proprio nei primi mesi di vita gli organismi mostrano una sensibilità maggiore a sostanze tossiche. Sarebbe stato opportuno non soltanto estendere i grafici dell’assunzione fin dalla quinta settimana, ma anche accompagnarli con un’analisi dedicata a quei dati, per capire se fenomeni di tossicità precoce possano essere correlati proprio al superamento dei dosaggi prefissati. In assenza di questa trasparenza, resta un interrogativo aperto sul reale profilo di sicurezza del glifosato nei soggetti in accrescimento.

Statistiche creative: quando un “aumento significativo” è solo rumore

Uno dei problemi più comuni negli studi tossicologici è quando si prendono in considerazione troppi parametri. In queste circostanze, prima o poi, qualcosa risulterà “statisticamente significativo”… ma per puro caso.

Lo studio ha esaminato tumori in:

  • fegato
  • pelle
  • tiroide
  • sistema nervoso
  • reni
  • mammelle
  • ovaie
  • pancreas
  • ghiandole surrenali
  • milza
  • osso
  • vescica

Statisticamente parlando, più confronti si fanno, più aumenta il rischio di falsi positivi: è il noto problema dei confronti multipli. E in questo caso non è stata applicata nessuna correzione (come Bonferroni o FDR), nonostante le decine di test effettuati.

Per esempio:

  • Un solo caso di carcinoma follicolare tiroideo (1,96%) viene presentato come “aumento significativo”, nonostante un’incidenza storica dello 0,09%.
  • Leucemie rarissime (0 casi nei controlli) diventano improvvisamente “frequenti” se appaiono in uno o due animali.

E proprio perché si lavora con numeri minuscoli (gruppi da 51 ratti), anche un singolo caso in più può far sembrare enorme un effetto che in realtà è solo rumore statistico.

Non a caso, un commentatore su PubPeer ha fatto notare che, nella versione pubblicata rispetto al preprint è stato aggiunto un caso di leucemia monocitica in un ratto femmina trattato con 50 mg/kg/die, assente nella versione preprint. Nessuna spiegazione è stata data per questo cambiamento. Ma in gruppi così piccoli, un solo caso in più può bastare a far emergere o sparire un “aumento significativo”. E la mancanza di trasparenza su come sia stato deciso questo aggiornamento rende ancora più difficile fidarsi delle conclusioni.

Statistiche fragili: come un’analisi più corretta fa crollare i risultati

Gli autori dello studio dicono di aver usato il test di Cochrane-Armitage per verificare se aumentando le dosi di glifosato aumentasse anche il numero di tumori nei ratti: insomma, per valutare se esistesse un trend “dose-risposta” significativo.

Fin qui, tutto regolare. Ma leggendo le osservazioni pubblicate su PubPeer emerge un problema serio: gli autori hanno usato la versione asintotica del test, che diventa poco affidabile quando si analizzano eventi rari – come accade quasi sempre negli studi di cancerogenicità a lungo termine, dove molti tumori osservati sono davvero pochi.

Chi ha commentato ha quindi rifatto i calcoli usando la versione esatta del test (disponibile grazie al software del DKFZ) e il risultato è stato sorprendente: i p-value, che nello studio originale erano inferiori a 0.05 (e quindi dichiarati “significativi”), sono saliti ben oltre 0.25, diventando del tutto non significativi.

In pratica: gli stessi dati, analizzati in modo più corretto, perdono completamente la significatività statistica.

E questo non è un dettaglio secondario: lo stesso errore potrebbe riguardare anche altre analisi statistiche e tabelle pubblicate, mettendo seriamente in discussione la solidità complessiva delle conclusioni dello studio.

Glifosato puro vs formulazioni commerciali: un confronto incompleto

Lo studio testa anche due erbicidi commerciali (Roundup Bioflow e RangerPro), sostenendo che siano più tossici del glifosato puro. Ma:

È un po’ come dire:

“La vodka è tossica!”
Senza specificare se il problema è l’alcol o l’acqua in essa contenuta.

Trasparenza e potenziali conflitti d’interesse

Gli autori dello studio dichiarano esplicitamente di non avere conflitti di interesse. Tuttavia, come segnalato su PubPeer, emergono diverse criticità. L’Istituto Ramazzini che ha condotto la ricerca riceve fondi da organizzazioni e soggetti che hanno preso pubblicamente posizione contro l’uso del glifosato. Tra questi finanziatori troviamo:

  1. la Heartland Health Research Alliance, già criticata da diverse fonti per sostenere ricerche orientate contro i pesticidi;
  2. l’Institute for Preventive Health, fondato da Henry Rowlands, che è anche l’ideatore della certificazione “Glyphosate Residue Free”;
  3. Coop Reno, una cooperativa italiana che promuove attivamente la riduzione dei pesticidi nei propri prodotti;
  4. Coopfond, che ha dichiarato pubblicamente il proprio sostegno alla ricerca contro il glifosato.

Tutti questi elementi non sono banali, perché vanno in direzione opposta alla dichiarazione “no competing interests” fornita dagli autori.

Dichiarare questi legami non significa necessariamente che i risultati siano falsati, ma consente ai lettori di valutare meglio la possibile influenza dei finanziatori.

IARC, hazard e risk: una distinzione fondamentale

Lo studio si richiama alla classificazione dello IARC, che nel 2015 ha definito il glifosato “probabile cancerogeno” (Gruppo 2A). Ma attenzione: l’IARC valuta l’hazard, non il rischio.

  • Hazard: “Il glifosato può causare il cancro in certe condizioni ideali”.
  • Risk: “Il glifosato causa il cancro nelle condizioni reali di esposizione?”

Lo IARC ha incluso nel gruppo 2A anche:

  • la carne rossa,
  • il lavoro da parrucchiere,
  • il turno di notte.

Le principali agenzie che valutano il rischio reale non hanno trovato evidenze sufficienti per considerare il glifosato cancerogeno:

Agenzia Conclusione Anno
EFSA (UE) Non cancerogeno 2023
EPA (USA) Non cancerogeno 2020
JMPR (FAO/OMS) Non cancerogeno 2016
IARC Probabile cancerogeno 2015

Conclusione: il glifosato non è innocente, ma nemmeno un mostro

Il nuovo studio del 2025 mostra che, se si cercano abbastanza tumori rari in tanti tessuti, qualcosa prima o poi emerge. Ma:

  • Le dosi utilizzate sono lontanissime dalla realtà umana, e persino più alte del previsto nei ratti giovani;
  • I risultati sono fragili, non replicati, e statisticamente poco robusti;
  • I meccanismi di azione non sono spiegati;
  • La trasparenza sui dati e sui conflitti di interesse è carente;
  • Le conclusioni si basano su metodi statistici che vanno messi in discussione.

Non si tratta di negazionismo scientifico ma di scetticismo informato, che è il cuore del metodo scientifico. Sebbene questo studio sollevi questioni interessanti, trarre conclusioni definitive su un legame causale tra glifosato e cancro basandosi su dati così fragili e dosi irrealistiche è prematuro. La scienza richiede prove solide, replicabili e trasparenti.

Per questo, le agenzie regolatorie continuano a considerare il glifosato sicuro se usato nei limiti stabiliti. Restiamo aperti a nuove evidenze, ma diffidiamo dei titoli allarmistici che spesso accompagnano studi con così tante ombre.

EDIT

A dimostrazione del fatto che il metodo scientifico si basa sull’autocorrezione, sia Enrico Bucci che io desideriamo ringraziare l’Ing. Dario Passafiume per essersi accorto di un errore che abbiamo commesso nell’interpretare i dati di PubPeer. La sostanza non cambia: cambiano solo i valori assoluti dei numeri che avevamo preso in considerazione. Il testo che abbiamo rieditato per effetto dell’errore di cui ci siamo accorti grazie all’ingegnere è il seguente:

Un’analisi particolarmente accurata pubblicata su PubPeer ha evidenziato una discrepanza rilevante: le figure riportate nello studio non si riferiscono alle dosi dichiarate (quelle indicate nel primo paragrafo), ma a dosi circa dieci volte superiori. In pratica, mentre gli autori affermano di aver usato 0.5, 5 e 50 mg/kg/die, i grafici mostrano dati ottenuti con 5, 50 e 500 mg/kg/die. Si tratta – come già evidenziato – di concentrazioni del tutto inconcepibili nella vita reale dove per arrivare all’assunzione di soli 0.5 mg/kg/die bisogna ingurgitare circa 70 kg di soia OGM al giorno, tutti i giorni.

Microplastiche: i rischi che conosciamo, le sorprese che non ti aspetti

Quando pensiamo all’inquinamento da plastica, ci vengono subito in mente bottiglie che galleggiano negli oceani, sacchetti impigliati tra i rami degli alberi o imballaggi abbandonati nei fossi (Figura 1).

Figura 1. Tracce invisibili del nostro tempo: bottiglie, sacchetti e frammenti di plastica si insinuano nei paesaggi naturali, segnando il confine sottile tra quotidiano e catastrofe ambientale.

Ma esiste un tipo di plastica molto più subdolo e pericoloso, perché invisibile ai nostri occhi: le microplastiche. Questi minuscoli frammenti, spesso più piccoli di un chicco di riso, sono ormai ovunque: nell’acqua che beviamo, nell’aria che respiriamo, nel suolo che coltiviamo e persino, come recenti studi hanno dimostrato, dentro il nostro corpo.

Le microplastiche possono essere prodotte intenzionalmente, come accade ad esempio per le microperle usate in alcuni cosmetici e detergenti industriali. In altri casi, invece, derivano dalla frammentazione di oggetti di plastica più grandi, spezzati nel tempo da sole, vento, onde e attrito. Qualunque sia la loro origine, una volta disperse nell’ambiente, diventano praticamente impossibili da recuperare.

Se inizialmente l’attenzione della ricerca si è concentrata soprattutto sull’ambiente marino, oggi sappiamo che le microplastiche si trovano ovunque. Sono presenti nei mari, nei laghi, nei fiumi, ma anche nei ghiacciai e nell’atmosfera. Sono state rinvenute in alimenti di uso comune, come il pesce, il sale e perfino il miele. E non si tratta solo di contaminazione esterna: alcune ricerche hanno individuato tracce di microplastiche in campioni biologici umani, come sangue, feci e placenta. È una diffusione capillare, e proprio per questo difficile da controllare.

Un campo che ha attirato crescente interesse negli ultimi anni è quello dei suoli. Spesso trascurato rispetto agli ambienti acquatici, il suolo si sta rivelando un enorme serbatoio di microplastiche. La plastica può arrivarci attraverso molteplici vie: dai fanghi di depurazione usati in agricoltura, dai rifiuti plastici agricoli, dal compost contaminato, fino alla semplice deposizione atmosferica. Alcuni studi stimano che i suoli possano contenere più microplastiche degli oceani.

Ma quello che ha sorpreso molti ricercatori è che, in certi casi e in certe condizioni, la presenza di microplastiche nel suolo sembra produrre effetti inaspettati, non tutti negativi. Ad esempio, le plastiche possono contribuire ad aumentare la porosità del terreno, migliorandone l’aerazione e il drenaggio. In alcune situazioni, è stata osservata una maggiore stabilità degli aggregati del suolo e una migliore ritenzione idrica, caratteristiche che potrebbero essere utili, ad esempio, in contesti agricoli soggetti a siccità (Figura 2).

Figura 2. In alcune condizioni, la presenza di microplastiche nel suolo può modificare la struttura degli aggregati, favorendo aerazione, porosità e ritenzione idrica: effetti apparentemente utili in contesti agricoli aridi, ma non privi di rischi a lungo termine.

Anche dal punto di vista biologico, gli effetti sono controversi. Alcuni esperimenti hanno riportato un incremento dell’attività di lombrichi e di alcuni microrganismi in presenza di microplastiche, suggerendo un adattamento o una stimolazione di certi processi. Tuttavia, altri studi mettono in guardia: le stesse microplastiche possono alterare la composizione delle comunità microbiche del suolo, interferire con l’attività enzimatica, ostacolare la germinazione delle piante e veicolare sostanze tossiche, come metalli pesanti o pesticidi, adsorbiti sulla loro superficie.

Insomma, si tratta di una situazione complessa. Gli effetti variano molto a seconda del tipo di plastica, della sua forma — che siano fibre, frammenti o sfere — della concentrazione e, naturalmente, delle caratteristiche del suolo ospite. Anche se in certi casi le microplastiche sembrano migliorare temporaneamente alcune proprietà fisiche del terreno, la loro persistenza, la potenziale tossicità chimica e gli effetti a lungo termine sulla salute degli ecosistemi rendono il bilancio complessivo tutt’altro che rassicurante.

La chimica gioca un ruolo chiave in questa sfida. Grazie a essa possiamo non solo comprendere meglio il comportamento delle microplastiche nell’ambiente, ma anche sviluppare strategie per contrastarne la diffusione. La ricerca lavora su materiali biodegradabili, su metodi per separare e rimuovere microplastiche da acque e fanghi, su traccianti molecolari per seguirne il destino nell’ambiente e su tecnologie per limitarne l’ingresso nelle filiere produttive.

Ma anche nel nostro piccolo possiamo contribuire. Ridurre l’uso di plastica monouso, preferire materiali naturali per abbigliamento e oggetti di uso quotidiano, evitare prodotti cosmetici contenenti microperle — basta leggere le etichette con attenzione — sono scelte semplici che, moltiplicate per milioni di persone, possono fare una differenza reale. E soprattutto, possiamo diffondere consapevolezza. Perché le microplastiche sono piccole, sì, ma la loro portata è enorme. Capirle, raccontarle e affrontarle è un passo essenziale per costruire un rapporto più equilibrato tra l’uomo, la chimica e l’ambiente.

Riferimenti

Campanale, C., et al. (2020). A detailed review study on potential effects of microplastics and additives of concern on human health. International Journal of Environmental Research and Public Health, 17(4), 1212. (https://www.mdpi.com/1660-4601/17/4/1212)

de Souza Machado, A.A., et al. (2019). Microplastics Can Change Soil Properties and Affect Plant Performance. Environmental Science & Technology, 53(10), 6044–6052. (https://pubs.acs.org/doi/10.1021/acs.est.9b01339)

Hale, R.C., et al. (2020). A Global Perspective on Microplastics. Journal of Geophysical Research: Oceans, 125(3), e2018JC014719. (https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2018JC014719)

Ng, E.-L., et al. (2018). An overview of microplastic and nanoplastic pollution in agroecosystems. Science of the Total Environment, 627, 1377–1388. (https://www.sciencedirect.com/science/article/pii/S0048969718303838?via%3Dihub)

Prata, J.C., et al. (2020). Environmental exposure to microplastics: An overview on possible human health effects. Science of the Total Environment, 702, 134455. (https://www.sciencedirect.com/science/article/pii/S0048969719344468?via%3Dihub)

Ragusa, A., et al. (2021). Plasticenta: First evidence of microplastics in human placenta. Environment International, 146, 106274. (https://www.sciencedirect.com/science/article/pii/S0160412020322297?via%3Dihub)

Rillig, M.C., et al. (2017). Microplastic incorporation into soil in agroecosystems. Frontiers in Plant Science, 8, 1805. (https://www.frontiersin.org/journals/plant-science/articles/10.3389/fpls.2017.01805/full)

Wright, S.L., Kelly, F.J. (2017). Plastic and Human Health: A Micro Issue? Environmental Science & Technology, 51(12), 6634–6647. (https://pubs.acs.org/doi/10.1021/acs.est.7b00423)

Zhang, G.S., Liu, Y.F. (2018). The distribution of microplastics in soil aggregate fractions in southwestern China. Science of the Total Environment, 642, 12–20. (https://www.sciencedirect.com/science/article/pii/S0048969718320667?via%3Dihub)

Pensieri in libertà su suolo, agricoltura e altre facezie

Mi scuseranno i miei lettori se pubblico un articolo un po’ noioso. Gli argomenti di cui tratto qui sono un riassunto delle ultime paio di lezioni del mio corso di Chimica dei suoli forestali. Approfitto del mio blog come fonte di dispense di studio.

Cosa è un suolo

Il suolo è un sistema complesso che per definizione è la risultante delle interazioni tra idrosfera, litosfera, atmosfera e biosfera. Questa definizione di carattere generale implica che il suolo non è soltanto composto da sistemi inorganici (tra cui i minerali argillosi giocano un ruolo fondamentale), ma anche da una componente aerea (l’aria tellurica), una componente liquida (la cosiddetta soluzione circolante) ed infine una componente organica che comprende anche gli esseri viventi che, morfologicamente parlando, vanno da una scala micro ad una scala macro.

L’impoverimento del suolo

La produzione alimentare e quella dei tessuti si basa proprio sulla complessa interazione tra le componenti anzidette. Questo vuol dire che quando una pianta viene raccolta per produrre cibo o fibre tessili, il suolo si impoverisce sia delle componenti inorganiche che di quelle organiche utilizzate dalla pianta per passare dallo stadio di seme a quello adulto.

Il depauperamento del suolo, per effetto della riduzione del contenuto di componenti inorganiche facilmente disponibili per le piante e del contenuto di sostanza organica,  implica una riduzione della fertilità intesa come capacità di sostenere la vita. La riduzione della fertilità comporta anche la riduzione della produttività agricola con conseguenze negative sia di tipo economico che di tipo alimentare. In altre parole, a parità di superficie coltivata si riduce la quantità di alimenti e fibre tessili disponibile per soddisfare il fabbisogno di una popolazione in costante crescita.

Quando negli anni del boom economico l’industria chimica scoprì che l’uso di sali inorganici facilmente solubili nella soluzione circolante consentiva il miglioramento della produzione agricola, si pensò di aver trovato la panacea di ogni male. In parole povere, si pensò che l’uso massivo di concimazioni inorganiche potesse consentire guadagni progressivamente crescenti sia in termini economici che in termini di produzione alimentare (necessaria a soddisfare la crescente domanda di cibo da parte della popolazione mondiale) su superfici di suolo sempre più piccole.

Fu dimenticato il ruolo fondamentale ricoperto dalla sostanza organica, sensu lato, nel migliorare le qualità del suolo quali pH, tessitura, struttura, porosità e capacità assorbenti tra cui la ben nota capacità di scambio ionico. L’impoverimento del suolo si associava a fenomeni erosivi che sfociavano in quella che oggi è nota come desertificazione (Fonte). La conseguenza di tutto ciò fu la progressiva contaminazione ambientale.

L’agricoltura sostenibile

Quando ci si rese conto del ruolo che tutte le componenti del suolo, nessuna esclusa, avevano nello sviluppo della cosiddetta fertilità, si cominciarono a mettere in atto tutte quelle pratiche che nel 1992, nella conferenza mondiale sull’ambiente tenutasi a Rio de Janeiro, furono codificate con l’aggettivo “sostenibile” (qui la Dichiarazione di Rio sull’Ambiente e lo Sviluppo). La sostenibilità agricola consiste, quindi, nella possibilità di usare il suolo per la produzione alimentare e tessile mentre si preservano tutte quelle caratteristiche che sono necessarie alla conservazione della fertilità per le generazioni future.

Attualmente le pratiche agricole sostenibili sono confluite in quella che si chiama agricoltura integrata. Questa tipologia di agricoltura fa largo uso di tutto il sapere scientifico e tecnologico che è in continuo divenire. Per esempio, nella pratica viti-vinicola, e non solo, si fa uso dei droni e delle osservazioni satellitari che consentono interventi mirati, direi di tipo chirurgico, con notevole riduzione dell’impatto ambientale (Fonte).

Lo sviluppo scientifico e tecnologico ha portato anche all’ottenimento di piante resistenti a molte patologie prima estremamente impattanti. Mi riferisco alla tanto demonizzata tecnologia degli organismi geneticamente modificati che consente non solo la riduzione quantitativa degli agrofarmaci potenzialmente tossici per gli esseri viventi, essere umano incluso, ma anche l’ottenimento di cibo arricchito di nutrienti essenziali per la lotta alle conseguenze fisiche della povertà alimentare (mi riferisco, per esempio, al tanto demonizzato Golden rise®). Sugli OGM ho scritto già un articolo qualche tempo fa:

Gli OGM per le biodiversità

Sulla terminologia scientifica e sull’uguaglianza naturale=buono

Da scienziati dobbiamo avere la sensibilità di usare i termini nel modo giusto e secondo le accezioni che vengono date in ambito scientifico. Se per primi noi stessi non facciamo questo esercizio, non possiamo, poi, pretendere che le persone che non hanno la medesima formazione culturale utilizzino le parole per il significato che esse hanno realmente.

Mi riferisco, in modo particolare, alle locuzioni “prodotti chimici”, “concimazione chimica”, “fertilizzanti chimici”, etc. che vengono riproposte ogni qual volta si parla di agricoltura.

L’aggettivo “chimico” è ridondante quando è associato a termini come “prodotti”, “concimazione” e “fertilizzanti”. La predetta ridondanza, che rientra, purtroppo, nel linguaggio comune, dà adito alla dilagante chemofobia secondo la quale tutto ciò che è chimico è “cattivo”, tutto ciò che è naturale è buono. Come ho scritto nel mio libro “Frammenti di Chimica”, l’uguaglianza naturale=buono non tiene conto del fatto che i veleni più devastanti sono proprio di origine naturale. Alcuni esempi sono le piretrine – insetticidi ed antiparassitari – presenti in alcune specie di crisantemi (Fonte),  il curaro – dall’attività neurotossica – fatto da principi attivi prevalentemente di origine vegetale (Fonte),  le bufotossine prodotte da certe specie di rospi (Fonte) e potrei continuare. Le succitate sostanze, però, se usate nelle dosi opportune hanno attività farmacologica consentendo di curare alcune patologie anche mortali per l’essere umano.

Come per l’uguaglianza naturale=buono, il medesimo discorso si applica a quella chimico=cattivo, dove per “chimico”, nell’accezione “popolana”, si intende la chimica di sintesi, quella, cioè, deputata alla sintesi di composti aventi proprietà chimico-fisiche-biologiche di interesse per tutti gli esseri viventi. Alcuni esempi? La nitroglicerina è il composto di sintesi usato per fabbricare la dinamite (Fonte). Si tratta di un potente esplosivo che diede inizio all’industria degli esplosivi usati ancora oggi in tante battaglie e guerre. Ebbene, l’attività esplosiva di questa molecola è dovuta alla presenza di tre gruppi nitro (-NO3) che conferiscono una certa instabilità chimica al prodotto. Quando la molecola è sottoposta a forte agitazione o a variazioni termiche dà luogo a una reazione che può essere descritta dalla seguente equazione:

3C3H5N3O9  → 12CO2 + 6N2 + O2 + 10H2O + ΔH (-1.5 MJ mol-1)

Si sviluppano gas e una quantità enorme di energia termica che sono responsabili della deflagrazione quando la molecola è inserita in un contenitore chiuso.

Quando la nitroglicerina viene assunta per via orale – in concentrazioni farmacologiche, il processo di degradazione segue altre vie dando luogo alla formazione di monossido di azoto (NO) che è un potente vasodilatatore. Si tratta del vasodilatatore che è in grado di rimediare ai dolori dell’angina pectoris (Fonte). Altri esempi di prodotti di sintesi che vengono usati nella comune pratica medica sono l’insulina – prodotta in laboratorio grazie all’azione di microrganismi geneticamente modificati, l’aspirina – che si ottiene per acetilazione dell’acido salicilico, l’ibuprofene – che si può ottenere sia mediante il processo Hoechts che il processo Boot, etc. etc.

Da questi pochi esempi si capisce come non tutto quello che è naturale faccia bene alla salute e non tutto ciò che è prodotto in laboratorio sia nocivo. In definitiva le uguaglianze naturale=buono e chimico=cattivo sono solo delle trovate pubblicitarie per super-semplificare problemi complessi a persone che non sono abituate al ragionamento controintuitivo (io le chiamo “menti semplici”).

Sul consumo dei suoli

Fatta questa osservazione che mi consente di dire di essere in costante disaccordo con chiunque usi in modo ridondante o sbagliato termini che appartengono alla disciplina chimica, bisogna avere dati alla mano per capire come venga praticata l’agricoltura nei diversi territori del nostro Paese e di come il suolo venga sfruttato. I dati ci sono forniti dall’ISPRA (Fonte).

 

Regione Suolo consumato 2020 [%] Suolo consumato 2020 [ettari] Incremento 2019-2020 [consumo di suolo annuale netto in ettari]
Lombardia 12.1 288504 765
Veneto 11.9 217744 682
Campania 10.4 141343 211
Emilia-Romagna 8.9 200404 425
Puglia 8.1 157718 493
Lazio 8.1 139508 431
Friuli-Venezia Giulia 8.0 63267 65
Liguria 7.2 39260 33
Marche 6.9 64887 145
Piemonte 6.7 169393 439
Sicilia 6.5 166920 400
Toscana 6.2 141722 214
Umbria 5.3 44427 48
Calabria 5.0 76116 86
Abruzzo 5.0 53768 247
Molise 3.9 17317 64
Sardegna 3.3 79545 251
Basilicata 3.2 31600 83
Trentino-Alto Adige 3.1 42772 76
Valle d’Aosta 2.1 6993 14
Italia 7.1 2143209 5175

Fonte della tabella

Dalla tabella si evince come le diverse regioni Italiane si comportino diversamente nei confronti della risorsa non rinnovabile “suolo”. Le Regioni meno virtuose nel 2020 sono state Lombardia, Veneto e Campania con un consumo di suolo maggiore del 10%. Questo numero significa che fatta 100 la superficie delle regioni, nel 2020 le tre Regioni hanno perduto più del 10% della loro superficie rispetto all’anno precedente. Perdere una superficie vuol dire che essa viene sottratta alla produzione alimentare e delle fibre tessili per esigenze di tipo insediativo (Fonte).

Sugli effetti del consumo di suolo sull’attività agricola e l’uso dei fitofarmaci

Usando la logica comune ne viene che se una parte della superficie di un Paese viene sottratta alla produzione alimentare, ciò che ne rimane deve subire uno stress maggiore per soddisfare le esigenze nutritive di una popolazione in costante aumento. Come conseguenza, sembrerebbe chiara la veridicità del sentire comune secondo il quale la pratica agricola fa sempre più largo uso di fitofarmaci contribuendo alla progressiva contaminazione ambientale.

Ancora una volta bisogna ribadire che affermazioni straordinarie richiedono prove straordinarie. Le nostre prove vengono sempre dall’ISPRA e, in particolare, dall’ultimo rapporto pubblicato nel 2019 e relativo alla “Distribuzione per uso agricolo dei prodotti fitosanitari (erbicidi, fungicidi, insetticidi, acaricidi e vari)”. In tale rapporto si riporta chiaramente che:

Nel 2016 sono stati immessi in commercio circa 124 mila t di prodotti fitosanitari (p.f.), con una diminuzione dell’ 8,8% rispetto al 2015 (Tabella 1). Di questi il 49,2% è costituito da fungicidi, il 17,6% da insetticidi e acaricidi, il 18,2 % da erbicidi e il 15% dai vari. Per quanto riguarda il contenuto in principi attivi (p.a.) si registra un calo complessivo del 4,8 %, pari a 3.063 t. Il 60,6% del totale di p.a. è costituito dai fungicidi, seguono, nell’ordine, i vari (16,7%), gli erbicidi (12,4%), gli insetticidi e gli acaricidi (9,6%) e i biologici (0,7%). Nel periodo 2006–2016, la distribuzione dei p.f. presenta una contrazione del 16,7% (24.884 t). Cala il quantitativo di tutte le categorie: fungicidi (-19,6%), insetticidi e acaricidi (-19,2%), erbicidi (- 14,7%) e dei vari (-3%). Anche nel 2016, in linea con le due annate precedenti, i consumi di p.a. biologici aumentano (+15,5 % rispetto al 2015), confermando un’inversione di tendenza. La distribuzione delle trappole, anch’essa associata a criteri di difesa innovativi e a minor impatto sull’ambiente, subisce un crollo passando da poco più di 583 mila a poco più di 191 mila unità. Considerando anche le classi di tossicità previste prima della definitiva entrata in vigore del nuovo sistema di classificazione introdotto dal Regolamento (CE) n.1272/2008, nel 2016 i p.f. molto tossici e tossici rappresentano il 3,9% del totale, i nocivi il 25,7% e i non classificabili il restante 70,3%. Rispetto al 2015 si rileva una decisa riduzione in tutte le categorie: molto tossici e tossici (-29,7%), nocivi (-10,4%), non classificabili (-6,6%). Nel lungo periodo (2006-2016) i molto tossici e tossici registrano una riduzione del 41,9%. I nocivi, che alternano aumenti e diminuzioni, presentano invece un sostanziale aumento (+38%). La distribuzione dei p.f. non classificabili, anch’essa con andamenti fluttuanti, risulta decisamente minore (-25,7%). Nel periodo 2006–2016 si assiste, nel complesso, a un’accentuata contrazione dei consumi in p.a. (-26%), con dinamiche diverse e talora irregolari per le varie categorie. Diminuiscono notevolmente i p.a. di tutte le categorie (insetticidi e acaricidi -47,3%, fungicidi – 28,1 %, erbicidi – 16,1%, vari -5,9%) ad esclusione dei biologici, che continuano ad aumentare (+252%). In valore assoluto essi si attestano, nel 2016, intorno alle 409 t, superiore rispetto a tutti gli anni precedenti. Tutti i p.a. dimostrano un andamento complessivamente in diminuzione, ma fluttuante. Ciò si verifica in modo più evidente per i fungicidi. Tale andamento rispecchia in modo particolare scelte e necessità di natura tecnica ed agronomica (andamento climatico), ma non si possono escludere anche strategie commerciali delle industrie produttrici”.

Andando al 2020, invece, l’ISPRA ha pubblicato il “Rapporto nazionale pesticidi nelle acque” relativo al biennio 2018-2019 dal quale si evince che:

dove il monitoraggio viene eseguito in modo più capillare, tanto più vengono riscontrate presenze di agrofarmaci nelle acque. Tuttavia, questo aumento dei punti che presentano tracce di agrofarmaci non dovrebbe essere confuso con un peggioramento generale della gestione degli agrofarmaci. In ogni caso dal rapporto appare anche che il monitoraggio delle acque superficiali e delle acque profonde, mostra segni di miglioramento rispetto al rapporto precedente. Difatti, per le acque superficiali il 79% dei campioni ha presentato concentrazioni di agrofarmaci inferiori agli SQA (Standard di Qualità Ambientale, nel 2016 erano il 76,1%), mentre per le acque sotterranee i punti di monitoraggio al di sotto degli SQA sono stati quasi il 95% (nel 2016 erano il 91,7%). Anche la vendita di prodotti fitosanitari, come visto, sta mostrando da tempo dei trend in diminuzione sia in termini di quantità assolute che di quantità per ettaro di SAU: i prodotti fitosanitari sono diminuiti del 22,4%, mentre i principi attivi del 27%” (Fonte).

In altre parole, le opinioni personali, le sensazioni soggettive, l’idea che “quando eravamo piccoli si stava meglio” oppure i casi particolari limitati a pochi ettari di suolo (rispetto alla superficie nazionale) in cui gli agricoltori si comportano come criminali, non contano ai fini di una demonizzazione di una agricoltura che sta assumendo sempre più un aspetto sostenibile e, di conseguenza, rispettoso dell’unico pianeta sul quale, per il momento, siamo in grado di vivere.

Sull’agricoltura biologica

Ritorniamo per un momento all’uguaglianza naturale=buono di cui si argomentava più su. Questa associazione del tutto arbitraria e fuorviante viene, in realtà, diffusa – per semplicità argomentativa e per la facilità con cui riesce a penetrare le menti già predisposte a credere che tutto ciò che è presente in natura sia buono e salutare – dagli organismi istituzionali che governano le nostre società. L’esempio si trova in un sito web della Comunità Europea (qui) in cui si riporta:

L’agricoltura biologica è un metodo agricolo volto a produrre alimenti con sostanze e processi naturali”.

A questa affermazione che non definisce in modo puntuale il significato di “naturale” e di cosa siano le sostanze ed i processi naturali – sebbene esista tutta una branca della chimica che prenda il nome di Chimica delle sostanze naturali e che si occupa del comportamento chimico, fisico e biologico dei metaboliti secondari di origine vegetale – si aggiunge anche:

incoraggia a:

  • usare l’energia e le risorse naturali in modo responsabile
  • mantenere la biodiversità
  • conservare gli equilibri ecologici regionali
  • migliorare la fertilità del suolo
  • mantenere la qualità delle acque”.

che, tutto sommato, non è altro che un decalogo della pratica agricola sostenibile che va sotto il nome di agricoltura integrata di cui ho già parlato in precedenza. In altre parole, l’agricoltura biologica è una tipologia di agricoltura integrata che in più offre una certificazione che documenta – o dovrebbe farlo – il basso impatto ambientale dell’attività che viene svolta sotto il cappello del termine “biologico”.

La certificazione “biologica” impone anche l’uso di prodotti fitosanitari opportunamente elencati in liste di prodotti consentiti. Una di queste liste aggiornate al 2020 è presente sul sito del Ministero della Salute (qui), un’altra, meno recente, su quello della Feder-Bio (qui). Per chi è abituato a leggere numeri e tabelle salta subito all’occhio che tra i prodotti fitosanitari ammessi in agricoltura biologica sono presenti numerosi composti a base di rame (Cu). Il rame tutto è tranne che “naturale” e, inoltre, ha una forte attività tossica per tanti organismi viventi, tra cui l’uomo (Fonte). Ma questa è solo una delle tante contraddizioni dell’agricoltura biologica. Un’altra, meno evidente, è legata alla bassa produttività di questa pratica agricola (Fonte). Questo vuol dire che per produrre quanto pratiche agricole non biologiche c’è bisogno di superfici molto estese, ovvero è necessario disboscare con conseguente incremento di gas serra (in particolare anidride carbonica) e tutto ciò che segue in termini di cambiamenti climatici. Di agricoltura biologica dei suoi limiti e vantaggi si parla anche sulla pagina del SeTA (Scienze e Tecnologie per l’Agricoltura) a questo Link.

Sull’illusione dei residui dei fitofarmaci

Molto spesso i no-tutto (di cui ho accennato in una intervista qui) hanno paura anche dell’aria che respirano e si impressionano solo a leggere nomi IUPAC (International Union of Pure and Applied Chemistry) di composti che non sono per nulla pericolosi. Conoscete la beffa del monossido di diidrogeno? No? Bene, la potete leggere qui.

La chemofobia si alimenta anche grazie alle notizie allarmistiche sulla presenza di residui di fitofarmaci che attenterebbero alla salute pubblica. Non molto tempo fa è stata data ampia diffusione a delle analisi fatte da una associazione di produttori su spaghetti di brand piuttosto famosi (qui).

La tabella qui sotto riporta nella prima colonna le aziende prese in considerazione; nella seconda il contenuto di glifosate trovato, espresso come milligrammi (mg) di principio attivo per chilogrammo (kg) di pasta; nella terza la percentuale di glifosato rispetto al limite di legge di 10 mg/kg; nella quarta la quantità di pasta in chilogrammi che contiene la dose di 10 mg/kg indicata come limite massimo di residuo. Infine, nella quinta colonna si riporta la quantità di pasta in chilogrammi che un individuo di 80 kg dovrebbe assumere in un solo giorno per raggiungere il limite di 0.3 mg/kg/d previsto dalla Comunità Europea (ne ho già parlato qui).

È facile capire che le quantità di residui individuati non solo sono ben al di sotto dei limiti di legge, ma sono anche molto al di sotto dei limiti che potrebbero portarci a problemi di salute. Nel XXI secolo è ancora valido il principio stabilito da Paracelso nel XVI secolo in base al quale è la dose che fa il veleno. In altre parole, la presenza di un sistema chimico tossico non vuol dire che esso lo sia veramente perché ciò che importa è quanto di quel sistema è presente in un dato alimento.

Marca degli spaghetti Contenuto in glifosate (mg/kg) Percentuale rispetto al limite di legge (10 mg/kg) Quantità di pasta necessaria per raggiungere il limite di legge (kg) Quantità di pasta che un individuo di 80 kg deve assumere per raggiungere il limite di 0.3 mg/kg/d previsto dalla EU
Riscossa 0.146 1.46 68 164
Divella 0.068 0.68 147 353
Garofalo 0.03 0.3 333 800
De Cecco 0.017 0.17 588 1412
Rummo 0.016 0.16 625 1500
Barilla 0.013 0.13 769 1846

Fonte dell’immagine di copertina (This image is licensed under the Creative Commons Attribution-Share Alike 4.0 International license)

Webinar Europeo sulla risonanza magnetica nucleare a ciclo di campo

Avete voglia di saperne di più sulla risonanza magnetica nucleare a ciclo di campo che di tanto in tanto introduco anche nei miei articoli?

Venerdì 8 maggio 2020  sarà una giornata di studi dedicata proprio a questa tecnica ed alle sue applicazioni in diversi campi: dalla teoria alle applicazioni in campo oncologico a quelle in campo ambientale fino ad arrivare alle applicazioni in ambito energetico.

La giornata organizzata nell’ambito di un progetto COST, si svolgerà in modalità telematica sulla piattaforma WebEx. Per poter avere accesso ai webinar bisogna richiedere l’iscrizione al seguente indirizzo eurelax@matman.uwm.edu.pl chiedendo di partecipare a uno o a più seminari. Vi verrà inviata una mail con le indicazioni da seguire per potervi connettere.

Se volete avere una idea del programma e di come potersi iscrivere potete cliccare sulle immagini qui sotto.

ah…dimenticavo…ci sono anche io. Vi aspetto

 

A tu per tu con l’esperto: alluminio o plastica?

Continua la serie di interviste per la C1V edizioni in cui si affrontano problemi chimici legati alla vita quotidiana. Dopo aver parlato di acqua e dolcificanti (qui), oggi si affronta un problema molto attuale che riguarda la sostenibilità ambientale. Prendendo spunto dalle iniziative di alcune Istituzioni pubbliche che hanno deciso di fornire bottiglie di alluminio per disincentivare l’uso della plastica, affronto il problema dell’inquinamento da plastica ed evidenzio limiti e vantaggi delle iniziative anzidette.

_________________________________

Professore, la sua attività di ricerca è mirata non solo alla delucidazione dei meccanismi coinvolti nella dinamica di nutrienti e contaminanti nei suoli, ma anche al recupero ambientale. Ha letto sicuramente dell’iniziativa promossa dal Comune di Milano e dall’Università di Padova per combattere la lotta all’inquinamento da plastica. Cosa ne pensa?

Cominciamo col dire che il termine “plastica” individua una moltitudine di materiali che si differenziano tra loro per caratteristiche chimico-fisiche e meccaniche. Forse solo gli addetti ai lavori ricordano che una delle prime “plastiche” ad essere sintetizzate fu il rayon. Si tratta di un derivato della cellulosa – sì, il polimero a base di glucosio che costituisce le fibre vegetali – che fu conosciuta come “seta artificiale”. [continua…]

Fonte dell’immagine di copertina

Nuove frontiere nella sintesi delle plastiche

Oggi sono stato intervistato da Juanne Pili su una nuova tecnologia per la sintesi di plastiche che cambiano il nostro approccio al riciclaggio.

Si tratta di plastiche in cui i sistemi carboniosi polimerici contengono dei legami dichetoenamminici (Figura 1).

Figura 1. Fonte

Questi  legami rendono le nuove plastiche più facilmente idrolizzabili in soluzioni acquose di  acidi forti rispetto alle plastiche tradizionali. Una volta idrolizzate le plastiche di nuova generazione, è possibile isolare i prodotti che si ottengono che possono essere riutilizzati per la sintesi di altra plastica.

L’intervista completa è su Open al seguente link:

Per saperne di più

1. https://www.nature.com/articles/d41586-019-01209-3?error=cookies_not_supported&code=297942b7-4d78-4834-a981-f524d7334160

2. https://www.nature.com/articles/s41557-019-0249-2

 

Share