Conoscete Stradivari? Beh, chi non conosce il famoso liutaio i cui strumenti sono entrati nella leggenda? Fino a qualche tempo fa si diceva che Stradivari avesse un segreto ben custodito che gli consentiva di ottenere strumenti musicali dalle caratteristiche eccezionali. Certamente la scelta di materiali di ottima qualità gioca un ruolo importantissimo nella definizione del suono di uno strumento, Ma come mai ancora oggi tali strumenti conservano intatte le loro caratteristiche rendendoli ineguagliabili e preziosissimi?
All’inizio di quest’anno è apparso su PNAS (rivista molto prestigiosa in ambito scientifico) un articolo in cui gli autori spiegavano che la conservazione della qualità degli strumenti di Stradivari era legata ai processi messi in atto dal liutaio in fase di costruzione e di rifinitura di ognuno di essi. Potete trovare qui il lavoro su PNAS e qui una breve sintesi dello stesso in italiano.
Devo aggiungere con tanto orgoglio per tutta una serie di questioni che vanno al di là della semplice appartenenza istituzionale, che è stato recentemente pubblicato su Journal of Polymer Science, Part A: Polymer Chemistry un lavoro a primo nome di un mio carissimo amico, Alberto Spinella, in cui, per la prima volta, vengono delucidati i meccanismi alla base delle resine che Stradivari ha usato per assicurare la conservazione dei suoi famosissimi strumenti musicali. Il lavoro originale lo potete trovare a questo link. Purtroppo non esiste una sintesi in Italiano perché le riviste di divulgazione scientifica generaliste italiane non sembrano interessate a lavori pubblicati su riviste meno impattate di Nature, PNAS o Science. È un vero peccato perché si trovano lavori innovativi anche su riviste meno quotate di quelle citate ma col difetto di essere un po’ troppo tecnici per quelle summenzionate.
Ma veniamo ai dettagli.
Alberto è un ottimo NMR-ista. Come me si occupa, cioè, di risonanza magnetica nucleare. Io applico la tecnica ai comparti ambientali, Alberto la applica ai materiali.
Con la collaborazione di colleghi dell’universitã di Pavia, ha messo a punto una serie di esperimenti grazie ai quali ha potuto stabilire la composizione esatta delle vernici usate da Stradivari costituite da olio di semi di lino e colofonia. Quest’ultima è una resina che si ottiene dalla distillazione delle trementine ed il cui componente principale è l’acido abietico (Figura 1).
Figura 1. Acido abietico, principale costituente della colofonia
Quando colofonia ed olio di semi di lino vengono mescolati in rapporti differenti e riscaldati ad una temperatura di 270 °C si realizza una reazione di esterificazione simile a quella descritta nella Figura 2.
Figura 2. Reazione di esterificazione tra un componente dell’olio di semi di lino e l’acido abietico, componente della colofonia
Tra tutte le possibili miscele, quella 25 : 75 (colofonia : olio di semi di lino) è la più simile alla vernice usata da Stradivari. Perché proprio quel rapporto e non un altro? Perché quel rapporto rappresenta il rapporto stechiometrico 1 : 1 tra i reagenti riportati in Figura 2 ed è quello che assicura la massima protezione dall’invecchiamento dei legni usati per la fabbricazione degli strumenti del liutaio Cremonese.
Quando si dice la chimica al servizio della musica. Interessante, vero?
Chi frequenta questo blog o la mia pagina facebook sa che la mia attività di ricerca degli ultimi anni, oltre ad essere centrata sullo sviluppo della risonanza magnetica nucleare a ciclo di campo in ambito ambientale, è imperniata sulla valutazione della chimica fisica del biochar, un carbone ottenuto per degradazione termica in assenza o scarsità di ossigeno (ovvero pirolisi) di biomassa animale e vegetale. Faccio anche parte della European Biochar Certificate (EBC), una organizzazione internazionale che promuove l’uso del biochar in agricoltura e si interessa della standardizzazione delle metodiche analitiche per la valutazione delle caratteristiche chimico fisiche di tale materiale. Lo scopo ultimo è quello di suggerire una agricoltura sostenibile mediante l’uso, il riciclo e la trasformazione delle biomasse di scarto delle attività antropiche.
Alla luce di quanto appena scritto, sono felicissimo del fatto che la stampa scientifica divulgativa stia facendo da cassa di risonanza per un lavoro apparso su Nature Communications a firma di venti persone, tra cui il sottoscritto, in cui cominciano ad essere chiariti i meccanismi molecolari attraverso cui il carbone applicato ai suoli consente l’incremento della fertilità. Qui, qui, qui la notizia apparsa su alcune testate di divulgazione scientifica, mentre qui trovate il link al lavoro originale pubblicato su Nature Communications.
Biochar sì, biochar no?
Sebbene sia noto che l’uso del carbone in agricoltura consenta un aumento della produzione agricola (per esempio qui e qui), ci sono ricerche che ne demonizzano l’uso invocando la sua tossicità legata ad una presunta capacità di rilasciare idrocarburi policiclici aromatici e diossine o alla sua inerzia chimica che non consentirebbe il miglioramento della fertilità dei suoli (un libro in cui c’è una visione ecologista abbastanza spinta sull’uso del biochar è questo). In realtà, come si può leggere nella review qui, la probabilità che il carbone ha di cedere all’ambiente idrocarburi policiclici aromatici e diossine è praticamente nulla a fronte di un miglioramento delle proprietà idrauliche (qui), della struttura (qui) ed, in generale, della fertilità (qui) dei suoli.
Come funziona il biochar? In che modo promuove la fertilità di un suolo?
Nel 2013, il gruppo di ricerca di cui sono responsabile ha pubblicato un lavoro in cui è stata analizzata la dinamica dell’acqua sulla superficie di un biochar (qui). Perchè tra i tanti liquidi proprio l’acqua? Semplice. Perché l’acqua è direttamente coinvolta nei processi di nutrizione vegetale e, di conseguenza, è il mezzo attraverso cui il biochar nei suoli consente la veicolazione dei nutrienti alle piante. I risultati di questo lavoro hanno evidenziato che acqua e biochar interagiscono tra loro attraverso due tipologie di legame: da un lato legami a idrogeno non convenzionali tra il piano dei sistemi aromatici del carbone e le molecole di acqua, dall’altro legami di coordinazione tra le componenti metalliche delle impurezze inorganiche e le coppie solitarie dell’acqua (Figura 1).
Figura 1. Interazioni tra biochar e acqua
La presenza di queste interazioni, associate a quelle che l’acqua forma con i soluti in essa disciolti, ha consentito di ipotizzare che la capacità che il carbone ha di assorbire e poi rilasciare gradualmente nutrienti come il nitrato sono dovute proprio alla mediazione delle molecole di acqua. Queste, mediante il loro caotico movimento, consentono ai nutrienti di penetrare nei pori della superficie del biochar; una volta lì, il nutriente solvatato rimane “agganciato” alla superficie grazie alle interazioni anzidette (Figura 2).
Figura 2. Interazioni tra nutrienti (pallini verdi e viola) e biochar mediate da molecole di acqua
Se il biochar è invecchiato, la sua capacità assorbente migliora perché la chimica della superficie del biochar cambia nel tempo. Infatti, il numero di gruppi funzionali idrofilici (per esempio quelli contenenti ossigeno che si inserisce sulla superficie del biochar per effetto dell’ossidazione con l’atmosfera) aumenta con l’invecchiamento (Figura 3. Qui il lavoro in cui sono descritti tutti i dettagli sperimentali che hanno portato alle conclusioni brevemente descritte).
Figura 3. Interazioni tra nutrienti e biochar invecchiato
Un miglioramento delle capacità assorbitive/desorbitive del biochar si ottiene attraverso la funzionalizzazione della sua superficie mediante l’inserimento di un film organico usando un processo chimico che prende il nome di co-compostaggio. In parole povere, il carbone viene inserito assieme a biomassa vegetale fresca in un compostatore (ovvero un sistema che consente l’ottenimento del compost); una volta avviato il processo di degradazione ossidativa della miscela biochar-biomassa, si ottiene un carbone la cui superficie risulta più idrofilica di quella del carbone non co-compostato; la maggiore idrofilicità superficiale permette a questo materiale di intrappolare meglio i nutrienti e di funzionare meglio del carbone tal quale come ammendante dei suoli (qui il lavoro in cui si discute delle migliori caratteristiche qualitative del biochar co-compostato).
Perché è importante la comprensione dei meccanismi di funzionamento del carbone?
Delucidare le modalità con cui qualcosa funziona consente di indirizzare in modo opportuno la sintesi di nuove tipologie di materiali.
Nel caso specifico, si pongono le basi per la progettazione di nuovi ammendanti che permettono pratiche agricole sostenibili.
Ed eccoci di nuovo qui a parlare di effetto placebo. Ne avevo già discusso qui quando avevo evidenziato l’assenza di effetto terapeutico dell’omeopatia attribuendo al solo effetto psicologico l’eventuale successo di preparati che di farmacologico non hanno assolutamente nulla.
Naturalmente ogni volta che si parla male dell’omeopatia c’è la sollevazione popolare perchè a nessuno piace ammettere di cadere preda di ciarlatani e stregoni; oggetto della sollevazione è sempre lo stesso argomento “su di me funziona”; argomento questo che ha un senso logico solo per chi non capisce nulla di scienza oppure per chi, pur avendo studiato a qualsiasi livello una qualche materia scientifica, non ha “digerito” molto bene le materie che ha studiato.
In realtà l’effetto placebo è tenuto in debito conto dalla comunità scientifica, tanto è vero che ci sono numerosissimi studi che cercano di spiegarne l’importanza nel coadiuvare l’azione di farmaci di ogni tipo.
Perché ho deciso di tornare alla carica con l’effetto placebo? Semplicemente perché mi è caduta sotto gli occhi una notizia in merito ad uno studio condotto da un team di ricercatori svizzeri sull’importanza dell’effetto placebo nella sensazione del dolore (qui).
Di solito si riporta che perchè un placebo possa avere un qualche effetto è necessario che l’individuo sia cosciente ed in stato di veglia; in più si ritiene che il soggetto debba essere sottoposto ad inganno, ovvero non deve sapere che sta assumendo il placebo.
La novità dello studio dei ricercatori svizzeri è che sembra non sia necessario l’inganno perché un rimedio placebo possa avere effetto. Infatti, questi studiosi hanno sottoposto un gruppo di volontari a shock termico, ovvero hanno analizzato la loro resistenza e tolleranza alle alte temperature con e senza l’aiuto di un farmaco antiustioni. In particolare, in una delle prove è stato chiaramente esplicitato che il farmaco era un semplice placebo.
Ebbene, a quanto pare, la tolleranza alle ustioni sembra sia stata superiore alle aspettative anche quando i soggetti sapevano di assumere un formulato senza alcuna valenza farmacologica. La domanda a questo punto è: quali sono i meccanismi alla base del fenomeno osservato?
Dal momento che quello appena descritto è il primo studio del genere, è necessario attendere ulteriori sviluppi per confermarne la validità e per approfondire i meccanismi che aumentano la tolleranza al dolore anche in condizioni in cui si è consci di star assumendo un sistema placebo.
Qualche giorno fa è stato annunciato il premio Nobel per la chimica. Ne ho parlato qui. Si tratta del contributo al miglioramento della microscopia crio-elettronica, una tecnica molto utile in campo biochimico.
Come ogni anno, il mondo scientifico si stringe intorno ai vincitori di questo ambito riconoscimento e fioccano informazioni ed iniziative in merito alla biografia dei vincitori o all’importanza della loro scoperta.
Una delle iniziative più interessanti, a mio avviso, è quella di avere la possibilità di leggere i lavori che hanno consentito l’attribuzione del Nobel in originale. Come docente universitario, ricevo costantemente lettere di ogni tipo da case editrici di ogni tipo. La sorpresa stamattina è stata quella di trovare una lettera dalla Elsevier, una delle case editrici più importanti in ambito scientifico.
È, quindi, con enorme piacere che ricevo e condivido, la lettera della Elsevier con il link ai lavori più significativi dei tre vincitori del premio Nobel per la Chimica 2017. Eccola nella versione online: link
Cliccando su “read more” si apre una pagina da cui si possono leggere/scaricare i lavori suddetti gratuitamente.
Ci siamo. Un anno esatto è passato da quando il 4 Ottobre 2016 il premio Nobel per la chimica è stato assegnato a Sauvage, Stoddart e Feringa per la sintesi delle macchine molecolari (qui).
Quest’anno è toccato a Jacques Dubochet, Joachim Frank, Richard Henderson per aver messo a punto la microscopia crio-elettronica per l’analisi di sistemi biologici.
Difficile, vero? Cerchiamo di capire di cosa si tratta.
Più o meno tutti hanno sentito parlare di microscopia. E’ una tecnica in base alla quale un oggetto posto su un vetrino viene illuminato; la luce intercettata dall’oggetto viene indirizzata verso una lente di ingrandimento che chiamiamo “obiettivo”; la luce proveniente dall’obiettivo viene convogliata verso l’oculare dal quale osserviamo l’immagine dell’oggetto ingrandita (Figura 1).
Figura 1. Principio di funzionamento del microscopio (Fonte)
Quello appena citato è il meccanismo semplificato del funzionamento di un microscopio ottico. Lo strumento è dotato anche di tutta una serie di accessori che servono per correggere le aberrazioni ottiche che fanno vedere cose che, nella realtà, non esistono. Il limite della tecnica appena citata è la risoluzione che, in genere, è di circa 0.2 μm, ovvero oggetti di dimensioni inferiori a quelle appena indicate non sono osservati in modo nitido.
Per poter osservare nitidamente oggetti di dimensioni inferiori a 0.2 μm, sono state messe a punto tante altre forme di microscopia tra cui quella elettronica la fa da padrona.
Nella microscopia elettronica un fascio di elettroni viene “sparato” verso un oggetto (o campione); all’uscita dal campione il fascio di elettroni, dopo essere passato in un campo elettrico ed in un campo magnetico che ne modificano la traiettoria, viene convogliato verso un oculare dal quale viene indirizzato verso una lastra fotografica oppure uno schermo fluorescente che vengono utilizzati per generare l’immagine dell’oggetto in esame.
Anche questa appena data è una spiegazione semplificata, ma il mio scopo non è quello di fare una lezione di analisi strumentale, bensì di evidenziare che mentre nella microscopia ottica si raggiungono al massimo un centinaio di ingrandimenti (con risoluzione di 0.2 μm ovvero di 200 nm, come già evidenziato), con la microscopia elettronica si può arrivare a 150000-200000 ingrandimenti con una risoluzione che è intorno al milionesimo di millimetro ovvero dell’ordine di circa 1-10 nm. Considerando che la lunghezza di un legame covalente C-C è poco più di 0.1 nm, si capisce che con la microscopia elettronica siamo in grado di “osservare” molecole a un livello quasi atomico (Figura 2).
Figura 2. Immagine al microscopio elettronico della struttura di una nanoparticella di grafene. L’immagine originale è in b/n. I colori vengono aggiunti in fase di elaborazione per rendere l’immagine più attraente (Fonte)
Qual è la novità apportata da Jacques Dubochet, Joachim Frank e Richard Henderson nel mondo della microscopia elettronica per aver meritato il premio Nobel 2017?
Bisogna sapere che uno dei problemi principali della microscopia elettronica è la preparazione del campione. Quest’ultimo deve essere attraversato dal fascio di elettroni. Per questo motivo lo spessore del campione deve essere di pochi nanometri. Preparare un campione del genere per l’analisi al microscopio elettronico richiede molta abilità ed una specifica preparazione sia tecnica che scientifica.
Fintantoché si tratta di campioni come la nanoparticella di grafite mostrata in Figura 2, le difficoltà sono serie ma si possono superare. Immaginate di voler, invece, analizzare un tessuto umano come, che so, un pezzo di pelle. Se staccate la pelle, otterrete un campione ancora troppo spesso per poter essere attraversato dal fascio di elettroni. Dovete prendere questo tessuto e farne una fettina sottile di pochissimi nanometri. Potete facilmente immaginare che operare su un sistema del genere implica danneggiarlo. Insomma la preparazione del campione, anche se fatta con la massima attenzione possibile, può portare ad un sistema che non ha più nulla a che vedere col campione di partenza.
Negli anni Ottanta del XX secolo, il team di Dubochet prima su Nature poi su Quarterly Reviews of Biophysics, descrive una innovazione tecnica in base alla quale il sistema biologico da affettare prima di essere sottoposto all’indagine al microscopio elettronico, viene congelato rapidamente. Il rapido congelamento evita la formazione di tutta una serie di artefatti che possono influenzare la qualità dell’immagine ottenuta al microscopio. In altre parole, viene “inventato” un modo per ottenere immagini (ovvero fotografie) dei sistemi biologici sempre più nitide al livello nanometrico. E’ come se avessero inventato una macchina fotografica con un numero di pixel di gran lunga superiore al massimo tecnologico finora disponibile. Grazie a questa invenzione, oggi è possibile studiare anche la dinamica delle proteine nella conformazione nativa, ovvero nella disposizione spaziale che esse hanno negli organismi viventi. Fino ad ora le uniche tecniche disponibili erano i raggi X e la spettroscopia di risonanza magnetica nucleare (NMR). I limiti di queste tecniche sono legati alla necessità di strutture cristalline (raggi X) che non sempre sono facilmente ottenibili oltre a non corrispondere alla conformazione nativa, ed alla necessità di usare solventi diversi dall’acqua (NMR) nei quali non necessariamente la struttura proteica deve assomigliare a quella nativa.
Nei giorni passati è apparsa sui quotidiani nazionali una notizia che è stata ripresa anche da diverse testate di divulgazione scientifica (qui, qui e qui, per esempio). In questa estate torrida e piuttosto noiosa, è stata data enfasi ad una comunicazione apparsa sulla rivista Nature firmata da un gruppo di ricerca, tra cui alcuni Italiani (qui). Questi colleghi hanno parzialmente smentito quanto riportato in un articolo su Nature del 2012 (qui) di cui uno degli autori è il famoso J. Frazer Stoddart che nel 2016 è stato insignito del premio Nobel per la sintesi delle macchine molecolari (ne ho parlato qui).
Cerchiamo di vederci chiaro.
Il principio di autorità
Innanzitutto, voglio evidenziare che nel mondo scientifico non si applica alcun principio di autorità; ciò che viene affermato da ognuno è messo sotto la lente di ingrandimento ed analizzato da tutti quanti sono interessati a quel determinato settore. La conseguenza è che, con una adeguata preparazione scientifica, è possibile confutare anche i modelli elaborati da scienziati che sono insigniti del famosissimo premio Nobel.
Un esempio delle strane ipotesi messe a punto da premi Nobel e smentite dalla comunità scientifica è la memoria dell’acqua di Montagnier di cui ho già discusso qui, qui, qui e qui.
Se interroghiamo l’Enciclopedia Britannica (famosa enciclopedia molto in uso quando ero piccolo), si legge:
la ferroelettricità è una proprietà di certi cristalli non conduttori, o dielettrici, che esibiscono una polarizzazione elettrica spontanea (separazione tra il centro delle cariche positive e quello delle cariche negative tale che una faccia del cristallo è caricata positivamente mentre l’altra negativamente) la cui direzione può essere invertita mediante l’applicazione di un appropriato campo elettrico. […] I materiali ferroelettrici, come il titanato di Bario ed i sali di Rochelle, sono fatti da cristalli in cui le unità strutturali sono piccoli dipoli elettrici; in altre parole, in ogni unità, il centro delle cariche negative è separato da quello delle cariche positive. In alcuni cristalli, questi dipoli elettrici si allineano a formare dei cluster indicati come domìni. Questi ultimi sono orientati predominantemente in una data direzione sotto l’azione di un intenso campo elettrico. L’inversione della direzione del campo elettrico inverte anche l’orientazione preferenziale dei domìni anzidetti. Tuttavia, il cambiamento di direzione dei domìni avviene con ritardo rispetto al cambiamento della direzione del campo elettrico applicato. Questo ritardo è anche indicato come isteresi ferroelettrica.
Se masticate l’Inglese e volete sapere più in dettaglio qualcosa sui materiali dielettrici e sulla loro interazione con i campi elettrici, potete seguire la lezione del Prof. Lewin famoso per le scenografie delle sue lezioni di fisica:
Il corso completo di fisica del Prof. Lewin è qui.
Ma torniamo a noi.
I materiali ferroelettrici ed il lavoro del premio Nobel Stoddard e collaboratori
I materiali ferroelettrici sono molto interessanti perché possono essere utilizzati per la costruzione di sensori, banchi di memoria e nella fotonica.
Nel 2012 appare su Nature un articolo (in realtà una Letter) dal titolo: “Room-temperature ferroelectricity in supramolecular networks of charge-transfer complexes“. Tra gli autori J. Frazer Stoddart che, come già evidenziato, nel 2016 è stato insignito del premio Nobel per la sintesi delle macchine molecolari. In effetti le macchine molecolari non sono altro che un tipo particolare di sistemi supramolecolari esattamente come i “supramolecular networks” di cui si parla nell’articolo sulla ferroelettricità del 2012.
Cosa hanno fatto questi autori?
Hanno sintetizzato dei complessi organici a trasferimento di carica [1] combinando a due a due i composti indicati da 1 a 4 in Figura 1 attraverso la tecnica conosciuta come Lock-Arm Supramolecular Ordering (LASO) [2].
Figura 1. Complessi molecolari con proprietà ferroelettriche: 1-2, 1-3 e 1-4 (Fonte della figura a questo link)
I complessi ottenuti e designati con le sigle 1-2, 1-3 ed 1-4 di Figura 1 hanno presentato delle eccezionali proprietà ferroelettriche a temperatura ambiente.
Tutto normale. Un gruppo di studiosi ha fatto una scoperta che può avere degli interessanti sviluppi tecnologici ed ha scritto un rapporto che è stato accettato per la pubblicazione su una delle riviste più importanti del panorama scientifico.
Il lavoro degli Italiani
La notizia non è il lavoro di Stoddard e Co. per quanto esso possa essere importante sotto l’aspetto scientifico. La notizia che ha destato l’attenzione dei giornalisti nostrani è che un gruppo di ricercatori, tra cui diversi Italiani, ha riprodotto le sintesi riportate nello studio di Stoddard (qui). Le analisi hanno mostrato che i complessi ottenuti erano del tutto simili a quelli la cui sintesi era riportata nel lavoro del 2012. Tuttavia, quando sono state misurate le proprietà ferroelettriche dei complessi ottenuti, è stato scoperto che due dei tre complessi a trasferimento di carica non mostravano le proprietà descritte da Stoddard e collaboratori (Figura 2).
Figura 2. Assenza di ferroelettricità (Fonte a questo link)
Naturalmente la non riproducibilità delle proprietà ferroelettriche di prodotti ottenuti da un premio Nobel ha trovato la giusta visibilità sulla stessa rivista che nel 2012 aveva ospitato le proprietà ferroelettriche a temperatura ambiente dei composti anzidetti.
Ma andiamo oltre, perché quasi nessuno ha riportato della risposta di Stoddard e collaboratori.
In coda alla comunicazione dei ricercatori Italiani (qui) è riportata anche la confutazione scritta dai responsabili del gruppo di ricerca che ha descritto le proprietà ferroelettriche a temperatura ambiente dei materiali 1-2, 1-3 ed 1-4 di Figura 1. Stoddard et al. rispondono che i processi di cristallizzazione descritti da D’avino et al. hanno prodotto dei cristalli con dei difetti ai quali sarebbe imputabile la non osservazione delle proprietà ferroelettriche. La risposta di Stoddard et al . si conclude con un interessantisimo invito:
“We offer to share our materials and devices, and to host the authors of the accompanying Comment at Northwestern University in an effort to clarify all discrepancies in reproducibility”
Conclusioni
Il titolo che ho deciso di dare a questa nota è “anche i Nobel sbagliano?”. In realtà non c’è stato alcun errore. L’episodio che ho descritto in questa nota e che con eccessiva enfasi è stato comunicato dai maggiori quotidiani e siti di divulgazione nostrani, fieri che degli italiani abbiano smentito un premio Nobel, dimostra solo una cosa: il mondo scientifico è estremamente democratico. Chiunque può permettersi di fare uno studio e smentire ciò che è stato detto da qualche nome famoso. Ciò è quanto è sempre accaduto. E’ proprio questo a consentire l’avanzamento delle nostre conoscenze. Tuttavia, non basta buttare lì la prima cosa che passa per la testa oppure ritenere che una qualsiasi maggioranza di persone possa influenzare in qualche modo una evidenza scientifica. Per poter aprire una discussione produttiva come quella riportata nelle pagine di Nature, occorre dedizione allo studio e preparazione. Senza questi ingredienti non è possibile instaurare alcun dialogo con nessuno. Bravi certamente i colleghi Italiani. Ma bravi tutti quelli che si dedicano con coscienza ed abnegazione allo sviluppo delle nostre conoscenze.
Non si può dialogare con scienziati della domenica o pseudo intellettuali come quelli che popolano le fila di chi è a favore della biodinamica, dell’omeopatia o dell’antivaccinismo. Queste persone non hanno alcuna caratura intellettuale ed una qualsiasi apertura al dialogo le metterebbe sullo stesso piano di chi lavora seriamente in ambito scientifico.
Note ed approfondimenti
[1] Un complesso a trasferimento di carica è un sistema in cui una molecola (o un dominio molecolare) ricca di elettroni interagisce con un sistema chimico (molecola, dominio molecolare o metallo di tansizione) povero di elettroni in modo tale da formare un legame in cui si realizza un trasferimento di carica negativa dal donatore di elettroni all’accettore di elettroni. Per saperne di più potete cliccare qui.
[2] La Lock-Arm Supramolecular Ordering, indicata con l’acronimo LASO, è una procedura per la sintesi di complessi molecolari a trasferimento di carica. Si tratta di un approccio di tipo modulare in cui moduli molecolari ricchi di elettroni vengono fatti co-cristallizzare in presenza di altri moduli molecolari poveri di elettroni. Entrambi i moduli (donatori ed accettori di elettroni) sono costruiti in modo tale da avere delle braccia flessibili attraverso le quali essi sono in grado di interagire mediante legami a idrogeno. L’efficienza del processo di cristallizzazione è assicurata proprio dalla flessibilità della braccia anzidette che consentono la massima complementarietà tra i moduli. L’azione cooperativa del legame a trasferimento di carica e dei legami a idrogeno consente di ottenere sistemi binari in cui le proprietà donatore-accettore sono interscambiabili così da ottenere proprietà ferroelettriche migliorate rispetto a complessi ottenuti con strategie sintetiche differenti. Per saperne di più cliccate qui.
Fonte dell’immagine di copertina: https://www.researchgate.net/publication/257972728_Statistical_mechanical_origin_of_hysteresis_in_ferroelectrics
Oggi sembra che vada di moda essere innocentisti o colpevolisti in campo agricolo. Mi spiego. C’è una vasta schiera di persone che si oppone, in modo a dir poco religioso, ai fitofarmaci, mentre altre, sempre religiosamente, si pongono a favore del loro uso. In realtà, nessuno dei due estremi è quello corretto. Non basta dire “i fitofarmaci tout court sono nocivi”, oppure “cosa vuoi che sia? La loro concentrazione è al di sotto dei limiti previsti per legge”.
Le cose sono più complicate di quello che si pensa e vanno contestualizzate.
Cominciamo col dire che attualmente la popolazione mondiale ammonta a 7 miliardi di persone, nel 2050 sarà di almeno 10 miliardi e per il 2100 ancora di più. La superficie terrestre in grado di supportare l’attività agricola diminuisce progressivamente in funzione del fatto che parte dei suoli arabili diviene sede per le abitazioni e le infrastrutture. Da ciò consegue che l’uso di fitofarmaci diventa necessario se si vuole produrre alimenti per una popolazione in aumento esponenziale su una superficie agricola in costante riduzione.
L’agricoltura di ogni tipo (sia quella intensiva che fa uso di fitofarmaci che quella biologica che, invece, solo apparentemente non fa uso di fitofarmaci) è a forte impatto ambientale perché non solo accelera l’erosione dei suoli innescando i processi di desertificazione, ma contamina anche acqua ed aria, attraverso l’immissione di sostanze nocive (per esempio i principi attivi dei fitofarmaci stessi o i loro prodotti di degradazione) la cui attività influenza la vita non solo delle piante ma anche della micro, meso e macro fauna. A questo scopo l’unico modo di produrre alimenti per la popolazione mondiale in costante aumento è quello di far uso di pratiche agricole sostenibili, ovvero di pratiche che facciano uso oculato delle conoscenze scientifiche accumulate negli anni in merito all’attività di tutti i composti usati in agricoltura ed in merito ai meccanismi di erosione e contaminazione (non fa certamente parte del bagaglio di conoscenze scientifiche l’agricoltura biodinamica che, di fatto, non è altro che un’enorme sciocchezza. Ma questo merita altro approfondimento).
È in questo ambito che va inquadrato il discorso sul glifosato, principio attivo del noto fitofarmaco chiamato “roundup” brevettato all’inizio degli anni 70 del XX secolo dalla Monsanto, azienda chimica statunitense, oggi ritenuta capziosamente come il satana industriale nemico dell’ambiente.
Il glifosato è un erbicida la cui azione è quella di inibire gli enzimi coinvolti nella biosintesi degli amminoacidi fenilalanina, triptofano e tirosina (due di essi, fenilalanina e triptofano, sono essenziali per l’uomo e possono essere assunti solo attraverso la dieta) oltre che di composti quali acido folico, flavonoidi, vitamina K e vitamina E importanti metaboliti vegetali.
Proprio perché i complessi enzimatici coinvolti nell’azione del glifosato sono tipici delle piante, si è sempre ritenuto che tale erbicida fosse innocuo per gli animali, in particolare l’uomo. Ed invece studi recenti sembrano dimostrare che il glifosato può essere causa dei linfomi non-Hodgkin (ovvero di una classe di tumori maligni del tessuto linfatico) (1, 2), sebbene studi epidemiologici completi non siano stati ancora fatti; interferisce in vitro con la trasmissione dei segnali del sistema endocrino (3, 4); provoca danni al fegato ed ai reni dei ratti attraverso la distruzione del metabolismo mitocondriale (5); sequestra micronutrienti metallici come zinco, cobalto e manganese (cofattori enzimatici in molte reazioni metaboliche) producendo, quindi, danni metabolici generali specialmente a carico delle funzioni renali ed epatiche (6).
Tutti gli studi citati (molti altri sono elencati nel riferimento (7)) si basano su esperimenti condotti o in vivo o in vitro ma facendo uso di quantità molto elevate di glifosato. Ma cosa significa molto elevato? Quali sono le quantità di glifosato che possono portare problemi alla salute umana? Qui già iniziano le prime contraddizioni. La EPA Statunitense ha stabilito che la quantità di glifosato massima nell’organismo debba corrispondere a 1.75 mg per kg al giorno. Significa che un americano dalla corporatura media di 80 kg può assumere ogni giorno 140 mg di glifosato. Però se lo stesso americano venisse in Europa si ritroverebbe con un livello di glifosato nel suo organismo molto più alto di quello consentito. Infatti, la legislazione adottata dalla Comunità Europea prevede un contenuto massimo di glifosato pari a 0.3 mg per kg al giorno, ovvero l’individuo di cui sopra può assumere un massimo di 24 mg di glifosato al giorno. È anche vero, però, che attualmente la Comunità Europea sta valutando l’innalzamento del limite a 0.5 mg per kg al giorno, ma resta, comunque, una quantità molto al di sotto di quella ammessa negli Stati Uniti dove l’ammontare di glifosato usato in agricoltura è passato da 4 milioni di kg del 1987 a 84 milioni di kg nel 2007 (7).
Perché ci sono differenze nei limiti di glifosato che un essere umano può assumere ogni giorno?
Bisogna dire che i limiti di assunzione vengono autorizzati da enti governativi differenti (USA ed EU, nella fattispecie) che basano le loro decisioni sulla letteratura disponibile. Il problema del glifosato, però, è che la letteratura usata non è quella costituita da lavori scientifici resi pubblici dagli studiosi che si occupano di tale erbicida (7). I riferimenti usati dagli enti governativi sono documenti forniti dalle aziende private produttrici di fitofarmaci che contengono solo risultati relativi a studi secretati (ovvero soggetti al segreto industriale). A quanto risulta, invece, la letteratura più tradizionale, quella che è pubblica, suggerisce che il limite massimo ammissibile di glifosato in un organismo umano dovrebbe essere di circa 0.03 mg per kg al giorno, ovvero ben 10 volte in meno rispetto a quanto previsto dalla Comunità Europea e circa 60 volte in meno rispetto a quanto consigliato dalla Statunitense EPA.
A chi credere? Agli enti governativi o alla letteratura scientifica? La realtà è che mancano studi epidemiologici completi per poter stabilire con esattezza quali siano i limiti ammissibili per il glifosato. Anche i lavori resi pubblici dagli specialisti del settore sono, in qualche modo, incompleti e vanno presi con molta attenzione e senso critico. È per questo che sarebbe meglio applicare il principio di precauzione fino a quando la quantità di dati disponibili in letteratura non consentirà di arrivare a comprendere con precisione quali sono i reali effetti del glifosato sulla salute umana.
Di certo le persone più esposte ai danni dell’erbicida sono i lavoratori del settore agricolo (8). Solo in subordine risultano esposti i consumatori. Questo perché i controlli sulla quantità di fitofarmaci e loro residui sui prodotti alimentari sono abbastanza stringenti. In ogni caso, per prevenire la presenza di glifosato e suoi residui negli alimenti (in realtà non solo di tale erbicida, ma di tutti i possibili fitofarmaci dannosi o potenzialmente tali per la salute dell’uomo) occorre utilizzare una corretta pratica agricola.
Nel caso specifico del glifosato, la corretta pratica agricola consiste nell’applicazione di tale erbicida o in fase di pre-semina o in fase di post-raccolta (ovvero nei momenti in cui il suolo viene lasciato “riposare” tra un raccolto e l’altro) e non come attualmente in voga in fase di pre-raccolta. Infatti, è noto da tempo (7) che il glifosato viene intrappolato dalla sostanza organica dei suoli (9, 10) e successivamente degradato dalla fauna microbica in composti meno impattanti sulla salute umana (11). Al contrario, nelle applicazioni in “tarda stagione” (ovvero poco prima della raccolta) non si dà il tempo al glifosato di poter essere degradato, con la conseguenza che l’erbicida (o suoi sottoprodotti tossici) possono essere individuati all’interno degli alimenti (7)
Conclusioni
L’uso dei fitofarmaci, e del glifosato in particolare, è reso necessario per ottimizzare la produzione agricola in un sistema, quello terrestre, che vede un sovrappopolamento con conseguente riduzione delle superfici arabili
Non ci sono dati certi in merito alla tossicità del glifosato sulla salute umana se non nei casi particolari relativi ai lavoratori del settore agricolo che sono esposti a forti dosi dell’erbicida durante la loro attività lavorativa
Non applicazioni pre-raccolta, ma pre-semina o post-raccolta dovrebbero essere effettuate per minimizzare la quantità di glifosato (e suoi residui) all’interno dei prodotti destinati ai consumatori finali
Un incremento della ricerca in ambito fitofarmacologico è necessario per individuare gli effetti dei fitofarmaci, in generale, e del glifosato, in particolare, sulla salute umana. Studiare il glifosato, però, richiede laboratori attrezzati e studiosi preparati. Tutto questo ha un prezzo. Se le comunità dei consumatori vogliono avere informazioni più approfondite e dettagliate sul ruolo del glifosato sulla salute umana, è bene che investano in questo tipo di ricerca. Investimenti nella ricerca dovrebbero essere finanziati anche dalle aziende produttrici di fitofarmaci in modo chiaro e non soggetto a segreto industriale. Solo in questo modo tutti (dai consumatori alle grandi aziende agricole e non) possono trarre vantaggi dalla ricerca scientifica.
Riferimenti
(1) Schirasi and Leon, Int. J. Environ. Res. Public Health, 2014, 11(4): 4449-4457
Quante volte vi è capitato di restare troppo tempo in acqua? E quante volte avete notato che uscendo dal bagno avete le punte delle dita raggrinzite? Vi siete mai chiesti perché? E vi siete mai chiesti qual è il vantaggio evolutivo che possiamo avere da una cosa del genere?
Sembra quasi banale, ma solo nel 2013 è stato pubblicato un lavoro serio in merito a questa questione. Quindi, non possiamo dire che le informazioni che sto per dare siano troppo vecchie. Si tratta di qualcosa che è stato spiegato solo ieri. Qui il link.
È facile dimostrare che l’aumento del numero di grinze sulla pelle corrisponde ad un aumento di area superficiale della stessa. Ho già riportato una dimostrazione di questo tipo per altri sistemi, ma la tipologia di ragionamento si applica anche per superfici come la pelle che raggrinzisce.
Un elevato valore di area superficialedella pelle sulla punta delle zampette dei gechi spiega, per esempio, le loro caratteristiche anti-gravitazionali.
Figura 1 Anatomia della pelle. (Fonte: http://health.howstuffworks.com/skin-care/information/anatomy/skin1.htm)
Infatti, grazie alla loro elevata area superficiale, le dita dei gechi sono in grado di realizzare delle interazioni di Van derWaals molto forti con le superfici con cui vengono a contatto. Queste forze di attrazione sono così intense che riescono a vincere la forza peso che tenderebbe a spingere il geco verso la superficie terrestre.
L’aumento di area superficiale delle dita umane, conseguente al raggrinzimento per immersione prolungata in acqua, ha un significato evolutivo preciso secondo i ricercatori della Newcastle University. A quanto pare abbiamo conservato questa caratteristica perché ci serve per poter usare le mani, senza che gli oggetti ci scivolino, in condizioni di elevata umidità o quando siamo sott’acqua. L’aumento di area superficiale, dovuto agli impulsi nervosi che consentono la diminuzione del volume della polpa epidermica, aumenta la capacità di presa grazie all’intensificarsi delle forze di interazione superficiale tra le nostre dita e ciò che afferriamo.
Non c’è che dire. I fenomeni naturali sono sempre affascinanti
Fonte dell’immagine di copertina: https://www.themarysue.com/water-wrinkles-purpose/
Ebbene sì. Ho usato un titolo volutamente forte per introdurre una notizia che secondo me è veramente importante nel mondo della meccanica quantistica. Ho appena letto un interessantissimo lavoro in cui un team di ricercatori Spagnoli dichiara di aver scoperto che il principio di indeterminazione di Heisenberg può essere violato.
Cos’è questo principio? In soldoni, Heisenberg stabilì che non è possibile conoscere con lo stesso grado di accuratezza la posizione e la quantità di moto di una particella elementare.
Per spin di una particella elementare si intende, in modo molto semplicistico, la rotazione della particella intorno a se stessa.
Se vogliamo conoscere il momento angolare di spin di una particella elementare, abbiamo bisogno di misurare delle grandezze che rispondono al principio elaborato da Heisenberg. Tuttavia, quando si decide di prendere in considerazione la misura del momento angolare dello spin nucleare, i limiti imposti dal principio di indeterminazione non sono più validi.
Non mi addentro nei particolari perché non voglio impelagarmi in troppi tecnicismi. Chi lo desidera, può leggere il lavoro pubblicato su Nature cliccando qui. Alternativamente, la notizia riportata in modo più semplice è qui.
Voglio, tuttavia, fare una riflessione molto generale. Come la mettiamo, ora, con le correnti filosofiche che invocano il principio di indeterminazione per affermare che l’osservatore crea la realtà?
Ho sempre pensato che le pseudo filosofie che fanno elucubrazioni sulla base di estrapolazioni concettuali di teorie scientifiche la cui forza risiede nell’osservazione sperimentale, siano come castelli di sabbia. Nel momento in cui i modelli scientifici evolvono sulla base di nuove ipotesi predittive e di nuove indagini sperimentali, le pseudo filosofie si sgonfiano come palloncini di gomma bucati. Il lavoro pubblicato su Nature è l’esempio che non bisogna mai utilizzare una teoria scientifica fuori dal contesto per cui essa è stata elaborata. La conseguenza, altrimenti, è che tutto il castello costruito sulle basi suddette collassa nel momento in cui nuovi fatti si aggiungono a quelli esistenti e una nuova teoria sostituisce quella vecchia.
Piltdown. Sussex. Gran Bretagna. Anno 1912. Viene ritrovato il cranio di un ominide a metà tra uomo e scimmia. L’annuncio del ritrovamento viene dato nel Dicembre dello stesso anno nel convegno della Geological Society of London. Qui i due autori della comunicazione, Dawson (autore del ritrovamento) e Woodward, battezzarono l’ominide a cui apparteneva il cranio col nome di Eoanthropus dawsoni o anche uomo del Piltdown.
Al momento della scoperta del cranio dell’uomo del Piltdown, la teoria dell’evoluzione di Darwin aveva circa 53 anni – la famosa “Origine delle specie” aveva visto la luce intorno al 1859 – e si rincorrevano le interpretazioni più disparate sia per la comprensione dell’origine dell’uomo, sia per denigrare la teoria anzidetta che toglieva l’essere umano dal centro del creato per porlo in una dimensione meno centrale dell’universo.
Origine della specie
Secondo le prime interpretazioni della teoria di Darwin, l’essere umano doveva essere considerato come un diretto discendente delle scimmie. In altre parole, le scimmie avrebbero subito nel corso del tempo delle costanti e continue trasformazioni mediate sia dall’ambiente che dalle abilità necessarie a sopravvivere ai cambiamenti ambientali.Secondo questa interpretazione, il passaggio graduale dalla scimmia all’uomo deve necessariamente aver prodotto degli ominidi con caratteristiche intermedie tra le due specie.
Una via di mezzo
L’uomo del Piltdown si pone a metà tra la scimmia e l’uomo dal momento che mostra caratteristiche simili a quelle di una scimmia, nella parte mandibolare del cranio, ed a quelle dell’uomo, nella parte superiore del cranio. Si tratta, quindi, dell’anello mancante. Nel 1953, però, gli studiosi del British Natural History Museum e dell’Università di Oxford capirono che il cranio ritrovato da Dawson era un falso. Indagini successive hanno confermato l’origine truffaldina del cranio dell’uomo di Piltdown evidenziando che Dawson “limò” e mise assieme ossa umane (di circa 700 anni) con ossa di diverse tipologie di scimmia.
Oggi sappiamo che l’evoluzione non è andata come si credeva all’inizio del XX secolo.
In realtà, l’uomo, così come tutte le specie viventi, si è evoluto per come lo conosciamo oggi grazie all’azione congiunta di “caso e necessità”. In altre parole, modifiche ambientali del tutto casuali – come terremoti ed inondazioni – alterano l’habitat tipico in cui gli organismi vivono. Nell’ambito di una stessa popolazione esiste un certo numero di individui che, a causa di modificazioni genetiche casuali, si ritrova ad essere maggiormente adattato alla sopravvivenza nelle nuove condizioni ambientali. Per questo motivo, proprio gli individui più abituati alle nuove condizioni ambientali riescono ad avere maggiore possibilità riproduttiva. La conseguenza è che, nel corso del tempo, gli individui più adatti sono quelli che predominano, mentre quelli meno adatti si estinguono. Grazie a questo modello evolutivo possiamo dire che non ci dobbiamo aspettare nessun “anello mancante”. Uno scherzo come quello effettuato nel 1912 oggi sarebbe solo una bufala da primo Aprile.
Questo sito usa i cookie per migliorare la tua esperienza di navigazione. Viene assunto che tu sia d'accordo. Tuttavia, puoi annullare i cookie se lo desideri cliccando su “cookie settings” e deselezionando i cookie non necessari. Cookie settingsACCEPT
Privacy & Cookies Policy
Privacy Overview
Questo sito Web utilizza i cookie per migliorare la tua esperienza durante la navigazione. Tra questi, i cookie classificati come necessari vengono memorizzati nel browser in quanto sono essenziali per il funzionamento base del sito. Si utilizzano anche cookie di terze parti che aiutano ad analizzare e comprendere come si utilizza il sito. Questi cookie sono memorizzati nel tuo browser solo con il tuo consenso. Hai anche la possibilità di disattivarli. La disattivazione di alcuni cookie può, tuttavia, influire sulla tua esperienza di navigazione.
I cookie cosiddetti necessari sono essenziali per il funzionamento corretto del sito Web. Questa categoria include solo i cookie che assicurano le funzionalità di base e la sicurezza del sito Web. Non viene conservata alcuna informazione personale.