Acrilamide. Una molecola che fa paura

L’ acrilamide è una molecola di cui di tanto in tanto si sente parlare in giro per la rete o nei giornali a tiratura nazionale soprattutto nei periodi di festa durante i quali si prospettano enormi abbuffate.

Si tratta di una molecola dalle caratteristiche genotossiche e cancerogene, ovvero in grado di modificare il DNA e provocare il cancro, ottenuta per degradazione ad alte temperature (>120° C) di alcune molecole contenute negli alimenti sottoposti a cottura.

Ma andiamo con ordine.

L’ acrilamide ha la struttura riportata in Figura 1.

Figura 1. Struttura dell’acrilamide (Fonte)

Come si evince dalla struttura, si tratta di una molecola con doppi legami coniugati in cui il gruppo funzionale che ne determina le caratteristiche chimiche è quello amidico, ovvero il sistema -NH2 legato al carbonio carbonilico.

Il meccanismo attraverso cui l’ acrilamide si forma durante la cottura degli alimenti è stato delucidato solo nel 2003 (Figura 2).

Figura 2. Il lavoro in cui è stato proposto per la prima volta il meccanismo di formazione dell’acrilamide

La Figura 3 mostra tutte le reazioni coinvolte nella formazione dell’ acrilamide.

Figura 3. Meccanismo di formazione dell’acrilamide

Un aminoacido, l’arginina, reagisce con il gruppo carbonilico di uno zucchero. Si forma una base di Schiff, responsabile dell’imbrunimento dell’alimento durante la cottura, dalla cui decarbossilazione si ottiene una base di Schiff decarbossilata che può essere soggetta a due meccanismi di decomposizione. Da un lato si può avere idrolisi con formazione di 3-propionamide dalla cui de-amminazione si ottiene l’ acrilamide; dall’altro si può avere degradazione termica con formazione di acrilamide ed una nuova base di Schiff come sottoprodotto.

La Figura 3 è presa dal lavoro pubblicato su J. Agric. Food Chem. di cui si riporta il titolo in Figura 2. La rivista è una delle più accreditate in ambito agricolo ed alimentare. Nonostante questo non posso non rilevare un errore nel meccanismo descritto. Infatti, la decarbossilazione della base di Schiff porta alla formazione di una base di Schiff decarbossilata che, secondo gli autori, è soggetta all’equilibrio descritto in Figura 4.

Figura 4. Equilibrio cui è soggetta la base di Schiff decarbossilata secondo gli autori del lavoro pubblicato su J. Agric. Food Chem.

In realtà le due strutture descritte differiscono tra loro solo per la distribuzione degli elettroni, per  cui esse sono ibridi di risonanza e non possono essere correlate dalla doppia freccia. Esse devono essere correlate da una freccia a doppia punta (↔).

Il meccanismo di azione dell’ acrilamide

Il gruppo vinilico dell’acrilamide è molto reattivo e può dar luogo alla formazione dell’epossido mostrato in Figura 5.

Figura 5. Forma epossidica dell’acrilamide (Fonte)

È proprio questa forma epossidica che, in presenza delle basi nucleotidiche del DNA, reagisce per dare i prodotti mostrati in Figura 6.

Figura 6. Prodotti delle reazioni tra le basi nucleotidiche e la forma epossidica dell’acrilamide (Fonte)

Gli addotti ottenuti per reazione della forma epossidica dell’acrilamide con le basi nucleotidiche del DNA sono responsabili delle alterazioni strutturali del DNA e della possibile insorgenza di forme tumorali.

Cosa fare

Dalla breve disamina sulla chimica dell’acrilamide appare chiaro che gli alimenti più pericolosi per la salute, quando sottoposti a cottura ad alta temperatura, sono quelli con elevato contenuto di zuccheri liberi. Tra questi le patate e tutti quelli ad elevato tenore di amido. Per evitare la formazione di acrilamide quando si utilizzano le patate, bisogna usare un po’ di accorgimenti (fonte):

  1. per la frittura si devono utilizzare oli con un punto di fumo elevato; i piu’ idonei sono l’ olio di oliva, l’ olio di arachide e il tanto bistrattato olio di palma. L’ olio di girasole e l’ olio di semi di soia sono assolutamente da evitare. Di fatto, gli oli formulati per le fritture sono costituiti in genere da una miscela di olio di arachide e olio di palma;
  2. L’ olio non deve essere riutilizzato per piu’ fritture;
    le patatine non devono diventare troppo scure; bisogna diminuire il piu’ possibile i tempi di frittura;
  3. prima di friggerle è buona norma lasciare le patate in ammollo in acqua e sale per almeno 30 minuti; in questo modo parte degli zuccheri semplici passano nell’ acqua e di conseguenza si originerà un quantitativo inferiore di acrilammide;
  4. le patate devono essere conservate al buio ma non in frigorifero, perché il freddo le rende più dolci, dunque più ricche di zuccheri liberi in grado di reagire con l’asparagina;
  5. è da evitare la germinazione perchè essa riattiva il metabolismo della patata che si arricchisce di zuccheri semplici e di amminoacidi.
i limiti suggeriti

La tabella mostrata in Figura 7 mostra i limiti massimi di acrilamide che devono essere presenti in alcuni alimenti. Per una visione migliore di questa tabella si può cliccare qui.

Figura 7. Limiti massimi ammissibili di acrilamide in alcuni alimenti
Note conclusive

Devo delle scuse a quelli dei miei lettori che non hanno una preparazione chimica. In questo lungo post ho deciso di non usare un linguaggio semplice. Ho utilizzato il linguaggio chimico che richiede delle conoscenze almeno da primo anno di università. Non c’è un motivo particolare per aver fatto questa scelta se non la mia pigrizia che in questo momento mi impedisce di concentrarmi a sufficienza per elaborare un discorso accessibile a quante più persone possibili. Spero sia chiaro che bisogna fare attenzione ai sottoprodotti che si ottengono durante la preparazione degli alimenti. Questi possono avere effetti avversi. Tuttavia, come già evidenziato in tanti altri post sul mio blog, è la dose che fa il veleno. Una alimentazione sana ed equilibrata assicura un ottimo stato di salute.

La lettura di questo articoletto molto poco divulgativo deve evidenziare che è possibile trovare errori più o meno gravi anche  in lavori pubblicati su riviste molto ben accreditate in ambito scientifico. Purtroppo tali errori sono visibili solo agli occhi dei tecnici e talvolta nemmeno ad essi visto che questi errori possono superare i filtri della peer review. Nel caso specifico della chimica dell’acrilamide gli errori cui si fa riferimento sono stati superati grazie alla prova del tempo. Dal 2003 ad oggi il meccanismo proposto per la formazione dell’acrilamide è stato più volte confermato.

Mi scuso anche per la bassa qualità delle immagini dell’articolo proposto. L’articolo è stato scritto usando un tablet e su questo mezzo le immagini appaiono di buona qualità. Sui computer, purtroppo, non è così.

Fonte dell’immagine di copertinahttp://www.mixerplanet.com/panettone-patate-pizza-cancerogeni-dipende-dal-metodo-cottura_117089/

Riflessioni pre natalizie. Sviluppo scientifico e stasi tecnologica

Una delle riviste che mi piace leggere è Wired. Non sempre lo faccio perché è una rivista che esce un paio di volte all’anno e non sempre mi ricordo di prenderla in edicola. Stavolta sì; mi è capitata sotto gli occhi nell’edicola dell’aeroporto e l’ho presa. Capisco che sapere quali siano le mie letture preferite non è che importi a molti, così come non é particolarmente interessante sapere in che modo mi ricordi di prendere le riviste in edicola. Questo sproloquio introduttivo mi serve solo per dire che nell’ultimo numero di Wired, dedicato a come sarà il nostro futuro, ho trovato una introduzione di Carlo Rovelli, tra i fisici italiani più prestigiosi, che mi ha fatto molto riflettere.

Rovelli in sintesi afferma: “Il futuro non dipenderà da nuove prodigiose scoperte o inaspettate tecnologie ma sarà determinato dai governanti che ci sceglieremo: ragionevoli o irragionevoli”. Le sue argomentazioni sembrano molto ragionevoli e condivisibili: “parlare del futuro è sempre parlare del presente. Scienza e tecnologia continuano ad avanzare ma, fra le due, c’è uno scarto. Presto mi aspetto maggiori passi avanti nella conoscenza del mondo […]. Ma non credo che la tecnologia spiccherà grandi salti avanti. […] A me, in effetti, sembra che lo sviluppo tecnologico sia già in un periodo di forte rallentamento. Da quando sono nato ho visto arrivare l’uso di massa del trasporto aereo, i computer, internet. Sembra molto ma, se provo a confrontarlo coi cambiamenti che ha vissuto mia nonna le novità di oggi impallidiscono. Lei ha conosciuto la radio, la televisione, l’illuminazione stradale, le automobili, gli aeroplani, la penicillina, l’educazione generalizzata, l’uomo sulla Luna e la bomba atomica. E ci sono state, in passato, innovazioni tecnologiche che hanno sovvertito la vita del pianeta […]. Per esempio la diffusione dei trattori ha fatto sì che la percentuale di uomini che coltivava la terra passasse da più del novanta percento a meno del dieci, e ciò ha cambiato l’esistenza di milioni di esseri umani e sovvertito in modo radicale la struttura sociale della società”.

Devo dire che, probabilmente perché sono appassionato di fantascienza e per questo abbastanza sognatore, non sono molto d’accordo con Rovelli. Egli ha fatto una serie di esempi molto significativi, però a me non convincono molto.

Chi avrebbe potuto prevedere nel 1905 che la spiegazione dell’effetto fotoelettrico di Einstein avrebbe portato dopo più di ottanta anni ai cancelli automatici? E chi avrebbe potuto prevedere negli anni sessanta del novecento che le tavolette usate dal Dr. Spock in Star Trek, noto telefilm di fantascienza, sarebbero diventate reali con gli attuali e-reader e tablet? Vogliamo parlare degli attuali telefoni cellulari di cui si anticipa l’esistenza sempre in Star Trek?

Mi potreste dire: “ma di cosa stai blaterando? Stai confondendo finzione con realtà. Una cosa è l’effetto fotoelettrico altra è la fantasia degli sceneggiatori di Star Trek”. È vero. Solo che molte volte la realtà supera la fantasia come spiega Lawrence Krauss nel suo “La fisica di Star Trek”.

Dove voglio andare a parare? Voglio semplicemente dire che lo sviluppo delle nostre conoscenze scientifiche non ci consente di dire come, quando e quanto la tecnologia potrà subire salti in avanti. Quello che a Rovelli sembra un periodo di forte rallentamento tecnologico, io lo vedo in altro modo.

La tecnologia è indissolubilmente legata al progresso scientifico. Ma anche il progresso scientifico è legato allo sviluppo tecnologico. Cose che oggi sono possibili, solo qualche anno fa erano impensabili a partire da internet di cui parla Rovelli e dal World Wide Web. La necessità di superare la lentezza nello scambio di informazioni nel mondo scientifico portò Timothy John Berners-Lee ad inventarsi quello che a noi oggi sembra qualcosa di ovvio: il web a cui internet è legato a doppio filo. E col web oggi io posso lavorare sul mio tablet scrivendo questo articolo mentre sorseggio il mio caffè. Di esempi del genere ne potrei fare a bizzeffe. Solo per rimanere nel mio ambito settoriale che è quello della risonanza magnetica nucleare, chi potrà mai dire cosa ci consentirà di conoscere in termini scientifici l’applicazione della rilassometria NMR a ciclo di campo combinata con la risonanza magnetica per immagini? Questo che è uno sviluppo tecnologico non potrà fare altro che far avanzare le frontiere della nostra conoscenza. Con esse ci saranno altri sviluppi tecnologici che potranno consentire  ulteriori passi avanti nelle conoscenze in un ciclo senza fine.

La tecnologia che deriva dallo sviluppo scientifico non è neutra neanche nei nostri confronti. Essa influenza il nostro modo di pensare e di muoverci man mano che la utilizziamo. Faccio mie e rendo più generali le riflessioni di Nicholas Carr nel suo “Internet ci rende stupidi?”: quando facciamo uso di uno strumento, qualsiasi esso sia, il nostro cervello viene modificato. In altre parole, si modificano le nostre connessioni neuronali in modo tale da permetterci di adattarci allo strumento di cui facciamo uso. Lo sviluppo di strumenti sempre più innovativi ci porta ad una riprogrammazione continua del nostro computer interno – il nostro cervello – cosicché esso è di gran lunga differente rispetto a quello dei nostri nonni.

Pur non essendo il nostro hardware – il nostro aspetto fisico – differente da quello dei nostri antenati di 10000 anni fa, il nostro software – ovvero le connessioni neuronali nel nostro cervello – invece lo è perché si è dovuto riprogrammare progressivamente per poter adattarsi alle innovazioni avvenute nel corso dei secoli. Questa riprogrammazione richiede del tempo ed è, secondo me, quello che a Rovelli sembra il periodo di progressivo rallentamento tecnologico in cui viviamo.

La Figura 1 (fatta a mano in un rigurgito vintage scientifico) rappresenta quello che penso in merito al progresso scientifico – ovvero delle conoscenze – e tecnologico. Ogni volta che c’è una innovazione (segmenti con pendenza positiva) abbiamo bisogno di tempo per la riprogrammazione del nostro software interno (segmenti con pendenza quasi nulla). Dopo questo tempo si presentano nuove innovazioni seguite da nuovi periodi di apparente rallentamento.

Non sono un neuro-scienziato e so benissimo di essermi avventurato in un campo che non è il mio. È molto probabile che io abbia detto una serie di sciocchezze, ma è proprio questo lo scopo di queste riflessioni: intavolare una discussione proficua con chi è più esperto di me.

Immagine di copertina. Foto personale della copertina di Wired inverno 2017/18

La chimica del cappuccino

Nelle mie lezioni di chimica del suolo c’è una parte del programma che riguarda la chimica dei colloidi. Ogni anno accademico, quando descrivo i colloidi del suolo, alleggerisco la lezione facendo esempi di sistemi colloidali nella vita di tutti i giorni discutendo, tra le altre cose, della schiuma del cappuccino.

Ma andiamo con ordine.

Cos’è un sistema colloidale?

Un sistema colloidale si definisce tale solo in base alle dimensioni delle particelle di soluto che lo costituiscono. Qui sotto una tabella in cui si riportano le dimensioni delle particelle di soluto che ci consentono di distinguere tra soluzioni vere, dispersioni colloidali e sospensioni solide

Sistemi chimici                Dimensioni delle particelle di soluto

Soluzioni vere                               < 2 x 10-9 m (ovvero < 2 nm)

Dispersioni colloidali                tra 2 x 10-9 e 2 x 10-6 m (cioè tra 2                                                                                nm e 2 μm)

Sospensioni solide                     > 2 x 10-6 m (ovvero > 2 μm)

Un sistema colloidale può essere del tipo liquido-solido (come, per esempio, nel caso della soluzione suolo in cui i minerali argillosi, delle dimensioni indicate in tabella, sono disperse nell’acqua dei suoli), liquido-liquido (come, per esempio, nel caso delle microgoccioline di olio disperse in acqua o della maionese), gas-liquido (come, per esempio, nel caso della panna montata,  dei gelati o del cappuccino, di cui si dirà fra poco) e gas-gas (come, per esempio, nel caso della dispersione di microgocce di acqua in aria così da costituire la nebbia).

Per convenzione si ritiene che una dispersione colloidale sia stabile quando il tempo di flocculazione è > 2 h, ovvero se ci vogliono più di due ore prima che cominci la flocculazione. Quest’ultima consiste nel processo di aggregazione delle diverse particelle colloidali che, dopo il raggiungimento di certe dimensioni limite, risentono più della forza di gravità che delle forze di dispersione. Nel caso di particelle colloidali cariche elettricamente, le forze di dispersione sono le repulsioni elettrostatiche e le dispersioni vengono indicate come elettrocratiche. Nel caso di soluti neutri, le forze di dispersione dipendono dalle interazioni soluto-solvente e le dispersioni vengono indicate come solventocratiche.

La schiuma del cappuccino

Alla luce delle poche cose scritte, si evince che la schiuma del cappuccino è una dispersione colloidale di un gas in un liquido. Il  liquido è il latte usato per il cappuccino, mentre il gas è costituito dall’aria e dal vapor d’acqua usati per montare il latte. Le goccioline di aria possono formare una dispersione colloidale nel latte grazie alla presenza in esso di surfattanti1, ovvero di molecole in grado di abbassare la tensione superficiale2 del liquido in cui esse sono presenti.  La caratteristica chimica più importante dei surfattanti è l’anfifilicità, ovvero la presenza nella struttura sia di gruppi idrofili che di gruppi idrofobi. Nel latte queste molecole sono le proteine (di cui le caseine rappresentano l’80% del totale proteico) ed i fosfolipidi (che mediamente sono lo 0.8% della massa grassa).

Quando il latte viene insufflato col vapore acqueo mediante l’utilizzo di una tipica macchina da bar (Figura 1), si forma una schiuma in cui goccioline di gas delle dimensioni comprese tra 2 nm e 2 μm sono disperse nel mezzo liquido.

Figura 1. Macchina da caffè per bar. In fondo a destra c’è il cannello usato per insufflare aria e vapore acqueo nel latte per la preparazione del cappuccino (Fonte)

La stabilità di questa schiuma dipende dalla concentrazione relativa di surfattanti. Più essa è elevata, più la schiuma è stabile, ovvero le goccioline di gas non si uniscono a formare gocce più grandi che si allontanano dalla bevanda3. È per questo motivo che più è bassa la concentrazione di grassi come i trigliceridi che non sono surfattanti e rappresentano circa il 90% della massa grassa del latte, e più persistente è la schiuma o “cappuccio” del caffé. Tuttavia, l’uso del latte scremato o parzialmente scremato produce un cappuccino non molto gustoso; è meglio usare un latte intero per avere una bevanda migliore in termini di sapore, sebbene con una schiuma meno persistente.

È importante la temperatura del latte?

Chi ha familiarità con la chimica, come i miei studenti, avrà sicuramente sentito dire che la solubilità di un gas in un liquido dipende sia dalla pressione esercitata dal gas sulla superficie del liquido che dalla temperatura.

Più alta è la pressione del gas sulla superficie del liquido, maggiore è la quantità di gas disciolta (Figura 2).

Figura 2. Più alta è la pressione del gas sulla superficie del liquido, maggiore è la quantità di gas disciolta in soluzione (Fonte)

All’aumentare della temperatura la quantità di gas disciolto in un liquido diminuisce (Figura 3).

Figura 3. Dipendenza della solubilità di un gas dalla temperatura (Fonte)

Alla luce di quanto appena scritto, appare chiaro che per avere una schiuma consistente per il cappuccino occorre sciogliere quanto più gas possibile. Questo si può realizzare se il latte viene preso direttamente dal frigorifero e se il bricco entro cui si prepara la schiuma è freddo.

Quanto appena scritto è la lezione di chimica del cappuccino che faccio ad ogni barista nuovo che si mette dietro al bancone nel bar di fronte al mio dipartimento. Lo so, sembro arrogante, ma ci tengo a bere un buon cappuccino la mattina. Il latte e caffè me lo faccio da solo a casa e non ho bisogno del bar per questo. Buon cappuccino a tutti

Note
  1. Per quei chimici che hanno il vezzo del purismo della lingua italiana: il termine “surfattante”, anche se non piace, esiste nel dizionario di italiano ed è sinonimo di “tensioattivo”. Esso è entrato nell’uso comune e non è più da considerarsi errore o cattiva traduzione dell’inglese surfactant che è l’acronimo di surface active agent. (Surfattante nel dizionario Treccani)
  2. La locuzione “tensione superficiale” si riferisce alle forze di coesione che, all’interfaccia liquido-gas, tengono unite le molecole del liquido alla superficie del liquido stesso. In termini quantitativi, la tensione superficiale è la forza necessaria a tener uniti i lembi di un ipotetico taglio fatto sulla superficie del liquido. All’aumentare della temperatura, le forze di coesione che tengono unite le molecole alla superficie del liquido diminuiscono di intensità e la tensione superficiale diminuisce.
  3. Le microparticelle di soluto tendono ad unirsi ed a formare aggregati a dimensione progressivamente maggiore per diminuire l’area superficiale a contatto col mezzo liquido in cui esse sono insolubili. Per questo motivo, nel tempo, tutte le dispersioni colloidali tendono a subire una separazione di fase: le emulsioni olio-acqua tendono a formare una fase acquosa sul fondo ed una fase organica sulla superficie; la maionese tende a formare uno strato di olio superficiale per effetto della separazione di quest’ultimo dalla fase acquosa; le sostanze umiche (acidi umici, fulvici ed umina) tendono ad aggregarsi ed a flocculare;  etc etc.
Per saperne di più

I colloidi in breve 1

I colloidi in breve 2

Una lezione sui colloidi

Breve lezione sui tensioattivi

Un’altra lezione sui tensioattivi

La composizione dei grassi nel latte

Le proteine del latte

Il latte migliore per i cappuccini

Fonte dell’immagine di copertina: By Scoti5 – Originally from he.wikipedia; description page is/was here., Attribution, https://commons.wikimedia.org/w/index.php?curid=2710311

I dolcificanti. L’aspartame

Faccio molto uso di dolcificanti. Quando vado al bar per prendere il mio cappuccino mattutino chiedo sempre un dolcificante per rendere più dolce la bevanda che già di per sé è dolce. In genere mi viene sempre fornito aspartame, qualche volta acesulfame-K, molto meno spesso sucralosio o altri tipi di dolcificanti. Quante volte ho dovuto sentire, anche da parte di colleghi universitari, “ma non hai paura? I dolcificanti sono tossici” oppure “inducono il cancro” ed altre amenità del genere. Non parliamo poi delle sciocchezze che ascolto nei locali cosiddetti “bio”: è un apoteosi di cretinate salutistiche e di sparate pseudo chimiche nei confronti di questi prodotti “alternativi” al saccarosio che sono estremamente utili per chi ha serie patologie come il diabete e, per questo, non può fare uso di “zucchero normale” – ovvero di dolcificanti contenenti glucosio.

Se l’informazione veicolata dalla stampa generalista non scientifica oppure di nicchia (come per esempio qui) in base alla quale “i dolcificanti fanno male” attecchisce nei professori universitari – che hanno tutti i mezzi per poter controllare la validità di certe informazioni – non posso aspettarmi maggiore maturità culturale da parte di persone senza un background scientifico. Ed allora cerchiamo di fare un po’ di chiarezza. Oggi parliamo di aspartame

aspartamE: cos’é?

L’aspartame è un dipeptide il cui nome IUPAC è “N-(L-α-Aspartyl)-L-phenylalanine, 1-methyl ester”(Figura 1A). In altre parole, è ottenuto per formazione di un legame peptidico tra l’acido aspartico (Figura 1B) e la fenilalanina (Figura 1C). Il gruppo carbossilico (-COOH) della fenilalanina è esterificato mediante l’inserzione di un gruppo metile.

Figura 1. Struttura dell’aspartame (A), acido aspartico (B) e fenilalanina (C)

L’aspartame è anche indicato con la sigla E951, per cui quando leggete gli ingredienti presenti in un alimento e notate la sigla anzidetta, sapete che l’alimento contiene aspartame.

Dei due amminoacidi presenti nell’aspartame, la fenilalanina (Figura 1C) è essenziale, ovvero il nostro organismo non è in grado di sintetizzarlo; la conseguenza è che dobbiamo assumere fenilalanina attraverso la dieta per consentire la corretta sintesi delle proteine che contengono tale amminoacido, per consentire la sintesi di alcuni ormoni e quella di alcuni neuro trasmettitori (per esempio qui).

L’aspartame è tossico?

La Figura 2 mostra la reazione di decomposizione cui può essere soggetto l’aspartame per effetto dell’interazione con molecole di acqua in ambiente acido, come quello presente nel nostro stomaco, o per azione della temperatura, come quelle usate per cucinare i nostri alimenti. Da quanto appena detto, si capisce che il dolcificante in oggetto non può essere usato per preparare alimenti che devono essere soggetti a cottura. Infatti, l’aspartame, quando sottoposto ad elevate temperature, si decompone nelle sue componenti elementari (ovvero acido aspartico, fenilalanina e metanolo) perdendo completamente il suo potere dolcificante (che è circa 200 volte più intenso di quello del saccarosio.

Figura 2. Degradazione dell’aspartame per idrolisi. Quest’ultima può avvenire in ambiente acido come quello del nostro stomaco, o per effetto delle alte temperature, come quelle usate per cucinare.

Delle tre componenti, il metanolo è quello che può fare più paura. Infatti, il metanolo provoca mal di testa e vertigini, può portare a crampi, nausea, vomito e cecità oltre che alla morte quando assunto in quantità superiori a circa 0.1 g/kg. Tradotto in altre parole, se un individuo dal peso medio di 80 kg assume circa 8 g di metanolo in un giorno, può morire. Se, per sua fortuna, non muore, può tuttavia rimanere menomato per effetto di gravi danni neurologici permanenti (scheda di sicurezza del metanolo).

Alla luce di quanto scritto, mi potreste chiedere: “ma allora già solo per la formazione del metanolo, l’aspartame deve essere considerato pericoloso. Perché ci dici che non dobbiamo preoccuparci?”.

Come ho appena scritto, perché il metanolo prodotto dalla degradazione dell’aspartame possa dare gravi danni neurologici e finanche la morte, è necessario superare una certa soglia limite che è, mediamente, intorno agli 0.1 g/kg.

La Figura 3 mostra la composizione chimica di un dolcificante comprato in una nota catena di supermercati. La confezione contiene 200 pillolette dal peso complessivo di 8.4 g. Ogni pilloletta pesa, quindi, 0.042 g. Il 43% di tale peso è dovuto all’aspartame. Questo vuol dire che ogni pilloletta contiene 0.019 g di aspartame. Alla luce della reazione riportata in Figura 2, la quantità di metanolo ottenuta per decomposizione di 0.019 g di aspartame è pari a 2.0 mg, ovvero una quantità circa 4000 volte più piccola di quella che può provocare danni permanenti o uccidere un individuo dal peso medio di 80 kg. Insomma, per avere problemi dovuti alla formazione di metanolo, un individuo del peso di 80 kg deve usare almeno 4000 pillolette di quelle descritte in Figura 3; si tratta, cioè di 20 scatolette al giorno. Un po’ troppo, non trovate? Conoscete qualcuno che mangia pillolette di dolcificante come fossero caramelle o prende tanti di quei caffé da arrivare a far uso di un tale ammontare di aspartame? Io, personalmente, no. Peraltro se un individuo prende tanti caffè da far uso di oltre 4000 pillolette di aspartame, rischia seri problemi di salute non solo a causa del dolcificante, ma anche a causa del numero spaventoso di caffè giornalieri.

Figura 3. Dolcificante a base di aspartame comprato in una nota catena di supermercati

E le altre due componenti che si formano per degradazione dell’aspartame hanno qualche conseguenza sulla salute? In realtà, l’unica componente che può avere seri effetti sulla salute umana è proprio la fenilalanina. Infatti, esiste una patologia rara che si chiama iperfenilalaninemia che provoca seri danni neurologici. Questa malattia è genetica e consiste nella incapacità da parte dell’organismo di metabolizzare la fenilalanina per la sintesi di un altro amminoacido che si chiama tirosina. Rimando a pagine più dettagliate e specifiche della mia per approfondimenti su questa patologia (per esempio qui). E’ per questo motivo che la dose giornaliera di aspartame consigliata è di circa 40 mg/kg. Un individuo del peso medio di 80 kg può assumere fino a 3.2 g di aspartame al giorno prima di avere problemi di salute legati alla fenilalanina. Ma 3.2 g di aspartame corrispondono a un po’ più di 200 pillolette al giorno di quelle mostrate in Figura 3; si tratta, cioè, di utilizzare una scatoletta al giorno del dolcificante di Figura 3. Insomma, ancora una volta, bisogna assumere aspartame in dosi massicce prima di poter riscontrare un qualche effetto sulla nostra salute.

Aspartame e cancro: cosa c’è di vero?

Come già accennato sopra, di tanto in tanto tornano alla carica informazioni pseudo scientifiche in merito al rapporto assunzione di aspartame ed insorgenza di tumori o altra tipologia di patologia. Per esempio, nel 2005 un gruppo di ricerca Italiano (Soffritti M, Belpoggi F, Esposti DD, Lambertini L. Aspartame induces lymphomas and leukaemias in rats. European Journal of Oncology 2005; 10(2):107–116) ha evidenziato una correlazione tra uso di aspartame ed insorgenza di linfomi e leucemia nei ratti. A seguito di questo studio, la Food and Drug Administration americana (l’equivalente della nostra Agenzia Europea del Farmaco) ha messo sotto la lente di ingrandimento l’uso alimentare dell’aspartame ed ha potuto evidenziare non solo che tale correlazione non esiste su basi meta-analitiche, ma che lo studio citato era anche affetto da limiti metodologici. Se siete curiosi, potete leggere qui le informazioni sull’aspartame, mentre qui le conclusioni della FDA e qui la storia completa sulla canceroginità inesistente di tale dipeptide. Insomma, per non farla tanto lunga, la correlazione tra insorgenza di tumori ed uso di aspartame è solo una leggenda metropolitana. Come ogni sistema chimico destinato all’alimentazione, anche l’aspartame è soggetto a controlli molto stringenti che escludono categoricamente ogni effetto negativo ad esclusione di quelli già evidenziati nel paragrafo precedente.

Aspartame, dieta e diabete

Siamo tutti umani, diciamo la verità. E come esseri umani siamo convinti che se usiamo dei dolcificanti che non forniscono “calorie” al nostro organismo, possiamo permetterci  “sgarri” più frequentemente di quanto faremmo se fosse presente il tradizionale saccarosio. Ecco; forse il problema dell’aspartame, come, in effetti, di tutti i dolcificanti, è che ci fanno illudere di poter abusare degli alimenti che li contengono.

“Bevo la coca cola zero, tanto è senza zuccheri e non fa ingrassare”; quante volte abbiamo pensato una cosa del genere? In effetti la coca cola zero non contiene quello che nel linguaggio comune è indicato come zucchero, ovvero il saccarosio, ma contiene vari dolcificanti tra cui l’aspartame. La Figura 4 mostra la composizione della coca cola zero.

Figura 4. Composizione chimica della Coca Cola zero (Fonte)

Come si può leggere, oltre ai dolcificanti (del ciclammato di sodio e dell’acesulfame-K parleremo in altro momento), la coca cola zero contiene anidride carbonica, il 4-metilimidazolo (indicato come  colorante E 150d), l’acido fosforico, aromi naturali (inclusa caffeina) e, come correttore di acidità, il citrato trisodico.

Un consumo eccessivo di coca cola zero, oltre a comportare assunzione di aspartame in quantità elevate, determina senzazioni di gonfiore ed aerofagia (a causa della presenza di anidride carbonica), carenza di calcio con conseguente possibile osteoporosi negli adulti e rachitismo nei bambini (l’acido fosforico forma sali di calcio insolubili; la dose giornaliera consigliata per i fosfati è di circa 70 mg/kg, ovvero un individuo adulto del peso medio di 80 kg può assumere circa 6 g di fosfato al giorno) e  possibile insorgenza di cancro per effetto della presenza del 4-metilimidazolo. Infatti, quest’ultimo, se assunto in quantità superiori a 751 mg/kg/die (ovvero pari a circa 60 g al giorno per un individuo dal peso medio di 80 kg), può portare ad insorgenza di tumori (qui la scheda di sicurezza del 4-metilimidazolo). Insomma, come aveva già stabilito Paracelso nel XIII secolo, è la dose che fa il veleno. Bevete pure la coca cola zero, ma senza abbuffarvi.

E che c’entra il diabete con l’aspartame? Nel 2014 è stato pubblicato su Nature un lavoro dal titolo “Artificial sweeteners induce glucose intolerance by altering the gut microbiota” in cui gli autori hanno evidenziato che il consumo eccessivo di dolcificanti di sintesi comporta una alterazione della flora microbica intestinale con conseguenze negative sulla capacità dell’organismo di metabolizzare il glucosio. Per poter ristabilire le condizioni pre-esperimento è necessario far uso di antibiotici in grado di ripristinare le condizioni microbiche di partenza.

Conclusioni

L’aspartame non è pericoloso se assunto in modo equilibrato ed al di sotto delle dosi consigliate. I prodotti della sua degradazione vengono escreti dalle vie urinarie, per cui non ci sono problemi di accumulo. Del resto anche una fetta di sachertorte (Figura 5) è una delizia per il palato e migliora l’umore. Tutto quanto della sachertorte serve al nostro organismo viene metabolizzato, il resto viene escreto. Il consumo eccessivo, oltre che frequente, di intere sachertorte comporta, invece, l’insorgenza del diabete di tipo II con le conseguenze che tutti conosciamo. In altre parole, a distanza di circa cinque secoli, è ancora valida la locuzione “è la dose che fa il veleno”.

Figura 5. Sachertorte (Fonte)
Fonte dell’immagine di copertina: Wikimedia Commons

Sui somari, sugli stupidi e della pseudoscienza

Scienza e democrazia

Ho appena finito di leggere il libro del Prof. Burioni dal titolo “La congiura dei Somari. Perché la scienza non può essere democratica”, in cui l’autore spiega, semmai ce ne fosse bisogno, cosa vuol dire la locuzione “la scienza non è democratica”.
In breve, come sanno tutti coloro che a vario titolo si occupano di scienza, questa non è democratica nel senso che chiunque si svegli la mattina ha diritto di parola e può dire ciò che vuole su qualunque argomento; la scienza è democratica perché chiunque lo desideri può approfondire un particolare aspetto della realtà che ci circonda e dare il suo personale contributo nella spiegazione dei fatti che ha deciso di osservare. In altre parole, la scienza non si basa sulle opinioni di nessuno – sia scienziati che gente che fa altro nella propria vita – ma sui fatti. Si osserva un fenomeno, si ipotizza un modello interpretativo, si conducono esperimenti per validare o falsificare quel modello; nel primo caso il modello funziona e diventa teoria, nel secondo il modello non funziona e bisogna riformularlo; a questo punto gli esperimenti devono essere ripetuti. Come si capisce da questa breve disamina, la modellizzazione dei fatti sperimentali è alla base di quella che viene indicata come verità scientifica. La verità scientifica non ha una valenza assoluta ma è relativa alle condizioni entro le quali le ipotesi sono state formulate.

Ottimismo scientifico

Da quanto appena descritto nasce l’ottimismo scientifico in base al quale una nuova idea o una nuova osservazione mai fatta prima possono condurre ad una nuova verità scientifica che può inglobare quella precedente oppure semplicemente sostituirla: è accaduto per il modello geocentrico dell’universo sostituito da quello eliocentrico, sebbene entrambi avessero pari dignità in termini di formulazione matematica, per la teoria del flogisto sostituita dalle leggi di Lavoisier, per la fisica di Newton inglobata nella meccanica quantistica e così via di seguito.
L’ottimismo scientifico viene male interpretato da chi non conosce la scienza. Infatti, spesso si nasconde la propria ignoranza affermando che le proprie idee siano valide perché si è sicuri che in un futuro non si sa bene quanto lontano, ci sarà qualcuno che proverà la validità delle affermazioni formulate. Il più delle volte ci si riferisce alla vita romanzata di Galilei o di Einstein attraverso un confronto piuttosto spinto: “come quei due grandi scienziati sono stati avversati dall’establishment dei loro tempi, così vengo avversato io perché le mie idee sono innovative e contrarie alle opinioni comuni. Tuttavia, ci sarà in futuro chi mi darà ragione come è accaduto a Galilei ed Einstein”. Chi fa questi pensieri, che io definisco osceni, non si rende conto che quei due hanno avuto ragione non perché avessero espresso delle opinioni generiche basate sul nulla, ma perché avevano generato un impianto fisico che si è dimostrato valido alla prova del tempo. Hanno fatto esperimenti, hanno controllato e ricontrollato i loro dati, e le loro teorie hanno subito l’attacco del mondo scientifico che ha tentato di falsificarle. Non è stato possibile trovare incrinature nel loro impianto teorico. La conseguenza è che esse sono state accettate. Ma solo fino a prova contraria. Se c’è qualcuno che pensa che le teorie di Galilei ed Einstein siano verità assolute, farebbe meglio a ricredersi. Non è così. E non è così per tutte le teorie scientifiche che oggi studiamo sui libri. Sono sicuro che in qualche laboratorio in giro per il mondo c’è qualcuno che sta tentando di falsificare – in senso popperiano – uno qualsiasi dei modelli attualmente accettati nella letteratura scientifica. Tuttavia, i tentativi di falsificazione sono condotti non sulla base di teorie astruse venute in mente durante notti di plenilunio dopo aver mangiato pesante ed ecceduto in libagioni, bensì sulla base di disegni sperimentali sempre più innovativi che servono per comprendere fino a dove ci possiamo spingere con le teorie al momento accreditate.

Sui somari

Il Prof. Burioni va oltre le spiegazioni appena riassunte. Egli, infatti, da ottimo docente quale è, definisce il termine “somaro” che è attualmente desueto, ma era molto di moda quando persone della mia età, che grosso modo è la stessa di Burioni, andavano alle elementari. Un “somaro” nella accezione dell’autore – che poi è l’accezione di quando eravamo piccoli noi – è colui che, pur non avendo studiato, pensa di poter dare un contributo ad argomenti di cui non conosce nulla, alla pari di chi di quegli argomenti ha fatto non solo il proprio oggetto di studi, ma anche la propria ragione di vita.
Alla luce di quanto scritto, tutti siamo dei somari. Prendendo spunto da quanto scrive il Prof. Burioni, io chimico sono un somaro se pretendo di discutere alla pari col mio elettricista, col mio meccanico o finanche con un altro chimico che si occupi di un settore completamente differente dal mio. Ma questo è chiaro. Ho passato la mia vita a studiare chimica; certo ho studiato anche la fisica ed, in particolare, l’elettromagnetismo per cui so cos’è una corrente alternata ed una corrente continua, ma da qui a poter mettere le mani sull’impianto elettrico di casa mia ce ne passa: ho bisogno di un elettricista esperto che sappia cosa fare. Potreste dirmi: ma se hai studiato chimica, come mai non puoi confrontarti con un chimico che lavora in un campo che non è il tuo? Appunto! Io passo la mia vita a studiare la dinamica molecolare dell’acqua e dei nutrienti nei vari comparti ambientali; come potrei anche solo pensare di discutere alla pari con un chimico che si occupa di dinamica di nutrienti nel corpo umano? Come potrei discutere alla pari con un chimico che si occupa di chimica computazionale o di chimica di sintesi? Solo chi non conosce le varie sfumature dei vari rami della chimica può pensare che un chimico abbia familiarità con lo scibile chimico. Se mi addentrassi con le mie conoscenze attuali in una discussione con un esperto sulla chimica computazionale, verrei riconosciuto subito per quello che sono in quell’ambito: un somaro. Ma non ho motivo di offendermi. Sono consapevole di non conoscere tutto, per cui cerco di discutere alla pari solo con chi ha la mia stessa formazione. In tutti gli altri casi o ascolto ed imparo oppure sono io che do lezioni. Certo sono in grado di seguire una discussione in un qualunque ambito chimico, ma non sono in grado di dare un contributo significativo se non nel mio ristretto ambito professionale.
Sulla base di quanto ho finora scritto, non capisco perché apostrofare gli antivaccinisti col termine “asini” abbia scatenato in rete tutta una serie di invettive da parte di chi, volendo applicare le modalità del pensiero debole, ritiene che l’approccio di Burioni non serva per convincere le persone. Qui non si tratta di convincere nessuno. Qui si tratta di dire le cose come stanno: la mamma informata che non vaccina i figli perché ritiene che gli adiuvanti siano tossici o che il sistema immunitario degli infanti sia perfetto o che l’igiene protegga dai virus, altro non é che una somara perché rientra nella tipologia di persone che non solo parla di cose che non sa, pretendendo di dare consigli come se fosse un medico, ma nemmeno si informa correttamente perché cerca solo le informazioni che avallano le sue personalissime opinioni.

Sugli stupidi

Ed ora vengo al punto. Quanto riportato dal Prof. Burioni non è cosa nuova nel panorama culturale italiano. Molto prima di lui, uno storico Italiano, specializzato in storia economica, definisce con il termine “stupido” quello  che è il “somaro” di Burioni. Si tratta di Carlo M. Cipolla la cui biografia si può leggere qui. In realtà, lo “stupido” del Prof. Cipolla ha una accezione più ampia del “somaro” di Burioni. Infatti, mentre il “somaro” è colui che non ha studiato ma, soggetto all’ effetto Dunning-Kruger, ritiene di sapere tutto di un qualsiasi ramo dello scibile umano intervenendo così a sproposito in ogni discussione, lo “stupido” è colui che ha un comportamento grazie al quale arreca un danno sia a se stesso che alla società di cui fa parte.

Ma andiamo con ordine.

Nel suo “Le leggi fondamentali della stupidità umana”, Carlo Cipolla descrive quattro tipologie umane che, in modo analitico, egli dispone nei quattro quadranti di un sistema di assi cartesiani (Figura 1).

Figura 1. Distribuzione delle varie tipologie umane. L’asse x riporta il vantaggio crescente (da sinistra a destra) per il singolo soggetto, mentre l’asse y mostra il vantaggio crescente (dal basso verso l’alto) per un insieme di persone o la società (Fonte)

La disposizione delle quattro tipologie umane segue un andamento ben preciso in funzione del vantaggio crescente che l’individuo dà a se stesso ed alla comunità di individui a cui appartiene. In questo modo, è possibile distinguere individui intelligenti che, col loro comportamento, riescono ad ottenere vantaggi per se stessi e per gli altri (quadrante I del sistema di assi cartesiani in Figura 1); se, invece, gli individui ottengono solo vantaggi per se stessi, ma non per la società, allora si identificano come banditi (quadrante II del sistema di assi cartesiani in Figura 1); quando gli individui oltre ad essere dannosi per se stessi fanno anche danno alla società, vengono catalogati come stupidi (quadrante III del sistema di assi cartesiani in Figura 1); quando un individuo arreca danno a se stesso, ma nel contenpo un vantaggio alla società, può essere catalogato come uno sprovveduto (quadrante IV del sistema di assi cartesiani in Figura 1). Oggi lo sprovveduto verrebbe identificato col termine “sfigato”; ma come si diceva una volta “o tempora, o mores”. Cipolla ha pubblicato le sue leggi fondamentali all’inizio degli anni ’70 del ventesimo secolo, quando ancora non era in uso il termine “sfigato”.

Non esiste un modo oggettivo per poter catalogare ognuno di noi in uno qualsiasi dei quattro quadranti considerati in Figura 1. Lo si può fare solo caso per caso andando a valutare le conseguenze delle nostre azioni su noi stessi e sulla società. Come regola generale possiamo dire che gli intelligenti tendono ad agire in modo tale da non apportare danni a nessuno. Può, tuttavia, capitare che in un determinato momento della propria esistenza, una persona intelligente possa commettere degli errori così da diventare o uno sprovveduto o un bandito. La probabilità che una persona intelligente  ha di essere catalogata tra gli stupidi in un qualsiasi momento della propria vita è piuttosto bassa, se non addirittura nulla. Infatti, riprendendo l’attenta analisi del Prof. Cipolla si può dire che “la grande maggioranza delle persone stupide sono fondamentalmente e fermamente stupide — in altre parole essi insistono con perseveranza nel causare danni o perdite ad altre persone senza ottenere alcun guadagno per sé, sia esso positivo o negativo. Ci sono tuttavia persone che, con le loro inverosimili azioni, non solo causano danni ad altre persone, ma anche a se stesse. Queste sono un genere di super-stupidi che, in base al nostro sistema di computo, appariranno in qualche punto dell’area S alla sinistra dell’asse delle Y (si tratta del quadrante III di Figura 1, NdA)”.

I somari, Gli stupidi e la scienza

Perché ho fatto questa lunga premessa citando sia il libro del Prof- Burioni che l’opera del Prof. Cipolla? Semplicemente perché, sebbene il primo si riferisca ai somari nel contesto scientifico ed il secondo agli stupidi in un contesto economico (il Prof. Cipolla, ricordo, era uno storico dell’economia), non riesco a non catalogare tra gli stupidi tutti quelli che il Prof. Burioni cataloga tra i somari; sono quelli che si professano anti-vaccinisti o seguaci dell’omeopatia; allo stesso modo non riesco a non catalogare tra i banditi tutti coloro che propagandano il credo antivaccinista e quello omeopatico.

Provo a spiegarmi meglio.

Quante volte abbiamo letto che qualcuno è morto per gli effetti di una malattia che avrebbe potuto evitare attraverso la vaccinazione? Quante volte abbiamo letto di morti causate dalla cattiva pratica medica che ha impedito l’uso di cure efficaci per applicare l’omeopatia? Vogliamo parlare del bimbo morto per le conseguenze di un’otite curata con l’omeopatia (qui)? Vogliamo discutere delle vittime della difterite (qui) o di quelle del morbillo (qui)?

Quando dei genitori decidono di non vaccinare il proprio figlio sulla base di paure infondate nonostante tutte le rassicurazioni dei medici, fanno un danno a se stessi (perché la possibile perdita di un figlio è certamente un danno per se stessi), un danno al proprio figlio (che da adulto non vaccinato potrà essere soggetto a malattie mortali come è capitato recentemente in Sicilia, qui) ed un danno alla società (perché consentono la riduzione dell’immunità di gregge, qui, con il conseguente ritorno di malattie oggi ritenute impropriamente scomparse o poco importanti). In altre parole, l’atteggiamento no-vaxx o quello di chi segue le medicine alternative è un atteggiamento che nel linguaggio moderno potrebbe venir catalogato come atteggiamento lose-lose-lose, ovvero tutti ci perdono: dai genitori, ai figli, alla società. Non è detto che i genitori che rifiutano le vaccinazioni o utilizzano medicina alternativa per i propri cari siano somari nell’accezione usata dal Prof. Burioni. Se un somaro è colui che non conosce la materia di cui parla, non può essere il caso di quei genitori che hanno perso il figlio come riportato nella notizia a questo link. Non può essere considerato somaro neanche l’operatore sanitario che, seguendo la filosofia antivaccinista, non somministra i vaccini procurando un danno sia a se stesso che agli altri (la notizia è qui). In questi casi specifici va applicata la teoria della stupidità elaborata dal Prof. Cipolla, con la conclusione che ognuno di noi può trarre autonomamente.

E i banditi?

Alla luce della definizione data in modo analitico dal prof. Cipolla, i banditi sono quelli che per procurare un vantaggio per se stessi, fanno un danno agli altri. Esempi di banditi secondo questa accezione? Indubbiamente Wakefield che, per procurare a se stesso dei guadagni, ha fatto grossi danni alla società dal momento che, grazie a lui, oggi spopola la falsa correlazione vaccini-autismo alla base del movimento antivaccinale. La storia di Wakefield è qui. In generale, tutti coloro che hanno tanto da guadagnare dalla pseudo scienza (per esempio con la vendita di libri, con le comparsate ai convegni, con fondi di qualsiasi tipo) e dall’aumento del numero di seguaci, sono da considerarsi banditi.

Conclusioni

Cosa ho voluto evidenziare con questo articolo neanche tanto breve? Che i personaggi che si muovono nell’ambito della pseudo scienza non sempre possono essere catalogati come somari. Io li distinguo in due tipologie: stupidi e banditi. I primi sono quelli che, anche se in buona fede, perserverano nelle loro false convinzioni provocando danni a se stessi, alle loro famiglie ed alla società che li circonda;  vanno tenuti sotto controllo in modo tale da difendere sia la società che loro stessi dal loro comportamento. I secondi sono quelli che, pur avendo gli strumenti adatti per poter discriminare verità scientifiche da falsi miti, non lo fanno o scientemente – ed allora sono banditi intelligenti che vanno perseguiti per evitare danni alla società – o inconsapevolmente – ed allora sono banditi stupidi da perseguire come i primi perché oltre alla società fanno danni anche a se stessi.

Per approfondire

La stupidità: http://www.aepsi.it/Stupidita_2.pdf

Le leggi fondamentali della stupidità umana

Fonte dell’immagine di copertina

http://funnystack.com/category/funny-donkey/page/9/

La lucentezza dei metalli

Vi siete mai chiesti perché uno specchio restituisce la nostra immagine riflessa? Si tratta di una tipica propietà dei metalli che noi indichiamo col termine di “lucentezza”.

La tavola periodica

La tavola periodica è, ormai, nota a tutti. Tuttavia, una cosa è sapere che esiste una “tabella” in cui sono riportate le proprietà fondamentali di tutti gli elementi chimici noti, altra è conoscere i dettagli di queste proprietà tra cui va certamente annoverata la lucentezza dei metalli.

Avete sicuramente maneggiato i fogli di alluminio come quello mostrato in Figura 1A. Si usano, per esempio, per conservare gli alimenti (Figura 1B), cucinare (Figura 1C) o applicare la tintura per capelli (Figura 1D).

Figura 1. Foglio di alluminio (A) e suoi usi. Conservazione degli alimenti (B); cottura (C); applicazione della tintura per capelli (D)

Come potete vedere si tratta di un materiale caratterizzato da una certa lucentezza, ovvero dalla capacità di riflettere la luce. Come l’alluminio, anche gli altri metalli della tavola periodica (tutti quelli colorati in verde nella Figura 2) hanno la medesima caratteristica.

Figura 2. Tavola periodica con, in verde, indicazione degli elementi metallici (Fonte)
A cosa è dovuta la lucentezza?

Per poterlo spiegare dobbiamo innanzitutto comprendere come è fatto un atomo.

Struttura dell’atomo

È ben noto che un atomo è costituito da un nucleo, contenente protoni e neutroni, e da elettroni. Questi ultimi  si muovono attorno al nucleo formando una nuvola generalmente indicata come “nuvola elettronica” (Figura 3).

Figura 3. Schema di atomo. Gli elettroni, che si muovono attorno al nucleo, formano una una nuvola elettronica (Fonte)

La nuvola elettronica è piuttosto complessa. Gli elettroni non possono semplicemente “ammucchiarsi” e stare tutti assieme. A coppie di due, essi si devono disporre a distanze differenti dal nucleo e devono occupare degli spazi la cui forma geometrica è variabile. La Figura 4 mostra proprio la forma di questi spazi occupati dagli elettroni e che chiamiamo “orbitali”.

Figura 4. Forma degli orbitali atomici s, p, d, f (Fonte)
Gli orbitali di valenza

Quando combiniamo più atomi assieme per formare un sistema multiatomico complesso, in realtà stiamo combinando le varie nuvole elettroniche ognuna fatta dall’insieme di orbitali descritti in Figura 4. In genere, per comodità, quando si descrive l’interazione tra atomi in un sistema multiatomico, si trascura il contributo alla interazione da parte degli elettroni che sono più vicini al nucleo, ovvero degli elettroni che occupano la parte più interna della complessa nuvola elettronica summenzionata. Il motivo per cui viene trascurato questo contributo è intuitivo. Immaginate ogni orbitale come se (*) fosse un palloncino. La nuvola elettronica può essere pensata come se fosse un inviluppo di palloncini la cui rigidità diminuisce man mano che aumentano le sue dimensioni, ovvero man mano che gli elettroni si allontanano dal nucleo. Il palloncino che ospita gli elettroni più lontani dal nucleo (chiamato anche orbitale di valenza) è quello più facilmente deformabile (il termine tecnico è “polarizzabile”). La deformabilità dei palloncini più esterni consente la loro migliore interazione per la formazione del legame chimico.

I legami nei metalli

Quando si raggruppa un insieme di atomi di un qualsiasi metallo della tavola periodica  (come nel caso del foglio di alluminio di Figura 1), si può pensare che si formi un sistema come quello descritto in Figura 5.

Figura 5. Schema di legame metallico

In altre parole, si può pensare che gli orbitali di valenza dei singoli atomi perdano la loro identità e si combinino (grazie alla loro elevata capacità di “deformarsi”) in modo da formare un unico “contenitore” in cui si muovono tutti gli elettroni di valenza. Questo vuol dire che gli elettroni dei palloncini più esterni non appartengono più ad un singolo specifico atomo, ma diventano elettroni dell’insieme di atomi. Immaginiamo, quindi, che i nuclei (in Figura 5 indicati con pallini gialli) siano immersi in un mare di elettroni (in Figura 5 indicati con pallini azzurri).

A questo punto mi si potrebbe dire che con questa descrizione io stia violando i principi più elementari della meccanica quantistica. Infatti, poco sopra ho scritto che gli elettroni non possono ammucchiarsi, ma devono occupare, a coppie, spazi dalle forme ben precise e disporsi ad una distanza ben definita dal nucleo. Al contrario ora io sto scrivendo che si è formato un “mare elettronico” in cui tutti gli elettroni sembrano essere tutti assieme appassionatamente. Volendo essere un po’ più precisi, possiamo dire che quando le nuvole elettroniche di valenza si combinano per formare il “mare elettronico”, si realizzano, in realtà, bande energetiche differenti molto vicine tra di loro in cui gli elettroni possono “entrare” ed “uscire”   mediante acquisizione o rilascio di una minima quantità di energia.

La lucentezza dei metalli

Quando una radiazione elettromagnetica (ovvero un raggio di luce) colpisce la superficie di una lamina metallica, gli elettroni si muovono da una banda energetica all’altra passando da uno stato fondamentale ad uno eccitato. Nel momento in cui gli elettroni tornano allo stato fondamentale, emettono dei fotoni alla stessa lunghezza d’onda della luce incidente con la conseguenza che viene restituito il riflesso dell’immagine che ha emesso la radiazione luminosa.

Maurits Cornelis Escher, Mano con sfera riflettente (Fonte)

Note ed approfondimenti

(*) la locuzione “come se” viene spesso usata dai chimici per fare delle analogie tra il mondo chimico e quello quotidiano. In altre parole, nel delucidare i modelli chimici e chimico-fisici, il “come se” viene usato per generare immagini mentali che, pur non essendo corrette, consentono la comprensione qualitativa dell’argomento di cui si discute. Gli orbitali NON sono palloncini, ma li immaginiamo come tali per comodità; un elemento chimico, una molecola NON sono sferici, ma le descriviamo come tali perché conosciamo tutto di una sfera ed è più semplice definirne il comportamento sotto l’aspetto qualitativo. Quando però dobbiamo applicare la matematica per la descrizione quantitativa del modello, non possiamo più usare le immagini mentali che abbiamo generato col “come se” e dobbiamo fare delle astrazioni che, per i non addetti ai lavori, risultano poco chiare o del tutto incomprensibili. Per comprendere le astrazioni dobbiamo passare dalla divulgazione scientifica al tecnicismo scientifico che può essere appreso solo attraverso uno studio specifico e settoriale.

Il legame chimico (1) e (2)

Il legame metallico

Il binario 9 e ¾ ovvero del perché non possiamo attraversare i muri come Harry Potter

Orbitali atomici ed ibridazione

Una lezione di Rai Scienza sul legame metallico

Fonte dell’immagine di copertina:

larapedia.com. Metalli e leghe

Scienza: contenuto e contenitori

Quante volte ho letto che un certo lavoro non è attendibile perché pubblicato su una rivista poco importante o su una rivista che viene considerata predatoria?

Certo. E’ importante che i risultati del proprio lavoro vengano accettati da una rivista che sia significativa per la comunità scientifica di riferimento. E’, altresì, importante che i risultati di una ricerca vengano pubblicati il più velocemente possibile perché la competizione tra gruppi di ricerca è talmente elevata che basta un niente per perdere la primogenitura su una determinata scoperta scientifica. E’ per questo che nascono archivi come arXiv che consentono di archiviare i risultati di una ricerca prima ancora che essi vengano pubblicati. Il limite di questi archivi è che il lavoro lì depositato non necessariamente può vedere la luce. Può accadere che rimanga lettera morta e che, di conseguenza, di esso rimanga traccia solo su quel data base. Non tutto quanto presente negli archivi digitali che attestano della primogenitura di un dato modello, è da prendere in considerazione perché non tutto quanto ha passato il vaglio della comunità scientifica di riferimento.

“Passare il vaglio della comunità scientifica di riferimento” non significa che un dato modello viene accettato perché rispecchia il modo di pensare in auge in quel momento; questa locuzione vuol dire che quando un lavoro arriva nelle mani di referenti/revisori anonimi, questi verificano la congruità delle ipotesi formulate con il disegno sperimentale e la congruità dei risultati ottenuti con le conclusioni che sono state tratte. Non è possibile per i referenti/revisori riprodurre esattamente gli stessi esperimenti di cui leggono, perché questi ultimi richiedono finanziamenti ad hoc e strumentazioni che non tutti i laboratori possono avere a disposizione. Inoltre, riprodurre gli esperimenti significa per i referenti/revisori cambiare lavoro, ovvero dedicarsi ad altro e non alla ricerca che hanno deciso di portare avanti.

Prendete me, per esempio. Solo per il 2017 (ed Ottobre è appena iniziato) ho fatto da referente/revisore per 15 lavori ed almeno altrettanti ho rifiutato di giudicare per mancanza di tempo. Se volessi mettermi a fare tutti gli esperimenti dei lavori che ho giudicato, non avrei tempo per portare avanti le mie ricerche e la mia didattica. Quello che faccio è, quindi, cercare di capire quanto ho appena scritto: verifico la congruità delle ipotesi formulate con il disegno sperimentale e la congruità dei risultati ottenuti con le conclusioni che sono state tratte

Ma veniamo al punto.

Più volte ho evidenziato che non il contenitore (la rivista), bensì il contenuto (ovvero i risultati della ricerca) è importante perché un modello scientifico possa essere considerato valido (per esempio qui).

La storia della scienza è piena di esempi di contenuti dall’importanza notevole, in termini di progressione delle conoscenze, ma pubblicati in contenitori poco noti; ma è anche piena di esempi di contenuti di nessuna o scarsa importanza presenti in contenitori molto prestigiosi.

Volete qualche esempio?

Cosa dire del lavoro di Benveniste sulla memoria dell’acqua pubblicato su Nature e sconfessato dagli stessi editor ad un approfondimento successivo? Ne ho parlato qui. E del lavoro di Wakefield in merito all’inesistente correlazione vaccino-autismo vogliamo parlare? E’ stato pubblicato, e poi ritirato, dalla prestigiosissima rivista The Lancet. Ne ho discusso qui.

Recentemente mi è capitato di leggere un breve articolo su www.sciencealert.com in cui è stata ripercorsa la storia di otto lavori che descrivono scoperte scientifiche che sono valse il premio Nobel agli autori.

Sapevate, per esempio, che Nature, nel 1933, ha rifiutato il lavoro di Enrico Fermi in merito alle interazioni deboli poi pubblicato nel 1934 su una rivista molto meno prestigiosa dal nome “Zeitschrift für Physik” oggi scomparsa? L’articolo in questione è qui (in tedesco).

Anche la scoperta di un meccanismo importantissimo in ambito biochimico ed alla base della vita, non è stato pubblicato da Nature perché in quel momento la rivista era fin troppo satura di lavori da pubblicare ed avrebbe dovuto posporre la pubblicazione di tale scoperta a tempi migliori (Figura 1). Mi riferisco al lavoro fondamentale di Hans Adolf Krebs che nel 1953 ha ricevuto l’ambito riconoscimento per aver scoperto il ciclo dell’acido citrico.

Figura 1. La lettera con cui l’editor di Nature chiede a Krebs se è disponibile a ritardare la pubblicazione del suo lavoro (Fonte)

Il lavoro fu poi inviato ad una rivista meno prestigiosa (Enzymologia) che lo pubblicò nel 1937 (qui). Se volete leggere il lavoro originale, lo potete scaricare da qui.

Chi mi conosce sa che nella mia attività di ricerca mi interesso delle applicazioni in campo ambientale delle tecniche di risonanza magnetica nucleare. Tra i miei idoli c’è sicuramente Richard Ernst che nel 1991 ha vinto il premio Nobel per il suo contributo allo sviluppo della tecnica NMR. Ernst ha applicato la trasformata di Fourier ai decadimenti che descrivono il comportamento ad oscillatore smorzato  della magnetizzazione nucleare, generata dall’applicazione di campi magnetici aventi certe intensità,  stimolata da radiazioni elettromagnetiche aventi lunghezza d’onda nel campo delle  radiofrequenze. Lo so ho parlato difficile. In altre parole, Ermst ha capito che poteva trasformare qualcosa di incomprensibile come quanto indicato in Figura 2:

Figura 2. Decadimento della magnetizzazione nucleare

in qualcosa di più facilmente leggibile come lo spettro di Figura 3:

Figura 3. Spettro NMR in fase solida dell’alcol coniferilico (precursore delle sostanze umiche). Ogni segnale dello spettro è attribuito in modo univoco ad ogni singolo atomo di carbonio

Il lavoro che descrive la scoperta di Ernst fu rifiutato dal Journal of Chemical Physics e fu pubblicato sul meno prestigioso Review of Scientific Instruments. Il lavoro di Ernst è qui. Invece,  a questo link trovate la lezione che Ernst ha fatto all’Accademia delle Scienze quando ha ricevuto il premio.

Conclusioni

La storia della scienza ci insegna che non dobbiamo tener conto del prestigio di un giornale. Ciò che importa è il valore del contenuto di un rapporto scientifico. Un lavoro è ottimo sia che venga pubblicato su una rivista altamente impattata, sia che venga pubblicato su una rivista sconosciuta. Un lavoro è sciocchezza sia che venga pubblicato su Nature o che venga accettato per la pubblicazione sulla rivista del vicinato. Gli addetti ai lavori, coloro che guardano ai contenuti piuttosto che alla copertina, lo sanno ed è per questo che leggono di tutto. La grande idea, quella che può essere alla base della rivoluzione scientifica, si può nascondere anche tra le righe di un lavoro pubblicato su una rivista sconosciuta.

Fonte dell’immagine di copertinahttps://www.dreamstime.com/royalty-free-stock-photo-chemistry-infographic-template-medical-research-illustration-image40572265

Sugli idrocarburi policiclici aromatici (PAH o IPA)

Quante volte abbiamo letto o sentito parlare di “idrocarburi policiclici aromatici”? Talvolta la locuzione viene indicata con gli acronimi PAH (da Polyciclic Aromatic Hydrocarbons) oppure IPA (da Idrocarburi Policiclici Aromatici). Si tratta di una classe di composti chimici che si ottiene per pirolisi (ovvero decomposizione termica in assenza o scarsità di ossigeno) di sostanza organica. Tanto per capirci: il fumo di sigaretta contiene gli IPA. Le sigarette, infatti, sono fatte da sostanza organica (la carta, il tabacco, i filtri) che quando sottoposta alle alte temperature prima subisce il processo di combustione con formazione di ceneri, anidride carbonica ed acqua, poi, man mano che il comburente (ovvero l’ossigeno) si allontana, subisce pirolisi con formazione di IPA.

In questa breve nota voglio puntare l’attenzione sulle caratteristiche strutturali degli idrocarburi policiclici aromatici e la loro tossicità.

1. Le premesse: significato di isomeria, formula chimica e struttura
1.1. Isomeria

“Isomeria” è una proprietà in base alla quale due o più composti chimici, pur avendo la stessa formula bruta, hanno differente struttura e, per questo, differenti proprietà chimico-fisiche.

1.2. Formula bruta, formula empirica e formula molecolare

La locuzione “formula bruta” si può riferire o alla formula empirica con la quale si descrive semplicemente il rapporto tra i diversi atomi che partecipano alla formazione di un composto chimico, oppure alla formula molecolare, in cui si indicano esattamente quanti atomi formano il composto in esame.

L’esempio più semplice per distinguere tra formula empirica e formula molecolare è quello dell’acqua ossigenata. La formula empirica dell’acqua ossigenata è HO, grazie alla quale si evidenzia che questo composto è fatto da idrogeno ed ossigeno nel rapporto 1:1; la formula molecolare dell’acqua ossigenata è H2O2 nella quale si evidenzia che due atomi di ossigeno sono combinati con due atomi di ossigeno.

1.3. La struttura chimica

La struttura di un composto chimico descrive il modo con cui i diversi atomi che lo compongono si dispongono nello spazio.  La Figura 1 mostra, come esempi, le diverse tipologie di formule di struttura dell’acqua ossigenata.

Figura 1. Dioverse tipologie di formule di struttura dell’acqua ossigenata (Fonte: http://www.chimicamo.org/chimica-generale/acqua-ossigenata.html)

In alto a sinistra c’è la formula molecolare dell’acqua ossigenata; in basso a sinistra c’è la formula di struttura “ball-and-stick” della stessa molecola (gli atomi in bianco sono l’idrogeno; gli atomi in rosso, l’ossigeno); in alto a destra la struttura dell’acqua ossigenata è rappresentata con il modello “space-filling“, ovvero ogni atomo è rappresentato da una sfera con il codice colore avente lo stesso significato già illustrato; in basso a destra l’acqua ossigenata è rappresentata con un modello a linee e lettere in cui le prime indicano i legami tra gli atomi rappresentati col proprio simbolo chimico.

2. Le caratteristiche degli IPA
2.1. Struttura chimica e proprietà chimico fisiche degli IPA

La Figura 2 mostra la struttura di due idrocarburi policiclici aromatici molto comuni. Si tratta di antracene e fenantrene. Entrambi hanno formula molecolare C14H10 ma formula di struttura differente. Si tratta quindi di isomeri. Per effetto della differente disposizione spaziale degli atomi di carbonio ed idrogeno, i due idrocarburi hanno proprietà chimico fisiche differenti.

Figura 2. Strutture di antracene e fenantrene

Per esempio, la temperatura di fusione alla pressione atmosferica (ovvero la temperatura alla quale la fase solida di un composto chimico è in equilibrio con la sua fase liquida) di antracene e fenantrene è:

antracene         216°C

fenantrene       94°C

In altre parole, mentre l’antracene diventa un liquido alla temperatura di 216°C, il fenantrene diventa liquido ad una temperatura molto più bassa (94°C). Questa differenza si spiega perché le molecole di antracene e fenantrene interagiscono rispettivamente con altre molecole di antracene e fenantrene attraverso interazioni deboli chiamate interazioni di Van der Waals. La struttura “non-ripiegata” dell’antracene consente un impaccamento migliore (e, quindi, interazioni più forti) rispetto a quella “ripiegata” del fenantrene. La conseguenza è che occorre una temperatura più alta (più energia termica) per liquefare l’antracene rispetto al fenantrene.

La differente disposizione spaziale degli atomi di carbonio ed idrogeno è responsabile anche della differente solubilità in acqua di antracene e fenantrene. Infatti, l’antracene ha solubilità pari a 3.7×10-4 mol/L, mentre il fenantrene pari a 7.2×10-3 mol/L. In altre parole, il fenantrene è circa 20 volte più solubile in acqua rispetto all’antracene. Dal momento che”il simile scioglie il simile“, si potrebbe argomentare che il fenantrene è più simile all’acqua rispetto all’antracene. Questa maggiore similarità è dovuta al fatto che la geometria “ripiegata” del fenantrene conferisce a quest’ultimo una maggiore polarità rispetto all’antracene col risultato di una migliore solubilità in acqua.

2.2. Struttura chimica e carcinogenicità degli IPA

All’aumentare del numero di anelli aromatici condensati (ovvero all’aumentare della complessità strutturale degli IPA) aumenta anche la carcinogenicità di questi composti ( a pagina 35 del documento a questo link, si riporta la carcinogenicità dei diversi IPA).

Più elevato è il peso molecolare degli IPA, più diminuisce la loro aromaticità e maggiore risulta la loro reattività. In particolare, gli IPA tendono a dare reazioni di epossidazione (ovvero reagiscono con l’ossigeno per formare sistemi triciclici altamente reattivi) che poi modificano la struttura a doppia elica del DNA portando a problemi nei processi di replicazione e conseguente insorgenza di tumori.

La Figura 3 mostra la reazione di epossidazione del benzo[a]pireneche produce prima un sistema eposiddico nelle posizioni 7, 8 (reazione in alto in Figura 3), seguita poi da apertura di anello (reazione centrale in Figura 3) ed ulteriore epossidazione (reazione in basso in Figura 3).

Figura 3. Reazione di epossidazione del benzo[a]pirene
 Il diolo epossidico (ovvero la molecola in basso a destra di Figura 3) è il diretto responsabile delle alterazioni strutturali del DNA. Infatti, esso può reagire con il gruppo amminico di una base nucleotidica con formazione di un legame covalente stabile che altera la doppia elica e, impedendo la corretta replicazione del DNA, porta al comportamento “impazzito” delle cellule (Figura 4).

Figura 4. Alterazione della struttura a doppia elica del DNA per effetto della reazione con il derivato diolo epossidico del benzo[a]pirene
3. Conclusioni

Questa breve disanima sugli idrocarburi policiclici aromatici è una sintesi di una delle mie lezioni di chimica del suolo. Gli incendi boschivi sono causa di immissione in atmosfera di questi contaminanti, esattamente come l’uso delle sigarette, o la cottura spinta dei prodotti alimentari (per esempio la carne o la pizza). Quando in atmosfera, questi composti (non solo quelli descritti in questa breve nota ma un insieme complesso di essi come per esempio quelli mostrati nell’immagine di copertina) possono finire nei nostri polmoni ed innescare i processi carcinogenici descritti. Certo non tutti gli individui sono soggetti a tumore. L’insorgenza dei tumori dipende non solo dalle condizioni ambientali, ma anche dalla predisposizione genetica. Questo vuol dire che “mia nonna ha sempre fumato 3 pacchetti di sigarette al giorno ed è arrivata a 90 anni” non ha alcun significato scientifico. Vuol dire solo che giocando alla roulette russa, “la nonna” è stata fortunata ed è sfuggita alla morte solo per una serie di circostanze fortuite tra cui la sua predisposizione genetica. Altri possono non essere ugualmente fortunati e subire insorgenza di tumori anche solo per aver inspirato il fumo passivo della nonna o le polveri sottili (contenenti IPA) normalmente presenti nell’atmosfera delle grandi città e dovute al traffico automobilistico.

Fonte dell’immagine di copertinahttps://ilblogdellasci.wordpress.com/tag/tartrato-di-potassio/

Le figure di Chladni e la pseudoscienza definita “cimatica”

Avete mai visto figure geometriche come quelle rappresentate in Figura 1 che vengono chiamate figure di Chladni? Belle, vero? Sapete quante volte mi sono trovato a leggere in rete delle elucubrazioni mentali (per non chiamarle in altro modo) in merito all’origine di queste figure? Addirittura c’è chi dice che sono delle rappresentazioni fisiche degli orbitali (SIC!).
Ma andiamo con ordine
Gli effetti scenografici delle figure di cui mi accingo a parlare sono oggetto di una particolare branca della pseudoscienza che va sotto il nome di cimatica. La cimatica nasce piuttosto recentemente. Nel 1967 un tale Hans Jenny, affascinato dagli esperimenti di Chladni del 1787 in merito alla propagazione delle onde nei mezzi solidi, trae delle conclusioni abbastanza arbitrarie sulla natura delle figure geometriche riportate in Figura 1 e chiamate “figure di Chladni” in onore di colui che per primo le ha studiate. Per non andare troppo per le lunghe, Jenny asseriva che le vibrazioni di tutti i materiali (fino ad arrivare alle vibrazioni atomiche) sono in grado di modellare la materia. In pratica, le frequenze delle vibrazioni sono responsabili delle forme materiali che noi conosciamo. Anche le cellule sono soggette a specifiche vibrazioni con determinate frequenze a seconda delle quali predomina una forma animale piuttosto che un’altra. Da qui è facile lo sviluppo di tutta una serie di pseudo teorie sulle vibrazioni energetiche che determinerebbero l’origine delle malattie o, in generale, dello stato di salute degli organismi viventi (un esempio di queste pseudo teorie è riportato qui  e qui).

Figura 1. Esempi di figure di Chladni
Come stanno davvero le cose?
La storia completa è che Jenny era un medico, non un fisico. Evidentemente le sue conoscenze di fisica elementare erano piuttosto povere. Inoltre, era anche un seguace delle pseudo teorie scientifiche di un tal Rudolf Steiner vissuto a cavallo tra il XIX ed il XX secolo ed autore delle teorie sull’agricoltura biodinamica di cui mi riservo di dare informazioni in un nuovo post.
Le “figure di Chladni” sono generate dal processo di vibrazione di una placca metallica su cui è disposta della sabbia. Immaginate la lastra in due sole dimensioni come nella Figura 2 (l’esempio in due dimensioni è quello della corda vibrante. Quando si pensa alla piastra metallica, si passa alle tre dimensioni).

Figura 2. Propagazione di un’onda in una corda vibrante (fonte: Wikipedia)
Se fate vibrare la lastra tra i punti 0 e 1 otterrete un’onda con una certa frequenza. Se disponete la sabbia sulla lastra, questa andrà a cadere nei punti di minima ampiezza dell’onda che sono i nodi indicati con 0 e 1 nella rappresentazione più in alto. Se bloccate la lastra a metà, ovvero mettete un dito proprio in mezzo, l’oscillazione cambia frequenza e la sabbia si disporrà nei tre nodi: i due agli estremi e quello centrale. Se provate ad inserire due altri nodi dividendo la lastra in tre, la sabbia si disporrà lungo tutti i nodi e così via di seguito. Più elevato è il numero di nodi, più complesse saranno le figure geometriche generate dalla sabbia che si dispone in queste zone in cui l’ampiezza dell’onda è nulla.
Note conclusive
La cimatica con tutte le sue teorie è una vera e propria scemenza. Non c’è nulla di sovrannaturale o di esoterico nella disposizione della sabbia su una lastra soggetta a vibrazioni a diversa intensità. Di certo le vibrazioni non hanno alcuna capacità di modellare la materia o di influenzare lo stato di salute degli individui.
A questo link un bell’esperimento che mostra le figure di Chladni: https://www.youtube.com/watch?v=1ya… (avvertenza: abbassate il volume delle cuffie o degli altoparlanti. I suoni che sentirete possono essere molto fastidiosi)
Per approfondimenti:

Anche i Nobel sbagliano? Il caso della ferroelettricità

Nei giorni passati è apparsa sui quotidiani nazionali una notizia che è stata ripresa anche da diverse testate di divulgazione scientifica (qui, qui e qui, per esempio). In questa estate torrida e piuttosto noiosa, è stata data enfasi ad una comunicazione apparsa sulla rivista Nature firmata da un gruppo di ricerca, tra cui alcuni Italiani (qui). Questi colleghi hanno parzialmente smentito quanto riportato in un articolo su Nature del 2012 (qui) di cui uno degli autori è il famoso J. Frazer Stoddart che nel 2016 è stato insignito del premio Nobel per la sintesi delle macchine molecolari (ne ho parlato qui).

Cerchiamo di vederci chiaro.

Il principio di autorità

Innanzitutto, voglio evidenziare che nel mondo scientifico non si applica alcun principio di autorità; ciò che viene affermato da ognuno è messo sotto la lente di ingrandimento ed analizzato da tutti quanti sono interessati a quel determinato settore. La conseguenza è che, con una adeguata preparazione scientifica, è possibile confutare anche i modelli elaborati da scienziati che sono insigniti del famosissimo premio Nobel.

Un esempio delle strane ipotesi messe a punto da premi Nobel e smentite dalla comunità scientifica è la memoria dell’acqua di Montagnier di cui ho già discusso qui, qui, qui e qui.

La ferroelettricità

Sapete cos’è la ferroelettricità?

Se interroghiamo l’Enciclopedia Britannica (famosa enciclopedia molto in uso quando ero piccolo), si legge:

la ferroelettricità è una proprietà di certi cristalli non conduttori, o dielettrici, che esibiscono una polarizzazione elettrica spontanea (separazione tra il centro delle cariche positive e quello delle cariche negative tale che una faccia del cristallo è caricata positivamente mentre l’altra negativamente) la cui direzione può essere invertita mediante l’applicazione di un appropriato campo elettrico. […] I materiali ferroelettrici, come il titanato di Bario ed i sali di Rochelle, sono fatti da cristalli in cui le unità strutturali sono piccoli dipoli elettrici; in altre parole, in ogni unità, il centro delle cariche negative è separato da quello delle cariche positive. In alcuni cristalli, questi dipoli elettrici si allineano a formare dei cluster indicati come domìni. Questi ultimi sono orientati predominantemente in una data direzione sotto l’azione di un intenso campo elettrico. L’inversione della direzione del campo elettrico inverte anche l’orientazione preferenziale dei domìni anzidetti. Tuttavia, il cambiamento di direzione dei domìni avviene con ritardo rispetto al cambiamento della direzione del campo elettrico applicato. Questo ritardo è anche indicato come isteresi ferroelettrica.

Se masticate l’Inglese e volete sapere più in dettaglio qualcosa sui materiali dielettrici e sulla loro interazione con i campi elettrici, potete seguire la lezione del Prof. Lewin famoso per le scenografie delle sue lezioni di fisica:

Il corso completo di fisica del Prof. Lewin è qui.

Ma torniamo a noi.

I materiali ferroelettrici ed il lavoro del premio Nobel Stoddard e collaboratori

I materiali ferroelettrici sono molto interessanti perché possono essere utilizzati per la costruzione di sensori, banchi di memoria e nella fotonica.

Nel 2012 appare su Nature un articolo (in realtà una Letter) dal titolo: “Room-temperature ferroelectricity in supramolecular networks of charge-transfer complexes“. Tra gli autori J. Frazer Stoddart che, come già evidenziato, nel 2016 è stato insignito del premio Nobel per la sintesi delle macchine molecolari. In effetti le macchine molecolari non sono altro che un tipo particolare di sistemi supramolecolari esattamente come i “supramolecular networks” di cui si parla nell’articolo sulla ferroelettricità del 2012.

Cosa hanno fatto questi autori?

Hanno sintetizzato dei complessi organici a trasferimento di carica [1] combinando a due a due i composti indicati da 1 a 4 in Figura 1 attraverso la tecnica conosciuta come Lock-Arm Supramolecular Ordering (LASO) [2].

Figura 1. Complessi molecolari con proprietà ferroelettriche: 1-2, 1-3 e 1-4 (Fonte della figura a questo link)

I complessi ottenuti e designati con le sigle  1-2, 1-3 ed 1-4 di Figura 1 hanno presentato delle eccezionali proprietà ferroelettriche a temperatura ambiente.

Tutto normale. Un gruppo di studiosi ha fatto una scoperta che può avere degli interessanti sviluppi tecnologici ed ha scritto un rapporto che è stato accettato per la pubblicazione su una delle riviste più importanti del panorama scientifico.

Il lavoro degli Italiani

La notizia non è il lavoro di Stoddard e Co. per quanto esso possa essere importante sotto l’aspetto scientifico. La notizia che ha destato l’attenzione dei giornalisti nostrani è che un gruppo di ricercatori, tra cui diversi  Italiani, ha riprodotto le sintesi riportate nello studio di Stoddard (qui). Le analisi hanno mostrato che i complessi ottenuti erano del tutto simili a quelli la cui sintesi era riportata nel lavoro del 2012. Tuttavia, quando sono state misurate le proprietà ferroelettriche dei complessi ottenuti, è stato scoperto che due dei tre complessi a trasferimento di carica non mostravano le proprietà descritte da Stoddard e collaboratori (Figura 2).

Figura 2. Assenza di ferroelettricità (Fonte a questo link)

Naturalmente la non riproducibilità delle proprietà ferroelettriche di prodotti ottenuti da un premio Nobel ha trovato la giusta visibilità sulla stessa rivista che nel 2012 aveva ospitato le proprietà ferroelettriche a temperatura ambiente dei composti anzidetti.

Ma andiamo oltre, perché quasi nessuno ha riportato della risposta di Stoddard e collaboratori.

In coda alla comunicazione dei ricercatori Italiani (qui) è riportata  anche la confutazione scritta dai responsabili del gruppo di ricerca che ha descritto le proprietà ferroelettriche a temperatura ambiente dei materiali 1-2, 1-3 ed 1-4 di Figura 1. Stoddard et al. rispondono che i processi di cristallizzazione descritti da D’avino et al. hanno prodotto dei cristalli con dei difetti ai quali sarebbe imputabile la non osservazione delle proprietà ferroelettriche. La risposta di Stoddard et al . si conclude con un interessantisimo invito:

“We offer to share our materials and devices, and to host the authors of the accompanying Comment at Northwestern University in an effort to clarify all discrepancies in reproducibility”
Conclusioni

Il titolo che ho deciso di dare a questa nota è “anche i Nobel sbagliano?”. In realtà non c’è stato alcun errore. L’episodio che ho descritto in questa nota e che con eccessiva enfasi è stato comunicato dai maggiori quotidiani e siti di divulgazione nostrani, fieri che degli italiani abbiano smentito un premio Nobel, dimostra solo una cosa: il mondo scientifico è estremamente democratico. Chiunque può permettersi di fare uno studio e smentire ciò che è stato detto da qualche nome famoso. Ciò è quanto è sempre accaduto. E’ proprio questo a consentire l’avanzamento delle nostre conoscenze. Tuttavia, non basta buttare lì la prima cosa che passa per la testa oppure ritenere che una qualsiasi maggioranza di persone possa influenzare in qualche modo una evidenza scientifica. Per poter aprire una discussione produttiva come quella riportata nelle pagine di Nature, occorre dedizione allo studio e preparazione. Senza questi ingredienti non è possibile instaurare alcun dialogo con nessuno.  Bravi certamente i colleghi Italiani. Ma bravi tutti quelli che si dedicano con coscienza ed abnegazione allo sviluppo delle nostre conoscenze.

Non si può dialogare con scienziati della domenica o pseudo intellettuali come quelli che popolano le fila di chi è a favore della biodinamica, dell’omeopatia o dell’antivaccinismo. Queste persone non hanno alcuna caratura intellettuale ed una qualsiasi apertura al dialogo le metterebbe sullo stesso piano di chi lavora seriamente in ambito scientifico.

Note ed approfondimenti

[1] Un complesso a trasferimento di carica è un sistema in cui una molecola (o un dominio molecolare) ricca di elettroni interagisce con un sistema chimico (molecola, dominio molecolare o metallo di tansizione) povero di elettroni in modo tale da formare un legame in cui si realizza un trasferimento di carica negativa dal donatore di elettroni all’accettore di elettroni. Per saperne di più potete cliccare qui.

[2] La Lock-Arm Supramolecular Ordering, indicata con l’acronimo LASO, è una procedura per la sintesi di complessi molecolari a trasferimento di carica. Si tratta di un approccio di tipo modulare in cui moduli molecolari ricchi di elettroni vengono fatti co-cristallizzare in presenza di altri moduli molecolari poveri di elettroni. Entrambi i moduli (donatori ed accettori di elettroni) sono costruiti in modo tale da avere delle braccia flessibili attraverso le quali essi sono in grado di interagire mediante legami a idrogeno.  L’efficienza del processo di cristallizzazione è assicurata proprio dalla flessibilità della braccia anzidette che consentono la massima complementarietà tra  i moduli. L’azione cooperativa del legame a trasferimento di carica e dei legami a idrogeno consente di ottenere sistemi binari in cui le proprietà donatore-accettore sono interscambiabili così da ottenere proprietà ferroelettriche migliorate rispetto a complessi ottenuti con strategie sintetiche differenti. Per saperne di più cliccate qui.

Fonte dell’immagine di copertina: https://www.researchgate.net/publication/257972728_Statistical_mechanical_origin_of_hysteresis_in_ferroelectrics

 

Share