Elogio del riduzionismo ovvero dell’evoluzione del pensiero scientifico

<L’approccio del “risolvere un grande problema trovando le cose microscopiche che sono rotte ed aggiustarle” è chiamato riduzionismo – se si vuole comprendere un sistema complesso, bisogna scomporlo nelle parti che lo costituiscono. Il pensiero riduzionista ha dominato la scienza occidentale per secoli, aiutando l’Occidente a tirarsi fuori dal pantano dell’età medievale. Il riduzionismo può essere una gran bella cosa. Essendo stato bambino all’epoca di Jonas Salk, sono immensamente felice di aver beneficiato di un prodotto della scienza riduzionista, ovvero il vaccino scoperto da lui (o da Albert Sabin, ma non ci addentriamo in questo argomento), invece di aver avuto un pediatra che facesse una cerimonia su di me armato di ciondoli feticci e interiora di capra per propiziarsi il demone della polio. Gli approcci riduzionisti alle scienze mediche ci hanno fornito vaccini, farmaci che bloccano fasi specifiche della replicazione virale e hanno identificato precisamente quale parte di noi si guasta in moltissime malattie. È grazie al riduzionismo se, nel corso dell’ultimo secolo, la nostra aspettativa di vita è aumentata considerevolmente. Perciò, se si vuole comprendere la biologia del ciò che siamo […], l’approccio riduzionista fornisce regole del gioco piuttosto chiare: capire gli individui che formano la società; capire gli organi che costituiscono gli individui, le cellule che formano gli organi e, scendendo fino alle fondamenta dell’intero edificio, capire i geni che danno istruzioni alle cellule su cosa fare. Questa prospettiva ha dato luogo a un’orgia di ottimismo riduzionista nella forma del progetto di ricerca più dispendioso della storia delle scienze naturali, ovvero il sequenziamento del genoma umano>

Era il 2005 quando Robert M. Sapolsky scriveva nell’introduzione al suo “Monkeyluv: and other essays on our lives as animals”, che nella traduzione italiana de I Timoni – Castelvechi editori (2014) suona così: “l’uomo bestiale: come l’ambiente e i geni costruiscono la nostra identità“, quanto ho appena riportato.

Il suo elogio del riduzionismo è la base per evidenziare come ridurre il comportamento umano alla risultante lineare dei comportamenti dei geni contenuti nel DNA sia sbagliato. L’approccio più corretto è prendere in considerazione l’effetto combinato di geni ed ambiente. Insomma, usando un linguaggio più pop, la comprensione dell’uomo passa attraverso un approccio “olistico” che deve considerare tutto l’insieme, interno ed esterno, di ciò che caratterizza l’essere umano.

Non sono un neurofisiologo né un osservatore del comportamento umano; non sono in grado di sostenere o controbattere le argomentazioni di Sapolsky nel suo campo. Per questo mi addentro nel campo che mi è più congeniale che è quello chimico.

Indubbiamente scomporre un sistema complesso nelle sue singole componenti ha consentito l’enorme sviluppo scientifico degli ultimi 4 secoli. Se oggi sappiamo quante sono le forze che tengono insieme i nostri atomi e, nel loro complesso, l’insieme di atomi alla superficie terrestre, è perché qualcuno è andato a smontare la materia ed ha visto da cosa è composta.

L’approccio riduzionista è quello che ha permesso lo sviluppo di tecniche analitiche come la cromatografia in fase liquida o quella in fase gassosa; la risonanza magnetica nucleare ad alta e bassa risoluzione, e tutta una serie di tecniche oggi riconosciute come incomparabili per la valutazione della qualità degli alimenti o per la loro tracciabilità (questo tanto per stimolare la corda più populista di chi si preoccupa di sapere se l’olio extravergine che usa è tunisino o viene fatto raccogliendo le olive dietro casa).

Tuttavia, sebbene fin dagli albori della scienza ai giorni nostri ha prevalso l’idea che le proprietà di tutti i sistemi fossero comprensibili solo sulla base di una loro scomposizione nelle diverse componenti elementari e che la somma delle proprietà di ciascuna risultasse, in qualche modo, nelle proprietà dell’intero sistema, appare chiaro, oggi, che non è così. Usando un linguaggio matematico, si può dire che le proprietà dei sistemi complessi non sono una combinazione lineare delle proprietà delle singole componenti, quanto, piuttosto, la risultante delle  loro interazioni non lineari. Le eventuali relazioni lineari debbono essere considerate solo come caso particolare di quello più generale che si inquadra nella già citata relazione non lineare.

Un esempio abbastanza banale è il principio di Le Chatelier: quando un sistema all’equilibrio chimico viene perturbato per effetto di un’azione esterna, il sistema reagisce in maniera da ridurre o annullare la sollecitazione stessa ristabilendo l’equilibrio. Per esemplificare questa definizione prendiamo un composto A che, in una soluzione, è in equilibrio con il composto B secondo l’equazione:

dove n e m sono i coefficienti stechiometrici. Il sistema sotto osservazione contiene due componenti (A e B) che interagiscono tra loro in modo tale che aumentando la concentrazione del reagente A, la reazione si sposta a destra producendo una maggiore quantità di prodotto B. Allo stesso modo introducendo una certa quantità di B, la reazione si sposta verso sinistra portando alla formazione di A.

Pur sapendo che il sistema è fatto da due componenti  le cui proprietà possono essere studiate indipendentemente le une dalle altre, non possiamo dire che il comportamento del sistema nella sua totalità sia dato dalla combinazione lineare della concentrazione delle singole componenti (la concentrazione è una proprietà intensiva). Infatti, è possibile dimostrare che la relazione che lega la concentrazione di A a quella di B all’equilibrio chimico è:

dove k è comunemente indicata come costante di equilibrio (la x indica semplicemente l’operazione di moltiplicazione).

Possiamo concludere, da questo semplice esempio, che l’equilibrio chimico (croce di tutti gli studenti e delizia di tutti i docenti) non è altro che una proprietà delle soluzioni, emergente dalle interazioni non lineari delle proprietà (in questo caso la concentrazione) delle singole componenti della soluzione.

La storia della scienza (e,  nella fattispecie, della chimica in particolare) è ricca di esempi di questo tipo.

Volendo considerare un caso più complesso si può citare l’allosterismo. “L’allosterismo rappresenta una delle modalità  di regolazione della funzione di alcune proteine, di solito oligomeriche, […]; fra queste si ricordano l’emoglobina e numerosi enzimi”.  Originariamente proposta da Jaques Monod, la regolazione allosterica delle proteine consiste nel fatto che un piccolo metabolita si lega ad uno dei siti attivi della proteina modificandone la conformazione (ovvero la struttura tridimensionale) ed alterandone nel contempo le funzionalità (sia migliorandole, allosterismo positivo, che inibendole, allosterismo negativo). L’esempio più semplice è la regolazione allosterica positiva dell’emoglobina da parte della molecola di ossigeno. È noto che l’emoglobina è una proteina complessa costituita da quattro sub unità proteiche ognuna con un sito attivo che prende il nome di “gruppo eme“. Quando una molecola di ossigeno si lega al gruppo eme di una delle sub unità, la conformazione di questa sub unità si modifica secondo una modalità che potrebbe essere vista come una mano che si chiude a pugno dopo aver afferrato un oggetto. Le modificazioni conformazionali della sub unità suddetta modificano quelle delle altre sub unità che appaiono, quindi, nella nuova situazione come delle mani più aperte pronte ad afferrare un nuovo oggetto. Grazie a queste modificazioni conformazionali, la seconda molecola di ossigeno è in grado di legarsi al secondo sito attivo più velocemente di quanto  abbia fatto la prima molecola di ossigeno. A seguito di questa seconda interazione, le sub unità ancora libere subiscono delle ulteriori modificazioni conformazionali  aprendosi ancora di più e permettendo ad una terza molecola di ossigeno di legarsi ancora più velocemente rispetto alle prime due. La terza molecola di ossigeno induce dei nuovi cambiamenti conformazionali nell’ultima sub unità libera cosicché essa riceve l’ultima molecola di ossigeno con una facilità ancora maggiore rispetto alle precedenti. Da un punto di vista matematico l’allosterismo dell’emoglobina non è descrivibile mediante una relazione lineare, bensì attraverso una sigmoidale (Figura 1).

Figura 1. Curva di dissociazione dell’emoglobina. E’ evidente l’andamento a forma di S (sigmoidale) della curva (Fonte dell’immagine: http://docplayer.it/19154-Nel-definire-l-assistenza-al-neonato-con-insufficienza-respiratoria-e-necessario-considerare-che.html)

Come nel caso dell’equilibrio chimico su descritto, anche l’allosterismo non può essere considerato semplicemente come la risultante di una combinazione lineare delle proprietà delle singole sub componenti di un enzima/proteina, quanto piuttosto come una proprietà emergente dalle loro interazioni non lineari.

Tutta la chimica (dalla chimica organica, alla biochimica, alla chimica del suolo e così via) è ricca di sistemi complessi le cui proprietà emergono dalle interazioni tra le singole sub unità componenti. Come non ricordare, per esempio, la complessità del metabolismo in cui ogni singolo metabolita rappresenta solo un dente di un ingranaggio ben più complicato le cui caratteristiche non sono la somma di quelle dei singoli denti, ma da essi derivano. In questa ottica va inserito il concetto di vita vista come una proprietà che emerge dalle complesse interazioni occorrenti nei processi metabolici.

Qual è dunque l’importanza del riduzionismo nell’ottica scientifica attuale?

Nato come “concezione epistemologica che tende a formulare concetti e linguaggio di una teoria scientifica nei termini di un’altra teoria considerata più fondamentale“, il riduzionismo si è basato, a partire dal XVII secolo, “sull’ipotesi che tutta la realtà fisica possa essere in definitiva ‘ridotta’ (e spiegata) in termini di particelle materiali e dei loro movimenti“. L’idea che tutta la realtà fenomenologica potesse essere spiegata solo sulla base delle conoscenze delle caratteristiche delle singole componenti microscopiche è stata superata solo nel XX secolo quando ci si è resi conto che conoscere le proprietà delle tessere di un puzzle non aiuta a comprendere il disegno contenuto nel puzzle se non si riesce ad inserire ogni singola tessera nella giusta posizione dello schema del gioco. Da qui la rilettura in termini di proprietà emergenti di tutti i concetti scientifici come, per esempio, il principio di Le Chatelier precedentemente discusso.

Il riduzionismo deve essere, quindi, considerato come un approccio che consente non solo di conoscere i singoli dettagli della realtà fisica fino alle dimensioni microscopiche, ma anche in grado di riporre le varie sub componenti della stessa nella giusta posizione rispetto a tutte le altre in modo da poter riprodurre con accuratezza le proprietà macroscopiche dell’intero sistema rappresentato dalla realtà osservata. In questa ottica il giudizio (secondo la mia lettura, negativo) di Sapolsky in merito alla dispendiosità del progetto di ricerca sul genoma umano mi lascia molto perplesso. È pur vero che la conoscenza del genoma non risponde a tutte le domande che ci possiamo porre in merito al comportamento umano, ma è anche vero che attribuire ai geni la responsabilità di ogni cosa è solo una trovata di un giornalismo di bassa lega che deve fare business e vendere un prodotto a un pubblico le cui conoscenze scientifiche sono mediamente basse. Si tratta dello stesso pubblico che ha necessità di trovare delle correlazioni di causalità laddove esistono solo relazioni di casualità come nel caso dell’omeopatia e dell’autismo causato dai vaccini. Mi trovo, invece, molto d’accordo sull’idea dell’interazione corredo genetico/ambiente nello sviluppo del comportamento umano in quanto questo modo di pensare si inserisce molto bene nel modello di riduzionismo emergentista di cui si è discusso fino ad ora.

Fonte dell’immagine di copertina: https://universitarianweb.com/2014/05/08/mente-e-cervello-il-riduzionismo-delle-neuroscienze/

Articolo pubblicato anche su www.laputa.it

Cos’è e come funziona il GoreTex?

Avete mai sentito parlare di GoreTex?

Si tratta di un tessuto usato per impermeabilizzare. Allo stesso tempo, però, esso consente di rendere traspiranti gli indumenti per i quali viene utilizzato.

Si ottiene dal politetrafluoroetilene (PTFE). Si tratta di un polimero che è alla base del teflon, una plastica usata in diversi campi, dall’idraulica all’industria aerospaziale. Il teflon, sotto forma di nastro, viene usato per evitare le perdite nelle tubazioni, per fabbricare pentole antiaderenti o per la costruzione degli scudi che consentivano, fino a qualche anno fa, il rientro dello Space Shuttle dalle missioni spaziali.  L’elevata resistenza alle temperature rendeva, infatti, il PTFE particolarmente adatto ad evitare i danni dovuti all’attrito tra la struttura dello Space Shuttle e l’atmosfera Terrestre.

Quando il PTFE viene trattato in modo particolare (in termini tecnici si dice che viene espanso [1]) si ottiene un materiale brevettato dalla famiglia Gore (sì, quella del vice presidente degli Stati Uniti nell’epoca Clinton) che è stato battezzato GoreTex.

Il PTFE espanso ha un’area superficiale molto elevata. Poiché l’area superficiale è direttamente correlata alla porosità di un materiale, il GoreTex ha anche una elevata porosità. In particolare, la dimensione dei pori del GoreTex è dell’ordine dei 2 μm (μm sta per micrometri, ovvero 10-6 m)).

Una molecola di acqua occupa un volume del diametro di circa 0.2 nm (nm sta per nanometri, ovvero 10^(-9) m).

Il rapporto tra le dimensioni dei pori del GoreTex e il diametro di una molecola di acqua è di circa 10000 : 1, ovvero i pori del GoreTex sono diecimila volte più grandi di quelli di una singola molecola di acqua.

Poiché la dimensione dell’acqua in fase aerea (ovvero vapore) è molto più piccola di quella dei pori del GoreTex, il sudore, che altro non è che acqua in forma di vapore, riesce passare attraverso il tessuto. Al contrario, le molecole di acqua in fase liquida formano aggregati le cui dimensioni sono molto più grandi di quelle dei pori del GoreTex. Il risultato finale è un materiale plastico,(sì, il GoreTex è plastica) in grado di impedire la penetrazione dell’acqua dall’esterno (proprietà impermeabili) e di favorire la fuoriuscita del sudore (proprietà traspiranti).

La chimica dei materiali lascia sempre a bocca aperta

Riferimenti e note:

  1. L’espansione di un polimero si ottiene addizionando materiali espandenti quali, per esempio, il pentano, o qualsiasi altro idrocarburo, che bollono a temperature basse. Durante la fase di preparazione del polimero, che avviene a caldo, il materiale espandente si allontana e lascia “traccia” di sé nelle bolle che conferiscono “leggerezza” al prodotto finale. Nel caso specifico del GoreTex, l’espansione si ottiene termomeccanicamente, ovvero il filamento caldo viene viene teso con uno stratto secco

La foto di copertina è da Wikimedia Commons

L’inquinamento atmosferico

L’attività antropica, di qualsiasi natura, non è ad impatto nullo sull’ambiente. Questo vuol dire che qualsiasi cosa noi facciamo produciamo rifiuti che vanno ad influenzare gli equilibri tra biosfera, idrosfera, pedosfera ed atmosfera. In questa nota descrivo brevemente in cosa consiste l’inquinamento atmosferico. Si tratta di Uno dei problemi ambientali attualnente maggiormente al centro dell’attenzione mediatica. Questo non vuol dire che l’inquinamento di suoli, sedimenti ed acque sia meno importante; vuol dire solo che, al momento, sembra fare più notizia l’inquinamento atmosferico probabilmente perché fa una certa impressione, sul senso comune, pensare che l’immissione in atmosfera di gas apparentemente innocui possa provocare alterazioni notevoli sotto l’aspetto climatico.

In effetti è noto che tutte le molecole gassose che hanno un momento dipolare diverso da zero [1] sono in grado di assorbire la radiazione elettromagnetica che proviene dalla Terra così da passare da uno stato (vibrazionale/rotazionale) fondamentale ad uno eccitato. La transizione spontanea dallo stato eccitato a quello fondamentale può avvenire con emissione di calore portando ad un aumento globale della temperatura del pianeta, fenomeno che prende il nome di “effetto serra” [2].

Cerco di tradurre per i non tecnici. La radiazione solare è fatta da onde elettromagnetiche con lunghezza d’onda piuttosto corta (parte a destra della figura di copertina). Le molecole come anidride carbonica, metano ed acqua (sotto forma di vapore) risultano “trasparenti” alle lunghezze d’onda sopra citate. Per questo motivo le radiazioni suddette provenienti dal sole sono in grado di arrivare alla superficie della Terra.

Alcune di queste radiazioni sono comunque intercettate dall’ozono atmosferico e giungono “attenuate” sulla superficie terrestre come già spiegato nella nota al riferimento [3].

La superficie terrestre “restituisce” allo spazio aperto le radiazioni elettromagnetiche ma con lunghezza d’onda maggiore (parte a sinistra della figura di copertina) rispetto a quelle provenienti dall’esterno della Terra.

Le molecole come anidride carbonica, vapor d’acqua e metano (ovvero molecole a momento dipolare non nullo, sebbene questo momento dipolare risulti non nullo per la CO2 solo quando essa è nella conformazione non lineare) non sono “trasparenti” a queste lunghezze d’onda assorbendo, così, la radiazione proveniente dalla Terra. Il processo di assorbimento provoca delle “oscillazioni” molecolari (ovvero stiramenti e piegamenti dei legami chimici all’interno delle molecole) che a loro volta “restituiscono” energia termica (ovvero calore) alla superficie terrestre. Il risultato finale è molto simile a quello che si ottiene in una serra, ovvero un aumento della temperatura globale del pianeta.

Ci si potrebbe chiedere: ma come mai, invece, sembra che faccia sempre più freddo? dove è il riscaldamento? Chi chiede queste cose, in genere, non ha ben chiaro come funziona il riscaldamento globale. Faccio un esempio banale (didattico, oserei dire): supponiamo che si verifichi un aumento di 1 °C sulla superficie degli oceani a seguito dell’aumento di CO2 atmosferica. Questo aumento comporta un incremento della velocità di evaporazione dalla superficie degli oceani con immissione in atmosfera di quantità di vapor d’acqua più grandi rispetto a quelle che si avrebbero in assenza del riscaldamento anzidetto. Le correnti aeree trasportano queste enormi masse di vapor d’acqua sul continente dove, a contatto con aria più fredda, possono condensare e dar luogo a piogge più o meno torrenziali (le famose bombe d’acqua di cui parlano molto scenograficamente i giornalisti). La conseguenza di queste piogge è una temperatura più bassa sul continente. Tuttavia, a livello globale, la temperatura non è più bassa, ma più alta. E’ il riscaldamento globale la causa del clima simil-tropicale che oggi abbiamo nella parte Sud dell’Europa.

E’ stata data notizia [4] che uno scienziato che ha vissuto per una ventina di anni in Cina (uno dei paesi più contaminati della Terra) ha inventato un software per monitorare la contaminazione atmosferica terrestre ed essere informati minuto-per-minuto sulla quantità di particolato solido (quello che viene indicato come PM2.5) che si muove in atmosfera.

Se volete divertirvi a monitorare i flussi di corrente che trasportano questi PM2.5 basta cliccare su questo link: http://airvisual.com/earth, aspettare che la pagina si carichi e divertirsi a guardare momento per momento cosa accade nell’aria intorno a noi. Se poi si vuole conoscere la quantità di PM2.5 in un luogo particolare, basta cliccare sul luogo di interesse

Buon divertimento

Riferimenti
[1] https://www.scienzeascuola.it/…/legami-…/il-momento-dipolare
[2] http://www.castfvg.it/zzz/ids/effserra.html
[3] https://www.facebook.com/notes/rino-conte/pillole-di-scienza-il-buco-nellozono/1856401444581383
[4] http://www.sciencemag.org/…/watch-air-pollution-flow-across…

Il buco nell’ozono. Breve escursione nella chimica dell’atmosfera

La funzione “filtro” dell’ozono.
Si legge da tutte le parti che l’inquinamento ambientale, ed in particolar modo quello di origine antropica, provoca numerosi problemi ai vari comparti ambientali. Uno di questi è l’aria la cui composizione, negli strati più elevati, vede la presenza di una molecola che prende il nome di ozono.
L’ozono è una forma allotropica dell’ossigeno. In altre parole, l’ossigeno si può trovare sia sotto forma di molecola biatomica (O2) che di molecola triatomica (O3). E’ questa ultima forma di ossigeno a cui si dà il nome di “ozono” la cui struttura, per i più curiosi, è descritta nel riferimento [1].
La presenza dell’ozono negli strati alti dell’atmosfera è molto importante perché questa molecola è in grado di “intercettare” le radiazioni ultraviolette (RUV) proteggendoci dai loro effetti deleteri [2]. Sotto il profilo chimico, la reazione di “schermatura” da parte dell’ozono è:

O3 + RUV → O + O2                                                       (1)

In altre parole si forma un atomo di ossigeno eccitato ed una molecola di ossigeno. Il primo può ricombinarsi col secondo per riformare l’ozono (reazione (2)), oppure può reagire con un’altra molecola di ozono per formare ossigeno molecolare (reazione (3)):

O + O2 → O3                                                                       (2)

O + O3 → 2O2                                                                    (3)

L’inquinamento come causa della riduzione dell’ozono atmosferico
Come si intuisce, in sistemi non perturbati (come per esempio in assenza di contaminazione) le reazioni (1)-(3) assicurano il corretto apporto di ozono per evitare gli effetti delle radiazioni UV [2]. Nel momento in cui un certo tipo di contaminanti (che tecnicamente possiamo indicare come “catalizzatori”) viene in contatto con l’ozono, le reazioni (1)-(3) subiscono delle “alterazioni” legate al fatto che viene inibita la reazione (2) con incremento della quantità di ossigeno molecolare che non viene più trasformato in O3. La conseguenza è l’assottigliamento progressivo dello strato di ozono atmosferico che, giornalisticamente parlando, è conosciuto come “buco nell’ozono”. L’insieme delle reazioni che trasformano l’ozono in ossigeno molecolare in presenza di un generico contaminante (indicato con X) è:

X· + O3 → XO +O2                                                        (4)

XO + O → X· +O2                                                           (5)

X· è un radicale libero [3], ovvero un sistema molto reattivo che ha come caratteristica quella di avere un elettrone spaiato. La somma delle reazioni (4) e (5) dà la reazione (6) che consente di dire che l’azione di X· è quella di incrementare la quantità di ossigeno mediante l’inibizione della reazione (2), ovvero la riconversione in ozono, con conseguente assottigliamento dello spessore dello strato di ozono nell’atmosfera:

O3 + O → 2O2                                                               (6)

 I precursori dei radicali liberi
Alcuni precursori dei radicali coinvolti nelle reazioni (4) e (5) grazie ai quali si genera l’assottigliamento dello strato di ozono sono metano (CH4), acqua (H2O), protossido di azoto (N2O, meglio conosciuto come gas esilarante), o i famigerati clorofluorocarburi (CFC).
Metano ed acqua reagiscono con l’ossigeno atomico eccitato ottenuto nella reazione (1) per formare radicali ossidrili (OH·), ovvero i “catalizzatori” indicati con X nelle reazioni (4) e (5), secondo le reazioni (7) e (8):

O + CH4 → OH· + CH3                                              (7)

O + H2O → 2 OH·                                                        (8)

Sostituendo i radicali ossidrili alle X delle reazioni (4) e (5) si completa lo schema reattivo che porta alla degradazione dell’ozono in ossigeno molecolare.
Il ruolo del protossido di azoto è descrivibile con lo schema di reazioni da (9) a (11):

O + N2O → 2 NO·                                                      (9)

NO· + O3 → NO2 · + O2                                          (10)

NO2 · + O → NO· + O2                                             (11)

Infine i clorofluorocarburi come il CF2Cl(una volta usati come liquidi refrigeranti come per esempio nei frigoriferi) reagiscono come indicato nelle reazioni da (12) a (15)

CF2Cl2 + RUV → CF2Cl∙ + Cl∙                           (12)

Cl∙ + O3 → ClO∙ + O2                                             (13)

ClO∙ + O∙ → Cl∙ + O2                                              (14)

CF2Cl∙ + O2 → CF2O + ClO∙                               (15)

Questi appena descritti sono solo alcuni esempi di precursori dei radicali coinvolti nella degradazione dell’ozono atmosferico. Molti altri, con meccanismi più dettagliati che sono al di là dello scopo di una nota divulgativa su un bolg, sono riportati nelle letture consigliate.
Nuove ipotesi in merito alla degradazione dell’ozono atmosferico
Recentemente [4] è stato proposto un meccanismo alternativo per l’azione dei CFC nella degradazione dell’ozono. In particolare, l’acqua sotto forma di minuscoli cristalli di ghiaccio sospesi in atmosfera, interagisce con la radiazione cosmica, ovvero la luce solare, generando elettroni solvatati (e-) che rimangono assorbiti sulla superficie solida (Figura 1) secondo la reazione (16):

H2O + radiazione cosmica → e- + H3O+ + OH·     (16)

Gli elettroni solvatati reagiscono con i clorofluorocarburi assorbiti sulla superficie dei cristalli di ghiaccio per formare CF2Cl∙ e Cl∙ che poi innescano le reazioni riportate in (13)-(15)

Figura 1. Esempio di elettroni solvatati assorbiti su una superficie solida
L’ozono fa bene?
Alla luce di tutto quanto scritto si potrebbe pensare che siano tutte rose e fiori, ovvero che l’ozono apporti benefici all’essere umano. In realtà, non è così. Quanto appena analizzato in modo sommario ci informa che l’ozono è utile per impedire che raggi dannosi per la salute umana possano arrivare alla superficie terrestre. Noi ci siamo evoluti nel modo in cui ci presentiamo anche grazie al fatto che un “ombrello” fatto di ozono ha impedito ai raggi ultravioletti di una certa intensità di arrivare negli strati più bassi dell’atmosfera. Come si sarebbe evoluta la vita se questi raggi non fossero stati schermati? Non è dato saperlo e, comunque, la scienza non si fa con le ipotesi assurde. Resta il fatto che è grazie alla protezione offerta dall’ozono che la vita si presenta come la conosciamo. Da tutto quanto scritto si intuisce anche che l’ozono è una molecola reattiva ed in effetti i suoi effetti sulla salute umana si possono riassumere come segue:
“Concentrazioni relativamente basse di Ozono provocano effetti quali irritazioni alla gola ed alle vie respiratorie e bruciore agli occhi; concentrazioni superiori possono portare alterazioni delle funzioni respiratorie ed aumento della frequenza degli attacchi asmatici” [5].
L’Ozono, infine, “è responsabile anche di danni alla vegetazione e ai raccolti, con la scomparsa di alcune specie arbore dalle aree urbane. Alcune specie vegetali particolarmente sensibili alle concentrazioni di Ozono in atmosfera vengono oggi utilizzate come bioindicatori della formazione di smog fotochimico” [5].
Riferimenti
Letture consigliate ed approfondimenti

L’ innalzamento ebullioscopico: il ruolo dei legami a idrogeno nel comportamento dell’acqua.

Un po’ di tempo fa ho scritto un post riguardante il ruolo che i legami a idrogeno ricoprono nel comportamento dell’acqua. In particolare è stata analizzata la caratteristica delle molecole di acqua di “escludere” i soluti durante il processo di raffreddamento [1]. Adesso voglio concentrarmi (come promesso) sul ruolo che i legami a idrogeno ricoprono nel modulare le proprietà colligative. In particolare, voglio concentrarmi sull’innalzamento ebullioscopico [2], rimandando ad una nota successiva la spiegazione sull’abbassamento crioscopico [3].
E’ stato già evidenziato [1] che per innalzamento ebullioscopico si intende l’aumento della temperatura di ebollizione conseguente alla dissoluzione di un soluto in un solvente. In genere, per spiegare questo fenomeno si fa riferimento al fatto che l’addizione di un soluto in un solvente comporta un abbassamento della tensione di vapore di quest’ultimo con la conseguenza che è necessaria una temperatura più elevata per arrivare all’ebollizione [2].
Cosa vuol dire tensione di vapore? Molto semplicisticamente la “tensione di vapore” è la pressione (ovvero la forza) esercitata sulle pareti di un recipiente chiuso da parte delle molecole di vapore di una sostanza in equilibrio con la fase condensata (liquida o solida) della stessa sostanza [4].

Figura 1. Esempio di equilibrio tra una fase condensata (in questo caso liquida) ed il vapore
La Figura 1 esemplifica quanto appena scritto. Le molecole sulla superficie del liquido racchiuso nel pallone tappato di Figura 1 “sfuggono” dalla superficie e “galleggiano” nello spazio vuoto seguendo delle traiettorie casuali. Nelle condizioni di equilibrio, il numero di molecole di vapore che ritornano nella fase condensata (ovvero liquida, in questo caso) è uguale al numero di molecole che “sfuggono” dalla superficie. L’ “abbassamento della tensione di vapore” di cui si diceva sopra significa che la pressione esercitata dalle molecole di vapore sulle pareti del recipiente chiuso si abbassa per effetto dell’addizione di un soluto al solvente. In altre parole, l’equilibrio descritto dalla reazione riportata in Figura 2 si sposta verso sinistra (ovvero dalla parte del solvente in fase liquida) e l’ebollizione si interrompe. Occorre innalzare la temperatura per riportare il sistema all’ebollizione

Figura 2. Equilibrio tra fase liquida e fase vapore di un solvente di una generica soluzione
Come mai l’addizione di un soluto ad un solvente comporta l’abbassamento della tensione di vapore con conseguente innalzamento ebullioscopico? Molto semplicisticamente si potrebbe dire che il soluto “aggancia” le molecole di solvente impedendo che esse “sfuggano” dalla superficie della fase condensata. Occorre una quantità di calore più elevata (e, quindi, una temperatura più alta) per consentire alle molecole di solvente di opporsi alla resistenza offerta dal soluto e ristabilire le condizioni di equilibrio all’ebollizione.
Per spiegare meglio quanto accade addizioniamo il cloruro di sodio (NaCl) in acqua. il cloruro di sodio è un solido ionico [5] in cui lo ione sodio (catione) interagisce con lo ione cloruro (anione) mediante interazioni di natura elettrostatica. L’acqua è una molecola in cui la densità elettronica intorno all’ossigeno è più elevata che attorno agli atomi di idrogeno (Figura 3). Per questo motivo, l’ossigeno è dotato di una parziale carica negativa, mentre gli atomi di idrogeno di una parziale carica positiva (Figura 3). Dal momento che il centro delle cariche negative è diverso da quello delle cariche positive (ovvero si osserva l’anzidetta separazione di carica), la molecola di acqua ha carattere dipolare.

Figura 3. Struttura della molecola di acqua. Il colore rosso indica che gli elettroni di legame sono spostati verso l’ossigeno conferendo ad esso una parziale carica negativa. Di conseguenza gli atomi di idrogeno, avendo una densità di carica inferiore, sono parzialmente positivi
Abbiamo già evidenziato che il carattere dipolare della molecola di acqua è causa della formazione dei legami a idrogeno [1]. In questa sede il carattere dipolare dell’acqua ci consente di spiegare il meccanismo di dissoluzione del cloruro di sodio. Infatti, quando il cloruro di sodio viene messo in acqua si generano delle interazioni di natura elettrostatica del tipo Na(+)/H2O e Cl(-)/H2O. La componente negativa del dipolo acqua è orientata verso la carica positiva del sodio, mentre la parte positiva dello stesso dipolo è orientata verso lo ione cloro (Figura 4). In questo modo i due ioni del solido ionico si separano e si realizza la dissoluzione del sale.
Il processo di dissoluzione mediato dall’azione dell’acqua che circonda i due ioni si chiama “solvatazione”. In generale, i processi di dissoluzione di un soluto in un solvente sono dovuti alla solvatazione. Se questa non si può realizzare, la dissoluzione non avviene.
Le molecole di acqua si dispongono “a strati” intorno agli ioni. Ognuno degli strati viene indicato come “sfera di idratazione”. Le molecole di acqua più interne, ovvero quelle più vicine agli ioni, si collocano nella prima sfera di idratazione. A seguire tutte le altre sfere di idratazione [6]. L’identificazione del numero di sfere di idratazione richiede degli studi approfonditi [7] che vanno oltre gli scopi di questa nota.

Figura 4. Dissoluzione del cloruro di sodio in acqua. I due ioni sono solvatati
L’orientazione delle molecole di acqua intorno allo ione sodio è tale che non vengono più soddisfatti i requisiti geometrici necessari per la realizzazione dei legami a idrogeno (dei requisiti necessari per la formazione dei legami a idrogeno se ne è già parlato nel post precedente [1]). Per questo motivo i legami a idrogeno tra le molecole di acqua nella prima sfera di idratazione si interrompono [7]. Inoltre, l’interazione acqua/sodio comporta uno “scivolamento” della densità elettronica dei legami H-O dell’acqua verso l’ossigeno. Tradotto, vuol dire che aumenta la polarità del legame H-O, ovvero aumenta l’intensità della carica positiva sugli atomi di idrogeno a causa dell’aumento dell’intensità della carica negativa sull’ossigeno come effetto dell’interazione con lo ione sodio [7]. Per questo motivo le molecole di acqua nella prima sfera di idratazione (incapaci di formare legami a idrogeno tra loro) sono in grado di legarsi alle molecole di acqua nella seconda sfera di idratazione con legami a idrogeno la cui intensità è più forte che nell’acqua libera (ovvero l’acqua in cui non è disciolto alcun soluto). La natura dei legami a idrogeno tra le molecole di acqua nella prima e nella seconda sfera di idratazione incrementa la polarità dei legami H-O nelle molecole di quest’ultima sfera di idratazione. Le molecole di acqua della seconda sfera di idratazione sono, quindi, in grado di interagire con le molecole della terza sfera di idratazione con legami a idrogeno più forti di quelli che si realizzano tra le molecole di acqua libera. L’intensità dei legami a idrogeno diminuisce all’aumentare della distanza delle molecole di acqua dallo ione.
Uno ione in grado di intensificare le interazioni a idrogeno tra le molecole di acqua presenti nelle diverse sfere di idratazione si dice “strutturante”. La capacità strutturante di uno ione dipende dalle sue dimensioni. Più lo ione è piccolo, più elevata è la sua densità di carica (ovvero la quantità di carica per unità di volume) e più elevata è la forza del campo elettrico da essa generata in conseguenza della quale lo ione è in grado di indurre un ordine tra le molecole di acqua oltre la prima sfera di idratazione. Sono ioni destrutturanti quelli che hanno densità di carica tale che il campo elettrico da essa generato non è in grado di polarizzare le molecole di acqua al di fuori della prima sfera di idratazione (in altre parole ioni a dimensione crescente sono progressivamente più destrutturanti). Lo ione sodio ha caratteristiche strutturanti, mentre lo ione cloro ha caratteristiche destrutturanti. Tuttavia, è possibile misurare la forza strutturante/destrutturante di uno ione [7] e concludere che nel cloruro di sodio la natura strutturante dello ione sodio predomina su quella destrutturanrte dello ione cloro.
La conseguenza di tutto quanto scritto è che il sale da cucina (ma questo è un discorso di carattere generale) ha caratteristiche “strutturanti” per cui esso è in grado di ancorare le molecole di acqua alla superficie della fase liquida in modo tale che la quantità di energia necessaria per rimuoverle risulta essere più alta che in assenza del soluto.
Note conclusive
Questa trattazione si applica alle soluzioni lontane dall’idealità quali quelle ambientali come per esempio quella che viene indicata come “soluzione suolo”. Lo so. Sono stato particolarmente prolisso, ma mi sono lasciato prendere la mano. Una nota nata come “Pillola di scienza” è diventata la trascrizione di una delle mie lezioni di chimica del suolo. Spero di non aver annoiato e che qualcuno possa trovare ispirazione da quanto scritto. I miei studenti possono, certamente, usare queste cose come appunti integrativi al loro studio.
Riferimenti
  1. https://www.facebook.com/RinoConte1…
  2. http://www.chimica-online.it/downlo…
  3. http://www.chimica-online.it/downlo…
  4. http://www.chimica-online.it/downlo…
  5. http://www.chimicamo.org/chimica-ge…
  6. http://www.chimicamo.org/chimica-ge…
  7. https://www.researchgate.net/public…

Richard Willstätter ed i pigmenti vegetali

Pigmenti vegetali e la ricerca del chimico tedesco Willstätter.
Richard Martin Willstätter nasce a Karlsruhe il 13 Agosto del 1872. Si tratta di un chimico tedesco pioniere dello studio delle sostanze naturali, ovvero dei metaboliti secondari delle piante.

Richard Martin Willstätter (fonte: https://www.nobelprize.org/nobel_prizes/chemistry/laureates/1915/willstatter-bio.html)
I suoi studi si incentrano inizialmente sulla struttura e la sintesi di alcuni alcaloidi vegetali (cocaina ed atropina) oltre che di alcuni chinoni.

Strutture di atropina e cocaina, due alcaloidi naturali
Durante questa prima fase della sua vita accademica, approfondisce le tecniche analitiche che, successivamente gli spianano la strada per il riconoscimento della struttura di flavoni e antociani, ovvero dei tipici pigmenti delle piante, oltre che della clorofilla, pigmento fondamentale per la fotosintesi clorofilliana.

Formula di struttura delle clorofille. Clorofilla (a) X = CH3 Clorofilla (b) X = CHO (fonte: http://www.minerva.unito.it/Chimica&Industria/Dizionario/Supplementi02/AdditiviAlimentari/SchedaE140.htm)
Le sue scoperte nel campo dei pigmenti vegetali gli valgono nel 1915 il premio Nobel per la chimica con la seguente motivazione: “for his researches on plant pigments, especially chlorophyll” (fonte: https://www.nobelprize.org/nobel_pr…)
Il lavoro pioneristico di Willstätter gli consentì di capire che esistono diverse forme di clorofilla e che sebbene isolate da piante diverse, esse sono identiche in tutti gli organismi vegetali.

Spettro di assorbimento della clorofilla. I massimi sono a 420 nm e 665 nm. L’assenza di massimi nella regione del “verde” rende conto della tipica colorazione che la clorofilla conferisce alle foglie
Infine, riuscì a capire che esiste una relazione tra clorofilla ed emoglobina.

Somiglianza tra i gruppi tetrapirrolici presenti nell’emoglobina (a sinistra) e nella clorofilla (a destra)
Approfondimenti

Le macchine molecolari e il Nobel per la Chimica 2016

Fino a ieri le macchine molecolari erano note solo ad un ristretto pubblico di chimici impegnati o nello studio dei processi biochimici alla base del metabolismo o nella sintesi di nuove molecole da utilizzare nel campo delle nanotecnologie. Insomma era roba per pochi eletti, di nerds della conoscenza o topi da laboratorio, se proprio vogliamo dirla in un modo più prosaico. Ed, invece, la commissione che assegna i premi Nobel ha deciso di premiare tre scienziati, Jean-Pierre Sauvage, Fraser Stoddart e Bernard L. Feringa “for the design and synthesis of molecular machines“, da anni impegnati nella progettazione e nella sintesi di questi sistemi complessi tanto che ora il termine “macchine molecolari” viaggia di bocca in bocca e presto diventerà patrimonio comune come il termine “plastica” che è associato, sebbene non proprio correttamente, al nome di Giulio Natta, premio Nobel, assieme a Karl Ziegler, nel 1963 per le sue scoperte nell’ambito della chimica dei polimeri.

I vincitori del premio Nobel per la chimica 2016 (fonte https://www.nobelprize.org/nobel_prizes/chemistry/laureates/2016/)
Ma cosa sono le macchine molecolari?
Tutti sappiamo cosa sia una macchina. Basta aprire un qualsiasi dizionario per trovare che una macchina è uno “strumento, apparato, congegno costituito da un numero variabile di parti collegate fra loro in rapporto cinematico, che serve per la trasformazione o per la trasmissione dell’energia o per il compimento di determinate operazioni” (da: http://dizionario.internazionale.it/…). In altre parole, si tratta di un sistema più o meno complesso composto da tante parti assemblate assieme in modo tale che il loro movimento relativo sia in grado di trasmettere energia o di compiere un lavoro.

Locomotiva a vapore, tipica macchina fatta di parti assemblate assieme, in grado di muoversi e capaci di compiere un lavoro (fonte https://www.flickr.com/photos/powerhouse_museum/sets/72157607071380541/)
In natura esistono tantissimi sistemi che possono essere assimilati a delle macchine. Una di queste è, per esempio, l’emoglobina, una proteina allosterica formata da quattro subunità – ovvero da quattro diverse componenti assemblate nel modo opportuno, che è in grado di trasportare l’ossigeno all’interno delle cellule e l’anidride carbonica fuori da esse (il funzionamento della molecola ed il significato di allosterismo sono già stati evidenziati in un mio articolo sul blog: http://www.laputa.it/blog/elogio-de…). La capacità che ha l’emoglobina di modulare la sua azione attraverso il movimento delle sue subunità la rende una vera e propria macchina in miniatura, ovvero una nanomacchina o macchina molecolare, il cui scopo è quello di consentire l’ossigenazione delle cellule al fine di assicurare il corretto funzionamento del nostro metabolismo.

L’emoglobina – tipica macchina molecolare la cui azione è modulata dalla sua capacità di movimento (fonte http://www.pianetachimica.it/mol_mese/mol_mese_2003/05_Emoglobina/emoglobina_1_ita.html)
Ma l’emoglobina non è la sola macchina molecolare presente negli esseri viventi.
Cosa dire, per esempio, degli enzimi che prendono il nome di DNA polimerasi e che sono coinvolti nella replicazione del DNA? Le DNA polimerasi sono delle molecole complesse che, in modo molto semplicistico, funzionano “scivolando” lungo i filamenti di DNA. Man mano che gli enzimi procedono, i due filamenti di DNA, avvolti a formare la famosa doppia elica descritta per la prima volta da Watson e Crick su Nature (http://www.nature.com/nature/dna50/…), si separano come se fossero le due parti di una cerniera che si aprono per effetto del passaggio del cursore metallico. Via via che le DNA polimerasi incontrano un “dente” della catena, esse “prelevano” dall’ambiente circostante la molecola adatta da “incastrare” sul “dente” stesso in modo tale da sintetizzare un filamento (ovvero una catena) di DNA che sia esattamente complementare a quella lungo cui stanno scivolando.

Schema della replicazione del DNA (fonte: http://www.chimica.unipd.it/fabrizio.mancin/pubblica/Suprachem/macchine%20molecolari.pdf)
Vogliamo parlare, poi, dell’ATP-asi, l’enzima coinvolto nella sintesi dell’ATP? Si tratta di un complesso molecolare che funziona come una vera e propria turbina per convertire l’energia associata ad un gradiente protonico (cioè la differente concentrazione di ioni H+ tra i due lati di una membrana cellulare) in energia chimica contenuta nei legami della molecola di ATP. L’enzima è fatto da tre parti. Una parte dell’enzima, “chiusa” all’interno della parete cellulare, è indicata come F0; questa è legata ad una estremità di una sorta di “albero a camme” la cui altra estremità è connessa ad una “lingua” che viene, generalmente, indicata come F1. I protoni presenti da un lato della membrana (quello dove essi sono in concentrazione più elevata) si incanalano in F0 attivandone un movimento meccanico di tipo rotatorio. Il movimento rotatorio viene trasmesso ad F1 attraverso l’albero a camme. Si verificano, quindi, due condizioni. Da una parte, il movimento rotatorio consente di “pompare” i protoni da un lato all’altro della parete cellulare. Dall’altra, la trasmissione del moto da F0 a F1 consente a quest’ultima subunità di “aprirsi” e “catturare” gli “ingredienti” necessari per la sintesi dell’ATP. Una volta catturati gli ingredienti, F1 si chiude impedendone l’allontanamento e promuovendo la formazione di ATP. Dopo la sintesi di ATP, la subunità F1 si apre e consente alla molecola appena formata di fuoriuscire (qui si trova un bellissimo filmato sul funzionamento dell’ATP-asi: https://www.youtube.com/watch?v=Pjd…).

Struttura e schema di funzionamento dell’ATP-asi (fonte: http://www.chimica-online.it/biologia/sintesi-atp.htm)
La tendenza attuale nel mondo chimico è la “biomimesi”, ovvero lo sviluppo di tecnologie chimiche in grado di produrre molecole che, in qualche modo, funzionino come i sistemi presenti in natura. Io stesso, in passato, sono stato impegnato in ricerche di questo tipo quando studiavo catalizzatori biomimetici per il recupero ambientale (http://www.suprahumic.unina.it/home…).
E’ proprio guardando al funzionamento delle macchine molecolari presenti nel metabolismo degli esseri viventi che è nata l’idea di usare aggregati di molecole (ovvero supramolecole) per “compiere” lavoro mirato a livello molecolare come trasmissione di energia o movimento. I primi prototipi di macchine molecolari sintetiche furono i rotassani e i catenani in cui il movimento meccanico era limitato ad uno “scivolamento” di due subunità l’una dentro l’altra.

Prototipi di macchine molecolari (fonte: http://www.ordinechimicicalabria.it/portale2016/congresso/contributi%20scientifici/T03%20CREDI.pdf)
Altro simpatico esempio di macchina molecolare è quello che è stato definito “ascensore molecolare” il cui futuro sembra essere quello di “veicolare”, attraverso meccanismi di “cattura/rilascio”, molecole aventi particolari caratteristiche chimiche (per esempio i contaminanti ambientali).

Esempio di ascensore molecolare (fonte: http://www.ordinechimicicalabria.it/portale2016/congresso/contributi%20scientifici/T03%20CREDI.pdf)
Alla luce di tutto quanto illustrato, è possibile dare una definizione di macchina molecolare (o nanomacchina) come di un aggregato molecolare (o supramolecola) in grado di compiere movimenti meccanici per trasmettere moto o trasferire energia attraverso stimoli chimico-fisici come interazione con la luce o gradienti di concentrazione.
Note conclusive
Chiedo scusa a tutti i biochimici per l’enorme superficialità che ho utilizzato per la descrizione dei meccanismi biochimici. Essi sono tutt’altro che così semplici, tuttavia ho cercato di semplificare al massimo il funzionamento delle macchine molecolari di tipo metabolico per un pubblico non troppo esperto. Spero di essere riuscito nell’intento.
Per approfondire:
  1. http://prometeo.sif.it/papers/onlin…
  2. http://www1.unipa.it/flor/materiale…
  3. http://www.ordinechimicicalabria.it/…
  4. http://www.itscienzachimica.altervista.org/…
  5. http://www.chimica-online.it/biolog…
  6. http://www.scienzagiovane.unibo.it/…
Fonti delle immagini:
  1. L’immagine di copertina è presa da: http://www.steinbeck-molecular.de/s…
  2. L’immagine dei laureati Nobel per la chimica 2016 è presa da: https://www.nobelprize.org/nobel_pr…
  3. La locomotiva a vapore è presa da: https://www.flickr.com/photos/powerhouse_museum/sets/72157607071380541/
  4. L’immagine dell’emoglobina è presa da: http://www.pianetachimica.it/mol_me…
  5. Lo schema della replicazione del DNA è preso da: http://www.chimica.unipd.it/fabrizi…
  6. Lo schema dell’ATP-asi è preso da: http://www.chimica-online.it/biolog…
  7. Lo schema dei rotassani, dei catenani e dell’ascensore molecolare è preso da: http://www.ordinechimicicalabria.it/…

Riflessioni di un docente di mezza età. Cos’è la vita?

Stamattina ho fatto la mia solita lezione. Dalle 8:00 alle 10:00. Non è proprio un orario piacevole per gli studenti. Si beccano la chimica del suolo di prima mattina quando i neuroni sono ancora in fase di riposo…ma va bene. Preferisco che certe cose vengano dette a mente fresca, quando non sono ancora stanchi ed annoiati da una mattinata di lezioni varie.
Oggi ho parlato della reazione del suolo che, tradotto per i non addetti, vuol dire pH del suolo, come si misura e il suo effetto sulla dinamica dei nutrienti. La figura qui sotto mostra la disponibilità di alcuni nutrienti in funzione del pH.
Disponibilità dei nutrienti in funzione del pH dei suoli (Fonte)

Come mio solito quando faccio lezione (che da qualche anno a questa parte faccio a braccio, ovvero senza seguire una preparazione preventiva e seguendo le indicazioni degli studenti attraverso la valutazione della loro espressione e delle loro domande) sono passato dalla delucidazione scientifica a considerazioni di natura filosofica.
Qual è l’effetto di un pH troppo acido o troppo basico sui suoli? La prima cosa che deve venire in mente è che, al di là di una asettica dinamica molecolare, si ha una selezione della tipologia di forme di vita che sono presenti sul suolo. Se la concentrazione idrogenionica è troppo elevata (molto più elevata di quella presente all’interno delle cellule dei micro organismi del suolo) si innescano processi osmotici che portano alla lisi cellulare. Lo stesso meccanismo è valido quando il pH è troppo basico (troppo acido e troppo basico in chimica del suolo vuol dire molto al di sotto di pH 5.5 e molto al di sopra di pH 7.5, rispettivamente). E’ chiaro che in queste condizioni estreme, riescono a sopravvivere solo micro organismi estremofili. In definitiva, per effetto di una variazione del pH dei suoli, si innescano meccanismi di selezione che portano alla predominanza di certe forme di vita su altre.
Effetto del pH sulla crescita microbica (Fonte)
Ma che cos’è la vita?

Sembra una domanda banale. Gli studenti in genere dicono: noi esseri umani, le piante, gli animali. Altri aggiungono: sono vita anche i micro organismi (che possono essere del suolo o anche quelli simbiotici che vivono al nostro interno). In generale, nessuno è in grado di dare una risposta univoca che si applichi contemporaneamente a tutte le forme di vita.

Negli anni scorsi (non oggi perché per mancanza di tempo sono andato subito alle conclusioni) proponevo un giochetto (che poi è lo stesso proposto da Pier Luigi Luisi nel libro indicato più in basso).
Noi oggi siamo coinvolti nell’esplorazione spaziale alla ricerca, tra l’altro, di nuove forme di vita. Cosa ci dobbiamo aspettare? Come riconoscere nuove forme di vita?
Ci viene spontaneo dire che quanto riportato nel seguente elenco son tutte forme di vita:
Mosca; Albero; Mulo; Bambino; Fungo; Ameba; Pollo; Corallo
Mentre quanto contenuto in questa lista non è vita:
Radio; Automobile; Robot; Cristallo; Luna; Computer; Mare; Carta
Ma perché?
Si potrebbe dire che la mosca, il mulo il bambino, l’ameba, il pollo sono forme di vita perché sono “oggetti” che crescono e si muovono. Ma allora un albero ed un fungo, che non si muovono, non sono forme di vita? Alla luce di “crescita” e “movimento” potremmo dire che la Luna e il mare (che si muovono e crescono periodicamente) sono forme di vita. Ma non è così. Ed allora, perché nel primo elenco ci sono forme di vita e nel secondo no? Si potrebbe dire che son forme di vita tutti quegli “oggetti” che reagiscono agli stimoli esterni. Ma allora, ancora una volta un fungo non è vita. Sembra non reagire ad alcuno stimolo. Un computer, invece, potrebbe essere forma di vita perché reagisce a degli stimoli elettrici. Lo stesso si potrebbe dire per un robot. Le cose viventi sono tutte quelle che sono in grado di riprodursi. Ma allora, alla luce di questo parametro, il mulo, che è sterile, non è una forma di vita.
Come si arguisce dall’esempio fatto, qualsiasi parametro si vada a prendere in considerazione, gli elementi della prima lista possono rientrare nella seconda lista e viceversa.
In realtà esiste una unica risposta alla domanda “perché gli elementi della prima lista sono forme di vita mentre quelli della seconda lista non lo sono?”: tutti gli elementi della prima lista hanno una cosa in comune, ovvero una attività metabolica che consente a tutti loro di essere autopoietici. Non è una brutta parola. Significa solo che tutti gli esseri viventi, grazie ai processi metabolici che li accomunano, sono in grado di autoripararsi. Pensate a quando vi fate un graffio: esce del sangue, ma, dopo un po’ di tempo, il sangue coagula, le cellule ricrescono e tutto torna come prima.
Coagulazione del sangue (Fonte)
Tutti gli elementi della seconda lista non sono dotati della proprietà autopietica perché non hanno alcun metabolismo.
Abbiamo risposto alla domanda relativa al parametro da usare per identificare le forme di vita. Ma ancora bisogna rispondere alla domanda “cos’è la vita?”
A questo punto viene spontaneo dire che la “vita” è una proprietà emergente dall’interazione di diverse componenti. In altre parole, la vita è una proprietà intrinseca di “macchine molecolari” complesse dotate di metabolismo. Essa “nasce” dalla combinazione di “caso e necessità”. Cambiamenti casuali di carattere ambientale hanno consentito la sintesi di molecole più o meno complesse. Nel momento in cui esse sono state casualmente ottenute per combinazione degli elementi chimici che le compongono e sotto la spinta di pressioni ambientali, hanno cominciato ad “agire” seguendo la “necessità” di leggi chimico-fisiche che già conosciamo o che scopriamo ogni giorno grazie alla nostra attività scientifica. Ogni cambiamento casuale delle condizioni al contorno (ovvero delle condizioni ambientali), comporta una risposta metabolica ben precisa con successiva necessaria evoluzione per adattamento alle nuove condizioni.
Conclusioni
Non so cosa i miei studenti abbiano capito da questa lezione. Alla fin fine le domande d’esame verteranno solo sul pH dei suoli e sul suo effetto sulla dinamica dei nutrienti. Devo dire, però, che dalle loro espressioni ho capito che sono rimasti colpiti. Io mi sono divertito. Ma come spesso mi viene detto, forse mi sono divertito perché ho avuto modo di essere logorroico e di annoiare un pubblico che è obbligato ad ascoltarmi e non è nella posizione di mandarmi a quel paese. Posso chiudere dicendo che non mi importa: la scienza è conoscenza e la conoscenza è anche la deriva pseudo filosofica attraverso cui un individuo è spinto a riflettere sul significato più profondo delle domande che si è sempre posto. Ho scelto di fare il “pensatore” buttandomi nella ricerca universitaria per soddisfare le mie curiosità più recondite.
Per chi vuole approfondire:
Erwin Schoeredinger, Che cos’è la vita? Adelhi (1995) (http://www.adelphi.it/libro/9788845…)
Ed Regis, Cos’è la vita? Chiavi di lettura della Zanichelli (2010) (http://online.scuola.zanichelli.it/…)
Pier Luigi Luisi Sull’origine della vita e della biodiversità Mondadori (2013) (http://www.laputa.it/libri/sullorig…)
Le macchine molecolari – https://www.facebook.com/notes/rino…
J.J. Monod, il caso e la necessità, Mondadori (1971) (https://monoskop.org/images/8/8e/Mo…)
Fonte dell’immagine di copertina: http://hdimagesnew.com/3d-dna-wallp…

La “memoria dell’acqua”, l’omeopatia ed i pregiudizi di conferma

Più volte, da quando il 29 Dicembre 2016 al Caffè dei Libri di Bassano del Grappa ho tenuto una lezione sull’omeopatia intesa come pratica esoterica senza fondamenti scientifici [1, 2], mi sono sentito rivolgere sempre la stessa argomentazione in base alla quale ci sono persone molto più titolate di me che svolgono lavori di ricerca molto approfonditi grazie ai quali i modelli in grado di spiegare gli effetti dei formulati omeopatici sono diventati sempre più definiti e circostanziati.
I fautori dell’omeopatia si basano però sul principio di autorità [3] e (ricopiando una risposta tipica che viene generalmente data a miei commenti sull’omeopatia) affermano: “se l’argomento omeopatia viene trattato sul piano chimico lei ha certamente ragione a sostenere che dopo un certo numero di diluizioni per il principio di Avogadro non può esistere residuo della sostanza iniziale; ma se l’argomento viene trattato sul piano quantistico, il discorso cambia radicalmente. (I miei riferimenti pro-omeopatia sono E. Del Giudice, G. Vitiello, V. Elia, I. Licata, Rustun Roy, E. Germanov ecc. ecc.)”.
In questo caso specifico, la persona che ha commentato si è dimenticata di Benveniste [4] e Montagnier [5] i cui studi sono stati rigettati da Nature, nel primo caso, e pubblicati su una rivista di cui si è editor-in-chief, nel secondo caso (il che equivale a dire: “pubblico il mio lavoro senza alcun contraddittorio”. Ma di questo mi occuperò a tempo debito in un altro momento).
In definitiva sembra che ci siano studiosi che analizzano le proprietà delle soluzioni a diluizione infinita e trovano risposte inoppugnabili alle basi dell’omeopatia.
Chi fa nomi e cognomi di studiosi coinvolti in ricerche sull’acqua ha qualche problema non solo con la chimica ma anche con la lettura di lavori scientifici ed in genere non si tratta di chimici ma di persone che si occupano di altro. Per esempio, l’argomentazione riportata sopra è stata fatta da una persona che di se stessa dice: “sono un epistemologo esperto in teoria dei sistemi, non un chimico; ma conosco molto bene gli argomenti e le dimostrazioni sperimentali degli scienziati che sostengono il valore dei trattamenti omeopatici “. In altre parole, si tratta di qualcuno che ha deciso di se stesso che è esperto di qualcosa di cui non è competente (vi dice niente l’effetto Dunning Kruger?). E come lui, tutti quelli che argomentano di pro-omeopatia “a spron battuto” nei vari social networks.
Essendo un chimico coinvolto in lavori di ricerca fin dall’inizio degli anni Novanta, sono coinvolto anche nei processi di peer review di lavori scientifici, ovvero sono chiamato a dare la mia opinione di esperto nella valutazione di lavori di ricerca. Questo accade almeno tre-quattro volte al mese, ovvero mi trovo a lavorare come revisore per almeno 36-48 volte all’anno. In questa sede voglio agire come revisore e prendere uno dei lavori pubblicati da uno dei tanti autori famosi per la loro posizione pro-omeopatia e capire nel merito cosa fanno.
Il lavoro a cui faccio riferimento è: V Elia, E Napoli and R Germano, The ‘Memory of Water’: an almost deciphered enigma. Dissipative structures in extremely dilute aqueous solutions, Homeopathy (2007) 96, 163–169 [6]. Chi è iscritto a Researchgate può liberamente scaricare il lavoro suddetto messo a disposizione dagli autori stessi.
Il lavoro si apre con una introduzione in cui si scrive:
“The ‘Memory of Water’ is a journalistic expression, first used in the French newspaper Le Monde, after the publication in 1988 of Jacques Benveniste’s famous paper in the international scientific journal Nature. In this paper he claimed, with biological experimental data, that ‘homeopathic dilutions’ of substances (ie so much diluted as to not contain any molecules of the substance initially diluted in it) are able to induce biological effects typical of the substance initially dissolved in it”.
Gli autori ammettono che il termine “memoria dell’acqua” ha solo un effetto “comunicativo” ma nessuna base scientifica. Citano a tal proposito il lavoro capostipite sulla “memoria dell’acqua” pubblicato su Nature nel 1988 da Jacques Benveniste [7] dimenticando, però, che questo lavoro fu pubblicato “sub condicio” (come evidenzia la Editorial reservation riportata in coda all’articolo stesso), ovvero con l’accordo che i risultati avrebbero dovuto essere valutati da una commissione di esperti nel laboratorio dell’autore. La valutazione ci fu e la risposta si trova nell’articolo su Nature a firma di John Maddox, James Randi e Walter W. Stewart: “High-dilution” experiments a delusion [8]:
“We conclude that the claims made by Davenas et al. are not to be believed. Our conclusion, not based solely on the circumstance that the only strictly doubleblind experiments we had witnessed proved to be failures, may be summarized as follows: The care with which the experiments reported have been carried out does not match the extraordinary character of the claims made in their interpretation […]. The phenomena described are not reproducible, but there has been no serious investigation of the reasons […]. The data lack errors of the magnitude that would be expected, and which are unavoidable […]. No serious attempt has been made to eliminate systematic errors, including observer bias […]. The climate of the laboratory is inimical to an objective evaluation of the exceptional data […]”.
In altre parole, il lavoro del gruppo gestito da Benveniste sopravvaluta gli effetti che gli autori riportano nelle loro conclusioni, manca di riproducibilità, manca di una seria valutazione degli errori sperimentali sia casuali che sistematici (per esempio gli autori non hanno fatto sforzi per eliminare i pregiudizi di conferma) e le condizioni del laboratorio non offrono sufficienti garanzie per una interpretazione oggettiva, e quindi credibile, dei dati.
Un lavoro scientifico che si basa sulle premesse ritenute sbagliate dalla comunità scientifica internazionale non si presenta molto bene. Il compito di tutti noi è prendere atto di ciò che è pubblicato (ci piaccia o meno) e, partendo da lì, costruire i nostri migliori modelli scientifici. Nel caso in oggetto la premessa di Elia et al. [6] è “la memoria dell’acqua è un fatto acclarato e dobbiamo solo capire a cosa è dovuta”. No, non è così. La “memoria dell’acqua” non è affatto acclarata [9, 10, 11, 12]. A sostegno della loro assunzione di partenza, Elia et al. [6] citano un saggio pubblicato da Bibliopolis in lingua Italiana [13]. Quale validità scientifica a livello internazionale possa avere un saggio scritto in italiano, quindi limitato alla sola comunità scientifica che è in grado di parlare quella lingua, non è dato sapere. Inoltre, la pubblicazione di libri non richiede la severa revisione tra pari a cui è soggetto invece un lavoro di ricerca. Chiunque può scrivere un libro per rendere pubblico il suo pensiero e magari ricorrere come spesso accade all’auto-pubblicazione. Ma si tratta di opinioni personali senza contraddittorio. Non c’è dialogo scientifico come quello riportato nei riferimenti [9-12].
Dopo l’introduzione, nella quale gli autori evidenziano la tipologia di problematiche che essi hanno deciso di analizzare, c’è un paragrafo intitolato “Methods”. Di solito questo paragrafo serve per descrivere le metodologie analitiche che gli autori di un lavoro decidono di utilizzare. Questo paragrafo inizia con: “The experimental methodologies used for our investigations were chosen as the most efficient among the many tested”.
Devo dire che è la prima volta, nella mia esperienza di lavoro e di revisore scientifico, che mi trovo di fronte ad una frase del genere. Di solito chi scrive un lavoro di ricerca cerca di giustificare in modo oggettivo la scelta delle tecniche analitiche che ha deciso di utilizzare. Se non si è in grado di trovare una giustificazione oggettiva in termini di sensibilità strumentale o peculiarità analitica, ci si rifà a “non ho soldi e queste sono le strumentazioni che la mia Istituzione mi ha messo a disposizione”. Ma dire che si scelgono tra le diverse tecniche quelle che si ritengono più efficienti, senza citare quali sono state prese in considerazione oltre quelle applicate nel lavoro inviato per la pubblicazione, e quali sono state scartate e per quali motivi, equivale a dire “ho scelto le tecniche che mi consentono di ottenere le risposte che desidero”. Non mi sembra un atteggiamento molto oggettivo. Non è così che devono essere presentate le proprie scelte alla comunità di riferimento.
Seguono, poi, le descrizioni delle diverse tipologie di figure che sembrano sostenere la validità delle conclusioni degli autori che chiosano “Much new experimental data converge towards the validation of the statement that water, at least in the context of the procedure of the homeopathic medicine production, really has a ‘memory’.” In altre parole, i dati sperimentali consentono di concludere che la memoria dell’acqua è reale.
In genere, uno dei primi corsi che vengono seguiti all’università dagli studenti che si iscrivono a una qualsiasi ex-facoltà scientifica riguardano la matematica che deve essere usata nella scienza [14]. Viene spiegato molto chiaramente che quando si riportano dati sperimentali occorre tener ben presente che essi sono sempre affetti da errore (sia casuale che sistematico) e che la buona pratica scientifica consiste nel riprodurre gli esperimenti in modo tale da indicare quantitativamente anche gli errori che sono stati commessi. Sotto l’aspetto visivo quanto appena scritto si traduce nel riportare grafici in cui ad ogni punto sperimentale sia associata una barra sia nella dimensione delle ascisse (se possibile, perché non sempre è possibile misurare l’errore sull’asse x) che in quella delle ordinate (l’asse y) indicanti l’incertezza nelle misure sperimentali. Alternativamente, se si riportano tabelle invece che grafici, occorre indicare l’intervallo di confidenza del valore misurato; detto in soldoni un numero in tabella deve essere sempre riportato come (a ± err).
Tutti i grafici discussi nel lavoro di Elia et al. [6] sono carenti in questo. Non c’è alcuna seria analisi degli errori sperimentali. Non viene riportato nulla in termini di intervallo di confidenza e mancano le barre di errore che consentirebbero a chiunque in grado di leggere quei grafici di capire l’attendibilità dei dati sperimentali riportati.
CONCLUSIONI
Il modello costruito sulla base di premesse sbagliate e fondato sulla valutazione di dati sperimentali di cui non si conosce l’attendibilità non è esso stesso attendibile. Per quanto mi riguarda, gli autori hanno voluto vedere ciò che solo nella loro mente è qualcosa di reale. In altre parole, hanno voluto trovare conferma a ciò che pensavano e non hanno fatto tentativi per falsificare, in senso popperiano, le loro ipotesi. Ciò che a mio avviso è più grave è che essi non hanno tenuto in alcun conto ciò che essi stessi (Elia è stato uno dei miei docenti all’Università degli Studi di Napoli Federico II) insegnano agli studenti, ovvero “rigida” attenzione agli errori sperimentali per permettere ai colleghi di tutto il mondo di poter valutare con serenità il proprio lavoro. Se fossi stato io il revisore del lavoro non ne avrei permesso la pubblicazione a causa degli innumerevoli bias che ho osservato. Ma non sono stato io il revisore, di conseguenza il lavoro è stato pubblicato e ci sarà qualcuno da qualche parte che presterà fiducia a quanto scritto.
RIFERIMENTI
  1. https://www.facebook.com/RinoConte1…
  2. http://www.laputa.it/omeopatia/
  3. http://web.unitn.it/files/download/…
  4. http://www.nature.com/news/2004/041…
  5. http://www.i-sis.org.uk/DNA_sequenc…
  6. https://www.researchgate.net/public…
  7. https://www.researchgate.net/profil…
  8. http://www.badscience.net/wp-conten…
  9. http://www.sciencedirect.com/scienc…
  10. http://www.sciencedirect.com/scienc…
  11. http://www.sciencedirect.com/scienc…
  12. http://www.sciencedirect.com/scienc…
  13. Germano R. AQUA. L’acqua elettromagnetica e le sue mirabolanti avventure. Napoli: Bibliopolis, 2007.
  14. http://www.chimicare.org/curiosita/…
L’immagine di copertina è presa da: http://www.numak.it/cisterne-serbat…

Le strane proprietà dell’acqua. L’effetto Mpemba

In che cosa consiste l’Effetto Mpemba?
Il mondo scientifico è molto variegato ed è estremamente libero. Ognuno si occupa delle cose che più lo incuriosiscono cercando di portare il proprio contributo alle conoscenze globali.
Tra le cose che attirano la curiosità di scienziati e gente comune sono le proprietà dell’acqua.
Qui, qui, qui, qui e qui sono descritte in modo divulgativo alcune delle sue proprietà influenzate dalla presenza dei legami a idrogeno.
Una caratteristica dell’acqua su cui non sembra esserci un accordo nel mondo scientifico è il cosiddetto effetto Mpemba, ovvero la capacità dell’acqua di congelare più velocemente se essa è prima riscaldata.
Il nome dell’effetto è quello di un Tanzaniano che, da ragazzino, affermava che era in grado di ottenere più velocemente i gelati se la crema veniva posta in freezer quando ancora calda. In realtà, l’osservazione del fenomeno pare risalga addirittura ad Aristotele, passando per Cartesio.
Erasto Mpemba, la persona da cui l’effetto prende nome (fonte dell’immagine: http://www1.lsbu.ac.uk/water/mpemba_effect.html)
L’effetto descritto è un paradosso: logicamente si sarebbe tentati di pensare che essendo l’acqua fredda più vicina al punto di congelamento, essa debba congelare più velocemente dell’acqua calda che, invece, è più distante dal punto di congelamento.
Il disaccordo nel mondo scientifico di cui accennavo sopra si sviluppa su diversi livelli. Ci sono scienziati che ne negano l’esistenza perché in condizioni controllate non riescono ad osservare il fenomeno e scienziati che, invece, sembrano osservare il fenomeno e ne danno anche una spiegazione. Nell’ambito di chi spiega l’effetto Mpemba c’è chi dà importanza ai gas disciolti e chi, invece, pone l’accento sulla natura dei legami a idrogeno.
Qual è la mia posizione? Devo dire che personalmente sono piuttosto scettico, ma la mia è solo una opinione basata sulla lettura di un lavoro apparso recentemente su Scientific Reports. In questo lavoro, gli autori non solo evidenziano che i dati sperimentali riportati negli studi assertivi dell’effetto Mpemba sono deficienti in ripetibilità e riproducibilità, ma sono anche affetti dal pregiudizio di conferma degli autori stessi.
Lo scopo di questa nota è riportare non le mie opinioni in merito (non ho mai studiato direttamente questo effetto e non potrei esprimermi in merito se non approfondendo ulteriormente i singoli casi studio), ma lo stato dell’arte in merito a quelle che sono delle spiegazioni piuttosto affascinanti di un effetto che, se osservato con maggiore attendibilità, evidenzierebbe nuovi tipi di anomalie dell’acqua.
LA STRUTTURA DELL’ACQUA
È già stato spiegato altrove (qui, qui, qui, qui e qui) che ogni molecola di acqua è in grado di formare fino a quattro legami a idrogeno impegnando sia i due atomi di idrogeno legati all’ossigeno (in questo caso la molecola di acqua funziona da donatrice di idrogeno) sia i doppietti solitari localizzati sull’atomo di ossigeno (in questo caso la molecola di acqua funziona da accettrice di idrogeno). Si forma, in questo modo, un insieme di cinque molecole di acqua agganciate tra di loro a formare un tetraedro. Di queste cinque molecole di acqua, una è al centro del tetraedro, le altre quattro sono nei vertici. Queste ultime, a loro volta, sono al centro di un altro tetraedro i cui vertici sono occupati da altre molecole di acqua.
La struttura dell’acqua. Quattro molecole di acqua si dispongono lungo i vertici di un tetraedro il cui centro è occupato da una quinta molecola di acqua (fonte dell’immagine: https://it.wikipedia.org/wiki/Acqua)
Volendo avere una visione semplificata delle molecole di acqua legate tra loro, potremmo immaginare un insieme di tetraedri che evolvono nelle tre dimensioni e sono agganciati gli uni agli altri attraverso i propri vertici. Questa è una visione semplificata per diversi motivi. Ogni molecola di acqua può formare fino a quattro legami a idrogeno, ma non è detto che sia così. Ci possono essere molecole di acqua che ne formano tre ed altre che ne formano due, per esempio. Allo stesso modo bisogna ricordare che il legame a idrogeno non è statico, ma ha natura dinamica. Se indichiamo per semplicità il legame a idrogeno con due punti tra il simbolo dell’ossigeno e quello dell’idrogeno, mentre il legame covalente con un semplice trattino (H:O-H), possiamo scrivere un equilibrio del tipo:
H:O-H = H-O:H
dal quale si evince che il legame covalente si interscambia con quello a idrogeno. Infine, i tetraedri in cui sono inserite le molecole di acqua non sono regolari, ma distorti.
Avendo in mente tutto questo, si riesce a comprendere che il modello tridimensionale fatto di tetraedri agganciati per i vertici non è una buona rappresentazione dell’acqua liquida, pur rendendo l’idea. Questo modello è, però, sufficiente per comprendere come è fatta una delle tante forme di ghiaccio. Ebbene sì, di ghiaccio non ne esiste un solo tipo ma ce ne sono molti altri e non tutti hanno densità più piccola di quella dell’acqua liquida; in altre parole non tutte le forme di ghiaccio galleggiano sull’acqua (Ref.).
Diagramma di fase dell’acqua. Sono evidenti le diverse forme di ghiaccio. Ne esistono undici differenti in cui le molecole di acqua sono “agganciate” tra loro in modi differenti (fonte dell’immagine: https://en.wikipedia.org/wiki/Ice)
Ciò che è importante da tutto questo discorso è capire che le molecole di acqua liquida tendono a formare dei “grappoli” tenuti insieme dai legami a idrogeno. La forma più elementare di uno di questi grappoli in cui diversi tetraedri sono “agganciati” tra loro attraverso i propri vertici è quella dell’icosaedro, un solido a 20 facce triangolari fatto dall’unione di 20 tetraedri per un totale di 280 molecole di acqua (Ref.)
Icosaedro. Struttura più elementare in cui si raggruppano i tetraedri distorti formati dalle molecole di acqua (fonte dell’immagine: https://www.mindmeister.com/maps/public_map_shell/574542913/poliedros-o-s-lidos-geom-tricos)
LE SPIEGAZIONI PIÙ CONOSCIUTE DELL’EFFETTO MPEMBA
L’effetto dei legami a idrogeno
Recentemente (Ref.)  è stato proposto che la variazione delle lunghezze dei legami a idrogeno e dei legami covalenti per effetto del riscaldamento sia direttamente coinvolta nell’effetto Mpemba.
Quando l’acqua è calda, le lunghezze dei legami a idrogeno H:O sono più grandi rispetto a quelle dei legami covalenti O-H. L’abbassamento della temperatura che si ottiene inserendo l’acqua calda nel congelatore comporta un accorciamento dei primi ed un allungamento dei secondi. Il “tira e molla” appena descritto può essere associato a due effetti: una sorta di “riscaldamento adiabatico” dovuto all’accorciamento del legame a idrogeno ed una sorta di “raffreddamento adiabatico” dovuto all’allungamento del legame covalente. L’effetto Mpemba è spiegato dalla prevalenza del secondo effetto sul primo. In particolare, più calda è l’acqua, più efficiente è il raffreddamento dovuto all’allungamento dei legami covalenti. In altre parole, il raffreddamento dell’acqua avviene perché quando i legami covalenti O-H si allungano sottraggono energia ai legami a idrogeno H:O con conseguente raffreddamento complessivo.
Questa spiegazione assomiglia molto a quanto accade ad un vapore che si allontana dalla superficie di un liquido. Per capire cosa accade fate un esperimento molto semplice. Cospargete la mano con alcol etilico (un liquido facilmente volatile); agitate la mano; sentirete una senzazione di fresco. Ecco! L’evaporazione dell’alcol etilico comporta che alcune molecole si allontanino dalla mano. Per poterlo fare, però, hanno bisogno di energia. Questa energia viene sottratta alle molecole di liquido che sono ancora sulla mano. La conseguenza è che le molecole di alcol etilico che bagnano la mano si raffreddano e danno la sensazione che sentite.
L’effetto dei gas disciolti
Il meccanismo appena descritto non tiene conto dell’effetto sulla struttura dell’acqua liquida da parte dei gas disciolti la cui presenza diventa importante nel momento in cui si sottopone l’acqua a riscaldamento. Infatti, è esperienza comune che quando si aumenta la temperatura dell’acqua compaiono delle bolle dovute al fatto che, ad alte temperature, la solubilità dei gas disciolti diminuisce ed essi si allontanano dal sistema generando le bolle.
Cosa accade in presenza delle bolle? Abbiamo detto che l’acqua liquida ha una struttura a grappoli in cui l’unità elementare ha forma di icosaedro. Più rigida è questa struttura, più facilmente si forma il ghiaccio. Ne viene che l’acqua fredda dovrebbe ghiacciare prima di quella calda. In realtà, l’acqua calda contiene una quantità più grande di nano-bolle rispetto all’acqua fredda.
L’acqua riscaldata forma delle bolle dovute alla diminuzione della solubilità dei gas disciolti. Le bolle sono delle cavità in cui i gas, insolubili in acqua, vengono intrappolati da molecole di acqua che interagiscono tra loro mediante legami a idrogeno. All’aumentare della temperatura la pressione interna delle bolle diviene via via più grande di quella esterna. La conseguenza è che esse salgono in superficie. Qui i gas contenuti nelle bolle vengono liberati nell’aria mentre l’acqua liquida rimane “attaccata” alla superficie. Più aumenta la temperatura e più aumentano le dimensioni delle bolle (fonte dell’immagine: http://meteolive.leonardo.it/news/In-primo-piano/2/l-acqua-bolle-prima-in-montagna-/38316/)
Le nanobolle, grazie alla tensione superficiale che le contraddistingue, impediscono il congelamento dell’acqua. Tuttavia, la loro rapida rottura determina l’allontanamento dei gas in esse intrappolate con conseguente perdita di energia da parte delle molecole di liquido che in questo modo subiscono il rapido raffreddamento.
L’EFFETTO MPEMBA E LA NEVE ISTANTANEA
L’effetto Mpemba viene invocato per spiegare un fenomeno molto scenografico, ovvero la formazione di neve istantanea quando acqua bollente viene lanciata in area a temperature molto al di sotto di 0 °C.
Acqua calda lanciata in aria quando la temperatura è di -30 °C congela istantaneamente (fonte dell’immagine: http://www.freddofili.it/15104-acqua-calda-congela/)
A questo link un video molto divertente che mostra come l’acqua bollente formi immediatamente la neve quando la temperatura ambientale è ben al di sotto di 0 °C:

CONCLUSIONI
Ma allora l’effetto Mpemba esiste o meno?
A quanto pare la riproduzione controllata in laboratorio di questo effetto non è affatto facile ed anche le spiegazioni date non sono molto soddisfacenti sebbene la modellistica molecolare (ovvero la simulazione al computer del comportamento delle molecole di acqua) sia in grado di fornire risposte dettagliate in merito al comportamento dei legami a idrogeno quando il liquido caldo è sottoposto a congelamento. In effetti la parola fine non è stata ancora raggiunta. Per ora divertiamoci a vedere e sperimentare la formazione di neve istantanea badando a non farci cadere l’acqua bollente addosso (è certo che l’acqua bollente provochi ustioni).
Note
Articolo pubblicato nella mia pagina Facebook il 25 Gennaio 2017 (qui)
Share