Questo è un post che ho scritto sulla mia pagina Facebook a Marzo 2016. Ero in viaggio ed ascoltavo distrattamente la televisione, quando sentii parlare di “acqua micellare”. Mi sono subito incuriosito ed ho fatto una veloce ricerca in rete per capire di cosa stessero parlando in televisione. Da qui in poi riporto quanto scritto un anno fa.
_____________
Potenza del marketing. Sono in viaggio e vagando qui e là mi è capitato di ascoltare un po’ di televisione. Uno spot pubblicitario dedicato alle donne esaltava le proprietà di un prodotto cosmetico chiamato “acqua micellare”. La mia curiosità chimica ha preso il sopravvento e mi sono chiesto cosa mai fosse questa cosa di cui non avevo mai sentito parlare.
Devo dire che, come chimico, so cosa sia una micella. Semplicisticamente, una micella non è altro che un aggregato supramolecolare in cui molecole con certe proprietà sono tenute insieme da interazioni di Van der Waals. Non si tratta di parolacce. Vuol solo dire che tante molecole anfoteriche, ovvero che hanno una estremità polare ed una coda apolare, quando sono in acqua ad una certa concentrazione, indicata come concentrazione micellare critica (CMC), tendono ad aggregarsi in modo tale che tutte le code apolari si mettono insieme ed escludono le molecole di acqua che tendono a rimanere vicine alle estremità polari. Si dimostra matematicamente che questo arrangiamento è favorito per fattori di carattere energetico. Ma non è il caso di andare oltre. Molecole che hanno questo comportamento sono, per esempio, i trigliceridi presenti nell’olio. Avete hai mescolato olio e acqua? Beh, fatelo. Osserverete la formazione di gocce di olio. Sono micelle. Altre molecole simili sono quelle che compongono i saponi. Ebbene, col termine di “acqua micellare” si intende proprio acqua e sapone. In altre parole, vi fanno pagare a peso d’oro delle formulazioni cosmetiche che altro non sono se non il classico “acqua e sapone” delle nostre nonne.
fonte dell’immagine di copertina: Wikimedia commons
Devo dire che molte volte me le vado a cercare.
Letteralmente.
Mi piace camminare e mi piace leggere le etichette dei prodotti esposti in vetrina, soprattutto se si tratta di alimenti o prodotti per la pulizia. Mi lascia sempre esterrefatto quanto poco il marketing faccia per elaborare slogan che siano un minimo rispettosi delle conoscenze scientifiche. In questa breve nota voglio puntare l’attenzione su marketing e chimica.
Nelle mie peregrinazioni alla ricerca di perle di saggezza pseudo scientifica, mi capita talvolta di entrare nei negozi biologici. Sì, quei negozi col “bio” in evidenza perché “fa bene”. Secondo i creduloni new age il “bio” fa bene alla salute. Secondo me, che sono un credulone scientifico, fa bene alle tasche di chi vende. La foto di copertina ne è una prova lampante.
In uno dei negozi di una nota catena “bio” cosa trovo? Un caffè biologico. Passi per il biologico che è una pratica agronomica sostenibile, benché io abbia le mie idee al riguardo. Ma leggere nell’etichetta che questo caffè è decaffeinato ad acqua senza l’uso di solventi chimici e quindi è naturale, mi sembra veramente troppo. È una offesa personale per tutti quelli che vanno a scuola e cercano di imparare i rudimenti di una qualsiasi materia scientifica.
Mi piacerebbe chiedere ai produttori di questo caffè: “ma secondo voi, l’acqua che cos’è? Non è un prodotto chimico e non è il solvente per eccellenza?”
Sono sicuro che i signori mi risponderebbero che l’acqua è sicuramente più naturale dei solventi organici, dimostrando una profonda ignoranza in due modi distinti. Da un lato, l’acqua che noi beviamo non è naturalmente pura. Noi abbiamo bisogno di sanificarla perché altrimenti essa potrebbe essere veicolo di micro organismi patogeni per l’uomo con la conseguenza di possibili epidemie o anche pandemie.
Ho già scritto una nota al riguardo al seguente link.
Insomma, l’acqua che noi usiamo come alimento non è certo come essa sgorga dalle sorgenti, ma è trattata. E sono sicuro che anche l’acqua usata per la decaffeinizzazione lo sia. Il secondo punto che denota profonda ignoranza è che sono anni che il caffè non viene più decaffeinato con solventi organici. Oggi, proprio per evitare residui seppur minimi di solventi organici, il caffè viene decaffeinato con anidride carbonica supercritica. Si tratta di un particolare stato della materia per cui questa molecola che a temperatura ambiente è un gas, in condizioni particolari di pressione e temperatura diventa qualcosa a metà fra un liquido ed un gas. In queste condizioni, l’anidride carbonica estrae la caffeina con una efficienza superiore a quella di un qualsiasi solvente organico. Il vantaggio è che, quando si torna nelle condizioni di pressione e temperatura atmosferici, tutto il solvente super critico si allontana e non ne rimane traccia alcuna.
Morale della storia. Se volete divertirvi a leggere stupidari chimici, andate a passeggiare in uno qualsiasi dei negozi “bio” in giro per l’Italia. Ne troverete delle belle. In ogni caso il marketing sconclusionato, secondo me, è molto dannoso. È vero che il business prevede di fare soldi, ma non dovrebbe mai essere a discapito dell’etica che dovrebbe imporre la diffusione di informazioni corrette.
<L’approccio del “risolvere un grande problema trovando le cose microscopiche che sono rotte ed aggiustarle” è chiamato riduzionismo – se si vuole comprendere un sistema complesso, bisogna scomporlo nelle parti che lo costituiscono. Il pensiero riduzionista ha dominato la scienza occidentale per secoli, aiutando l’Occidente a tirarsi fuori dal pantano dell’età medievale. Il riduzionismo può essere una gran bella cosa. Essendo stato bambino all’epoca di Jonas Salk, sono immensamente felice di aver beneficiato di un prodotto della scienza riduzionista, ovvero il vaccino scoperto da lui (o da Albert Sabin, ma non ci addentriamo in questo argomento), invece di aver avuto un pediatra che facesse una cerimonia su di me armato di ciondoli feticci e interiora di capra per propiziarsi il demone della polio. Gli approcci riduzionisti alle scienze mediche ci hanno fornito vaccini, farmaci che bloccano fasi specifiche della replicazione virale e hanno identificato precisamente quale parte di noi si guasta in moltissime malattie. È grazie al riduzionismo se, nel corso dell’ultimo secolo, la nostra aspettativa di vita è aumentata considerevolmente. Perciò, se si vuole comprendere la biologia del ciò che siamo […], l’approccio riduzionista fornisce regole del gioco piuttosto chiare: capire gli individui che formano la società; capire gli organi che costituiscono gli individui, le cellule che formano gli organi e, scendendo fino alle fondamenta dell’intero edificio, capire i geni che danno istruzioni alle cellule su cosa fare. Questa prospettiva ha dato luogo a un’orgia di ottimismo riduzionista nella forma del progetto di ricerca più dispendioso della storia delle scienze naturali, ovvero il sequenziamento del genoma umano>
Era il 2005 quando Robert M. Sapolsky scriveva nell’introduzione al suo “Monkeyluv: and other essays on our lives as animals”, che nella traduzione italiana de I Timoni – Castelvechi editori (2014) suona così: “l’uomo bestiale: come l’ambiente e i geni costruiscono la nostra identità“, quanto ho appena riportato.
Il suo elogio del riduzionismo è la base per evidenziare come ridurre il comportamento umano alla risultante lineare dei comportamenti dei geni contenuti nel DNA sia sbagliato. L’approccio più corretto è prendere in considerazione l’effetto combinato di geni ed ambiente. Insomma, usando un linguaggio più pop, la comprensione dell’uomo passa attraverso un approccio “olistico” che deve considerare tutto l’insieme, interno ed esterno, di ciò che caratterizza l’essere umano.
Non sono un neurofisiologo né un osservatore del comportamento umano; non sono in grado di sostenere o controbattere le argomentazioni di Sapolsky nel suo campo. Per questo mi addentro nel campo che mi è più congeniale che è quello chimico.
Indubbiamente scomporre un sistema complesso nelle sue singole componenti ha consentito l’enorme sviluppo scientifico degli ultimi 4 secoli. Se oggi sappiamo quante sono le forze che tengono insieme i nostri atomi e, nel loro complesso, l’insieme di atomi alla superficie terrestre, è perché qualcuno è andato a smontare la materia ed ha visto da cosa è composta.
L’approccio riduzionista è quello che ha permesso lo sviluppo di tecniche analitiche come la cromatografia in fase liquida o quella in fase gassosa; la risonanza magnetica nucleare ad alta e bassa risoluzione, e tutta una serie di tecniche oggi riconosciute come incomparabili per la valutazione della qualità degli alimenti o per la loro tracciabilità (questo tanto per stimolare la corda più populista di chi si preoccupa di sapere se l’olio extravergine che usa è tunisino o viene fatto raccogliendo le olive dietro casa).
Tuttavia, sebbene fin dagli albori della scienza ai giorni nostri ha prevalso l’idea che le proprietà di tutti i sistemi fossero comprensibili solo sulla base di una loro scomposizione nelle diverse componenti elementari e che la somma delle proprietà di ciascuna risultasse, in qualche modo, nelle proprietà dell’intero sistema, appare chiaro, oggi, che non è così. Usando un linguaggio matematico, si può dire che le proprietà dei sistemi complessi non sono una combinazione lineare delle proprietà delle singole componenti, quanto, piuttosto, la risultante delle loro interazioni non lineari. Le eventuali relazioni lineari debbono essere considerate solo come caso particolare di quello più generale che si inquadra nella già citata relazione non lineare.
Un esempio abbastanza banale è il principio di Le Chatelier: quando un sistema all’equilibrio chimico viene perturbato per effetto di un’azione esterna, il sistema reagisce in maniera da ridurre o annullare la sollecitazione stessa ristabilendo l’equilibrio. Per esemplificare questa definizione prendiamo un composto A che, in una soluzione, è in equilibrio con il composto B secondo l’equazione:
dove n e m sono i coefficienti stechiometrici. Il sistema sotto osservazione contiene due componenti (A e B) che interagiscono tra loro in modo tale che aumentando la concentrazione del reagente A, la reazione si sposta a destra producendo una maggiore quantità di prodotto B. Allo stesso modo introducendo una certa quantità di B, la reazione si sposta verso sinistra portando alla formazione di A.
Pur sapendo che il sistema è fatto da due componenti le cui proprietà possono essere studiate indipendentemente le une dalle altre, non possiamo dire che il comportamento del sistema nella sua totalità sia dato dalla combinazione lineare della concentrazione delle singole componenti (la concentrazione è una proprietà intensiva). Infatti, è possibile dimostrare che la relazione che lega la concentrazione di A a quella di B all’equilibrio chimico è:
dove k è comunemente indicata come costante di equilibrio (la x indica semplicemente l’operazione di moltiplicazione).
Possiamo concludere, da questo semplice esempio, che l’equilibrio chimico (croce di tutti gli studenti e delizia di tutti i docenti) non è altro che una proprietà delle soluzioni, emergente dalle interazioni non lineari delle proprietà (in questo caso la concentrazione) delle singole componenti della soluzione.
La storia della scienza (e, nella fattispecie, della chimica in particolare) è ricca di esempi di questo tipo.
Volendo considerare un caso più complesso si può citare l’allosterismo. “L’allosterismo rappresenta una delle modalità di regolazione della funzione di alcune proteine, di solito oligomeriche, […]; fra queste si ricordano l’emoglobina e numerosi enzimi”. Originariamente proposta da Jaques Monod, la regolazione allosterica delle proteine consiste nel fatto che un piccolo metabolita si lega ad uno dei siti attivi della proteina modificandone la conformazione (ovvero la struttura tridimensionale) ed alterandone nel contempo le funzionalità (sia migliorandole, allosterismo positivo, che inibendole, allosterismo negativo). L’esempio più semplice è la regolazione allosterica positiva dell’emoglobina da parte della molecola di ossigeno. È noto che l’emoglobina è una proteina complessa costituita da quattro sub unità proteiche ognuna con un sito attivo che prende il nome di “gruppo eme“. Quando una molecola di ossigeno si lega al gruppo eme di una delle sub unità, la conformazione di questa sub unità si modifica secondo una modalità che potrebbe essere vista come una mano che si chiude a pugno dopo aver afferrato un oggetto. Le modificazioni conformazionali della sub unità suddetta modificano quelle delle altre sub unità che appaiono, quindi, nella nuova situazione come delle mani più aperte pronte ad afferrare un nuovo oggetto. Grazie a queste modificazioni conformazionali, la seconda molecola di ossigeno è in grado di legarsi al secondo sito attivo più velocemente di quanto abbia fatto la prima molecola di ossigeno. A seguito di questa seconda interazione, le sub unità ancora libere subiscono delle ulteriori modificazioni conformazionali aprendosi ancora di più e permettendo ad una terza molecola di ossigeno di legarsi ancora più velocemente rispetto alle prime due. La terza molecola di ossigeno induce dei nuovi cambiamenti conformazionali nell’ultima sub unità libera cosicché essa riceve l’ultima molecola di ossigeno con una facilità ancora maggiore rispetto alle precedenti. Da un punto di vista matematico l’allosterismo dell’emoglobina non è descrivibile mediante una relazione lineare, bensì attraverso una sigmoidale (Figura 1).
Figura 1. Curva di dissociazione dell’emoglobina. E’ evidente l’andamento a forma di S (sigmoidale) della curva (Fonte dell’immagine: http://docplayer.it/19154-Nel-definire-l-assistenza-al-neonato-con-insufficienza-respiratoria-e-necessario-considerare-che.html)
Come nel caso dell’equilibrio chimico su descritto, anche l’allosterismo non può essere considerato semplicemente come la risultante di una combinazione lineare delle proprietà delle singole sub componenti di un enzima/proteina, quanto piuttosto come una proprietà emergente dalle loro interazioni non lineari.
Tutta la chimica (dalla chimica organica, alla biochimica, alla chimica del suolo e così via) è ricca di sistemi complessi le cui proprietà emergono dalle interazioni tra le singole sub unità componenti. Come non ricordare, per esempio, la complessità del metabolismo in cui ogni singolo metabolita rappresenta solo un dente di un ingranaggio ben più complicato le cui caratteristiche non sono la somma di quelle dei singoli denti, ma da essi derivano. In questa ottica va inserito il concetto di vita vista come una proprietà che emerge dalle complesse interazioni occorrenti nei processi metabolici.
Qual è dunque l’importanza del riduzionismo nell’ottica scientifica attuale?
Il riduzionismo deve essere, quindi, considerato come un approccio che consente non solo di conoscere i singoli dettagli della realtà fisica fino alle dimensioni microscopiche, ma anche in grado di riporre le varie sub componenti della stessa nella giusta posizione rispetto a tutte le altre in modo da poter riprodurre con accuratezza le proprietà macroscopiche dell’intero sistema rappresentato dalla realtà osservata. In questa ottica il giudizio (secondo la mia lettura, negativo) di Sapolsky in merito alla dispendiosità del progetto di ricerca sul genoma umano mi lascia molto perplesso. È pur vero che la conoscenza del genoma non risponde a tutte le domande che ci possiamo porre in merito al comportamento umano, ma è anche vero che attribuire ai geni la responsabilità di ogni cosa è solo una trovata di un giornalismo di bassa lega che deve fare business e vendere un prodotto a un pubblico le cui conoscenze scientifiche sono mediamente basse. Si tratta dello stesso pubblico che ha necessità di trovare delle correlazioni di causalità laddove esistono solo relazioni di casualità come nel caso dell’omeopatia e dell’autismo causato dai vaccini. Mi trovo, invece, molto d’accordo sull’idea dell’interazione corredo genetico/ambiente nello sviluppo del comportamento umano in quanto questo modo di pensare si inserisce molto bene nel modello di riduzionismo emergentista di cui si è discusso fino ad ora.
Si tratta di un tessuto usato per impermeabilizzare. Allo stesso tempo, però, esso consente di rendere traspiranti gli indumenti per i quali viene utilizzato.
Si ottiene dal politetrafluoroetilene (PTFE). Si tratta di un polimero che è alla base del teflon, una plastica usata in diversi campi, dall’idraulica all’industria aerospaziale. Il teflon, sotto forma di nastro, viene usato per evitare le perdite nelle tubazioni, per fabbricare pentole antiaderenti o per la costruzione degli scudi che consentivano, fino a qualche anno fa, il rientro dello Space Shuttle dalle missioni spaziali. L’elevata resistenza alle temperature rendeva, infatti, il PTFE particolarmente adatto ad evitare i danni dovuti all’attrito tra la struttura dello Space Shuttle e l’atmosfera Terrestre.
Quando il PTFE viene trattato in modo particolare (in termini tecnici si dice che viene espanso [1]) si ottiene un materiale brevettato dalla famiglia Gore (sì, quella del vice presidente degli Stati Uniti nell’epoca Clinton) che è stato battezzato GoreTex.
Il PTFE espanso ha un’area superficiale molto elevata. Poiché l’area superficiale è direttamente correlata alla porosità di un materiale, il GoreTex ha anche una elevata porosità. In particolare, la dimensione dei pori del GoreTex è dell’ordine dei 2 μm (μm sta per micrometri, ovvero 10-6 m)).
Una molecola di acqua occupa un volume del diametro di circa 0.2 nm (nm sta per nanometri, ovvero 10^(-9) m).
Il rapporto tra le dimensioni dei pori del GoreTex e il diametro di una molecola di acqua è di circa 10000 : 1, ovvero i pori del GoreTex sono diecimila volte più grandi di quelli di una singola molecola di acqua.
Poiché la dimensione dell’acqua in fase aerea (ovvero vapore) è molto più piccola di quella dei pori del GoreTex, il sudore, che altro non è che acqua in forma di vapore, riesce passare attraverso il tessuto. Al contrario, le molecole di acqua in fase liquida formano aggregati le cui dimensioni sono molto più grandi di quelle dei pori del GoreTex. Il risultato finale è un materiale plastico,(sì, il GoreTex è plastica) in grado di impedire la penetrazione dell’acqua dall’esterno (proprietà impermeabili) e di favorire la fuoriuscita del sudore (proprietà traspiranti).
La chimica dei materiali lascia sempre a bocca aperta
Riferimenti e note:
L’espansione di un polimero si ottiene addizionando materiali espandenti quali, per esempio, il pentano, o qualsiasi altro idrocarburo, che bollono a temperature basse. Durante la fase di preparazione del polimero, che avviene a caldo, il materiale espandente si allontana e lascia “traccia” di sé nelle bolle che conferiscono “leggerezza” al prodotto finale. Nel caso specifico del GoreTex, l’espansione si ottiene termomeccanicamente, ovvero il filamento caldo viene viene teso con uno stratto secco
L’attività antropica, di qualsiasi natura, non è ad impatto nullo sull’ambiente. Questo vuol dire che qualsiasi cosa noi facciamo produciamo rifiuti che vanno ad influenzare gli equilibri tra biosfera, idrosfera, pedosfera ed atmosfera. In questa nota descrivo brevemente in cosa consiste l’inquinamento atmosferico. Si tratta di Uno dei problemi ambientali attualnente maggiormente al centro dell’attenzione mediatica. Questo non vuol dire che l’inquinamento di suoli, sedimenti ed acque sia meno importante; vuol dire solo che, al momento, sembra fare più notizia l’inquinamento atmosferico probabilmente perché fa una certa impressione, sul senso comune, pensare che l’immissione in atmosfera di gas apparentemente innocui possa provocare alterazioni notevoli sotto l’aspetto climatico.
In effetti è noto che tutte le molecole gassose che hanno un momento dipolare diverso da zero [1] sono in grado di assorbire la radiazione elettromagnetica che proviene dalla Terra così da passare da uno stato (vibrazionale/rotazionale) fondamentale ad uno eccitato. La transizione spontanea dallo stato eccitato a quello fondamentale può avvenire con emissione di calore portando ad un aumento globale della temperatura del pianeta, fenomeno che prende il nome di “effetto serra” [2].
Cerco di tradurre per i non tecnici. La radiazione solare è fatta da onde elettromagnetiche con lunghezza d’onda piuttosto corta (parte a destra della figura di copertina). Le molecole come anidride carbonica, metano ed acqua (sotto forma di vapore) risultano “trasparenti” alle lunghezze d’onda sopra citate. Per questo motivo le radiazioni suddette provenienti dal sole sono in grado di arrivare alla superficie della Terra.
Alcune di queste radiazioni sono comunque intercettate dall’ozono atmosferico e giungono “attenuate” sulla superficie terrestre come già spiegato nella nota al riferimento [3].
La superficie terrestre “restituisce” allo spazio aperto le radiazioni elettromagnetiche ma con lunghezza d’onda maggiore (parte a sinistra della figura di copertina) rispetto a quelle provenienti dall’esterno della Terra.
Le molecole come anidride carbonica, vapor d’acqua e metano (ovvero molecole a momento dipolare non nullo, sebbene questo momento dipolare risulti non nullo per la CO2 solo quando essa è nella conformazione non lineare) non sono “trasparenti” a queste lunghezze d’onda assorbendo, così, la radiazione proveniente dalla Terra. Il processo di assorbimento provoca delle “oscillazioni” molecolari (ovvero stiramenti e piegamenti dei legami chimici all’interno delle molecole) che a loro volta “restituiscono” energia termica (ovvero calore) alla superficie terrestre. Il risultato finale è molto simile a quello che si ottiene in una serra, ovvero un aumento della temperatura globale del pianeta.
Ci si potrebbe chiedere: ma come mai, invece, sembra che faccia sempre più freddo? dove è il riscaldamento? Chi chiede queste cose, in genere, non ha ben chiaro come funziona il riscaldamento globale. Faccio un esempio banale (didattico, oserei dire): supponiamo che si verifichi un aumento di 1 °C sulla superficie degli oceani a seguito dell’aumento di CO2 atmosferica. Questo aumento comporta un incremento della velocità di evaporazione dalla superficie degli oceani con immissione in atmosfera di quantità di vapor d’acqua più grandi rispetto a quelle che si avrebbero in assenza del riscaldamento anzidetto. Le correnti aeree trasportano queste enormi masse di vapor d’acqua sul continente dove, a contatto con aria più fredda, possono condensare e dar luogo a piogge più o meno torrenziali (le famose bombe d’acqua di cui parlano molto scenograficamente i giornalisti). La conseguenza di queste piogge è una temperatura più bassa sul continente. Tuttavia, a livello globale, la temperatura non è più bassa, ma più alta. E’ il riscaldamento globale la causa del clima simil-tropicale che oggi abbiamo nella parte Sud dell’Europa.
E’ stata data notizia [4] che uno scienziato che ha vissuto per una ventina di anni in Cina (uno dei paesi più contaminati della Terra) ha inventato un software per monitorare la contaminazione atmosferica terrestre ed essere informati minuto-per-minuto sulla quantità di particolato solido (quello che viene indicato come PM2.5) che si muove in atmosfera.
Se volete divertirvi a monitorare i flussi di corrente che trasportano questi PM2.5 basta cliccare su questo link: http://airvisual.com/earth, aspettare che la pagina si carichi e divertirsi a guardare momento per momento cosa accade nell’aria intorno a noi. Se poi si vuole conoscere la quantità di PM2.5 in un luogo particolare, basta cliccare sul luogo di interesse
Si legge da tutte le parti che l’inquinamento ambientale, ed in particolar modo quello di origine antropica, provoca numerosi problemi ai vari comparti ambientali. Uno di questi è l’aria la cui composizione, negli strati più elevati, vede la presenza di una molecola che prende il nome di ozono.
L’ozono è una forma allotropica dell’ossigeno. In altre parole, l’ossigeno si può trovare sia sotto forma di molecola biatomica (O2) che di molecola triatomica (O3). E’ questa ultima forma di ossigeno a cui si dà il nome di “ozono” la cui struttura, per i più curiosi, è descritta nel riferimento [1].
La presenza dell’ozono negli strati alti dell’atmosfera è molto importante perché questa molecola è in grado di “intercettare” le radiazioni ultraviolette (RUV) proteggendoci dai loro effetti deleteri [2]. Sotto il profilo chimico, la reazione di “schermatura” da parte dell’ozono è:
O3 + RUV → O + O2 (1)
In altre parole si forma un atomo di ossigeno eccitato ed una molecola di ossigeno. Il primo può ricombinarsi col secondo per riformare l’ozono (reazione (2)), oppure può reagire con un’altra molecola di ozono per formare ossigeno molecolare (reazione (3)):
O + O2 → O3 (2)
O + O3 → 2O2 (3)
L’inquinamento come causa della riduzione dell’ozono atmosferico
Come si intuisce, in sistemi non perturbati (come per esempio in assenza di contaminazione) le reazioni (1)-(3) assicurano il corretto apporto di ozono per evitare gli effetti delle radiazioni UV [2]. Nel momento in cui un certo tipo di contaminanti (che tecnicamente possiamo indicare come “catalizzatori”) viene in contatto con l’ozono, le reazioni (1)-(3) subiscono delle “alterazioni” legate al fatto che viene inibita la reazione (2) con incremento della quantità di ossigeno molecolare che non viene più trasformato in O3. La conseguenza è l’assottigliamento progressivo dello strato di ozono atmosferico che, giornalisticamente parlando, è conosciuto come “buco nell’ozono”. L’insieme delle reazioni che trasformano l’ozono in ossigeno molecolare in presenza di un generico contaminante (indicato con X) è:
X· + O3 → XO +O2 (4)
XO + O → X· +O2 (5)
X· è un radicale libero [3], ovvero un sistema molto reattivo che ha come caratteristica quella di avere un elettrone spaiato. La somma delle reazioni (4) e (5) dà la reazione (6) che consente di dire che l’azione di X· è quella di incrementare la quantità di ossigeno mediante l’inibizione della reazione (2), ovvero la riconversione in ozono, con conseguente assottigliamento dello spessore dello strato di ozono nell’atmosfera:
O3 + O → 2O2 (6)
I precursori dei radicali liberi
Alcuni precursori dei radicali coinvolti nelle reazioni (4) e (5) grazie ai quali si genera l’assottigliamento dello strato di ozono sono metano (CH4), acqua (H2O), protossido di azoto (N2O, meglio conosciuto come gas esilarante), o i famigerati clorofluorocarburi (CFC).
Metano ed acqua reagiscono con l’ossigeno atomico eccitato ottenuto nella reazione (1) per formare radicali ossidrili (OH·), ovvero i “catalizzatori” indicati con X nelle reazioni (4) e (5), secondo le reazioni (7) e (8):
O + CH4 → OH· + CH3 (7)
O + H2O → 2 OH· (8)
Sostituendo i radicali ossidrili alle X delle reazioni (4) e (5) si completa lo schema reattivo che porta alla degradazione dell’ozono in ossigeno molecolare.
Il ruolo del protossido di azoto è descrivibile con lo schema di reazioni da (9) a (11):
O + N2O → 2 NO· (9)
NO· + O3 → NO2 · + O2 (10)
NO2 · + O → NO· + O2 (11)
Infine i clorofluorocarburi come il CF2Cl2 (una volta usati come liquidi refrigeranti come per esempio nei frigoriferi) reagiscono come indicato nelle reazioni da (12) a (15)
CF2Cl2 + RUV → CF2Cl∙ + Cl∙ (12)
Cl∙ + O3 → ClO∙ + O2 (13)
ClO∙ + O∙ → Cl∙ + O2 (14)
CF2Cl∙ + O2 → CF2O + ClO∙ (15)
Questi appena descritti sono solo alcuni esempi di precursori dei radicali coinvolti nella degradazione dell’ozono atmosferico. Molti altri, con meccanismi più dettagliati che sono al di là dello scopo di una nota divulgativa su un bolg, sono riportati nelle letture consigliate.
Nuove ipotesi in merito alla degradazione dell’ozono atmosferico
Recentemente [4] è stato proposto un meccanismo alternativo per l’azione dei CFC nella degradazione dell’ozono. In particolare, l’acqua sotto forma di minuscoli cristalli di ghiaccio sospesi in atmosfera, interagisce con la radiazione cosmica, ovvero la luce solare, generando elettroni solvatati (e-) che rimangono assorbiti sulla superficie solida (Figura 1) secondo la reazione (16):
H2O + radiazione cosmica → e- + H3O+ + OH· (16)
Gli elettroni solvatati reagiscono con i clorofluorocarburi assorbiti sulla superficie dei cristalli di ghiaccio per formare CF2Cl∙ e Cl∙ che poi innescano le reazioni riportate in (13)-(15)
Figura 1. Esempio di elettroni solvatati assorbiti su una superficie solida
L’ozono fa bene?
Alla luce di tutto quanto scritto si potrebbe pensare che siano tutte rose e fiori, ovvero che l’ozono apporti benefici all’essere umano. In realtà, non è così. Quanto appena analizzato in modo sommario ci informa che l’ozono è utile per impedire che raggi dannosi per la salute umana possano arrivare alla superficie terrestre. Noi ci siamo evoluti nel modo in cui ci presentiamo anche grazie al fatto che un “ombrello” fatto di ozono ha impedito ai raggi ultravioletti di una certa intensità di arrivare negli strati più bassi dell’atmosfera. Come si sarebbe evoluta la vita se questi raggi non fossero stati schermati? Non è dato saperlo e, comunque, la scienza non si fa con le ipotesi assurde. Resta il fatto che è grazie alla protezione offerta dall’ozono che la vita si presenta come la conosciamo. Da tutto quanto scritto si intuisce anche che l’ozono è una molecola reattiva ed in effetti i suoi effetti sulla salute umana si possono riassumere come segue:
“Concentrazioni relativamente basse di Ozono provocano effetti quali irritazioni alla gola ed alle vie respiratorie e bruciore agli occhi; concentrazioni superiori possono portare alterazioni delle funzioni respiratorie ed aumento della frequenza degli attacchi asmatici” [5].
L’Ozono, infine, “è responsabile anche di danni alla vegetazione e ai raccolti, con la scomparsa di alcune specie arbore dalle aree urbane. Alcune specie vegetali particolarmente sensibili alle concentrazioni di Ozono in atmosfera vengono oggi utilizzate come bioindicatori della formazione di smog fotochimico” [5].
Un po’ di tempo fa ho scritto un post riguardante il ruolo che i legami a idrogeno ricoprono nel comportamento dell’acqua. In particolare è stata analizzata la caratteristica delle molecole di acqua di “escludere” i soluti durante il processo di raffreddamento [1]. Adesso voglio concentrarmi (come promesso) sul ruolo che i legami a idrogeno ricoprono nel modulare le proprietà colligative. In particolare, voglio concentrarmi sull’innalzamento ebullioscopico [2], rimandando ad una nota successiva la spiegazione sull’abbassamento crioscopico [3].
E’ stato già evidenziato [1] che per innalzamento ebullioscopico si intende l’aumento della temperatura di ebollizione conseguente alla dissoluzione di un soluto in un solvente. In genere, per spiegare questo fenomeno si fa riferimento al fatto che l’addizione di un soluto in un solvente comporta un abbassamento della tensione di vapore di quest’ultimo con la conseguenza che è necessaria una temperatura più elevata per arrivare all’ebollizione [2].
Cosa vuol dire tensione di vapore? Molto semplicisticamente la “tensione di vapore” è la pressione (ovvero la forza) esercitata sulle pareti di un recipiente chiuso da parte delle molecole di vapore di una sostanza in equilibrio con la fase condensata (liquida o solida) della stessa sostanza [4].
Figura 1. Esempio di equilibrio tra una fase condensata (in questo caso liquida) ed il vapore
La Figura 1 esemplifica quanto appena scritto. Le molecole sulla superficie del liquido racchiuso nel pallone tappato di Figura 1 “sfuggono” dalla superficie e “galleggiano” nello spazio vuoto seguendo delle traiettorie casuali. Nelle condizioni di equilibrio, il numero di molecole di vapore che ritornano nella fase condensata (ovvero liquida, in questo caso) è uguale al numero di molecole che “sfuggono” dalla superficie. L’ “abbassamento della tensione di vapore” di cui si diceva sopra significa che la pressione esercitata dalle molecole di vapore sulle pareti del recipiente chiuso si abbassa per effetto dell’addizione di un soluto al solvente. In altre parole, l’equilibrio descritto dalla reazione riportata in Figura 2 si sposta verso sinistra (ovvero dalla parte del solvente in fase liquida) e l’ebollizione si interrompe. Occorre innalzare la temperatura per riportare il sistema all’ebollizione
Figura 2. Equilibrio tra fase liquida e fase vapore di un solvente di una generica soluzione
Come mai l’addizione di un soluto ad un solvente comporta l’abbassamento della tensione di vapore con conseguente innalzamento ebullioscopico? Molto semplicisticamente si potrebbe dire che il soluto “aggancia” le molecole di solvente impedendo che esse “sfuggano” dalla superficie della fase condensata. Occorre una quantità di calore più elevata (e, quindi, una temperatura più alta) per consentire alle molecole di solvente di opporsi alla resistenza offerta dal soluto e ristabilire le condizioni di equilibrio all’ebollizione.
Per spiegare meglio quanto accade addizioniamo il cloruro di sodio (NaCl) in acqua. il cloruro di sodio è un solido ionico [5] in cui lo ione sodio (catione) interagisce con lo ione cloruro (anione) mediante interazioni di natura elettrostatica. L’acqua è una molecola in cui la densità elettronica intorno all’ossigeno è più elevata che attorno agli atomi di idrogeno (Figura 3). Per questo motivo, l’ossigeno è dotato di una parziale carica negativa, mentre gli atomi di idrogeno di una parziale carica positiva (Figura 3). Dal momento che il centro delle cariche negative è diverso da quello delle cariche positive (ovvero si osserva l’anzidetta separazione di carica), la molecola di acqua ha carattere dipolare.
Figura 3. Struttura della molecola di acqua. Il colore rosso indica che gli elettroni di legame sono spostati verso l’ossigeno conferendo ad esso una parziale carica negativa. Di conseguenza gli atomi di idrogeno, avendo una densità di carica inferiore, sono parzialmente positivi
Abbiamo già evidenziato che il carattere dipolare della molecola di acqua è causa della formazione dei legami a idrogeno [1]. In questa sede il carattere dipolare dell’acqua ci consente di spiegare il meccanismo di dissoluzione del cloruro di sodio. Infatti, quando il cloruro di sodio viene messo in acqua si generano delle interazioni di natura elettrostatica del tipo Na(+)/H2O e Cl(-)/H2O. La componente negativa del dipolo acqua è orientata verso la carica positiva del sodio, mentre la parte positiva dello stesso dipolo è orientata verso lo ione cloro (Figura 4). In questo modo i due ioni del solido ionico si separano e si realizza la dissoluzione del sale.
Il processo di dissoluzione mediato dall’azione dell’acqua che circonda i due ioni si chiama “solvatazione”. In generale, i processi di dissoluzione di un soluto in un solvente sono dovuti alla solvatazione. Se questa non si può realizzare, la dissoluzione non avviene.
Le molecole di acqua si dispongono “a strati” intorno agli ioni. Ognuno degli strati viene indicato come “sfera di idratazione”. Le molecole di acqua più interne, ovvero quelle più vicine agli ioni, si collocano nella prima sfera di idratazione. A seguire tutte le altre sfere di idratazione [6]. L’identificazione del numero di sfere di idratazione richiede degli studi approfonditi [7] che vanno oltre gli scopi di questa nota.
Figura 4. Dissoluzione del cloruro di sodio in acqua. I due ioni sono solvatati
L’orientazione delle molecole di acqua intorno allo ione sodio è tale che non vengono più soddisfatti i requisiti geometrici necessari per la realizzazione dei legami a idrogeno (dei requisiti necessari per la formazione dei legami a idrogeno se ne è già parlato nel post precedente [1]). Per questo motivo i legami a idrogeno tra le molecole di acqua nella prima sfera di idratazione si interrompono [7]. Inoltre, l’interazione acqua/sodio comporta uno “scivolamento” della densità elettronica dei legami H-O dell’acqua verso l’ossigeno. Tradotto, vuol dire che aumenta la polarità del legame H-O, ovvero aumenta l’intensità della carica positiva sugli atomi di idrogeno a causa dell’aumento dell’intensità della carica negativa sull’ossigeno come effetto dell’interazione con lo ione sodio [7]. Per questo motivo le molecole di acqua nella prima sfera di idratazione (incapaci di formare legami a idrogeno tra loro) sono in grado di legarsi alle molecole di acqua nella seconda sfera di idratazione con legami a idrogeno la cui intensità è più forte che nell’acqua libera (ovvero l’acqua in cui non è disciolto alcun soluto). La natura dei legami a idrogeno tra le molecole di acqua nella prima e nella seconda sfera di idratazione incrementa la polarità dei legami H-O nelle molecole di quest’ultima sfera di idratazione. Le molecole di acqua della seconda sfera di idratazione sono, quindi, in grado di interagire con le molecole della terza sfera di idratazione con legami a idrogeno più forti di quelli che si realizzano tra le molecole di acqua libera. L’intensità dei legami a idrogeno diminuisce all’aumentare della distanza delle molecole di acqua dallo ione.
Uno ione in grado di intensificare le interazioni a idrogeno tra le molecole di acqua presenti nelle diverse sfere di idratazione si dice “strutturante”. La capacità strutturante di uno ione dipende dalle sue dimensioni. Più lo ione è piccolo, più elevata è la sua densità di carica (ovvero la quantità di carica per unità di volume) e più elevata è la forza del campo elettrico da essa generata in conseguenza della quale lo ione è in grado di indurre un ordine tra le molecole di acqua oltre la prima sfera di idratazione. Sono ioni destrutturanti quelli che hanno densità di carica tale che il campo elettrico da essa generato non è in grado di polarizzare le molecole di acqua al di fuori della prima sfera di idratazione (in altre parole ioni a dimensione crescente sono progressivamente più destrutturanti). Lo ione sodio ha caratteristiche strutturanti, mentre lo ione cloro ha caratteristiche destrutturanti. Tuttavia, è possibile misurare la forza strutturante/destrutturante di uno ione [7] e concludere che nel cloruro di sodio la natura strutturante dello ione sodio predomina su quella destrutturanrte dello ione cloro.
La conseguenza di tutto quanto scritto è che il sale da cucina (ma questo è un discorso di carattere generale) ha caratteristiche “strutturanti” per cui esso è in grado di ancorare le molecole di acqua alla superficie della fase liquida in modo tale che la quantità di energia necessaria per rimuoverle risulta essere più alta che in assenza del soluto.
Note conclusive
Questa trattazione si applica alle soluzioni lontane dall’idealità quali quelle ambientali come per esempio quella che viene indicata come “soluzione suolo”. Lo so. Sono stato particolarmente prolisso, ma mi sono lasciato prendere la mano. Una nota nata come “Pillola di scienza” è diventata la trascrizione di una delle mie lezioni di chimica del suolo. Spero di non aver annoiato e che qualcuno possa trovare ispirazione da quanto scritto. I miei studenti possono, certamente, usare queste cose come appunti integrativi al loro studio.
Pigmenti vegetali e la ricerca del chimico tedesco Willstätter.
Richard Martin Willstätter nasce a Karlsruhe il 13 Agosto del 1872. Si tratta di un chimico tedesco pioniere dello studio delle sostanze naturali, ovvero dei metaboliti secondari delle piante.
Richard Martin Willstätter (fonte: https://www.nobelprize.org/nobel_prizes/chemistry/laureates/1915/willstatter-bio.html)
I suoi studi si incentrano inizialmente sulla struttura e la sintesi di alcuni alcaloidi vegetali (cocaina ed atropina) oltre che di alcuni chinoni.
Strutture di atropina e cocaina, due alcaloidi naturali
Durante questa prima fase della sua vita accademica, approfondisce le tecniche analitiche che, successivamente gli spianano la strada per il riconoscimento della struttura di flavoni e antociani, ovvero dei tipici pigmenti delle piante, oltre che della clorofilla, pigmento fondamentale per la fotosintesi clorofilliana.
Formula di struttura delle clorofille. Clorofilla (a) X = CH3 Clorofilla (b) X = CHO (fonte: http://www.minerva.unito.it/Chimica&Industria/Dizionario/Supplementi02/AdditiviAlimentari/SchedaE140.htm)
Le sue scoperte nel campo dei pigmenti vegetali gli valgono nel 1915 il premio Nobel per la chimica con la seguente motivazione: “for his researches on plant pigments, especially chlorophyll” (fonte: https://www.nobelprize.org/nobel_pr…)
Il lavoro pioneristico di Willstätter gli consentì di capire che esistono diverse forme di clorofilla e che sebbene isolate da piante diverse, esse sono identiche in tutti gli organismi vegetali.
Spettro di assorbimento della clorofilla. I massimi sono a 420 nm e 665 nm. L’assenza di massimi nella regione del “verde” rende conto della tipica colorazione che la clorofilla conferisce alle foglie
Infine, riuscì a capire che esiste una relazione tra clorofilla ed emoglobina.
Somiglianza tra i gruppi tetrapirrolici presenti nell’emoglobina (a sinistra) e nella clorofilla (a destra)
Fino a ieri le macchine molecolari erano note solo ad un ristretto pubblico di chimici impegnati o nello studio dei processi biochimici alla base del metabolismo o nella sintesi di nuove molecole da utilizzare nel campo delle nanotecnologie. Insomma era roba per pochi eletti, di nerds della conoscenza o topi da laboratorio, se proprio vogliamo dirla in un modo più prosaico. Ed, invece, la commissione che assegna i premi Nobel ha deciso di premiare tre scienziati, Jean-Pierre Sauvage, Fraser Stoddart e Bernard L. Feringa “for the design and synthesis of molecular machines“, da anni impegnati nella progettazione e nella sintesi di questi sistemi complessi tanto che ora il termine “macchine molecolari” viaggia di bocca in bocca e presto diventerà patrimonio comune come il termine “plastica” che è associato, sebbene non proprio correttamente, al nome di Giulio Natta, premio Nobel, assieme a Karl Ziegler, nel 1963 per le sue scoperte nell’ambito della chimica dei polimeri.
I vincitori del premio Nobel per la chimica 2016 (fonte https://www.nobelprize.org/nobel_prizes/chemistry/laureates/2016/)
Ma cosa sono le macchine molecolari?
Tutti sappiamo cosa sia una macchina. Basta aprire un qualsiasi dizionario per trovare che una macchina è uno “strumento, apparato, congegno costituito da un numero variabile di parti collegate fra loro in rapporto cinematico, che serve per la trasformazione o per la trasmissione dell’energia o per il compimento di determinate operazioni” (da: http://dizionario.internazionale.it/…). In altre parole, si tratta di un sistema più o meno complesso composto da tante parti assemblate assieme in modo tale che il loro movimento relativo sia in grado di trasmettere energia o di compiere un lavoro.
Locomotiva a vapore, tipica macchina fatta di parti assemblate assieme, in grado di muoversi e capaci di compiere un lavoro (fonte https://www.flickr.com/photos/powerhouse_museum/sets/72157607071380541/)
In natura esistono tantissimi sistemi che possono essere assimilati a delle macchine. Una di queste è, per esempio, l’emoglobina, una proteina allosterica formata da quattro subunità – ovvero da quattro diverse componenti assemblate nel modo opportuno, che è in grado di trasportare l’ossigeno all’interno delle cellule e l’anidride carbonica fuori da esse (il funzionamento della molecola ed il significato di allosterismo sono già stati evidenziati in un mio articolo sul blog: http://www.laputa.it/blog/elogio-de…). La capacità che ha l’emoglobina di modulare la sua azione attraverso il movimento delle sue subunità la rende una vera e propria macchina in miniatura, ovvero una nanomacchina o macchina molecolare, il cui scopo è quello di consentire l’ossigenazione delle cellule al fine di assicurare il corretto funzionamento del nostro metabolismo.
L’emoglobina – tipica macchina molecolare la cui azione è modulata dalla sua capacità di movimento (fonte http://www.pianetachimica.it/mol_mese/mol_mese_2003/05_Emoglobina/emoglobina_1_ita.html)
Ma l’emoglobina non è la sola macchina molecolare presente negli esseri viventi.
Cosa dire, per esempio, degli enzimi che prendono il nome di DNA polimerasi e che sono coinvolti nella replicazione del DNA? Le DNA polimerasi sono delle molecole complesse che, in modo molto semplicistico, funzionano “scivolando” lungo i filamenti di DNA. Man mano che gli enzimi procedono, i due filamenti di DNA, avvolti a formare la famosa doppia elica descritta per la prima volta da Watson e Crick su Nature (http://www.nature.com/nature/dna50/…), si separano come se fossero le due parti di una cerniera che si aprono per effetto del passaggio del cursore metallico. Via via che le DNA polimerasi incontrano un “dente” della catena, esse “prelevano” dall’ambiente circostante la molecola adatta da “incastrare” sul “dente” stesso in modo tale da sintetizzare un filamento (ovvero una catena) di DNA che sia esattamente complementare a quella lungo cui stanno scivolando.
Schema della replicazione del DNA (fonte: http://www.chimica.unipd.it/fabrizio.mancin/pubblica/Suprachem/macchine%20molecolari.pdf)
Vogliamo parlare, poi, dell’ATP-asi, l’enzima coinvolto nella sintesi dell’ATP? Si tratta di un complesso molecolare che funziona come una vera e propria turbina per convertire l’energia associata ad un gradiente protonico (cioè la differente concentrazione di ioni H+ tra i due lati di una membrana cellulare) in energia chimica contenuta nei legami della molecola di ATP. L’enzima è fatto da tre parti. Una parte dell’enzima, “chiusa” all’interno della parete cellulare, è indicata come F0; questa è legata ad una estremità di una sorta di “albero a camme” la cui altra estremità è connessa ad una “lingua” che viene, generalmente, indicata come F1. I protoni presenti da un lato della membrana (quello dove essi sono in concentrazione più elevata) si incanalano in F0 attivandone un movimento meccanico di tipo rotatorio. Il movimento rotatorio viene trasmesso ad F1 attraverso l’albero a camme. Si verificano, quindi, due condizioni. Da una parte, il movimento rotatorio consente di “pompare” i protoni da un lato all’altro della parete cellulare. Dall’altra, la trasmissione del moto da F0 a F1 consente a quest’ultima subunità di “aprirsi” e “catturare” gli “ingredienti” necessari per la sintesi dell’ATP. Una volta catturati gli ingredienti, F1 si chiude impedendone l’allontanamento e promuovendo la formazione di ATP. Dopo la sintesi di ATP, la subunità F1 si apre e consente alla molecola appena formata di fuoriuscire (qui si trova un bellissimo filmato sul funzionamento dell’ATP-asi: https://www.youtube.com/watch?v=Pjd…).
Struttura e schema di funzionamento dell’ATP-asi (fonte: http://www.chimica-online.it/biologia/sintesi-atp.htm)
La tendenza attuale nel mondo chimico è la “biomimesi”, ovvero lo sviluppo di tecnologie chimiche in grado di produrre molecole che, in qualche modo, funzionino come i sistemi presenti in natura. Io stesso, in passato, sono stato impegnato in ricerche di questo tipo quando studiavo catalizzatori biomimetici per il recupero ambientale (http://www.suprahumic.unina.it/home…).
E’ proprio guardando al funzionamento delle macchine molecolari presenti nel metabolismo degli esseri viventi che è nata l’idea di usare aggregati di molecole (ovvero supramolecole) per “compiere” lavoro mirato a livello molecolare come trasmissione di energia o movimento. I primi prototipi di macchine molecolari sintetiche furono i rotassani e i catenani in cui il movimento meccanico era limitato ad uno “scivolamento” di due subunità l’una dentro l’altra.
Prototipi di macchine molecolari (fonte: http://www.ordinechimicicalabria.it/portale2016/congresso/contributi%20scientifici/T03%20CREDI.pdf)
Altro simpatico esempio di macchina molecolare è quello che è stato definito “ascensore molecolare” il cui futuro sembra essere quello di “veicolare”, attraverso meccanismi di “cattura/rilascio”, molecole aventi particolari caratteristiche chimiche (per esempio i contaminanti ambientali).
Esempio di ascensore molecolare (fonte: http://www.ordinechimicicalabria.it/portale2016/congresso/contributi%20scientifici/T03%20CREDI.pdf)
Alla luce di tutto quanto illustrato, è possibile dare una definizione di macchina molecolare (o nanomacchina) come di un aggregato molecolare (o supramolecola) in grado di compiere movimenti meccanici per trasmettere moto o trasferire energia attraverso stimoli chimico-fisici come interazione con la luce o gradienti di concentrazione.
Note conclusive
Chiedo scusa a tutti i biochimici per l’enorme superficialità che ho utilizzato per la descrizione dei meccanismi biochimici. Essi sono tutt’altro che così semplici, tuttavia ho cercato di semplificare al massimo il funzionamento delle macchine molecolari di tipo metabolico per un pubblico non troppo esperto. Spero di essere riuscito nell’intento.
Stamattina ho fatto la mia solita lezione. Dalle 8:00 alle 10:00. Non è proprio un orario piacevole per gli studenti. Si beccano la chimica del suolo di prima mattina quando i neuroni sono ancora in fase di riposo…ma va bene. Preferisco che certe cose vengano dette a mente fresca, quando non sono ancora stanchi ed annoiati da una mattinata di lezioni varie.
Oggi ho parlato della reazione del suolo che, tradotto per i non addetti, vuol dire pH del suolo, come si misura e il suo effetto sulla dinamica dei nutrienti. La figura qui sotto mostra la disponibilità di alcuni nutrienti in funzione del pH.
Disponibilità dei nutrienti in funzione del pH dei suoli (Fonte)
Come mio solito quando faccio lezione (che da qualche anno a questa parte faccio a braccio, ovvero senza seguire una preparazione preventiva e seguendo le indicazioni degli studenti attraverso la valutazione della loro espressione e delle loro domande) sono passato dalla delucidazione scientifica a considerazioni di natura filosofica.
Qual è l’effetto di un pH troppo acido o troppo basico sui suoli? La prima cosa che deve venire in mente è che, al di là di una asettica dinamica molecolare, si ha una selezione della tipologia di forme di vita che sono presenti sul suolo. Se la concentrazione idrogenionica è troppo elevata (molto più elevata di quella presente all’interno delle cellule dei micro organismi del suolo) si innescano processi osmotici che portano alla lisi cellulare. Lo stesso meccanismo è valido quando il pH è troppo basico (troppo acido e troppo basico in chimica del suolo vuol dire molto al di sotto di pH 5.5 e molto al di sopra di pH 7.5, rispettivamente). E’ chiaro che in queste condizioni estreme, riescono a sopravvivere solo micro organismi estremofili. In definitiva, per effetto di una variazione del pH dei suoli, si innescano meccanismi di selezione che portano alla predominanza di certe forme di vita su altre.
Sembra una domanda banale. Gli studenti in genere dicono: noi esseri umani, le piante, gli animali. Altri aggiungono: sono vita anche i micro organismi (che possono essere del suolo o anche quelli simbiotici che vivono al nostro interno). In generale, nessuno è in grado di dare una risposta univoca che si applichi contemporaneamente a tutte le forme di vita.
Negli anni scorsi (non oggi perché per mancanza di tempo sono andato subito alle conclusioni) proponevo un giochetto (che poi è lo stesso proposto da Pier Luigi Luisi nel libro indicato più in basso).
Noi oggi siamo coinvolti nell’esplorazione spaziale alla ricerca, tra l’altro, di nuove forme di vita. Cosa ci dobbiamo aspettare? Come riconoscere nuove forme di vita?
Ci viene spontaneo dire che quanto riportato nel seguente elenco son tutte forme di vita:
Si potrebbe dire che la mosca, il mulo il bambino, l’ameba, il pollo sono forme di vita perché sono “oggetti” che crescono e si muovono. Ma allora un albero ed un fungo, che non si muovono, non sono forme di vita? Alla luce di “crescita” e “movimento” potremmo dire che la Luna e il mare (che si muovono e crescono periodicamente) sono forme di vita. Ma non è così. Ed allora, perché nel primo elenco ci sono forme di vita e nel secondo no? Si potrebbe dire che son forme di vita tutti quegli “oggetti” che reagiscono agli stimoli esterni. Ma allora, ancora una volta un fungo non è vita. Sembra non reagire ad alcuno stimolo. Un computer, invece, potrebbe essere forma di vita perché reagisce a degli stimoli elettrici. Lo stesso si potrebbe dire per un robot. Le cose viventi sono tutte quelle che sono in grado di riprodursi. Ma allora, alla luce di questo parametro, il mulo, che è sterile, non è una forma di vita.
Come si arguisce dall’esempio fatto, qualsiasi parametro si vada a prendere in considerazione, gli elementi della prima lista possono rientrare nella seconda lista e viceversa.
In realtà esiste una unica risposta alla domanda “perché gli elementi della prima lista sono forme di vita mentre quelli della seconda lista non lo sono?”: tutti gli elementi della prima lista hanno una cosa in comune, ovvero una attività metabolica che consente a tutti loro di essere autopoietici. Non è una brutta parola. Significa solo che tutti gli esseri viventi, grazie ai processi metabolici che li accomunano, sono in grado di autoripararsi. Pensate a quando vi fate un graffio: esce del sangue, ma, dopo un po’ di tempo, il sangue coagula, le cellule ricrescono e tutto torna come prima.
Tutti gli elementi della seconda lista non sono dotati della proprietà autopietica perché non hanno alcun metabolismo.
Abbiamo risposto alla domanda relativa al parametro da usare per identificare le forme di vita. Ma ancora bisogna rispondere alla domanda “cos’è la vita?”
A questo punto viene spontaneo dire che la “vita” è una proprietà emergente dall’interazione di diverse componenti. In altre parole, la vita è una proprietà intrinseca di “macchine molecolari” complesse dotate di metabolismo. Essa “nasce” dalla combinazione di “caso e necessità”. Cambiamenti casuali di carattere ambientale hanno consentito la sintesi di molecole più o meno complesse. Nel momento in cui esse sono state casualmente ottenute per combinazione degli elementi chimici che le compongono e sotto la spinta di pressioni ambientali, hanno cominciato ad “agire” seguendo la “necessità” di leggi chimico-fisiche che già conosciamo o che scopriamo ogni giorno grazie alla nostra attività scientifica. Ogni cambiamento casuale delle condizioni al contorno (ovvero delle condizioni ambientali), comporta una risposta metabolica ben precisa con successiva necessaria evoluzione per adattamento alle nuove condizioni.
Conclusioni
Non so cosa i miei studenti abbiano capito da questa lezione. Alla fin fine le domande d’esame verteranno solo sul pH dei suoli e sul suo effetto sulla dinamica dei nutrienti. Devo dire, però, che dalle loro espressioni ho capito che sono rimasti colpiti. Io mi sono divertito. Ma come spesso mi viene detto, forse mi sono divertito perché ho avuto modo di essere logorroico e di annoiare un pubblico che è obbligato ad ascoltarmi e non è nella posizione di mandarmi a quel paese. Posso chiudere dicendo che non mi importa: la scienza è conoscenza e la conoscenza è anche la deriva pseudo filosofica attraverso cui un individuo è spinto a riflettere sul significato più profondo delle domande che si è sempre posto. Ho scelto di fare il “pensatore” buttandomi nella ricerca universitaria per soddisfare le mie curiosità più recondite.
Questo sito usa i cookie per migliorare la tua esperienza di navigazione. Viene assunto che tu sia d'accordo. Tuttavia, puoi annullare i cookie se lo desideri cliccando su “cookie settings” e deselezionando i cookie non necessari. Cookie settingsACCEPT
Privacy & Cookies Policy
Privacy Overview
Questo sito Web utilizza i cookie per migliorare la tua esperienza durante la navigazione. Tra questi, i cookie classificati come necessari vengono memorizzati nel browser in quanto sono essenziali per il funzionamento base del sito. Si utilizzano anche cookie di terze parti che aiutano ad analizzare e comprendere come si utilizza il sito. Questi cookie sono memorizzati nel tuo browser solo con il tuo consenso. Hai anche la possibilità di disattivarli. La disattivazione di alcuni cookie può, tuttavia, influire sulla tua esperienza di navigazione.
I cookie cosiddetti necessari sono essenziali per il funzionamento corretto del sito Web. Questa categoria include solo i cookie che assicurano le funzionalità di base e la sicurezza del sito Web. Non viene conservata alcuna informazione personale.