L’ innalzamento ebullioscopico: il ruolo dei legami a idrogeno nel comportamento dell’acqua.

Un po’ di tempo fa ho scritto un post riguardante il ruolo che i legami a idrogeno ricoprono nel comportamento dell’acqua. In particolare è stata analizzata la caratteristica delle molecole di acqua di “escludere” i soluti durante il processo di raffreddamento [1]. Adesso voglio concentrarmi (come promesso) sul ruolo che i legami a idrogeno ricoprono nel modulare le proprietà colligative. In particolare, voglio concentrarmi sull’innalzamento ebullioscopico [2], rimandando ad una nota successiva la spiegazione sull’abbassamento crioscopico [3].
E’ stato già evidenziato [1] che per innalzamento ebullioscopico si intende l’aumento della temperatura di ebollizione conseguente alla dissoluzione di un soluto in un solvente. In genere, per spiegare questo fenomeno si fa riferimento al fatto che l’addizione di un soluto in un solvente comporta un abbassamento della tensione di vapore di quest’ultimo con la conseguenza che è necessaria una temperatura più elevata per arrivare all’ebollizione [2].
Cosa vuol dire tensione di vapore? Molto semplicisticamente la “tensione di vapore” è la pressione (ovvero la forza) esercitata sulle pareti di un recipiente chiuso da parte delle molecole di vapore di una sostanza in equilibrio con la fase condensata (liquida o solida) della stessa sostanza [4].

Figura 1. Esempio di equilibrio tra una fase condensata (in questo caso liquida) ed il vapore
La Figura 1 esemplifica quanto appena scritto. Le molecole sulla superficie del liquido racchiuso nel pallone tappato di Figura 1 “sfuggono” dalla superficie e “galleggiano” nello spazio vuoto seguendo delle traiettorie casuali. Nelle condizioni di equilibrio, il numero di molecole di vapore che ritornano nella fase condensata (ovvero liquida, in questo caso) è uguale al numero di molecole che “sfuggono” dalla superficie. L’ “abbassamento della tensione di vapore” di cui si diceva sopra significa che la pressione esercitata dalle molecole di vapore sulle pareti del recipiente chiuso si abbassa per effetto dell’addizione di un soluto al solvente. In altre parole, l’equilibrio descritto dalla reazione riportata in Figura 2 si sposta verso sinistra (ovvero dalla parte del solvente in fase liquida) e l’ebollizione si interrompe. Occorre innalzare la temperatura per riportare il sistema all’ebollizione

Figura 2. Equilibrio tra fase liquida e fase vapore di un solvente di una generica soluzione
Come mai l’addizione di un soluto ad un solvente comporta l’abbassamento della tensione di vapore con conseguente innalzamento ebullioscopico? Molto semplicisticamente si potrebbe dire che il soluto “aggancia” le molecole di solvente impedendo che esse “sfuggano” dalla superficie della fase condensata. Occorre una quantità di calore più elevata (e, quindi, una temperatura più alta) per consentire alle molecole di solvente di opporsi alla resistenza offerta dal soluto e ristabilire le condizioni di equilibrio all’ebollizione.
Per spiegare meglio quanto accade addizioniamo il cloruro di sodio (NaCl) in acqua. il cloruro di sodio è un solido ionico [5] in cui lo ione sodio (catione) interagisce con lo ione cloruro (anione) mediante interazioni di natura elettrostatica. L’acqua è una molecola in cui la densità elettronica intorno all’ossigeno è più elevata che attorno agli atomi di idrogeno (Figura 3). Per questo motivo, l’ossigeno è dotato di una parziale carica negativa, mentre gli atomi di idrogeno di una parziale carica positiva (Figura 3). Dal momento che il centro delle cariche negative è diverso da quello delle cariche positive (ovvero si osserva l’anzidetta separazione di carica), la molecola di acqua ha carattere dipolare.

Figura 3. Struttura della molecola di acqua. Il colore rosso indica che gli elettroni di legame sono spostati verso l’ossigeno conferendo ad esso una parziale carica negativa. Di conseguenza gli atomi di idrogeno, avendo una densità di carica inferiore, sono parzialmente positivi
Abbiamo già evidenziato che il carattere dipolare della molecola di acqua è causa della formazione dei legami a idrogeno [1]. In questa sede il carattere dipolare dell’acqua ci consente di spiegare il meccanismo di dissoluzione del cloruro di sodio. Infatti, quando il cloruro di sodio viene messo in acqua si generano delle interazioni di natura elettrostatica del tipo Na(+)/H2O e Cl(-)/H2O. La componente negativa del dipolo acqua è orientata verso la carica positiva del sodio, mentre la parte positiva dello stesso dipolo è orientata verso lo ione cloro (Figura 4). In questo modo i due ioni del solido ionico si separano e si realizza la dissoluzione del sale.
Il processo di dissoluzione mediato dall’azione dell’acqua che circonda i due ioni si chiama “solvatazione”. In generale, i processi di dissoluzione di un soluto in un solvente sono dovuti alla solvatazione. Se questa non si può realizzare, la dissoluzione non avviene.
Le molecole di acqua si dispongono “a strati” intorno agli ioni. Ognuno degli strati viene indicato come “sfera di idratazione”. Le molecole di acqua più interne, ovvero quelle più vicine agli ioni, si collocano nella prima sfera di idratazione. A seguire tutte le altre sfere di idratazione [6]. L’identificazione del numero di sfere di idratazione richiede degli studi approfonditi [7] che vanno oltre gli scopi di questa nota.

Figura 4. Dissoluzione del cloruro di sodio in acqua. I due ioni sono solvatati
L’orientazione delle molecole di acqua intorno allo ione sodio è tale che non vengono più soddisfatti i requisiti geometrici necessari per la realizzazione dei legami a idrogeno (dei requisiti necessari per la formazione dei legami a idrogeno se ne è già parlato nel post precedente [1]). Per questo motivo i legami a idrogeno tra le molecole di acqua nella prima sfera di idratazione si interrompono [7]. Inoltre, l’interazione acqua/sodio comporta uno “scivolamento” della densità elettronica dei legami H-O dell’acqua verso l’ossigeno. Tradotto, vuol dire che aumenta la polarità del legame H-O, ovvero aumenta l’intensità della carica positiva sugli atomi di idrogeno a causa dell’aumento dell’intensità della carica negativa sull’ossigeno come effetto dell’interazione con lo ione sodio [7]. Per questo motivo le molecole di acqua nella prima sfera di idratazione (incapaci di formare legami a idrogeno tra loro) sono in grado di legarsi alle molecole di acqua nella seconda sfera di idratazione con legami a idrogeno la cui intensità è più forte che nell’acqua libera (ovvero l’acqua in cui non è disciolto alcun soluto). La natura dei legami a idrogeno tra le molecole di acqua nella prima e nella seconda sfera di idratazione incrementa la polarità dei legami H-O nelle molecole di quest’ultima sfera di idratazione. Le molecole di acqua della seconda sfera di idratazione sono, quindi, in grado di interagire con le molecole della terza sfera di idratazione con legami a idrogeno più forti di quelli che si realizzano tra le molecole di acqua libera. L’intensità dei legami a idrogeno diminuisce all’aumentare della distanza delle molecole di acqua dallo ione.
Uno ione in grado di intensificare le interazioni a idrogeno tra le molecole di acqua presenti nelle diverse sfere di idratazione si dice “strutturante”. La capacità strutturante di uno ione dipende dalle sue dimensioni. Più lo ione è piccolo, più elevata è la sua densità di carica (ovvero la quantità di carica per unità di volume) e più elevata è la forza del campo elettrico da essa generata in conseguenza della quale lo ione è in grado di indurre un ordine tra le molecole di acqua oltre la prima sfera di idratazione. Sono ioni destrutturanti quelli che hanno densità di carica tale che il campo elettrico da essa generato non è in grado di polarizzare le molecole di acqua al di fuori della prima sfera di idratazione (in altre parole ioni a dimensione crescente sono progressivamente più destrutturanti). Lo ione sodio ha caratteristiche strutturanti, mentre lo ione cloro ha caratteristiche destrutturanti. Tuttavia, è possibile misurare la forza strutturante/destrutturante di uno ione [7] e concludere che nel cloruro di sodio la natura strutturante dello ione sodio predomina su quella destrutturanrte dello ione cloro.
La conseguenza di tutto quanto scritto è che il sale da cucina (ma questo è un discorso di carattere generale) ha caratteristiche “strutturanti” per cui esso è in grado di ancorare le molecole di acqua alla superficie della fase liquida in modo tale che la quantità di energia necessaria per rimuoverle risulta essere più alta che in assenza del soluto.
Note conclusive
Questa trattazione si applica alle soluzioni lontane dall’idealità quali quelle ambientali come per esempio quella che viene indicata come “soluzione suolo”. Lo so. Sono stato particolarmente prolisso, ma mi sono lasciato prendere la mano. Una nota nata come “Pillola di scienza” è diventata la trascrizione di una delle mie lezioni di chimica del suolo. Spero di non aver annoiato e che qualcuno possa trovare ispirazione da quanto scritto. I miei studenti possono, certamente, usare queste cose come appunti integrativi al loro studio.
Riferimenti
  1. https://www.facebook.com/RinoConte1…
  2. http://www.chimica-online.it/downlo…
  3. http://www.chimica-online.it/downlo…
  4. http://www.chimica-online.it/downlo…
  5. http://www.chimicamo.org/chimica-ge…
  6. http://www.chimicamo.org/chimica-ge…
  7. https://www.researchgate.net/public…

Richard Willstätter ed i pigmenti vegetali

Pigmenti vegetali e la ricerca del chimico tedesco Willstätter.
Richard Martin Willstätter nasce a Karlsruhe il 13 Agosto del 1872. Si tratta di un chimico tedesco pioniere dello studio delle sostanze naturali, ovvero dei metaboliti secondari delle piante.

Richard Martin Willstätter (fonte: https://www.nobelprize.org/nobel_prizes/chemistry/laureates/1915/willstatter-bio.html)
I suoi studi si incentrano inizialmente sulla struttura e la sintesi di alcuni alcaloidi vegetali (cocaina ed atropina) oltre che di alcuni chinoni.

Strutture di atropina e cocaina, due alcaloidi naturali
Durante questa prima fase della sua vita accademica, approfondisce le tecniche analitiche che, successivamente gli spianano la strada per il riconoscimento della struttura di flavoni e antociani, ovvero dei tipici pigmenti delle piante, oltre che della clorofilla, pigmento fondamentale per la fotosintesi clorofilliana.

Formula di struttura delle clorofille. Clorofilla (a) X = CH3 Clorofilla (b) X = CHO (fonte: http://www.minerva.unito.it/Chimica&Industria/Dizionario/Supplementi02/AdditiviAlimentari/SchedaE140.htm)
Le sue scoperte nel campo dei pigmenti vegetali gli valgono nel 1915 il premio Nobel per la chimica con la seguente motivazione: “for his researches on plant pigments, especially chlorophyll” (fonte: https://www.nobelprize.org/nobel_pr…)
Il lavoro pioneristico di Willstätter gli consentì di capire che esistono diverse forme di clorofilla e che sebbene isolate da piante diverse, esse sono identiche in tutti gli organismi vegetali.

Spettro di assorbimento della clorofilla. I massimi sono a 420 nm e 665 nm. L’assenza di massimi nella regione del “verde” rende conto della tipica colorazione che la clorofilla conferisce alle foglie
Infine, riuscì a capire che esiste una relazione tra clorofilla ed emoglobina.

Somiglianza tra i gruppi tetrapirrolici presenti nell’emoglobina (a sinistra) e nella clorofilla (a destra)
Approfondimenti

Le macchine molecolari e il Nobel per la Chimica 2016

Fino a ieri le macchine molecolari erano note solo ad un ristretto pubblico di chimici impegnati o nello studio dei processi biochimici alla base del metabolismo o nella sintesi di nuove molecole da utilizzare nel campo delle nanotecnologie. Insomma era roba per pochi eletti, di nerds della conoscenza o topi da laboratorio, se proprio vogliamo dirla in un modo più prosaico. Ed, invece, la commissione che assegna i premi Nobel ha deciso di premiare tre scienziati, Jean-Pierre Sauvage, Fraser Stoddart e Bernard L. Feringa “for the design and synthesis of molecular machines“, da anni impegnati nella progettazione e nella sintesi di questi sistemi complessi tanto che ora il termine “macchine molecolari” viaggia di bocca in bocca e presto diventerà patrimonio comune come il termine “plastica” che è associato, sebbene non proprio correttamente, al nome di Giulio Natta, premio Nobel, assieme a Karl Ziegler, nel 1963 per le sue scoperte nell’ambito della chimica dei polimeri.

I vincitori del premio Nobel per la chimica 2016 (fonte https://www.nobelprize.org/nobel_prizes/chemistry/laureates/2016/)
Ma cosa sono le macchine molecolari?
Tutti sappiamo cosa sia una macchina. Basta aprire un qualsiasi dizionario per trovare che una macchina è uno “strumento, apparato, congegno costituito da un numero variabile di parti collegate fra loro in rapporto cinematico, che serve per la trasformazione o per la trasmissione dell’energia o per il compimento di determinate operazioni” (da: http://dizionario.internazionale.it/…). In altre parole, si tratta di un sistema più o meno complesso composto da tante parti assemblate assieme in modo tale che il loro movimento relativo sia in grado di trasmettere energia o di compiere un lavoro.

Locomotiva a vapore, tipica macchina fatta di parti assemblate assieme, in grado di muoversi e capaci di compiere un lavoro (fonte https://www.flickr.com/photos/powerhouse_museum/sets/72157607071380541/)
In natura esistono tantissimi sistemi che possono essere assimilati a delle macchine. Una di queste è, per esempio, l’emoglobina, una proteina allosterica formata da quattro subunità – ovvero da quattro diverse componenti assemblate nel modo opportuno, che è in grado di trasportare l’ossigeno all’interno delle cellule e l’anidride carbonica fuori da esse (il funzionamento della molecola ed il significato di allosterismo sono già stati evidenziati in un mio articolo sul blog: http://www.laputa.it/blog/elogio-de…). La capacità che ha l’emoglobina di modulare la sua azione attraverso il movimento delle sue subunità la rende una vera e propria macchina in miniatura, ovvero una nanomacchina o macchina molecolare, il cui scopo è quello di consentire l’ossigenazione delle cellule al fine di assicurare il corretto funzionamento del nostro metabolismo.

L’emoglobina – tipica macchina molecolare la cui azione è modulata dalla sua capacità di movimento (fonte http://www.pianetachimica.it/mol_mese/mol_mese_2003/05_Emoglobina/emoglobina_1_ita.html)
Ma l’emoglobina non è la sola macchina molecolare presente negli esseri viventi.
Cosa dire, per esempio, degli enzimi che prendono il nome di DNA polimerasi e che sono coinvolti nella replicazione del DNA? Le DNA polimerasi sono delle molecole complesse che, in modo molto semplicistico, funzionano “scivolando” lungo i filamenti di DNA. Man mano che gli enzimi procedono, i due filamenti di DNA, avvolti a formare la famosa doppia elica descritta per la prima volta da Watson e Crick su Nature (http://www.nature.com/nature/dna50/…), si separano come se fossero le due parti di una cerniera che si aprono per effetto del passaggio del cursore metallico. Via via che le DNA polimerasi incontrano un “dente” della catena, esse “prelevano” dall’ambiente circostante la molecola adatta da “incastrare” sul “dente” stesso in modo tale da sintetizzare un filamento (ovvero una catena) di DNA che sia esattamente complementare a quella lungo cui stanno scivolando.

Schema della replicazione del DNA (fonte: http://www.chimica.unipd.it/fabrizio.mancin/pubblica/Suprachem/macchine%20molecolari.pdf)
Vogliamo parlare, poi, dell’ATP-asi, l’enzima coinvolto nella sintesi dell’ATP? Si tratta di un complesso molecolare che funziona come una vera e propria turbina per convertire l’energia associata ad un gradiente protonico (cioè la differente concentrazione di ioni H+ tra i due lati di una membrana cellulare) in energia chimica contenuta nei legami della molecola di ATP. L’enzima è fatto da tre parti. Una parte dell’enzima, “chiusa” all’interno della parete cellulare, è indicata come F0; questa è legata ad una estremità di una sorta di “albero a camme” la cui altra estremità è connessa ad una “lingua” che viene, generalmente, indicata come F1. I protoni presenti da un lato della membrana (quello dove essi sono in concentrazione più elevata) si incanalano in F0 attivandone un movimento meccanico di tipo rotatorio. Il movimento rotatorio viene trasmesso ad F1 attraverso l’albero a camme. Si verificano, quindi, due condizioni. Da una parte, il movimento rotatorio consente di “pompare” i protoni da un lato all’altro della parete cellulare. Dall’altra, la trasmissione del moto da F0 a F1 consente a quest’ultima subunità di “aprirsi” e “catturare” gli “ingredienti” necessari per la sintesi dell’ATP. Una volta catturati gli ingredienti, F1 si chiude impedendone l’allontanamento e promuovendo la formazione di ATP. Dopo la sintesi di ATP, la subunità F1 si apre e consente alla molecola appena formata di fuoriuscire (qui si trova un bellissimo filmato sul funzionamento dell’ATP-asi: https://www.youtube.com/watch?v=Pjd…).

Struttura e schema di funzionamento dell’ATP-asi (fonte: http://www.chimica-online.it/biologia/sintesi-atp.htm)
La tendenza attuale nel mondo chimico è la “biomimesi”, ovvero lo sviluppo di tecnologie chimiche in grado di produrre molecole che, in qualche modo, funzionino come i sistemi presenti in natura. Io stesso, in passato, sono stato impegnato in ricerche di questo tipo quando studiavo catalizzatori biomimetici per il recupero ambientale (http://www.suprahumic.unina.it/home…).
E’ proprio guardando al funzionamento delle macchine molecolari presenti nel metabolismo degli esseri viventi che è nata l’idea di usare aggregati di molecole (ovvero supramolecole) per “compiere” lavoro mirato a livello molecolare come trasmissione di energia o movimento. I primi prototipi di macchine molecolari sintetiche furono i rotassani e i catenani in cui il movimento meccanico era limitato ad uno “scivolamento” di due subunità l’una dentro l’altra.

Prototipi di macchine molecolari (fonte: http://www.ordinechimicicalabria.it/portale2016/congresso/contributi%20scientifici/T03%20CREDI.pdf)
Altro simpatico esempio di macchina molecolare è quello che è stato definito “ascensore molecolare” il cui futuro sembra essere quello di “veicolare”, attraverso meccanismi di “cattura/rilascio”, molecole aventi particolari caratteristiche chimiche (per esempio i contaminanti ambientali).

Esempio di ascensore molecolare (fonte: http://www.ordinechimicicalabria.it/portale2016/congresso/contributi%20scientifici/T03%20CREDI.pdf)
Alla luce di tutto quanto illustrato, è possibile dare una definizione di macchina molecolare (o nanomacchina) come di un aggregato molecolare (o supramolecola) in grado di compiere movimenti meccanici per trasmettere moto o trasferire energia attraverso stimoli chimico-fisici come interazione con la luce o gradienti di concentrazione.
Note conclusive
Chiedo scusa a tutti i biochimici per l’enorme superficialità che ho utilizzato per la descrizione dei meccanismi biochimici. Essi sono tutt’altro che così semplici, tuttavia ho cercato di semplificare al massimo il funzionamento delle macchine molecolari di tipo metabolico per un pubblico non troppo esperto. Spero di essere riuscito nell’intento.
Per approfondire:
  1. http://prometeo.sif.it/papers/onlin…
  2. http://www1.unipa.it/flor/materiale…
  3. http://www.ordinechimicicalabria.it/…
  4. http://www.itscienzachimica.altervista.org/…
  5. http://www.chimica-online.it/biolog…
  6. http://www.scienzagiovane.unibo.it/…
Fonti delle immagini:
  1. L’immagine di copertina è presa da: http://www.steinbeck-molecular.de/s…
  2. L’immagine dei laureati Nobel per la chimica 2016 è presa da: https://www.nobelprize.org/nobel_pr…
  3. La locomotiva a vapore è presa da: https://www.flickr.com/photos/powerhouse_museum/sets/72157607071380541/
  4. L’immagine dell’emoglobina è presa da: http://www.pianetachimica.it/mol_me…
  5. Lo schema della replicazione del DNA è preso da: http://www.chimica.unipd.it/fabrizi…
  6. Lo schema dell’ATP-asi è preso da: http://www.chimica-online.it/biolog…
  7. Lo schema dei rotassani, dei catenani e dell’ascensore molecolare è preso da: http://www.ordinechimicicalabria.it/…

Riflessioni di un docente di mezza età. Cos’è la vita?

Stamattina ho fatto la mia solita lezione. Dalle 8:00 alle 10:00. Non è proprio un orario piacevole per gli studenti. Si beccano la chimica del suolo di prima mattina quando i neuroni sono ancora in fase di riposo…ma va bene. Preferisco che certe cose vengano dette a mente fresca, quando non sono ancora stanchi ed annoiati da una mattinata di lezioni varie.
Oggi ho parlato della reazione del suolo che, tradotto per i non addetti, vuol dire pH del suolo, come si misura e il suo effetto sulla dinamica dei nutrienti. La figura qui sotto mostra la disponibilità di alcuni nutrienti in funzione del pH.
Disponibilità dei nutrienti in funzione del pH dei suoli (Fonte)

Come mio solito quando faccio lezione (che da qualche anno a questa parte faccio a braccio, ovvero senza seguire una preparazione preventiva e seguendo le indicazioni degli studenti attraverso la valutazione della loro espressione e delle loro domande) sono passato dalla delucidazione scientifica a considerazioni di natura filosofica.
Qual è l’effetto di un pH troppo acido o troppo basico sui suoli? La prima cosa che deve venire in mente è che, al di là di una asettica dinamica molecolare, si ha una selezione della tipologia di forme di vita che sono presenti sul suolo. Se la concentrazione idrogenionica è troppo elevata (molto più elevata di quella presente all’interno delle cellule dei micro organismi del suolo) si innescano processi osmotici che portano alla lisi cellulare. Lo stesso meccanismo è valido quando il pH è troppo basico (troppo acido e troppo basico in chimica del suolo vuol dire molto al di sotto di pH 5.5 e molto al di sopra di pH 7.5, rispettivamente). E’ chiaro che in queste condizioni estreme, riescono a sopravvivere solo micro organismi estremofili. In definitiva, per effetto di una variazione del pH dei suoli, si innescano meccanismi di selezione che portano alla predominanza di certe forme di vita su altre.
Effetto del pH sulla crescita microbica (Fonte)
Ma che cos’è la vita?

Sembra una domanda banale. Gli studenti in genere dicono: noi esseri umani, le piante, gli animali. Altri aggiungono: sono vita anche i micro organismi (che possono essere del suolo o anche quelli simbiotici che vivono al nostro interno). In generale, nessuno è in grado di dare una risposta univoca che si applichi contemporaneamente a tutte le forme di vita.

Negli anni scorsi (non oggi perché per mancanza di tempo sono andato subito alle conclusioni) proponevo un giochetto (che poi è lo stesso proposto da Pier Luigi Luisi nel libro indicato più in basso).
Noi oggi siamo coinvolti nell’esplorazione spaziale alla ricerca, tra l’altro, di nuove forme di vita. Cosa ci dobbiamo aspettare? Come riconoscere nuove forme di vita?
Ci viene spontaneo dire che quanto riportato nel seguente elenco son tutte forme di vita:
Mosca; Albero; Mulo; Bambino; Fungo; Ameba; Pollo; Corallo
Mentre quanto contenuto in questa lista non è vita:
Radio; Automobile; Robot; Cristallo; Luna; Computer; Mare; Carta
Ma perché?
Si potrebbe dire che la mosca, il mulo il bambino, l’ameba, il pollo sono forme di vita perché sono “oggetti” che crescono e si muovono. Ma allora un albero ed un fungo, che non si muovono, non sono forme di vita? Alla luce di “crescita” e “movimento” potremmo dire che la Luna e il mare (che si muovono e crescono periodicamente) sono forme di vita. Ma non è così. Ed allora, perché nel primo elenco ci sono forme di vita e nel secondo no? Si potrebbe dire che son forme di vita tutti quegli “oggetti” che reagiscono agli stimoli esterni. Ma allora, ancora una volta un fungo non è vita. Sembra non reagire ad alcuno stimolo. Un computer, invece, potrebbe essere forma di vita perché reagisce a degli stimoli elettrici. Lo stesso si potrebbe dire per un robot. Le cose viventi sono tutte quelle che sono in grado di riprodursi. Ma allora, alla luce di questo parametro, il mulo, che è sterile, non è una forma di vita.
Come si arguisce dall’esempio fatto, qualsiasi parametro si vada a prendere in considerazione, gli elementi della prima lista possono rientrare nella seconda lista e viceversa.
In realtà esiste una unica risposta alla domanda “perché gli elementi della prima lista sono forme di vita mentre quelli della seconda lista non lo sono?”: tutti gli elementi della prima lista hanno una cosa in comune, ovvero una attività metabolica che consente a tutti loro di essere autopoietici. Non è una brutta parola. Significa solo che tutti gli esseri viventi, grazie ai processi metabolici che li accomunano, sono in grado di autoripararsi. Pensate a quando vi fate un graffio: esce del sangue, ma, dopo un po’ di tempo, il sangue coagula, le cellule ricrescono e tutto torna come prima.
Coagulazione del sangue (Fonte)
Tutti gli elementi della seconda lista non sono dotati della proprietà autopietica perché non hanno alcun metabolismo.
Abbiamo risposto alla domanda relativa al parametro da usare per identificare le forme di vita. Ma ancora bisogna rispondere alla domanda “cos’è la vita?”
A questo punto viene spontaneo dire che la “vita” è una proprietà emergente dall’interazione di diverse componenti. In altre parole, la vita è una proprietà intrinseca di “macchine molecolari” complesse dotate di metabolismo. Essa “nasce” dalla combinazione di “caso e necessità”. Cambiamenti casuali di carattere ambientale hanno consentito la sintesi di molecole più o meno complesse. Nel momento in cui esse sono state casualmente ottenute per combinazione degli elementi chimici che le compongono e sotto la spinta di pressioni ambientali, hanno cominciato ad “agire” seguendo la “necessità” di leggi chimico-fisiche che già conosciamo o che scopriamo ogni giorno grazie alla nostra attività scientifica. Ogni cambiamento casuale delle condizioni al contorno (ovvero delle condizioni ambientali), comporta una risposta metabolica ben precisa con successiva necessaria evoluzione per adattamento alle nuove condizioni.
Conclusioni
Non so cosa i miei studenti abbiano capito da questa lezione. Alla fin fine le domande d’esame verteranno solo sul pH dei suoli e sul suo effetto sulla dinamica dei nutrienti. Devo dire, però, che dalle loro espressioni ho capito che sono rimasti colpiti. Io mi sono divertito. Ma come spesso mi viene detto, forse mi sono divertito perché ho avuto modo di essere logorroico e di annoiare un pubblico che è obbligato ad ascoltarmi e non è nella posizione di mandarmi a quel paese. Posso chiudere dicendo che non mi importa: la scienza è conoscenza e la conoscenza è anche la deriva pseudo filosofica attraverso cui un individuo è spinto a riflettere sul significato più profondo delle domande che si è sempre posto. Ho scelto di fare il “pensatore” buttandomi nella ricerca universitaria per soddisfare le mie curiosità più recondite.
Per chi vuole approfondire:
Erwin Schoeredinger, Che cos’è la vita? Adelhi (1995) (http://www.adelphi.it/libro/9788845…)
Ed Regis, Cos’è la vita? Chiavi di lettura della Zanichelli (2010) (http://online.scuola.zanichelli.it/…)
Pier Luigi Luisi Sull’origine della vita e della biodiversità Mondadori (2013) (http://www.laputa.it/libri/sullorig…)
Le macchine molecolari – https://www.facebook.com/notes/rino…
J.J. Monod, il caso e la necessità, Mondadori (1971) (https://monoskop.org/images/8/8e/Mo…)
Fonte dell’immagine di copertina: http://hdimagesnew.com/3d-dna-wallp…

La “memoria dell’acqua”, l’omeopatia ed i pregiudizi di conferma

Più volte, da quando il 29 Dicembre 2016 al Caffè dei Libri di Bassano del Grappa ho tenuto una lezione sull’omeopatia intesa come pratica esoterica senza fondamenti scientifici [1, 2], mi sono sentito rivolgere sempre la stessa argomentazione in base alla quale ci sono persone molto più titolate di me che svolgono lavori di ricerca molto approfonditi grazie ai quali i modelli in grado di spiegare gli effetti dei formulati omeopatici sono diventati sempre più definiti e circostanziati.
I fautori dell’omeopatia si basano però sul principio di autorità [3] e (ricopiando una risposta tipica che viene generalmente data a miei commenti sull’omeopatia) affermano: “se l’argomento omeopatia viene trattato sul piano chimico lei ha certamente ragione a sostenere che dopo un certo numero di diluizioni per il principio di Avogadro non può esistere residuo della sostanza iniziale; ma se l’argomento viene trattato sul piano quantistico, il discorso cambia radicalmente. (I miei riferimenti pro-omeopatia sono E. Del Giudice, G. Vitiello, V. Elia, I. Licata, Rustun Roy, E. Germanov ecc. ecc.)”.
In questo caso specifico, la persona che ha commentato si è dimenticata di Benveniste [4] e Montagnier [5] i cui studi sono stati rigettati da Nature, nel primo caso, e pubblicati su una rivista di cui si è editor-in-chief, nel secondo caso (il che equivale a dire: “pubblico il mio lavoro senza alcun contraddittorio”. Ma di questo mi occuperò a tempo debito in un altro momento).
In definitiva sembra che ci siano studiosi che analizzano le proprietà delle soluzioni a diluizione infinita e trovano risposte inoppugnabili alle basi dell’omeopatia.
Chi fa nomi e cognomi di studiosi coinvolti in ricerche sull’acqua ha qualche problema non solo con la chimica ma anche con la lettura di lavori scientifici ed in genere non si tratta di chimici ma di persone che si occupano di altro. Per esempio, l’argomentazione riportata sopra è stata fatta da una persona che di se stessa dice: “sono un epistemologo esperto in teoria dei sistemi, non un chimico; ma conosco molto bene gli argomenti e le dimostrazioni sperimentali degli scienziati che sostengono il valore dei trattamenti omeopatici “. In altre parole, si tratta di qualcuno che ha deciso di se stesso che è esperto di qualcosa di cui non è competente (vi dice niente l’effetto Dunning Kruger?). E come lui, tutti quelli che argomentano di pro-omeopatia “a spron battuto” nei vari social networks.
Essendo un chimico coinvolto in lavori di ricerca fin dall’inizio degli anni Novanta, sono coinvolto anche nei processi di peer review di lavori scientifici, ovvero sono chiamato a dare la mia opinione di esperto nella valutazione di lavori di ricerca. Questo accade almeno tre-quattro volte al mese, ovvero mi trovo a lavorare come revisore per almeno 36-48 volte all’anno. In questa sede voglio agire come revisore e prendere uno dei lavori pubblicati da uno dei tanti autori famosi per la loro posizione pro-omeopatia e capire nel merito cosa fanno.
Il lavoro a cui faccio riferimento è: V Elia, E Napoli and R Germano, The ‘Memory of Water’: an almost deciphered enigma. Dissipative structures in extremely dilute aqueous solutions, Homeopathy (2007) 96, 163–169 [6]. Chi è iscritto a Researchgate può liberamente scaricare il lavoro suddetto messo a disposizione dagli autori stessi.
Il lavoro si apre con una introduzione in cui si scrive:
“The ‘Memory of Water’ is a journalistic expression, first used in the French newspaper Le Monde, after the publication in 1988 of Jacques Benveniste’s famous paper in the international scientific journal Nature. In this paper he claimed, with biological experimental data, that ‘homeopathic dilutions’ of substances (ie so much diluted as to not contain any molecules of the substance initially diluted in it) are able to induce biological effects typical of the substance initially dissolved in it”.
Gli autori ammettono che il termine “memoria dell’acqua” ha solo un effetto “comunicativo” ma nessuna base scientifica. Citano a tal proposito il lavoro capostipite sulla “memoria dell’acqua” pubblicato su Nature nel 1988 da Jacques Benveniste [7] dimenticando, però, che questo lavoro fu pubblicato “sub condicio” (come evidenzia la Editorial reservation riportata in coda all’articolo stesso), ovvero con l’accordo che i risultati avrebbero dovuto essere valutati da una commissione di esperti nel laboratorio dell’autore. La valutazione ci fu e la risposta si trova nell’articolo su Nature a firma di John Maddox, James Randi e Walter W. Stewart: “High-dilution” experiments a delusion [8]:
“We conclude that the claims made by Davenas et al. are not to be believed. Our conclusion, not based solely on the circumstance that the only strictly doubleblind experiments we had witnessed proved to be failures, may be summarized as follows: The care with which the experiments reported have been carried out does not match the extraordinary character of the claims made in their interpretation […]. The phenomena described are not reproducible, but there has been no serious investigation of the reasons […]. The data lack errors of the magnitude that would be expected, and which are unavoidable […]. No serious attempt has been made to eliminate systematic errors, including observer bias […]. The climate of the laboratory is inimical to an objective evaluation of the exceptional data […]”.
In altre parole, il lavoro del gruppo gestito da Benveniste sopravvaluta gli effetti che gli autori riportano nelle loro conclusioni, manca di riproducibilità, manca di una seria valutazione degli errori sperimentali sia casuali che sistematici (per esempio gli autori non hanno fatto sforzi per eliminare i pregiudizi di conferma) e le condizioni del laboratorio non offrono sufficienti garanzie per una interpretazione oggettiva, e quindi credibile, dei dati.
Un lavoro scientifico che si basa sulle premesse ritenute sbagliate dalla comunità scientifica internazionale non si presenta molto bene. Il compito di tutti noi è prendere atto di ciò che è pubblicato (ci piaccia o meno) e, partendo da lì, costruire i nostri migliori modelli scientifici. Nel caso in oggetto la premessa di Elia et al. [6] è “la memoria dell’acqua è un fatto acclarato e dobbiamo solo capire a cosa è dovuta”. No, non è così. La “memoria dell’acqua” non è affatto acclarata [9, 10, 11, 12]. A sostegno della loro assunzione di partenza, Elia et al. [6] citano un saggio pubblicato da Bibliopolis in lingua Italiana [13]. Quale validità scientifica a livello internazionale possa avere un saggio scritto in italiano, quindi limitato alla sola comunità scientifica che è in grado di parlare quella lingua, non è dato sapere. Inoltre, la pubblicazione di libri non richiede la severa revisione tra pari a cui è soggetto invece un lavoro di ricerca. Chiunque può scrivere un libro per rendere pubblico il suo pensiero e magari ricorrere come spesso accade all’auto-pubblicazione. Ma si tratta di opinioni personali senza contraddittorio. Non c’è dialogo scientifico come quello riportato nei riferimenti [9-12].
Dopo l’introduzione, nella quale gli autori evidenziano la tipologia di problematiche che essi hanno deciso di analizzare, c’è un paragrafo intitolato “Methods”. Di solito questo paragrafo serve per descrivere le metodologie analitiche che gli autori di un lavoro decidono di utilizzare. Questo paragrafo inizia con: “The experimental methodologies used for our investigations were chosen as the most efficient among the many tested”.
Devo dire che è la prima volta, nella mia esperienza di lavoro e di revisore scientifico, che mi trovo di fronte ad una frase del genere. Di solito chi scrive un lavoro di ricerca cerca di giustificare in modo oggettivo la scelta delle tecniche analitiche che ha deciso di utilizzare. Se non si è in grado di trovare una giustificazione oggettiva in termini di sensibilità strumentale o peculiarità analitica, ci si rifà a “non ho soldi e queste sono le strumentazioni che la mia Istituzione mi ha messo a disposizione”. Ma dire che si scelgono tra le diverse tecniche quelle che si ritengono più efficienti, senza citare quali sono state prese in considerazione oltre quelle applicate nel lavoro inviato per la pubblicazione, e quali sono state scartate e per quali motivi, equivale a dire “ho scelto le tecniche che mi consentono di ottenere le risposte che desidero”. Non mi sembra un atteggiamento molto oggettivo. Non è così che devono essere presentate le proprie scelte alla comunità di riferimento.
Seguono, poi, le descrizioni delle diverse tipologie di figure che sembrano sostenere la validità delle conclusioni degli autori che chiosano “Much new experimental data converge towards the validation of the statement that water, at least in the context of the procedure of the homeopathic medicine production, really has a ‘memory’.” In altre parole, i dati sperimentali consentono di concludere che la memoria dell’acqua è reale.
In genere, uno dei primi corsi che vengono seguiti all’università dagli studenti che si iscrivono a una qualsiasi ex-facoltà scientifica riguardano la matematica che deve essere usata nella scienza [14]. Viene spiegato molto chiaramente che quando si riportano dati sperimentali occorre tener ben presente che essi sono sempre affetti da errore (sia casuale che sistematico) e che la buona pratica scientifica consiste nel riprodurre gli esperimenti in modo tale da indicare quantitativamente anche gli errori che sono stati commessi. Sotto l’aspetto visivo quanto appena scritto si traduce nel riportare grafici in cui ad ogni punto sperimentale sia associata una barra sia nella dimensione delle ascisse (se possibile, perché non sempre è possibile misurare l’errore sull’asse x) che in quella delle ordinate (l’asse y) indicanti l’incertezza nelle misure sperimentali. Alternativamente, se si riportano tabelle invece che grafici, occorre indicare l’intervallo di confidenza del valore misurato; detto in soldoni un numero in tabella deve essere sempre riportato come (a ± err).
Tutti i grafici discussi nel lavoro di Elia et al. [6] sono carenti in questo. Non c’è alcuna seria analisi degli errori sperimentali. Non viene riportato nulla in termini di intervallo di confidenza e mancano le barre di errore che consentirebbero a chiunque in grado di leggere quei grafici di capire l’attendibilità dei dati sperimentali riportati.
CONCLUSIONI
Il modello costruito sulla base di premesse sbagliate e fondato sulla valutazione di dati sperimentali di cui non si conosce l’attendibilità non è esso stesso attendibile. Per quanto mi riguarda, gli autori hanno voluto vedere ciò che solo nella loro mente è qualcosa di reale. In altre parole, hanno voluto trovare conferma a ciò che pensavano e non hanno fatto tentativi per falsificare, in senso popperiano, le loro ipotesi. Ciò che a mio avviso è più grave è che essi non hanno tenuto in alcun conto ciò che essi stessi (Elia è stato uno dei miei docenti all’Università degli Studi di Napoli Federico II) insegnano agli studenti, ovvero “rigida” attenzione agli errori sperimentali per permettere ai colleghi di tutto il mondo di poter valutare con serenità il proprio lavoro. Se fossi stato io il revisore del lavoro non ne avrei permesso la pubblicazione a causa degli innumerevoli bias che ho osservato. Ma non sono stato io il revisore, di conseguenza il lavoro è stato pubblicato e ci sarà qualcuno da qualche parte che presterà fiducia a quanto scritto.
RIFERIMENTI
  1. https://www.facebook.com/RinoConte1…
  2. http://www.laputa.it/omeopatia/
  3. http://web.unitn.it/files/download/…
  4. http://www.nature.com/news/2004/041…
  5. http://www.i-sis.org.uk/DNA_sequenc…
  6. https://www.researchgate.net/public…
  7. https://www.researchgate.net/profil…
  8. http://www.badscience.net/wp-conten…
  9. http://www.sciencedirect.com/scienc…
  10. http://www.sciencedirect.com/scienc…
  11. http://www.sciencedirect.com/scienc…
  12. http://www.sciencedirect.com/scienc…
  13. Germano R. AQUA. L’acqua elettromagnetica e le sue mirabolanti avventure. Napoli: Bibliopolis, 2007.
  14. http://www.chimicare.org/curiosita/…
L’immagine di copertina è presa da: http://www.numak.it/cisterne-serbat…

Le strane proprietà dell’acqua. L’effetto Mpemba

In che cosa consiste l’Effetto Mpemba?
Il mondo scientifico è molto variegato ed è estremamente libero. Ognuno si occupa delle cose che più lo incuriosiscono cercando di portare il proprio contributo alle conoscenze globali.
Tra le cose che attirano la curiosità di scienziati e gente comune sono le proprietà dell’acqua.
Qui, qui, qui, qui e qui sono descritte in modo divulgativo alcune delle sue proprietà influenzate dalla presenza dei legami a idrogeno.
Una caratteristica dell’acqua su cui non sembra esserci un accordo nel mondo scientifico è il cosiddetto effetto Mpemba, ovvero la capacità dell’acqua di congelare più velocemente se essa è prima riscaldata.
Il nome dell’effetto è quello di un Tanzaniano che, da ragazzino, affermava che era in grado di ottenere più velocemente i gelati se la crema veniva posta in freezer quando ancora calda. In realtà, l’osservazione del fenomeno pare risalga addirittura ad Aristotele, passando per Cartesio.
Erasto Mpemba, la persona da cui l’effetto prende nome (fonte dell’immagine: http://www1.lsbu.ac.uk/water/mpemba_effect.html)
L’effetto descritto è un paradosso: logicamente si sarebbe tentati di pensare che essendo l’acqua fredda più vicina al punto di congelamento, essa debba congelare più velocemente dell’acqua calda che, invece, è più distante dal punto di congelamento.
Il disaccordo nel mondo scientifico di cui accennavo sopra si sviluppa su diversi livelli. Ci sono scienziati che ne negano l’esistenza perché in condizioni controllate non riescono ad osservare il fenomeno e scienziati che, invece, sembrano osservare il fenomeno e ne danno anche una spiegazione. Nell’ambito di chi spiega l’effetto Mpemba c’è chi dà importanza ai gas disciolti e chi, invece, pone l’accento sulla natura dei legami a idrogeno.
Qual è la mia posizione? Devo dire che personalmente sono piuttosto scettico, ma la mia è solo una opinione basata sulla lettura di un lavoro apparso recentemente su Scientific Reports. In questo lavoro, gli autori non solo evidenziano che i dati sperimentali riportati negli studi assertivi dell’effetto Mpemba sono deficienti in ripetibilità e riproducibilità, ma sono anche affetti dal pregiudizio di conferma degli autori stessi.
Lo scopo di questa nota è riportare non le mie opinioni in merito (non ho mai studiato direttamente questo effetto e non potrei esprimermi in merito se non approfondendo ulteriormente i singoli casi studio), ma lo stato dell’arte in merito a quelle che sono delle spiegazioni piuttosto affascinanti di un effetto che, se osservato con maggiore attendibilità, evidenzierebbe nuovi tipi di anomalie dell’acqua.
LA STRUTTURA DELL’ACQUA
È già stato spiegato altrove (qui, qui, qui, qui e qui) che ogni molecola di acqua è in grado di formare fino a quattro legami a idrogeno impegnando sia i due atomi di idrogeno legati all’ossigeno (in questo caso la molecola di acqua funziona da donatrice di idrogeno) sia i doppietti solitari localizzati sull’atomo di ossigeno (in questo caso la molecola di acqua funziona da accettrice di idrogeno). Si forma, in questo modo, un insieme di cinque molecole di acqua agganciate tra di loro a formare un tetraedro. Di queste cinque molecole di acqua, una è al centro del tetraedro, le altre quattro sono nei vertici. Queste ultime, a loro volta, sono al centro di un altro tetraedro i cui vertici sono occupati da altre molecole di acqua.
La struttura dell’acqua. Quattro molecole di acqua si dispongono lungo i vertici di un tetraedro il cui centro è occupato da una quinta molecola di acqua (fonte dell’immagine: https://it.wikipedia.org/wiki/Acqua)
Volendo avere una visione semplificata delle molecole di acqua legate tra loro, potremmo immaginare un insieme di tetraedri che evolvono nelle tre dimensioni e sono agganciati gli uni agli altri attraverso i propri vertici. Questa è una visione semplificata per diversi motivi. Ogni molecola di acqua può formare fino a quattro legami a idrogeno, ma non è detto che sia così. Ci possono essere molecole di acqua che ne formano tre ed altre che ne formano due, per esempio. Allo stesso modo bisogna ricordare che il legame a idrogeno non è statico, ma ha natura dinamica. Se indichiamo per semplicità il legame a idrogeno con due punti tra il simbolo dell’ossigeno e quello dell’idrogeno, mentre il legame covalente con un semplice trattino (H:O-H), possiamo scrivere un equilibrio del tipo:
H:O-H = H-O:H
dal quale si evince che il legame covalente si interscambia con quello a idrogeno. Infine, i tetraedri in cui sono inserite le molecole di acqua non sono regolari, ma distorti.
Avendo in mente tutto questo, si riesce a comprendere che il modello tridimensionale fatto di tetraedri agganciati per i vertici non è una buona rappresentazione dell’acqua liquida, pur rendendo l’idea. Questo modello è, però, sufficiente per comprendere come è fatta una delle tante forme di ghiaccio. Ebbene sì, di ghiaccio non ne esiste un solo tipo ma ce ne sono molti altri e non tutti hanno densità più piccola di quella dell’acqua liquida; in altre parole non tutte le forme di ghiaccio galleggiano sull’acqua (Ref.).
Diagramma di fase dell’acqua. Sono evidenti le diverse forme di ghiaccio. Ne esistono undici differenti in cui le molecole di acqua sono “agganciate” tra loro in modi differenti (fonte dell’immagine: https://en.wikipedia.org/wiki/Ice)
Ciò che è importante da tutto questo discorso è capire che le molecole di acqua liquida tendono a formare dei “grappoli” tenuti insieme dai legami a idrogeno. La forma più elementare di uno di questi grappoli in cui diversi tetraedri sono “agganciati” tra loro attraverso i propri vertici è quella dell’icosaedro, un solido a 20 facce triangolari fatto dall’unione di 20 tetraedri per un totale di 280 molecole di acqua (Ref.)
Icosaedro. Struttura più elementare in cui si raggruppano i tetraedri distorti formati dalle molecole di acqua (fonte dell’immagine: https://www.mindmeister.com/maps/public_map_shell/574542913/poliedros-o-s-lidos-geom-tricos)
LE SPIEGAZIONI PIÙ CONOSCIUTE DELL’EFFETTO MPEMBA
L’effetto dei legami a idrogeno
Recentemente (Ref.)  è stato proposto che la variazione delle lunghezze dei legami a idrogeno e dei legami covalenti per effetto del riscaldamento sia direttamente coinvolta nell’effetto Mpemba.
Quando l’acqua è calda, le lunghezze dei legami a idrogeno H:O sono più grandi rispetto a quelle dei legami covalenti O-H. L’abbassamento della temperatura che si ottiene inserendo l’acqua calda nel congelatore comporta un accorciamento dei primi ed un allungamento dei secondi. Il “tira e molla” appena descritto può essere associato a due effetti: una sorta di “riscaldamento adiabatico” dovuto all’accorciamento del legame a idrogeno ed una sorta di “raffreddamento adiabatico” dovuto all’allungamento del legame covalente. L’effetto Mpemba è spiegato dalla prevalenza del secondo effetto sul primo. In particolare, più calda è l’acqua, più efficiente è il raffreddamento dovuto all’allungamento dei legami covalenti. In altre parole, il raffreddamento dell’acqua avviene perché quando i legami covalenti O-H si allungano sottraggono energia ai legami a idrogeno H:O con conseguente raffreddamento complessivo.
Questa spiegazione assomiglia molto a quanto accade ad un vapore che si allontana dalla superficie di un liquido. Per capire cosa accade fate un esperimento molto semplice. Cospargete la mano con alcol etilico (un liquido facilmente volatile); agitate la mano; sentirete una senzazione di fresco. Ecco! L’evaporazione dell’alcol etilico comporta che alcune molecole si allontanino dalla mano. Per poterlo fare, però, hanno bisogno di energia. Questa energia viene sottratta alle molecole di liquido che sono ancora sulla mano. La conseguenza è che le molecole di alcol etilico che bagnano la mano si raffreddano e danno la sensazione che sentite.
L’effetto dei gas disciolti
Il meccanismo appena descritto non tiene conto dell’effetto sulla struttura dell’acqua liquida da parte dei gas disciolti la cui presenza diventa importante nel momento in cui si sottopone l’acqua a riscaldamento. Infatti, è esperienza comune che quando si aumenta la temperatura dell’acqua compaiono delle bolle dovute al fatto che, ad alte temperature, la solubilità dei gas disciolti diminuisce ed essi si allontanano dal sistema generando le bolle.
Cosa accade in presenza delle bolle? Abbiamo detto che l’acqua liquida ha una struttura a grappoli in cui l’unità elementare ha forma di icosaedro. Più rigida è questa struttura, più facilmente si forma il ghiaccio. Ne viene che l’acqua fredda dovrebbe ghiacciare prima di quella calda. In realtà, l’acqua calda contiene una quantità più grande di nano-bolle rispetto all’acqua fredda.
L’acqua riscaldata forma delle bolle dovute alla diminuzione della solubilità dei gas disciolti. Le bolle sono delle cavità in cui i gas, insolubili in acqua, vengono intrappolati da molecole di acqua che interagiscono tra loro mediante legami a idrogeno. All’aumentare della temperatura la pressione interna delle bolle diviene via via più grande di quella esterna. La conseguenza è che esse salgono in superficie. Qui i gas contenuti nelle bolle vengono liberati nell’aria mentre l’acqua liquida rimane “attaccata” alla superficie. Più aumenta la temperatura e più aumentano le dimensioni delle bolle (fonte dell’immagine: http://meteolive.leonardo.it/news/In-primo-piano/2/l-acqua-bolle-prima-in-montagna-/38316/)
Le nanobolle, grazie alla tensione superficiale che le contraddistingue, impediscono il congelamento dell’acqua. Tuttavia, la loro rapida rottura determina l’allontanamento dei gas in esse intrappolate con conseguente perdita di energia da parte delle molecole di liquido che in questo modo subiscono il rapido raffreddamento.
L’EFFETTO MPEMBA E LA NEVE ISTANTANEA
L’effetto Mpemba viene invocato per spiegare un fenomeno molto scenografico, ovvero la formazione di neve istantanea quando acqua bollente viene lanciata in area a temperature molto al di sotto di 0 °C.
Acqua calda lanciata in aria quando la temperatura è di -30 °C congela istantaneamente (fonte dell’immagine: http://www.freddofili.it/15104-acqua-calda-congela/)
A questo link un video molto divertente che mostra come l’acqua bollente formi immediatamente la neve quando la temperatura ambientale è ben al di sotto di 0 °C:

CONCLUSIONI
Ma allora l’effetto Mpemba esiste o meno?
A quanto pare la riproduzione controllata in laboratorio di questo effetto non è affatto facile ed anche le spiegazioni date non sono molto soddisfacenti sebbene la modellistica molecolare (ovvero la simulazione al computer del comportamento delle molecole di acqua) sia in grado di fornire risposte dettagliate in merito al comportamento dei legami a idrogeno quando il liquido caldo è sottoposto a congelamento. In effetti la parola fine non è stata ancora raggiunta. Per ora divertiamoci a vedere e sperimentare la formazione di neve istantanea badando a non farci cadere l’acqua bollente addosso (è certo che l’acqua bollente provochi ustioni).
Note
Articolo pubblicato nella mia pagina Facebook il 25 Gennaio 2017 (qui)

Il ruolo dell’acqua nelle reazioni foto-catalitiche

Notizie dal mondo scientifico. Il ruolo dell’acqua nelle reazioni foto-catalitiche

Sapete cos’è il biossido di titanio? Non è un materiale che esce da un film di fantascienza, sebbene le sue proprietà lo rendano veramente particolare. Lo si trova un po’ dappertutto, anche nei dentifrici e funziona da sbiancante. Lo trovate anche come eccipiente in alcuni farmaci in compressa.

La sua funzione è veramente notevole perché il biossido di titanio viene utilizzato come catalizzatore per reazioni foto-catalitiche nella chimica verde.

Catalizzatore? chimica verde? fotocatalitico?

La chimica verde è quella branca della chimica che si occupa delle reazioni nelle quali non si fa uso di solventi organici. Questi ultimi, infatti, sono per lo più tossici per l’uomo oltre che dannosi per l’ambiente. Il solvente di elezione nei processi legati alla chimica verde è l’acqua. Questa molecola, infatti, non “distrugge” la biomassa microbica presente nei suoli, nelle acque e nei sedimenti come, invece, fanno i solventi organici. Inoltre, maneggiare acqua, piuttosto che solventi organici, in laboratorio è più “salutare” per gli operatori che non inalano, così, sostanze potenzialmente cancerogene.

Un catalizzatore è un materiale che è in grado di velocizzare una reazione chimica. In altre parole, una reazione che avviene in un tempo lungo – per esempio qualche giorno – può subire una accelerazione in presenza di certi particolari sistemi come il biossido di titanio. Questo è molto conveniente, per esempio, sotto l’aspetto produttivo perché consente alle aziende di produrre nuove molecole o nuovi materiali in tempi non biblici. Ma è conveniente anche sotto l’aspetto ambientale perché il biossido di titanio può essere utilizzato per accelerare la decomposizione di contaminanti organici tossici per l’uomo e dannosi per l’ambiente.

Una reazione foto-catalitica è una reazione la cui velocità viene influenzata dalla interazione tra la luce ed un catalizzatore come il biossido di titanio.

Come funziona il biossido di titanio?

Proprio recentemente, il secondo [1] di due studi [1, 2] sul ruolo dell’acqua nell’attività catalitica del biossido di titanio è apparso sul Journal of Physical Chemistry C (lo so…sono vanesio…entrambi gli studi sono miei).

E’ stato evidenziato che l’acqua legata alla superficie del biossido di titanio forma dei radicali ossidrilici (OH) che sono direttamente coinvolti nei processi catalitici dei contaminanti organici. La velocità con cui la reazione può avvenire dipende dal tempo durante il quale l’acqua resta a contatto con la superficie del biossido di titanio. In pratica, l’acqua e la molecola che deve essere degradata competono tra loro per raggiungere la superficie del biossido di titanio. Una volta che l’acqua è arrivata si possono realizzare due condizioni: l’affinità tra il biossido di titanio e l’acqua è alta; l’affinità tra biossido di titanio e acqua è bassa. Nel primo caso, l’acqua resta più tempo attaccata al biossido di titanio ed ha una maggiore opportunità di produrre i radicali che, poi, serviranno per decomporre il contaminante organico. Nel secondo caso, invece, l’acqua non ha il tempo materiale di decomporsi e la velocità con cui il contaminante si decompone è più lenta.

Lo studio appena pubblicato [1] apporta quelle prove sperimentali che fino ad ora mancavano in merito all’ipotesi sulla competizione acqua/substrato per la superficie del biossido di titanio.

Riferimenti
[1] http://pubs.acs.org/doi/abs/10.1021/acs.jpcc.6b11945
[2] http://pubs.acs.org/doi/10.1021/jp400298m

Su fallacia e omeopatia. Una riflessione ragionevole.

Proviamo a fare una riflessione sul concetto di fallacia e omeopatia.

Quante volte ho dovuto leggere “su di me funziona” da parte dei fautori dell’omeopatia come risposta ai miei ripetuti post sull’argomento omeopatia? I vari interventi si trovano nei riferimenti [1-6]Adesso cerco di spiegare perché questa affermazione non ha alcuna validità e denota solo ignoranza scientifica da parte di chi la sostiene. A tale scopo faccio un esempio banale considerando che ognuno di noi è in grado di rispondere in un determinato modo alla somministrazione di una particolare sostanza o un alimento.

Supponiamo che due persone prese a caso assumano del latte. Si possono verificare le seguenti condizioni:
1. Entrambe le persone vivono senza problemi di sorta la loro vita (ok, ok)
2. Una delle due persone vive normalmente, l’altra ha problemi di meteorismo, dolori di stomaco, gonfiore e tutto quanto si può associare ad una intolleranza all’alimento che gli è stato somministrato (ok, no)
3. Entrambe le persone hanno problemi (no, no)

Se ci limitassimo all’analisi della sola condizione 1. saremmo tentati di dire che il latte è un alimento che fa bene a tutti. In altre parole estenderemmo all’intera popolazione umana quelle che sono le osservazioni fatte su soli due individui. In questo modo non terremmo conto di ciò che accade nella condizione 2., ovvero che la scelta casuale di due persone per condurre un esperimento sulla salubrità del latte potrebbe portare ad una situazione in cui non sappiamo se il latte fa bene oppure no alla salute umana. Infatti uno dei due individui non ha conseguenze, l’altro, invece, mostra intolleranz. Non terremmo conto neanche della condizione 3., per la quale, scelte due persone a caso, entrambe risultano intolleranti.

Per dirimere la questione dobbiamo introdurre una terza persona. Dobbiamo, cioè, scegliere un terzo individuo in modo casuale e osservare l’effetto del latte sul suo organismo. Anche in questa situazione si possono verificare due condizioni:

A. L’individuo non mostra sintomi di intolleranza (ok)
B. L’individuo mostra sintomi di intolleranza (no)

Le condizioni 1., 2. e 3. si possono combinare con le condizioni A. e B. nel seguente modo:
1A, 1B, 2A e 2B, 3A e 3B.

Dalla condizione 1A (cioè ok, ok, ok) potremmo concludere che il latte non dà alcun problema. Dalle situazioni 1B e 2A (ovvero ok, ok, no) potremmo, invece, concludere che il latte fa bene ai 2/3 della popolazione umana. Le situazioni 2B e 3A (corrispondenti a ok, no, no ) ci conducono alla conclusione opposta, ovvero che il latte fa male ai 2/3 della popolazione umana. La condizione 3B (no, no, no) ci porta a concludere che l’intera popolazione umana è intollerante al latte.

In definitiva, prendendo prima due e poi tre individui a caso, non abbiamo risposto alla domanda: qual è l’effetto del latte sulla salute umana? Il latte offre vantaggi o svantaggi? In effetti, il numero limitato di casi presi in considerazione non ci permette di dare una risposta definitiva al nostro problema.

Cosa fare allora? Bisogna estendere l’indagine ad un numero statisticamente significativo di individui umani, differenziandoli per età, sesso, origine etnica e condizioni di salute.

Per “numero statisticamente significativo” si intende un numero di individui che sia, nel suo insieme, rappresentativo della totalità degli individui di una popolazione. Alla luce dei risultati osservati si può fare una statistica e dire che su tanti individui , indichiamoli con 100, un certo numero, indichiamolo Z con Z<100, è tollerante al latte, mentre un numero pari a 100-Z è intollerante. All’interno del campione Z ci può essere un numero, M, di maschi ed un numero, F, di femmine (M+F=Z) ed all’interno delle singole popolazioni ci può essere un certo numero di Italiani, Svizzeri, Danesi e così via di seguito. Lo stesso si applica al numero di individui pari a 100-Z.

Grazie a questa impostazione sperimentale, la variabilità comportamentale dei singoli individui viene inglobata in una casistica che consente di dire che in media il latte fa bene, ma che un certo numero di persone possono mostrare delle intolleranze che si possono spiegare – in uno stadio successivo dell’indagine – alla luce dell’attività pastorizia che ha luogo in un certo ambiente e della diffusione genetica di certe caratteristiche di tolleranza/intolleranza.

Chi afferma che qualcosa funziona sul suo organismo per cui quel qualcosa, in base alla sua opinione, ha un certo tipo di attività, palesemente dichiara, senza alcuna vergogna -perché dimostra solo che le lezioni avute a scuola sono state del tutto inutili, di non conoscere il metodo scientifico e di come esso si applichi alle indagini sugli esseri viventi. I casi soggettivi non sono utili. Devono sempre essere inglobati in una moltitudine di casi che, tutti insieme, consentono di estrapolare il comportamento medio di fronte alla somministrazione di un preparato, un farmaco o un alimento che sia.

Tutto quanto detto, comunque, non è sufficiente alle conclusioni di cui ho discusso. Infatti, è possibile che tra gli individui scelti a caso ci siano degli ipocondriaci a cui il latte non dà fastidio ma che, per partito preso, perché non gli piace o quant’altro, affermano che la somministrazione di latte ha portato loro dei problemi. Per ovviare a questa situazione, ovvero per evitare che i risultati dell’indagine siano influenzati dai propri atteggiamenti ipocondriaci, le indagini sulla popolazione di individui statisticamente significativa deve essere condotta in modo tale che a un certo numero di individui venga somministrato latte, ad un altro numero un materiale simile al latte ma che latte non è.

Sia gli individui soggetti all’esperimento che gli sperimentatori non sanno cosa viene somministrato in modo tale da evitare che anche involontariamente le caratteristiche dell’alimento somministrato possano essere rese note. Questo esperimento, che si chiama “in doppio cieco”, assicura che convinzioni soggettive in merito alla somministrazione di latte (o qualunque altra cosa) possano non alterare i risultati dello studio.

Una breve disanima sul metodo scientifico usato nel settore biologico/biochimico/medico la si trova nel riferimento [7], mentre nel riferimento [8] si trova un interessante lavoro sul perché la procedura omeopatica deve essere rigettata anche solo a livello logico-filosofico.

Nel caso particolare dell’omeopatia si è verificato che:
1. gli esperimenti per valutare l’effetto dei preparati omeopatici sono condotti in grandissima parte senza alcun controllo rispetto a placebo e farmaci reali [9, 10]
2. Nei casi in cui il controllo è stato condotto e gli esperimenti fatti in doppio cieco, i preparati omeopatici non sono risultati migliori dei placebo [11-13]
3. Sia negli esperimenti su bambini che in quelli su animali condotti con i crismi del metodo scientifico sommariamente illustrato sopra, i preparati omeopatici hanno dimostrato solo effetto placebo [14]

In definitiva, quando i fautori dell’omeopatia affermano che un certo preparato funziona perché a loro sembra di trarne benefici, bisogna prendere atto che si sta interloquendo con delle persone che hanno problemi di tipo non biochimico e che hanno principalmente bisogno di attenzione; quella attenzione che pagano a caro prezzo affidandosi ad imbonitori che, attraverso parole bonarie e finta empatia, prescrivono preparati inutili sotto l’aspetto farmacologico.

Riferimenti
1. https://www.facebook.com/RinoConte1967/posts/1937902003097993:0
2. https://www.facebook.com/notes/rino-conte/la-memoria-dellacqua-lomeopatia-ed-i-pregiudizi-di-conferma/1919125418308985
3. https://www.facebook.com/RinoConte1967/posts/1915078438713683
4. https://www.facebook.com/RinoConte1967/photos/a.1652785024943027.1073741829.1652784858276377/1909420659279461/?type=3
5. http://www.laputa.it/omeopatia/
6. https://www.facebook.com/RinoConte1967/posts/1798823550339173:0
7. https://www.scienzeascuola.it/lezioni/biologia-generale/il-metodo-scientifico-o-sperimentale
8. http://onlinelibrary.wiley.com/doi/10.1111/j.1365-2753.2010.01384.x/full
9. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1668980/pdf/bmj00112-0022.pdf
10. http://www.dcscience.net/Smith-response.pdf
11. http://www.homeopathonline.net/library/Are%20the%20clinical%20effects%20of%20homoeopathy%20placebo%20effects.pdf
12. http://jamanetwork.com/journals/jamasurgery/fullarticle/211818?wptouch_preview_theme=enabled
13. https://www.ncbi.nlm.nih.gov/pubmed/11055773
14. http://onlinelibrary.wiley.com/doi/10.1111/j.1751-0813.2007.00174.x/full

 

Contraddizioni culturali e paradossi cognitivi. Naturale / buono = chimico / tossico

Contraddizioni culturali e paradossi cognitivi (Parte I)

Naturale : buono = chimico : tossico

Leggiamola così: naturale sta a buono come chimico sta a cattivo.

È la classica associazione di termini che i seguaci new age di un certo ambientalismo distorto invocano per giustificare scelte personali in merito a pratiche pseudo scientifiche che hanno deciso di utilizzare. La prima che mi viene in mente è quella che si basa sull’omeopatia ritenuta valida perché “su di me funziona” oppure perché “sono trenta anni che mi curo con l’omeopatia e funziona”, oppure ancora “l’omeopatia è naturale e come tale non fa male”.

Questo post non è dedicato all’omeopatia, ma ad evidenziare le dissonanze cognitive di tutti coloro che, come i seguaci dell’omeopatia, denigrano la chimica pur facendone ampiamente uso.

“Il colera è un’infezione diarroica acuta causata dal batterio Vibrio cholerae. La sua trasmissione avviene per contatto orale, diretto o indiretto, con feci o alimenti contaminati [tra cui acqua] e nei casi più gravi può portare a pericolosi fenomeni di disidratazione” [1].

1817-2017. Sono 200 anni. In questi duecento anni si sono avute ben sette pandemie di colera. L’ultima in ordine di tempo è iniziata nel 1961 e, dopo 56 anni, non si è ancora estinta. Nel 1973 il colera è arrivato anche a Napoli. Avevo sei anni. Mi ricordo il terrore della vaccinazione. In tutti questi anni il colera ha fatto milioni di vittime. Alcune fonti parlano di ben 40 milioni di morti [1, 2].

Nonostante la durata molto più lunga delle precedenti, la settima pandemia ha provocato molti meno morti delle altre. Questi sono principalmente nei paesi del terzo mondo, ovvero in quelli sottosviluppati. Proprio in questi paesi, infatti, ci sono carenze igienico-sanitarie che consentono la diffusione del vibrione del colera.

Se noi oggi possiamo dire di non dover più temere questa malattia, ormai dichiarata anche endemica, è perché facciamo parte di quella piccola parte del globo in cui vengono applicate le misure di prevenzione sanitaria in grado di debellare certi micro organismi patogeni per l’uomo.

L’acqua che noi usiamo come alimento è uno dei principali vettori per la trasmissione del colera – e non solo. L’acqua, tuttavia, è un prodotto naturale. Essa sgorga libera dalle rocce. Come prodotto naturale non può fare che bene. Ed invece non è così. L’acqua trasportata dagli acquedotti può essere contaminata, durante il suo tragitto verso i centri abitati, per ogni ordine di causa. Per esempio, se non vengono rispettati i limiti entro cui gli animali possono stazionare nei pressi dei pozzi di approvvigionamento idrico, si può verificare contaminazione fecale e la trasmissione di patologie come il colera. Per assicurare la potabilità delle acque, la chimica, che NON è sinonimo di tossico, ci viene in aiuto. Sapete come? Attraverso l’uso di un’arma di distruzione di massa. Sí, avete letto bene. Si utilizza un gas che durante la prima guerra mondiale è diventato tristemente famoso per il numero di morti e di invalidi permanenti che ha provocato: il cloro.

Il cloro è una molecola biatomica che si trova nella fase gassosa. Ha un colore giallo-verde dal caratteristico odore pungente. È in grado di provocare lesioni permanenti nei tessuti umani e se l’avvelenamento da cloro non è curato in tempo, provoca la morte. La sua azione si deve al fatto che interagisce con molti dei metaboliti che sono presenti nelle nostre cellule, modificandone la struttura e, di conseguenza, la funzionalità biochimica. Quando viene inserito in acqua reagisce dismutandosi (ovvero si trasforma) portando alla formazione di acido ipocloroso. Questo si dissocia in ipoclorito che a sua volta si decompone a cloruro ed ossigeno molecolare. L’ossigeno è un forte ossidante ed è quello che è in grado di distruggere le cellule dei batteri che possono contaminare l’acqua che arriva nelle nostre case [3]. Il problema del cloro gassoso è che è poco maneggevole. Il suo stoccaggio è reso difficile dalla sua corrosività. Per questo motivo oggi la sanificazione delle acque destinate al consumo umano viene effettuata utilizzando i sali solubili, e facilmente maneggiabili, dell’acido ipocloroso. Uno di questi è l’ipoclorito di sodio più noto come varechina. Sì, quella che trovate comunemente al supermercato.

Morale della favola. L’acqua prodotto naturale, quindi in principio ritenuta buona, non è, in realtà, così buona essendo vettore per patologie mortali se non sanificata. Il cloro, arma di distruzione di massa, quindi, “cattivo” per definizione, in realtà è buono perché ci aiuta a sanificare un prodotto naturale che poi tanto buono non è.

La chimica vi sembra ancora così cattiva?

Riferimenti
[1] http://www.epicentro.iss.it/problemi/colera/colera.asp
[2] http://www.who.int/mediacentre/factsheets/fs107/en/
[3] http://www.chimicamo.org/…/clorazione-dellacquareazioni-chi…

Scienza patologica. Un altro caso di scorrettezza scientifica

Parliamo di cattiva scienza attraverso un ennesimo caso di frode scientifica.
Il mondo scientifico è molto attraente perché consente una enorme libertà di pensiero. Chiunque abbia voglia e sia sufficientemente curioso può lavorare per rispondere alle proprie domande su ciò che ci circonda [1, 2].
La Scienza – non a caso con la maiuscola – sfrutta poche e semplici regole che vengono identificate sotto il nome di “metodo scientifico” (Figura 1). La forza del metodo è legata al fatto che tutti, ma proprio tutti, possono accedere ai dati sperimentali e confutare o migliorare le ipotesi/teorie che vengono formulate. E’ accaduto con Galileo Galilei, con Newton, con Lavoisier fino ad arrivare ad Einstein, Schoeredinger, Heisenberg, Natta, Rubbia, Gallo etc. etc. etc.

Figura 1. Illustrazione semplificata del metodo scientifico (Fonte)
Nel villaggio globale in cui ci troviamo a vivere ed in cui l’aspirazione predominante sembra essere l’ottenimento del massimo profitto col minimo sforzo, anche la scienza – questa volta con la minuscola – risente di una mentalità commerciale in base alla quale trae beneficio – in termini di “potere” accademico e, quindi, di indirizzo della ricerca presente e futura oltre che della vita e della morte scientifica di tante persone – non chi, in generale, si occupa di far progredire le conoscenze umane con puro spirito di avventura, ma chi riesce a dimostrare in tempi brevi che quanto studia ha applicabilità immediata. In linea di principio, non ci sarebbe nulla di male: si fa ricerca, si pubblica, si riceve gratificazione dal fatto che il proprio lavoro riceve citazioni. Ricevere gratificazioni in tempi brevi non è male considerando quelli che secondo me sono i motivi che spingono ognuno di noi a impelagarci nella ricerca scientifica [2]. Anche se si viene citati perché sono state prese “cantonate” va bene, sebbene non faccia molto bene al proprio ego. Anche le “cantonate” servono per il progresso delle conoscenze [3].
Il corto circuito si ottiene quando l’aspirazione al “potere” fine a se stesso – tipico dei mediocri – conduce i ricercatori ad escamotage non per migliorare la qualità del proprio lavoro, ma per ottenere vantaggi attraverso inganni e sotterfugi, ovvero raggirando quelle che sono le regole basilari di fiducia e cooperazione alla base del metodo scientifico.
Ci sono vari modi in cui i mediocri tentano di aggirare le regole del metodo scientifico. Ne ho descritti alcuni nei riferimenti [4-6]. E’ di queste ore, tuttavia, la notizia di un altro tipo di scorrettezza che è stato indicato come “cartello delle citazioni” (Figura 2) [7].
Figura 2. La cattiva condotta scientifica che ha dato luogo ad un “cartello delle citazioni” denunciato dalla European Geoscience Union (Fonte dell’immagine è il rif. [7])
Come funziona questo “cartello” di cattiva scienza?
Faccio un esempio molto semplice. Conduco una ricerca; ottengo quelli che per me sono risultati innovativi che ritengo degni di essere comunicati alla comunità scientifica di cui faccio parte; scrivo un rapporto in cui descrivo i motivi che mi hanno spinto a studiare ciò che mi accingo a comunicare; riporto il modo con cui ho cercato di rispondere alla mia domanda; traggo le mie conclusioni; invio il mio studio ad una rivista che ritengo più adatta a ricevere la mia comunicazione. A questo punto aspetto comunicazione dall’editor-in-chief della rivista in merito a 1. corretta ricezione dello studio, 2. valutazione del mio lavoro da parte di revisori anonimi che hanno il compito di valutare la congruenza dei dati sperimentali con le ipotesi e le conclusioni che ho descritto, 3. decisione definitiva dell’editor-in-chief con possibilità di pubblicazione dello studio “as it is” (ovvero senza alcuna modifica), “with minor revisions” (ovvero con qualche piccola modifica formale, ma non sostanziale), “with major revisions” (ovvero con modifiche sostanziali perché i revisori anonimi hanno riscontrato delle incongruenze).
FINO AD ORA TUTTO PERFETTO. DOVE È L’INGHIPPO CREATO DA QUESTO ENNESIMO EPISODIO DI CATTIVA SCIENZA?
Uno dei parametri che fanno l’eccellenza di una rivista è il numero di lavori pubblicati sulla stessa e che sono in grado di avere un forte impatto sulla comunità scientifica di riferimento. Questo parametro è quello che viene conosciuto come “impact factor” (IF). Più alto è il valore dell’IF, più elevato è il prestigio scientifico di una certa rivista. L’impact factor della rivista cresce nel tempo abbastanza lentamente. E’ raro che possa “saltare” da un valore basso ad uno elevatissimo. E’ capitato, ma si tratta di casi eccezionali come quello di riviste in cui vengono pubblicati per la prima volta lavori rivoluzionari che lasciano traccia e raggiungono le migliaia di citazioni in pochissimo tempo (Figura 3).

Figura 3. Variazione dell’impact factor di due riviste scientifiche. Si tratta di Nature (in blu) e PlosOne (in arancione). Il valore dell’impact factor è influenzato da pochi lavori molto citati in tempi relativamente brevi. (Fonte)

La Figura 4 mostra la crescita dell’impact factor di una rivista (Land Degradation and Developments) dal 1997 al 2015. I valori dell’IF oscillano di poco e mediamente crescono di poche unità (0.2-0.5 e simili) fino al 2013. Dal 2013 al 2014 c’è un incremento di 1.03, mentre dal 2014 al 2015 l’incremento è di 5.1. E’ possibile che tra il 2012 ed il 2014 (l’IF si calcola sul numero di citazioni dei tre anni precedenti a quello preso in considerazione) sia stato pubblicato un lavoro (o pochi lavori) di carattere eccezionale che ha ricevuto tantissime citazioni. In altre parole, è possibile che uno o più studi pubblicati sulla rivista siano stati così innovativi da aver avuto un fortissimo impatto sulla comunità scientifica di Soil Science che fa capo a tale rivista.
Figura 4. Variazione dell’impact factor di Land Degradation and Developments dal 1997 al 2015 (Fonte dell’immagine è il rif. [8])
A seguito di una denuncia anonima di questo episodio di cattiva scienza in cui un tale “Akhenaten McDonald” (Figura 2) riporta di scorrette pratiche scientifiche, la EGU, la società scientifica a cui fa capo la rivista LDD incriminata, ha effettuato una indagine i cui risultati si possono leggere nei riferimenti [7] e [8]. E’ emerso che l’editor in chief di LDD (ora rimosso per violazione del codice etico) nei tre anni (2013-2016) in cui è stato in carica ha imposto agli autori dei lavori inviati all’attenzione delle riviste di cui egli era in qualche modo responsabile, la citazione di un totale di ben 622 lavori. Questi suggerimenti hanno contribuito non solo all’incremento dell’IF osservato in Figura 4 per l’anno 2015, ma quasi certamente anche all’incremento del suo personale h-index. Quest’ultimo è un parametro personale che quantifica l’impatto del singolo ricercatore sulla sua comunità scientifica di riferimento; è simile all’IF, ma si riferisce alle persone, non alle riviste.
Non ho bisogno di tradurre quanto ricopio dal riferimento [8]:
“The main tool of this “citation cartel” is the “coercive citation”: these editors (sometimes even acting as reviewers) are systematically requesting to authors the addition of some references in their manuscripts. This “recommendation” is targeted to selected journals and selected papers, irrespective of its usefulness”.
CONCLUSIONI
E’ questo atteggiamento furbesco sintomo di cattiva scienza e che elude il rapporto di fiducia tra scienziati e, di conseguenza, tra scienziati e pubblico che innesca quella sfiducia nella scienza di cui, purtroppo, è pregno il web.
Gli individui che si comportano in questo modo NON sono miei colleghi; non sono colleghi di nessuno degli scienziati (per fortuna, sono la maggioranza) che cercano di fare il proprio lavoro con passione ed abnegazione.
AGGIORNAMENTO (10 marzo 2017):
https://www.journals.elsevier.com/geoderma/news/from-the-editors-letter-to-the-geoderma-community
Riferimenti:
  1. https://www.facebook.com/notes/rino…
  2. https://www.facebook.com/RinoConte1…
  3. T. Kuhn, la struttura delle rivoluzioni scientifiche, Piccola biblioteca Einaudi ed. 2009
  4. https://www.facebook.com/RinoConte1…
  5. https://www.facebook.com/RinoConte1…
  6. https://www.facebook.com/RinoConte1…
  7. https://static2.egu.eu/media/filer_…
  8. https://www.scribd.com/document/339…#
Fonte dell’immagine di copertina: https://oggiscienza.it/tag/scienza-…
Share