Desomorfina. La droga sintentica conosciuta col nome di krokodril

E’ recente la notizia che in Russia (ed ora a quanto sembra anche in Italia) stia “spopolando” una droga dagli effetti devastanti sull’organismo. Si tratta della desomorfina, meglio conosciuta col nome di krokodril.

La notizia, in realtà, apparve già qualche anno fa su una rivista on line di dubbia qualità, ma più recentemente è stata oggetto di un’inchiesta di Le Iene,  e di articoli su varie testate giornalistiche come Il Giornale ed Il Corriere della Sera.

In tutti i casi si riportano di effetti devastanti sull’organismo come tromboflebite, ulcerazioni, cancrena e necrosi fino ad arrivare anche alla morte.

Cos’è la desomorfina?

 

Figura 1 Struttura molecolare della morfina e della desomorfina

La desomorfina è un derivato della morfina, un metabolita (alcaloide) contenuto nell’estratto di papavero (Papaverum sonniferum). Differisce dalla morfina per un gruppo ossidrilico (-OH) ed un doppio legame (vedere il cerchio nella Figura 1). Da un punto di vista sintetico si ottiene a partire dalla codeina che è la forma metilata della morfina.

La sintesi

In Figura 2 (ripresa da Wikipedia) si riporta lo schema sintetico della desomorfina a partire dalla codeina.

Figura 2 Schema sintetico della desomorfina

Il processo sintetico prevede una prima trasformazione della codeina in alfa-clorocodeina mediante l’uso del cloruro di tionile (SOCl2). A questo link la scheda di sicurezza del cloruro di tionile.

Il cloruro di tionile ha un punto di ebollizione di 76°C ed una tensione di vapore di circa 12 kPa a 20°C. Questo vuol dire che a temperatura ambiente i suoi vapori possono essere presenti in quantità tossiche per l’organismo. In acqua avviene una decomposizione del cloruro di tionile secondo lo schema sottostante (si formano acido solforoso e acido cloridico):

SOCl2 + 2H2O → H2SO3 + 2HCl              (1)

Dal momento che il nostro organismo è formato per lo più (80%) di acqua, un qualsiasi contatto del SOCl2 con le nostre mucose o con la nostra pelle provoca irritazioni pericolose dovute proprio agli acidi sopra-descritti (per inciso l’HCl è il componente dell’acido muriatico e l’H2SO3 uno dei componenti delle piogge acide). A causa delle irritazioni prodotte dal cloruro di tionile, il primo istinto è quello di usare acqua per ripulirsi. Ciò, invece, è assolutamente deleterio perché non farebbe altro che spostare la reazione (1) a destra con conseguente aggravio delle conseguenze sulle mucose o sulla pelle.

Da tutto questo una prima conclusione: gli effetti della desomorfina sono dovuti alla presenza di cloruro di tionile residuo della sintesi sopra descritta.

Dopo l’alogenazione , avviene una riduzione catalitica seguita da dealogenazione. Questo processo, in genere, si fa usando idrogeno (H2) oppure, molto più economicamente, boridruro di sodio (NaBH4). Benché riducente blando, il boridruro di sodio (scheda di sicurezza a questo link) è mortale per inalazione ed ingestione ed irritante per la pelle e le mucose. In questo caso si può utilizzare acqua per neutralizzarlo.

Ecco la seconda possibile fonte di pericolosità del Kokrodil. Eventuali tracce di boridruro di sodio (o di un qualsiasi altro agente riducente) possono indurre all’assunzione di acqua che mescolata al SOCl2 di cui sopra comporta rischi notevoli.

Ultimo step della sintesi è la demetilazione. I gruppi eterei si idrolizzano solo in ambiente fortemente acido. Anche in questo caso, lavaggi non efficaci delle miscele di reazione possono lasciare tracce degli acidi forti usati nella sintesi che potrebbero portare alle proprietà irritanti del Kokrodil.

Conclusioni

Da tutto quanto riportato in questa nota si evince che gli effetti deleteri del krokodril non sono dovuti alla desomorfina come tale, ma  alla presenza  di impurezze varie derivanti dalla sintesi di questa droga chiamata anche “droga dei poveri”.

Nota. Questo breve articoletto sulla desomorfina nasce grazie a una discussione avvenuta nel 2012 nel gruppo Facebook Fisica Quantistica ed Assurdità

Perché le dita raggrinziscono quando restano troppo tempo in acqua?

Quante volte vi è capitato di restare troppo tempo in acqua? E quante volte avete notato che uscendo dal bagno avete le punte delle dita raggrinzite? Vi siete mai chiesti perché? E vi siete mai chiesti qual è il vantaggio evolutivo che possiamo avere da una cosa del genere?

Sembra quasi banale, ma solo nel 2013 è stato pubblicato un lavoro serio in merito a questa questione. Quindi, non possiamo dire che le informazioni che sto per dare siano troppo vecchie. Si tratta di qualcosa che è stato spiegato solo ieri. Qui il link.

Veniamo al punto.

La Figura 1 mostra l’anatomia della nostra pelle. Fino a qualche anno fa, si riteneva che il raggrinzimento delle dita fosse dovuto a processi osmotici a carico dello strato corneo più esterno dell’epidermide. In realtà, il raggrinzimento è dovuto ad una riduzione del volume dello strato “polposo” dell’epidermide ed è controllato dal nostro sistema nervoso.

È facile dimostrare che l’aumento del numero di grinze sulla pelle corrisponde ad un aumento di area superficiale della stessa. Ho già riportato una dimostrazione di questo tipo per altri sistemi, ma la tipologia di ragionamento si applica anche per superfici come la pelle che raggrinzisce.

Un elevato valore di area superficialedella pelle sulla punta delle zampette dei gechi spiega, per esempio,  le loro caratteristiche anti-gravitazionali.

Figura 1 Anatomia della pelle. (Fonte: http://health.howstuffworks.com/skin-care/information/anatomy/skin1.htm)

Infatti, grazie alla loro elevata area superficiale, le dita dei gechi sono in grado di realizzare delle interazioni di Van derWaals molto forti con le superfici con cui vengono a contatto. Queste forze di attrazione sono così intense che riescono a vincere la forza peso che tenderebbe a spingere il geco verso la superficie terrestre.

L’aumento di area superficiale delle dita umane, conseguente al raggrinzimento per immersione prolungata in acqua, ha un significato evolutivo preciso secondo i ricercatori della Newcastle University. A quanto pare abbiamo conservato questa caratteristica perché ci serve per poter usare le mani, senza che gli oggetti ci scivolino, in condizioni di elevata umidità o quando siamo sott’acqua. L’aumento di area superficiale, dovuto agli impulsi nervosi che consentono la diminuzione del volume della polpa epidermica, aumenta la capacità di presa grazie all’intensificarsi delle forze di interazione superficiale tra le nostre dita e ciò che afferriamo.

Non c’è che dire. I fenomeni naturali sono sempre affascinanti

Fonte dell’immagine di copertina: https://www.themarysue.com/water-wrinkles-purpose/

Scienza e paranormale. Considerazioni serali di uno studioso annoiato.

È da un po’ di tempo che frequento la rete. Nel 2009 mi sono iscritto a Facebook e, nel tempo, mi sono trovato a gestire diversi gruppi di carattere scientifico. Sono intervenuto con commenti più o meno pacati in diverse discussioni e mi sono sempre trovato ad affrontare persone che non avevano, e non hanno, idee chiare in merito alla scienza ed al suo impatto sulla società. Tra le varie discussioni, per lo più serali, avute in rete ne ricordo una con un utente in merito al rapporto tra scienza e paranormale. Questo utente si chiedeva :

Scienza e Paranormale: è possibile un incontro tra le due materie per un confronto costruttivo con pari dignità e rispetto o rimangono due mondi incompatibili ed agli antipodi nelle rispettive prigioni mentali?

Cerco di argomentare per chiarire cosa realmente penso del paranormale.

Da una banale ricerca in wikipedia, si trova che paranormale è “quel presunto fenomeno (detto anche anomalo) che risulta contrario alle leggi della fisica e agli assunti scientifici e che, se misurato secondo il metodo scientifico,risulta inesistente o, nel caso di fenomeno esistente, comunque spiegabile sulla base delle conoscenze attuali”. In altre parole il fenomeno paranormale è un fenomeno anomalo sul quale non è possibile, allo stato attuale, dare una spiegazione attendibile sulla base dei modelli scientifici in vigore.

I modelli scientifici sono, per loro natura, migliorabili dal momento che rappresentano solo una rappresentazione della realtà fenomenologica. Il modo più semplice per costruire questi modelli è quello di partire dal sistema semplificato, osservarne il comportamento, descriverlo matematicamente e quindi renderlo progressivamente più complicato. Se il modello ipotizzato per il sistema più semplice è robusto, allora esso sarà in grado di descrivere il comportamento (modello previsionale) del sistema via via più complesso. Nel momento in cui il sistema non può essere più descritto dal modello ipotizzato, questo non perde di validità, ma assume validità ristretta. Ovvero è valido solo per certe condizioni al contorno e non per tutte. Il cambiamento del modello per la descrizione del sistema complesso deve, necessariamente, includere quanto spiegato anche dal modello ristretto alle condizioni al contorno specifiche.

Un esempio per tutti. La legge dei gas ideali (PV=nRT) si applica solo per gas le cui particelle non interagiscono tra loro e sono puntiformi, cioè non hanno dimensione. I gas, in realtà, non solo sono costituiti da particelle che hanno un volume ma interagiscono anche tra loro. Tutti sanno (ed è intuitivo) che il moto stocastico delle particelle di un gas implica che esse si scontrino e rimbalzino in tutte le direzioni. Per tener conto sia delle interazioni tra le particelle e del fatto che il volume del gas è quello occupato dall’insieme delle particelle meno il volume delle stesse si elabora il modello di Van derWaals che tiene conto di questi due parametri. Questo modello, tuttavia, ha anch’esso validità ristretta perché, per esempio, non tiene conto della comprimibilità dei gas. Allora si elabora il modello del viriale. E potrei continuare.

l’osservazione sperimentale

Tutto quanto detto si basa su un fatto assolutamente incontrovertibile e da cui non si può prescindere: l’osservazione sperimentale. Affinché un modello possa essere validato ed essere ritenuto robusto (resistere nel tempo) è necessario fare le osservazioni sperimentali. Queste devono essere fatte secondo criteri ben precisi, ovvero il fenomeno deve essere sotto controllo ed essere riproducibile. Se questo non accade è impossibile elaborare un modello che abbia carattere predittivo generale. Dire che il fenomeno deve essere sotto controllo significa che bisogna conoscere tutti i parametri che consentono l’ottenimento del fenomeno e la sua osservazione. Per esempio, a seconda dei casi, possono essere importanti temperatura, pressione, umidità, fase del sistema etcetc etc. Alla luce dell’insieme di questi parametri si elabora un’ipotesi e si riproduce il fenomeno. Se il fenomeno non avviene nello stesso modo in cui è stato osservato in precedenza, allora vuol dire che non si sono considerate tutte le possibili condizioni al contorno. Bisogna, quindi, variare queste condizioni fino a che non si ottiene esattamente lo stesso fenomeno. A questo punto si incominciano a variare tutti i possibili parametri in modo da falsificare il modello. Questo vuol dire che si cerca di trovare in tutti i modi possibile quell’unico parametro o quella serie di parametri che rendono non vero il modello proposto. Quando questo avviene (ed è il 90% dei casi) si cambia ipotesi e si procede fino a che non si trova un modello che non si riesce a falsificare. Il punto successivo è quello di rendere pubblico il modello e fare in modo che chi lo desidera possa verificare la validità del modello.

Condizioni per un nuovo modello

Frequentemente accade che il modello venga falsificato da persone di gruppi di ricerca che non sono coinvolti fin dal primo momento nella ricerca del modello. Tuttavia, il nuovo modello proposto da questi nuovi ricercatori deve tener conto anche del vecchio, ovvero deve spiegare il comportamento già osservato dai primi ricercatori più le nuove scoperte. Se il modello modificato tiene conto solo delle nuove osservazioni non può essere valido, ma è valido (come detto prima) solo per le specifiche condizioni al contorno.

Fatta questa lunga premessa, si può dire che quelli che vengono ritenuti come fenomeni paranormali sono, in realtà, fenomeni anomali che non possono essere spiegati per diversi ordini di motivi. Il primo potrebbe essere la non riproducibilità del fenomeno. Se il fenomeno non è riproducibile, allora vuol dire che non si controllano tutte le condizioni al contorno perché il fenomeno accade una tantum e la sua rarità non consente di capire cosa bisogna controllare. Il punto di vista scientifico è, quindi, di lasciare il giudizio in sospeso fino a che non si sarà in grado di controllare tutte le condizioni al contorno.

I fulmini

Un esempio di quanto detto è quello dei fulmini di cui non si conosceva la natura fino a che non si è capita la chimica dell’atmosfera. Fino ad allora i fulmini erano considerati rivelazioni del divino. Un altro esempio sono i tornadi che ancora oggi sono difficili da modellizzare benché se ne sia capito molto. Ancora un esempio è legato alla teoria del flogisto che ha avuto un grande seguito fino a quando Lavoisier non ha capito che i processi di combustione sono dovuti a processi di ossidazione e non a perdita di un qualche cosa di non meglio definito. E potrei continuare. Tuttavia, la base comune di tutti questi fenomeni era la loro osservabilità, misurabilità e riproducibilità.

Il secondo motivo della anomalità dei fenomeni potrebbe essere semplicemente la loro non osservabilità. Ovvero il fenomeno semplicemente non è misurabile. Se un fenomeno non è misurabile vuol dire che non esiste, ma che è un’illusione della singola persona o della moltitudine. Qui l’esempio più classico è quello della pareidolia, della telecinesi e così via di seguito.

A questo punto si potrebbe obiettare, come ha fatto l’utente che ha iniziato questo confronto dialettico, che:

Io non posso dire che Diaspar non esiste in quanto la scienza non lo ha mai dimostrato

In realtà questo esempio è fuori luogo, scientificamente parlando, perché parte da un presupposto sbagliato. Infatti, questo commento implica la volontà da parte dello scienziato di non voler scientemente dimostrare l’esistenza di Diaspar, termine usato dall’utente per indicare un generico fenomeno paranormale. Scopo della scienza non è quello di dimostrare l’esistenza o meno di qualcosa. Lo scopo della scienza è quello di spiegare come avvengono i fenomeni osservabili. Se io non sono in grado di osservare Diaspar, semplicemente per me non solo non esiste, ma non ha alcun senso spiegarne il comportamento.

Cosa si conclude da tutto questo? Che i fenomeni paranormali non sono altro che il frutto della fantasia soggettiva. Non hanno alcun riscontro reale e rientrano nell’ambito delle favole.

Critica alle critiche. Un errore comune nel processo di debunk

Il processo di debunk è estremamente importante in questa epoca famosa per la post-truth. Tutti possono scrivere in rete e tanti si inventano notizie per acchiappare click e guadagnare con la pubblicità. Molti sono, però, in cerca di notorietà per soddisfare il proprio egocentrismo. Tra questi anche molti studiosi che utilizzano questa notorietà per reperire fondi per portare avanti ricerche piuttosto improbabili. Ed ecco che così nascono e si diffondono movimenti a favore dell’omeopatia (che altro non è che un approccio magico alla risoluzione di problem di salute) e movimenti antivaccinisti (che, utilizzando paure ataviche ed ingiustificate, non fanno altro che aprire la strada a patologie che solo apparentemente sembrano innocue o debellate).

Ben vengano allora blogger, youtuber ed altri personaggi che dal mondo scientifico si immettono nella divulgazione per contrastare in modo corretto, con informazioni di prima mano, l’onda antiscientifica. Leggo sempre con piacere la competenza con cui i debunker (nome corretto di chi lotta contro I movimenti antiscientifici) affrontano i “fuffari” in rete.

Nei giorni passati ho letto con enorme interesse un articolo scritto dal Dr. Salvo Di Grazia conosciuto in rete come MedBunker. È a questo link.

Nel suo lavoro, MedBunker affronta con competenza e cognizione di causa i problemi legati all’intervista rilasciata dalla Dr.ssa Gatti nel servizio della trasmissione Report in merito ai vaccini.

MedBunker ci fa capire come le affermazioni fatte dalla Dott.ssa Gatti in merito alle nanoparticelle nei vaccini siano infondate. Lo fa in modo molto semplice.

Tanto per capire di cosa si parla, le nanoparticelle sono sistemi solidi dispersi in un mezzo qualsiasi e si distinguono, solo ed esclusivamente, per le loro dimensioni. Il suffisso “nano”, infatti, significa 10-9, ovvero 1/1000000000. Anteporre il suffisso “nano” alla parola “particella” significa solo dire che si stanno prendendo in considerazione sistemi solidi le cui dimensioni ricadono nell’ordine del miliardesimo di metro. In altre parole, le nanoparticelle possono essere di ogni tipo. Esistono nanoparticelle di origine organica, come nanoparticelle di origine inorganica.

Quando insegno la chimica del suolo, evidenzio che sistemi chimici che hanno le dimensioni anzidette e che sono disperse nella fase acquosa dei suoli, costituiscono quelli che vengono indicati come “colloidi del suolo”. I minerali argillosi e la sostanza organica naturale sono i due tipici esempi di “nanoparticelle” (i primi di origine inorganica, la seconda di origine organica) presenti in natura.

MedBunker ha ragione. Le nanoparticelle sono ovunque. Sono tossiche? Dobbiamo averne paura? Certamente no. La tossicità di un sistema chimico (qualunque sia la sua dimensione) dipende da tanti fattori tra cui, non ultimo e molto importante, la concentrazione. È la dose che fa il veleno come ci ha insegnato Paracelso. Tuttavia non voglio scrivere un trattato di tossicologia chimica.

In questa sede voglio centrare la mia attenzione su quello che io reputo un errore sempre più frequente nei processi di debunk e che potrebbe, a mio avviso, spuntare le armi che abbiamo a disposizione per contrastare il proliferare di sciocchezze on-line. Prendo ad esempio MedBunker solo perché è l’ultimo degli articoli in cui ho notato questo errore. Non me ne voglia Salvo Di Grazia se uso il suo lavoro per scrivere questa nota. La stessa tipologia di errore l’ho trovata ovunque, anche nelle discussioni interminabili nei vari siti di debunk che gestisco in rete.

MedBunker, dopo aver smontato le argomentazioni della Dottoressa Gatti in merito alle nanoparticelle nei vaccini, scrive:

Il suo microscopio ha trovato migliaia di nanoparticelle in flaconi di vaccino. Prima lo ha fatto sapere tramite internet e poi con un libro, edito da Macrolibrarsi, casa editrice specializzata in libri sui misteri, sugli UFO e sui poteri paranormali. Ma in effetti non era sufficiente e tutti le chiedevano a gran voce di pubblicare (come dovrebbe fare qualsiasi scienziato) in una rivista scientifica, non ci pensa due volte ed in effetti lo faPeccato che la rivista scientifica che ha scelto è praticamente sconosciuta, non ha nemmeno un “impact factor” (fattore d’impatto, misura l’importanza di una rivista scientifica) ed il suo editore, Medcrave, è noto per essere un “predatory journal“, cioè un editore che accetta qualsiasi cosa, dallo studio vero a quello falso o stupido, dietro pagamento, protagonista persino di un editoriale del BMJ sulle mail indesiderate, lo spam, che arriva ai ricercatori con la richiesta di pubblicare qualcosa“.

Era proprio necessario invocare i “predatory journals”? Era proprio necessario evidenziare che il giornale scelto dalla Dottoressa Gatti è privo di impact factor?

Come probabilmente è noto, sono nel mondo scientifico da quasi una trentina di anni. In tutti questi anni ho operato come peer reviewer (ovvero revisore scientifico) per tantissime riviste. Da Nature a Ciencia Rural, la prima con impact factor altissimo, la seconda con impact factor molto basso, ma egualmente dignitosa e piena di lavori estremamente interessanti. Ho operato come revisore scientifico per riviste appena nate prive, per questo motivo, di impact factor e per riviste che nel tempo non hanno mai avuto un impact factor. Ebbene sì, per essere indicizzati ed avere un IF bisogna affidarsi alla Thomson Reuters, agenzia privata, oggi proprietà della Clarivate Analytics,  che chiede un “obolo” che non tutti sono in grado di/o vogliono pagare. In alternativa indicizzazioni gratis si possono ottenere mediante altre agenzie come Google Scholar, Scopus, ResearchGate ed oltre. Spuntano agenzie di rating bibliografico ogni momento. Non è detto che una rivista indicizzata con Google Scholar, Scopus o altro, sia indicizzata anche dalla Thomson Reuters. Ed in ogni caso, quale indice è quello più qualificato? Chi decide quale parametro bibliometrico è migliore? In ambito accademico e per il mio settore disciplinare, per esempio, si è deciso arbitrariamente che Thomson Reuters e Scopus debbano essere le uniche agenzie da considerare per il superamento dell’abilitazione scientifica nazionale. Altri settori possono decidere altrimenti. Molti colleghi decidono arbitrariamente che il loro indice di Hirsch (o h-index, un parametro quantitativo che misura l’impatto che il singolo scienziato ha sulla sua comunità di riferimento) debba essere quello di Google Scholar perché questo motore è in grado di indicizzare molto di più rispetto ai motori precedentemente citati. Io stesso per esempio ho un h-index che varia in funzione del motore di ricerca presso cui i miei lavori sono indicizzati. Un motore di ricerca che indicizza un numero di lavori inferiore ad un altro, produrrà un h-index inferiore perché, gioco forza, non può prendere in considerazione le citazioni dei lavori che non è in grado di indicizzare. Non si possono mettere nel computo “oggetti” che, di fatto, per quel motore non esistono.

Lo stesso dicasi per quanto riguarda l’impact factor delle riviste di cui ha parlato MedBunker nel sua articolo. Ci sono riviste indicizzate un po’ ovunque e non sempre l’IF elaborato dai diversi database coincide.

È vero. Ci sono riviste “predatorie” che pubblicherebbero di tutto pur di battere cassa. Ma è altrettanto vero che il giudizio che un peer reviewer elabora su uno specifico articolo è indipendente da tutti i parametri quantitativi precedentemente citati. Ogni reviewer (revisore) valuta il merito del lavoro che è chiamato a giudicare. Non si possono certo replicare in laboratorio gli esperimenti di cui si legge in un lavoro (è impossibile e un revisore avrebbe bisogno di fondi e personale in gran quantità pe replicare gli esperimenti di altri). Si valuta la congruenza tra il disegno sperimentale, i dati ottenuti e le conclusioni elaborate. Se c’è congruenza, il lavoro passa e viene pubblicato. Se non c’è congruenza, il lavoro viene rifiutato o accettato con major/minor revisions, ovvero si chiede all’autore (autori) di rivedere il lavoro e la procedura sperimentale perché sono state notate delle fallacie.

In modo oggettivo MedBunker evidenzia che il lavoro della Dr.ssa Gatti è stato preso in considerazione nel merito da qualcun altro. Ed è ciò che, secondo me, deve essere l’unica cosa da prendere in considerazione: tutto il resto non conta. Che la casa editrice sia “predatoria”, che la rivista non sia “impattata” non sono argomentazioni da prendere in considerazione. Ciò che va evidenziato è l’incongruenza del disegno sperimentale rispetto ai dati prodotti ed alle conclusioni raggiunte. Nient’altro. Il lavoro è stato pubblicato. È stato oggetto di revisione? Sì. Allora bene. La revisione non è stata assegnata a “giudici” esperti. Questo deve essere segnalato alla rivista che prenderà, poi, le opportune decisioni. È così che, a mio avviso, si cresce. Non puntando il dito contro il contenitore per evidenziare le mancanze del contenuto.

In merito alle riviste predatorie ed al perché su di esse molti autori Italiani inviino i loro prodotti, nonché i limiti dei database che indicizzano le riviste predatorie, si trova qualcosa a questo link o a quest’altro.

Fonte dell’immagine di copertina: http://www.metropolitanrisk.com/about-us/our-blog/7-common-commercial-insurance-myths

Medicina e pseudoscienza. Considerazioni e note

Medicina e pseudoscienza.
La salute tra scienza e falsi miti nell’era 2.0
“.

È stato un convegno molto interessante e particolarmente istruttivo. Si sono ritrovati a Roma, nella sala convegni dell’Ergife Palace Hotel dal 7 all’8 Aprile 2017, medici, psicologi, chimici e divulgatori scientifici di varia estrazione culturale per fare il punto della situazione sul livello della comunicazione scientifica nell’era della post-verità. Oggi più che mai si sente la necessità di scendere dai propri scranni – una volta si sarebbe detto “uscire dalla torre eburnea” – per informare, al di fuori delle aule universitarie, l’intera comunità in merito al progresso a cui siamo arrivati per la salvaguardia della salute pubblica. Oggi, come un secolo fa, impazzano maghi, imbonitori e ciarlatani. Questi, sfruttando la buona fede delle persone, fanno circolare informazioni perniciose e fuorvianti in merito all’efficacia di farmaci e cure per malattie più o meno invalidanti. Il loro solo scopo è quello di vendere i propri rimedi universali a prezzi esorbitanti per arricchirsi mediante lo sfruttamento della disperazione di amici, parenti e familiari di persone affette da patologie attualmente incurabili e particolarmente dolorose. Fino ad ora gli esponenti del mondo scientifico avevano deciso di non scendere “in singolar tenzone” contro antivaccinisti, omeopati, venditori di fumo convinti che la “verità” si facesse strada da sola nelle menti delle persone; ma soprattutto convinti che la propria attività scientifica fosse molto più importante che scendere in strada a conversare col “volgo”: “faccio grandi scoperte che mi porteranno gloria e fama. Il popolo comune mi dovrà ringraziare per i miei sforzi”; ecco quello che, più o meno velatamente, tutti abbiamo pensato.
Purtroppo non funziona così.
Attualmente le fonti di informazione sono molteplici; non ci sono più solo le aule universitarie a cui possono accedere potenzialmente tutti, ma che sono aperte, praticamente, solo a chi se lo può permettere.

Il ruolo della rete

Oggi la rete è quella che corrisponde all’enciclopedia Britannica di quando ero piccolo. Anzi, sotto il profilo economico, la rete internet è anche migliore dell’enciclopedia Britannica perché più accessibile. Mentre scienziati e tecnici erano impegnati a discutere tra loro e produrre informazione su riviste tecniche non accessibili a tutti, i venditori di olio di serpente accedevano alla rete ed occupavano gli enormi spazi che gli scienziati avevano lasciato liberi nell’assurda convinzione che le cose si sarebbero “aggiustate” da sole. Il risultato è stato il proliferare di teorie astruse come quelle sulla terra piatta, l’antivaccinismo e l’omeopatia, solo per citarne alcune. Ma se la terra piatta può essere considerata una nota di colore nell’enorme autostrada dell’idiozia umana, antivaccinismo, omeopatia, teorie anti-chemioterapiche etc. non sono così innocue. I disperati, quelli che hanno ingiustificate paure ataviche, coloro che hanno timore delle responsabilità, possono “attaccarsi” alle forme più disparate di antiscientificità e diffondere informazioni sbagliate col rischio di sottrarsi alle cure efficaci o promuovere il ritorno di epidemie di patologie erroneamente ritenute scomparse. È notizia dell’ultima ora, per esempio, che gli Stati Uniti considerano l’Italia un paese a rischio a causa della progressiva riduzione vaccinale che sta facendo aumentare il numero di casi di morbillo nella popolazione. Pur essendo noi nell’Europa avanzata tecnologicamente, siamo considerati come un paese in via di sviluppo. E questo grazie alla capacità imbonitrice di maghi e fattucchieri ed alla “ignavia” di chi ha sempre considerato la comunicazione divulgativa non importante nel panorama della propria attività scientifica.

TIPPING POINT

Il convegno organizzato dalla C1V edizioni è stato un punto di svolta.

Ha evidenziato tutte le carenze attualmente presenti nel mondo scientifico in merito alla comunicazione di massa ed ha puntualizzato che occorrerebbero strumenti migliori di quelli attuali per contrastare l’antiscientificità dilagante. Quali? Per esempio l’apertura di corsi universitari dedicati alla comunicazione scientifica. Non basta essere ottimi ricercatori per saper comunicare, così come non basta essere ottimi divulgatori per saper fare ricerca. Occorrono figure intermedie; figure multilingue, ovvero che siano in grado di comprendere sia il linguaggio ipertecnico degli scienziati che quello più popolare delle persone comuni che, col loro contributo, permettono il lavoro dei tanti, sebbene ancora troppo pochi, impegnati nella ricerca e nello sviluppo della conoscenza. Non è più il tempo dei cavalieri solitari che partono lancia in resta ed affrontano i pericoli da soli; non è più il tempo di far combattere battaglie epiche ed epocali a persone solitarie; persone come Piero Angela hanno fatto scuola; hanno aperto la strada. Ora tocca a tutti noi, coinvolti più o meno approfonditamente nello sviluppo della ricerca scientifica, scendere in strada e far capire che non siamo novelli Frankenstein, non siamo mostri che vogliono assoggettare il mondo ai propri desideri, ma solo persone che, per più o meno ottimi motivi, hanno solo il desiderio di far progredire l’umanità.

L’omeopatia. Una pratica esoterica senza fondamenti scientifici

OMEOPATIA: Il contesto storico

Il 10 (o l’11, non si sa bene) Aprile 1755 nasce a Meißen, in Germania, Samuel Hahnemann. Non tutti sanno di chi si tratti, ma basta una veloce ricerca in rete per scoprire che Samuel Hahnemann è colui che ha inventato l’omeopatia.

La seconda metà del Settecento e tutto l’Ottocento hanno visto progressi scientifici e tecnologici senza pari; basti pensare che tra il 1777 ed il 1778 Lavoisier scopre il ruolo dell’ossigeno nella combustione e nella respirazione animale[1]; tra il 1773 ed il 1780 Priestley scopre il ruolo delle piante nel purificare l’aria contaminata da anidride carbonica[1]; nel 1775 Cavendish propone un esperimento per misurare la densità della Terra mentre nel 1784 scopre la composizione precisa dell’aria oltre a proporre una sintesi dell’acqua[1]; nel 1783 i fratelli Montgolfier realizzano il sogno dell’uomo: il volo con la mongolfiera[2]; nel 1800 Volta scopre la pila[3]; tra il 1802 ed il 1810, Dalton enuncia la legge delle proporzioni multiple, la legge delle pressioni parziali ed introduce la teoria atomica[1]; nel 1803 Berthollet dimostra “che il risultato di una trasformazione chimica è modificato dalle proporzioni relative delle sostanze messe a reagire, e dalle condizioni fisiche – temperatura, pressione, ecc. – in cui essa avviene”[1]; nel 1804 Trevithick inventa la locomotiva a vapore su rotaia[4]; tra il 1803 ed il 1824, Berzelius scopre il cerio, il selenio, il torio, isola il silicio, lo zirconio ed il tantalio e studia i composti del vanadio, oltre a formulare per primo la teoria dell’isomerismo[1]; nel 1828, Wöhler per primo dimostra come un composto organico, ovvero un composto implicato nella vita, possa essere ottenuto dalla reazione di due composti inorganici, ovvero non coinvolti nei processi vitali, contribuendo ad abbattere la teoria della “vis vitalis”[5] proposta dal suo maestro Berzelius[1]; tra il 1814 ed il 1841 Avogadro pubblica i suoi lavori in cui dimostra che “volumi uguali di gas diversi, alla stessa temperatura e pressione, contengono lo stesso numero di molecole”[6], oltre ad elaborare teorie sulla densità dei gas e la costituzione della materia[1]; nel 1847, Semmelweis intuisce le cause della febbre puerperale e propone l’uso dell’ipoclorito di sodio per la disinfezione delle mani dei medici impegnati tra i reparti di ostetricia e di medicina legale[7]; intorno al 1860, Cannizzaro contribuisce a rafforzare le ipotesi di Avogadro, scopre che l’idrogeno è una molecola biatomica e pubblica la reazione di dismutazione della benzaldeide che oggi è conosciuta come reazione di Cannizzaro[1].

Dettagli molto più approfonditi e di carattere didattico sulla storia della scienza possono essere trovati sia nel riferimento [1] che nei riferimenti [8], [9], [10] e [11].

In pratica, il periodo in cui Hahnemann svolge la sua attività di medico vede la nascita e lo sviluppo di teorie più o meno note, oggi ancora valide, molte attualmente inglobate in modelli di carattere più generale, altre del tutto scomparse. Tra queste ultime ricordiamo la teoria della “vis vitalis”[5], elaborata da Berzelius, con la quale si tentava di spiegare l’origine della vita e la teoria della generazione spontanea[12] che, nella prima metà del 1800, era sostenuta ancora da personalità come de Lamarck e Saint-Hilaire. Queste erano teorie valide nel contesto storico in cui furono sviluppate quando ancora non si sapeva dell’esistenza di forme di vita microscopiche e non si disponeva degli strumenti adatti per poterle riconoscere.

La medicina era ancora agli albori come scienza e si basava essenzialmente sul fatto che le malattie erano intese come alterazioni degli equilibri tra i quattro umori (sangue, flemma, bile nera e bile gialla) e le quattro condizioni fisiche (caldo, freddo, umido e secco)[13]. Il ritorno all’equilibrio poteva essere assicurato solo attraverso pratiche che oggi noi chiameremmo magiche: purghe, unguenti, emetici e salassi.

Era anche il tempo in cui il metodo scientifico, basato sulla sperimentazione e la riproducibilità, veniva ampiamente applicato in molti rami della scienza sebbene, molte volte, con estrema rudimentalità (sia di esempio la storia di Semmelweis ostracizzato dalla comunità medica a causa delle sue osservazioni sperimentali[7]). Ed è stato proprio l’applicazione di un rudimentale metodo scientifico a portare Hahnemann all’elaborazione di quella che è indicata come “medicina omeopatica”.

Le origini dell’omeopatia

Nel tentativo di spiegare il significato di “malattia” e di “cura della malattia” in modo più efficace rispetto agli inefficienti riti magici che prevedevano purghe, unguenti, emetici e salassi, Hahnemann rielabora la teoria della “vis vitalis”[5] introducendo il concetto di malattia intesa come una alterazione dello stato di salute causato da un “miasma”[14]. Quest’ultimo viene considerato come una esalazione che altera il funzionamento della “vis vitalis” e, di conseguenza, le proprietà dell’organismo. Quando l’organismo tenta di opporsi spontaneamente all’aggressione del “miasma”, ottiene solo l’incremento della patologia. In altre parole, il “miasma” si identifica con una condizione progressivamente peggiorativa, non risolvibile spontaneamente, dello stato di salute [14]. Il “miasma”, inoltre, non agisce allo stesso modo su tutti gli organismi. Individui diversi sviluppano un tipo di malattia il cui percorso dipende dal loro personale modo di essere. In altre parole, la malattia è indipendente dall’ambiente e relativo invece alla costituzione interna dell’individuo. Da ciò nasce la necessità della cura soggettiva, non valida per tutti, individuata solo attraverso una indagine “olistica” che tenga conto dell’interazione della “vis vitalis” con tutte le componenti dell’organismo malato.

A una tale conclusione Hahnemann giunge applicando su se stesso il metodo scientifico basato sulle osservazioni sperimentali. Infatti, per capire in che modo la corteccia dell’albero della china agisse nel riordinare il flusso della “vis vitalis” nell’organismo ammalato di malaria, egli si sottopone (da sano) ad una cura che prevede dosi progressivamente più elevate della predetta corteccia. All’aumentare delle dosi, Hahnemann osserva sintomi del tutto simili a quelli della malaria: debolezza, brividi e febbre[13]. Quindi, se un individuo sano, che assume un dato rimedio, rivela i sintomi della malattia che viene debellata quando lo stesso rimedio è assunto da un individuo malato, ne viene che il modo migliore per eliminare le cause dell’alterazione alla “vis vitalis”, riportando l’organismo alle sue funzioni originali, è quello del “chiodo scaccia chiodo”, ovvero il rimedio deve indurre la stessa malattia che si intende sconfiggere. Da qui il termine “omeopatia” per indicare “il simile cura il simile” contrapposto ad “allopatia” in cui la malattia viene combattuta con rimedi che si oppongono alla stessa. Inoltre, Hahnemann suggerisce che più bassa è la concentrazione del principio che viene assunto dal malato e migliore è la sua efficacia, contravvenendo a quelli che erano i principi basilari della farmacologia ben noti anche nel suo tempo[13].
In particolare, egli suggerisce che per “attivare” la “vis vitalis” del rimedio è necessario effettuare diluizioni successive utilizzando il metodo della “succussione”, ovvero lo scuotimento sistematico delle miscele seguendo dei criteri che oggi definiremmo magici[13].

Il falso mito del riduzionismo scientifico

Oggi sappiamo che uno dei ruoli svolto dalla ventina di molecole ad azione antimalarica nella corteccia dell’albero della china è quello di inibire la sintesi di un enzima coinvolto nei processi di detossificazione del gruppo eme che si ottiene per effetto della “digestione” dell’emoglobina da parte dei parassiti che inducono la malaria. Infatti, il gruppo eme è tossico per questi parassiti. Essi dispongono di un enzima che distrugge l’eme rendendolo innocuo. Gli alcaloidi della corteccia dell’albero della china impediscono l’azione del predetto enzima e consentono all’eme di agire contro i parassiti stessi. Dettagli e meccanismi di azione dei diversi alcaloidi antimalarici si possono trovare in un documento word scaricabile qui.

La conoscenza del meccanismo di azione degli alcaloidi della corteccia della china è stata resa possibile da un approccio riduzionista, ovvero dalla considerazione che un qualsiasi complesso chimico (dalla roccia, ad un organismo monocellulare, fino all’uomo) è fatto dall’interazione di tante parti ognuna della quali ha una ben precisa funzione. Quindi, se vogliamo sapere come funziona un determinato metabolita, innanzitutto dobbiamo isolarlo e purificarlo. Una volta purificato ne individuiamo la struttura e ne comprendiamo il ruolo biologico sulla base del principio di relazione tra struttura chimica ed attività biologica: una molecola che ha una certa struttura chimica ha solo quella particolare funzione biologica. Una qualsiasi variazione strutturale (per esempio un cambiamento di isomeria) altera la funzione biologica della molecola che, di conseguenza, non è più in grado di assolvere al suo ruolo nell’organismo.

Solo chi non è troppo addentro a fatti scientifici, come spesso capita quando si interloquisce con pseudo filosofi che pensano di conoscere il mondo meglio di chiunque altro, ritiene che i processi di riduzione di un complesso alle sue componenti sia perdere di vista l’organismo in tutta la sua complessità. Le argomentazioni “olistiche” sostenute dai fautori dell’omeopatia si possono riassumere nella banale affermazione che le proprietà di un organismo vivente non sono date dalla somma delle singole componenti che lo caratterizzano, ma sono qualcosa di più. In altre parole, ancora più banalmente, secondo i fautori dell’omeopatia è sempre valida la regola che 2 + 2 > 4 (Figura 1).
Questa è una fallacia logica (oltre che ignoranza scientifica) che può essere confutata molto semplicemente facendo l’esempio dello studio delle proprietà dell’acqua.

Figura 1. Schema comparativo tra il metodo applicato dai fautori dell’omeopatia ed il metodo scientifico. Senza alcuna conoscenza di base, le proprietà dei sistemi complessi sembrano inconciliabili con le proprietà delle singole componenti. Il risultato sembra, quindi, che 2+2=10. In realtà, l’approfondimento delle proprietà chimico fisiche delle singole componenti, consente di spiegare le proprietà emergenti dalle interazioni tra singole molecole di acqua (ovvero, per es., che il ghiaccio galleggia sull’acqua liquida) che non sono racchiuse in nessuna delle singole componenti che contraddistingue la molecola. In definitiva, ogni singolo step conoscitivo corrisponde all’operazione (2 + 2 = 4). La somma totale delle conoscenze dà il risultato corretto di 10.

L’acqua è una molecola di formula H2O, ovvero è costituita da idrogeno ed ossigeno nel rapporto 2 : 1. L’idrogeno è un elemento della tavola periodica con numero atomico 1 e peso atomico di circa 1 u.m.a. (unità di massa atomica), l’ossigeno ha numero atomico 8 e peso atomico di circa 16 u.m.a. Queste informazioni, pur essendo basilari, non ci dicono assolutamente nulla in merito al ruolo svolto da idrogeno ed ossigeno nel modulare le proprietà dell’acqua. Per poter capire nei minimi dettagli il comportamento dell’acqua, abbiamo bisogno di un grado di conoscenza ulteriore. In altre parole abbiamo bisogno di sapere in che modo idrogeno ed ossigeno interagiscono tra loro. Per poterlo sapere abbiamo bisogno di introdurre gli orbitali atomici che si combinano a formare gli orbitali molecolari. Non è questa la sede per andare troppo nei dettagli.
Basti sapere che l’utilizzo del formalismo degli orbitali molecolari consente di capire che la molecola dell’acqua ha una struttura tetraedrica in cui due vertici sono occupati dai due atomi di idrogeno ed altri due dai doppietti solitari dell’ossigeno. Il centro del tetraedro è occupato dall’ossigeno. Queste informazioni non sono ancora sufficienti a capire perché l’acqua ha il comportamento che noi conosciamo, ovvero perché il ghiaccio galleggia e perché il volume dell’acqua aumenta quando la temperatura scende intorno ai 4 °C. Il gradino di conoscenze successivo consiste nel capire in che modo le diverse molecole di acqua interagiscono tra di loro. Senza utilizzare troppi dettagli, si può dire che le molecole di acqua, ognuna occupante una certa porzione di spazio tridimensionale, si legano tra loro mediante legami ad idrogeno in modo tale da formare dei “clusters” (ovvero gruppi di molecole) fatti da tetraedri in cui una molecola di acqua centrale lega altre quattro molecole di acqua (via legami a idrogeno) disposte lungo i vertici di un tetraedro. Bastano queste informazioni a spiegare perché il ghiaccio galleggia? Non ancora. Abbiamo bisogno di un andare un gradino oltre le nostre conoscenze. Per poter spiegare la più bassa densità del ghiaccio rispetto all’acqua liquida, abbiamo bisogno di sapere quali sono le peculiarità del legame a idrogeno. Affinché un legame a idrogeno si possa formare, devono essere rispettati sia dei requisiti energetici che dei requisiti geometrici. Questi ultimi consistono nel fatto che il legame O-H (legame covalente) in una molecola di acqua deve essere allineato col legame H…O (legame a idrogeno) a formare un unico asse (geometria lineare del legame a idrogeno)[15]. Quando l’acqua si raffredda, la geometria lineare si deve conservare. Questo implica che le diverse molecole di acqua si dispongono in posizioni ben precise allontanandosi le une dalle altre ed aumentando, di conseguenza, lo spazio tra di esse con diminuzione della densità. Il risultato finale di tutta questa conoscenza è che il ghiaccio galleggia sull’acqua liquida e, per questo, nel 1912 il Titanic[16], non potendo violare il principio di incompenetrabilità dei corpi[17], è affondato.

Come si evince dalla complessa spiegazione appena riportata (schematizzata nella Figura 1), da nessuna parte del ragionamento basato su modelli scientifici è riportato che 2 + 2 è diverso da 4. Anzi, le proprietà dell’acqua solo apparentemente sembrano essere un miracolo. Esse non sono altro che il risultato emergente dalla complessità delle proprietà chimico fisiche delle singole componenti della molecola in cui ogni livello di conoscenza corrisponde alla semplice operazione matematica (2 + 2 = 4). È l’assenza di conoscenze, associata alla convinzione che le spiegazioni scientifiche siano intuitive (mentre tutte le spiegazioni scientifiche sono contro intuitive), a generare i mostri pseudo scientifici che nella fattispecie si identificano con l’omeopatia.

Il falso mito della memoria dell’acqua

Non è un caso che l’acqua sia stata usata come esempio per evidenziare le fallacie cognitive di chi pensa che l’omeopatia sia la panacea di ogni male. Attualmente, non essendo più sostenibile la concezione di “vis vitalis”, i supporters dell’omeopatia si aggrappano all’idea che la struttura dell’acqua sia come un materasso memory-foam. In pratica, sulla base di lavori scientifici di cui si è dimostrata l’inconsistenza[18], viene affermato che la validità dell’omeopatia risiede nel fatto che la struttura dei “clusters” dell’acqua è modificata dalla presenza del principio attivo. L’impronta del principio attivo rimane inalterata nei processi di diluizione. L’alterazione della struttura dei “clusters” indurrebbe delle variazioni nei campi elettromagnetici generati dagli elementi che compongono l’acqua. Sono questi campi elettromagnetici che indurrebbero il processo di guarigione dell’organismo malato[18]. A parte l’inconsistenza scientifica delle affermazioni anzidette (nessuna di esse è mai stata provata), proviamo a ragionare sulle alterazioni dei campi elettromagnetici.

Una tecnica analitica molto nota in chimica è la risonanza magnetica nucleare[19]. Essa si basa sull’alterazione delle caratteristiche fisiche dei nuclei presenti nelle molecole grazie all’applicazione di campi magnetici aventi ben precise intensità. Senza entrare troppo nei dettagli che sono oltre gli scopi di questa nota, basti sapere che l’uso dei campi magnetici ad intensità variabile consente di monitorare la dinamica (ovvero il movimento) delle molecole di acqua in tutte le condizioni. Chi volesse approfondire può far riferimento ad un lavoro pubblicato su eMagRes nel riferimento [20]. Se i “clusters” dell’acqua fossero come i materassi memory-foam, ovvero se la rete tridimensionale di legami a idrogeno fosse modificata dall’impronta del principio attivo, ci dovremmo aspettare dinamiche differenti delle molecole di acqua soggette alle deformazioni anzidette. Queste dinamiche si dovrebbero riflettere sulla velocità con cui un nucleo (nella fattispecie quelli degli atomi di idrogeno dell’acqua) cede la sua energia per effetto dell’interazione con i campi magnetici ad intensità variabile. Ed invece il modello matematico che descrive la velocità appena citata e riportato nel riferimento [21] indica chiaramente che al tendere a zero della concentrazione di soluto (ovvero di un qualsiasi composto disciolto in acqua), l’acqua si comporta esattamente come se non avesse mai contenuto alcun soluto. Non c’è alcuna traccia della memory-foam, ovvero dell’impronta lasciata dal soluto nella rete tridimensionale dei legami a idrogeno. Questa riportata è solo una delle tante prove contro la memoria dell’acqua. Molte altre se ne possono trovare in letteratura e molti lavori pubblicati evidenziano gli errori commessi negli esperimenti a supporto della fantomatica memoria dell’acqua[18]. Da dove nasce la fama della memoria dell’acqua? Dal fatto che l’industria omeopatica è molto remunerativa: i formulati omeopatici costano parecchio e possono essere considerati a ragion veduta un vero e proprio lusso. Individuare una pseudo spiegazione scientifica aiuta molto nel marketing e nella vendita di prodotti omeopatici incrementando, in questo modo, l’indotto economico e l’arricchimento di gente senza scrupoli che sfrutta la credulità della gente. Inoltre, la pseudo spiegazione ammanta di scientificità qualcosa che scientifico non è, mettendo in pace l’animo delle persone che temono le proprie paure e hanno necessità di rivolgersi all’omeopatia. A nulla vale l’avvertimento in base al quale un formulato omeopatico funziona meglio se si fa una vita sana. Se si fa una vita sana, ovvero alimentazione corretta senza eccessi e sana attività fisica, non c’è bisogno né di medicinali veri e propri né di formulati omeopatici. Neanche vale dire che in caso di malattia conclamata il formulato omeopatico coadiuva le cure più tradizionali dall’efficacia acclarata. Lavori di letteratura dimostrano chiaramente che l’attività dei formulati omeopatici è del tutto simile al placebo[22] per cui, a parte influenzare l’approccio psicologico del paziente con la malattia, non hanno alcuna utilità medica.

Il falso mito dei miliardi di molecole nelle preparazioni omeopatiche

Ho già avuto modo di scrivere in merito al mito secondo cui i preparati omeopatici sono efficaci perché conterrebbero ancora miliardi di molecole di principio attivo[23]. Tuttavia, come dicevano i nostri antenati “repetita iuvant”. Innanzitutto, l’affermazione secondo cui in un formulato omeopatico si “agitano” miliardi di molecole fa un poco a pugni sia con la presunta memoria dell’acqua che col fatto che un prodotto omeopatico non è considerato un farmaco vero e proprio. Forse chi fa questa affermazione non si rende neanche conto che contraddice se stesso. Se il formulato omeopatico contiene miliardi di molecole di principio attivo, allora, secondo chi afferma ciò, la sua presunta efficacia è dovuta al fatto che può essere considerato alla stregua di un farmaco vero e proprio. E se è così, perché i formulati omeopatici non sono soggetti alla stessa legislazione (nazionale ed internazionale) dei farmaci veri e propri secondo cui prima di essere immessi nel mercato essi devono superare dei test molto stringenti in merito alla loro tossicità? Se l’attività dei formulati omeopatici è dovuta alla presunta presenza di miliardi di molecole, perché c’è bisogno di trovare una spiegazione scientifica in merito alla memoria dell’acqua dal momento che sono i miliardi di molecole ancora presenti ad avere una qualche attività?

Ma veniamo al punto. Chi afferma che nei formulati omeopatici ci sono miliardi di molecole che si agitano, non dice una sciocchezza vera e propria. Sta semplicemente usando una parte dei fatti rigirandoli a proprio uso e consumo secondo delle abitudini che sono consolidate e riconosciute. In ambito scientifico si parla di “cherry picking”, ovvero, tra tutto ciò che mi serve, prendo solo le informazioni che fanno comodo al mio caso e mi consentono di avallare le mie idee. Si chiama anche “bias cognitivo”. Si tratta della nostra predisposizione a voler prendere in considerazione solo ed esclusivamente ciò di cui siamo già convinti. Questi sono errori in cui possono incorrere tutti. Tuttavia, chi si occupa di scienza è, in genere, più allenato delle persone comuni, che non hanno basi scientifiche, e sanno riconoscere, per lo più, queste fallacie. Ai fini esemplificativi sono costretto ad entrare in alcuni tecnicismi che spero di spiegare nel modo più semplice possibile senza appesantire un discorso già pesante e tecnico di suo.

Prendiamo in considerazione una soluzione acquosa satura[24] di vitamina C (anche definito come acido ascorbico) che corrisponde ad una concentrazione di 1.87 mol/L ed indicata anche come 1.87 M[25]. Diluiamo questa soluzione di acido ascorbico (che tecnicamente si chiama soluzione madre) in un rapporto 1 : 100 con acqua. Diluire 1 : 100 significa che preso 1 della soluzione madre aggiungo 99 di acqua. Naturalmente mi sto riferendo ai volumi, per cui 1 mL di soluzione madre viene addizionato con 99 mL di acqua. Quale sarà la concentrazione finale? È facile. Basta semplicemente dividere la concentrazione della soluzione madre per 100, ovvero il volume espresso in millilitri della soluzione finale. Quindi la nuova soluzione ha concentrazione 1.87 x 10^(-2) M. Andiamo avanti e diluiamo la nuova soluzione in rapporto 1 : 100. Si ottiene una soluzione la cui concentrazione è la centesima parte di quella iniziale, quindi: 1.87 x 10^(-4) M. Se continuiamo n volte, la soluzione finale avrà concentrazione 1.87 x 10^(-2n) M.

Nel linguaggio usato dagli omeopati sto facendo le famose diluizioni CH, ovvero centesimali, per cui

CH = 1.87 x 10^(-2) M

2CH = 1.87 x 10^(-4) M

………..

nCH = 1.87 x 10^(-2n) M

Quale sarà il numero di molecole di acido ascorbico nella soluzione nCH? Si dimostra che il numero di molecole presente in una data soluzione si ottiene moltiplicando il numero di moli della sostanza per il numero di Avogadro[6], ovvero per un numero che è 6.022 x 10^23. Di conseguenza, il numero di molecole di acido ascorbico nella soluzione a concentrazione 1.87 x 10^(-2n) M sarà:

1.87 x 10^(-2n) x 6.022 x 10^23 molecole/L = 11.3 x 10^(23-2n) molecole/L

In pratica dopo 12 diluizioni centesimali (n = 12), si ottiene una soluzione che contiene 1.13 molecole per litro o, in soldoni, 1 molecola per litro. Ne viene che dopo 20 diluizioni centesimali (n=20), di fatto non c’è più nulla nella soluzione. Si tratta solo di solvente, ovvero di acqua.

Non voglio essere, però, così drastico e mi fermo a 5 diluizioni centesimali (n = 5). Il numero di molecole è 11.3 x 10^13 molecole/L. In effetti, nella soluzione 5CH ci sono 113000 miliardi di molecole per litro. Allora i fautori dell’omeopatia hanno ragione. Ci sono ancora miliardi di molecole in soluzione. Certo che ci sono! L’unico problema è che nel mondo biochimico (quello del quale dobbiamo tener conto quando si discute di salute umana) non conta il valore assoluto relativo al numero di molecole, ma la concentrazione delle stesse espressa in mol/L o M (si parla, in pratica, di effetto concentrazione). In altre parole 113000 miliardi di molecole corrispondono ad una concentrazione di 1.87 x 10^(-10) M. Cosa significa questo numero? Significa che ci sono circa 2 moli di acido ascorbico ogni 0.1 nL di acqua[26]. Questo corrisponde ad una concentrazione di 3.29 x 10^(-2) ppb[27], ovvero in un litro di acqua ci sono 3.29 x 10^(-2) μg di acido ascorbico . Se consideriamo che la dose minima giornaliera di acido ascorbico indicata nel Codex Alimentarius per evitare lo scorbuto è di 30 mg, ne viene che dovremmo bere circa 100 L di formulato omeopatico 5CH di acido ascorbico al giorno. Adesso, considerando che una giornata di veglia è fatta di 12 ore, possiamo concludere che dovremmo assumere almeno 8 L di formulato 5CH di acido ascorbico all’ora. Tuttavia, la dose letale media di acqua corrisponde alll’assunzione di 5 L in una sola ora. Ciò comporta la morte fisica. Il gioco omeopatico vale, quindi, la candela?

Conclusioni

La medicina omeopatica fa parte della nostra storia scientifica. È stato un modo per cercare di dare spiegazioni in un momento preciso del nostro tempo, quando le conoscenze biochimiche erano ancora agli albori e la delucidazione del metabolismo umano di là da venire. Non si può far finta che non sia esistita, ma certamente lo sviluppo e l’evoluzione delle conoscenze scientifiche hanno reso obsolete le trovate metafisiche di Samuel Hahnemann. Molte altre teorie sono apparse e poi scomparse nel corso della storia della scienza ed oggi le ricordiamo solo per il ruolo che hanno svolto nel contesto storico in cui sono nate. L’azione del tempo le ha rese obsolete e prive di significato. Oggi l’omeopatia può essere considerata, senza tema di smentita, solo una pratica esoterica priva di ogni validità scientifica e come un ramo secco nell’immenso albero delle nostre conoscenze.

Qui di seguito il video della mia presentazione sull’omeopatia tenuta al Caffè dei Libri di Bassano del Grappa il 29 Dicembre 2016

Riferimenti e note

[1] http://www.liberliber.it/mediateca/libri/t/thorpe/storia_della_chimica/pdf/thorpe_storia_della_chimica.pdf

[2] http://www.luccaballoonclub.it/docs/aerostatica.pdf

[3] http://online.scuola.zanichelli.it/chimicafacile/files/2011/02/app72.pdf

[4] http://www.cornish-mining.org.uk/sites/default/files/5%20-%20Richard%20Trevithick%20(1771-1833)%20and%20the%20Cornish%20Engine.pdf

[5] La “vis vitalis” è una forza metafisica che determina le proprietà strutturali e funzionali di ogni organismo. I patogeni responsabili delle malattie alterano la fluidità della “vis vitalis” e, di conseguenza, comportano alterazioni delle caratteristiche funzionali del corpo e le sensazioni sgradevoli associate alle malattie. Solo il mondo organico è caratterizzato dalla “vis vitalis” mentre è esclusa da quello inorganico. Mondo organico e mondo inorganico sono caratterizzate da chimiche differenti. La sintesi di Wöhler che converte isocianato di ammonio (un sale inorganico) in urea (un composto organico) è stato il primo esempio del superamento del concetto di “vis vitalis” legato alla incompatibilità tra chimica organica e chimica inorganica.

[6] Kotz J. C., Treichel P. M., Townsend J. R. Chimica, quinta ed. italiana, EdiSES, 2012

[7] http://www.treccani.it/scuola/lezioni/in_aula/fisica/storia_scienze/4.html

[8] Bill Bryson, breve storia di (quasi) tutto, Guanda editore

[9] Isaaac Asimov, Breve storia della biologia, Zanichelli

[10] Isaac Asimov, Breve storia della chimica, Zanichelli

[11] Isaac Asimov, Il libro di fisica, Ed. Oscar Mondadori

[12] La teoria della generazione spontanea si basa sull’assunzione che la vita sorga spontaneamente da materiale inanimato di natura organica in quanto dotato di “vis vitalis”. La vita non può nascere spontaneamente dal materiale inorganico in quanto questo non è dotato della “vis vitalis”. Benché ancora sostenuta da alcuni, già all’inizio del XIX secolo la teoria della generazione spontanea era considerata obsoleta perché erano stati fatti esperimenti che dimostravano come la vita non potesse essere generata dal materiale organico in assenza di aria. http://online.scuola.zanichelli.it/barbonescienzeintegrate/files/2010/03/V09_01.pdf

[13] Silvio Garattini, Acqua fresca, Sironi editore

[14] http://omeopatia.org/upload/Image/convegno/FAGONE-26-10-2011-Relazione.pdf

[15] http://www1.lsbu.ac.uk/water/water_hydrogen_bonding.html

[16] http://www.laputa.it/ritrovamento-titanic/#4/41.73/-49.95

[17] http://www.laputa.it/blog/del-perche-non-possiamo-attraversare-i-muri-come-harry-potter/

[18] http://www.nature.com/news/2004/041004/full/news041004-19.html

[19] Conte e Piccolo, (2007) Solid state nuclear magnetic resonance spectroscopy as a tool to characterize natural organic matter and soil samples. The basic principles, Opt. Pura Apl. 40 (2): 215-226 (http://www.sedoptica.es/Menu_Volumenes/Pdfs/259.pdf)

[20] Conte e Alonzo (2013) Environmental NMR: Fast-field-cycling Relaxometry, eMagRes 2: 389–398 (https://www.researchgate.net/publication/278307250_Environmental_NMR_Fast-field-cycling_Relaxometry)

[21] Conte (2015) Effects of ions on water structure: a low-field 1H T1 NMR relaxometry approach Magnetic Resonance in Chemistry 53: 711–718 (https://www.researchgate.net/publication/267288365_Effects_of_ions_on_water_structure_A_low-field_1H_T1_NMR_relaxometry_approach)

[22] Shang, Huwiler-Müntener, Nartey, Jüni, Dörig, Sterne, Pewsner, Egger (2005) Are the clinical effects of homoeopathy placebo effects? Comparative study of placebo-controlled trials of homoeopathy and allopathy The Lancet 366: 726-732 (http://www.thelancet.com/journals/lancet/article/PIIS0140-6736(05)67177-2/abstract)

[23] http://www.scetticamente.it/articoli/approfondimenti/244-sulle-dichiarazioni-della-siomi-la-societa-italiana-di-omeopatia-e-medicina-integrata.html

[24] Una soluzione si dice satura quando il soluto ha raggiunto la sua concentrazione massima nel solvente ed aggiunte successive determinano la precipitazione del soluto.

[25] M sta per molarità ed è un modo di esprimere la concentrazione del soluto in un solvente. Corrisponde al numero di moli (mol) di soluto per unità di volume di solvente espresso in litri (L). La mole, per convenzione internazionale, corrisponde alla quantità di sostanza contenuta in 0.012 kg dell’isotopo 12 del carbonio. Operativamente, per calcolare il numero di moli si divide il peso della sostanza di interesse, espresso in grammi, per il suo peso formula (o peso molecolare, nel caso di molecole) espresso in g/mol.

[26] Il simbolo nL sta per nanolitro e corrisponde alla miliardesima parte del litro.

[27] Il simbolo ppb indica le parti per miliardo. È un modo di esprimere la concentrazione non più in uso nel sistema internazionale (SI) pur essendo rimasto nel linguaggio tecnico di laboratorio. Se si prende un oggetto e lo si divide in un miliardo di pezzettini, uno solo di essi corrisponde ad una parte sull’intero miliardo. Nel nostro caso 1 ppb corrisponde ad 1 microgrammo (μg) di acido ascorbico per Litro di acqua.

Pubblicato anche su www.laputa.it/omeopatia

Gli OGM per le biodiversità

INTRODUZIONE AGLI OGM

Il tema degli OGM per le biodiversità e il pericolo che rappresentano è un cavallo di battaglia per i sostenitori anti-OGM. La loro idea è che gli organismi modificati geneticamente riducano la biodiversità degli ecosistemi con conseguente danni ecologici non più risanabili. Infatti, è ben noto che i vari comparti ambientali (residenza di forme di vita diversificate) siano risorse non rinnovabili, per cui i danni ad essi apportati si tradurrebbero nella perdita delle proprietà atte al sostentamento della vita. Questa argomentazione è ampiamente documentata  in tantissimi siti web.  Basta, infatti, ricercare in Google “OGM per le biodiversità” per venire inondati da centinaia, se non migliaia, di siti anti-OGM.

Nel mondo attuale in cui predomina la falsa idea della democraticità della scienza, ne viene che un utente medio (ovvero dalla cultura scientifica non troppo sviluppata) possa pensare che, se tanti, troppi, siti web dichiarano che gli OGM per le biodiversità siano pericolosi, questo sia un fatto reale e che la posizione pro-OGM da parte del mondo scientifico nasconda chissà quali trame oscure. Prevale, insomma, l’idea che il rumore di fondo sia paragonabile ed abbia la stessa rilevanza dei segnali, neanche molto sporadici, che si alzano ben al di sopra di tale rumore.

Cerchiamo di fare, invece, chiarezza per quanto possibile e vediamo di affrontare il problema nel modo più oggettivo possibile.

Affrontare un problema in modo oggettivo vuol dire applicare il metodo scientifico e cominciare, innanzitutto, a definire i contorni entro i quali ci si muove. Per delimitare i contorni anzidetti bisogna capire ciò di cui si parla.

COSA VUOL DIRE COMPARTO AMBIENTALE

È ben noto che l’acqua è un bene indispensabile del quale nessun organismo vivente può fare a meno. È il mezzo che consente la veicolazione dei nutrienti ed è il solvente nel quale si completano tutte le reazioni chimiche che caratterizzano il metabolismo sia animale che vegetale. Contaminare le acque vuol dire renderle inadatte al metabolismo come esso si è sviluppato nel corso degli eoni [1].

Una argomentazione analoga va invocata per il suolo. Anche se meno intuitivamente, il suolo va protetto esattamente come le acque. Dal momento che esso è la sede per la produzione alimentare ed è fonte del nostro nutrimento (sembra strano doverlo dire, ma i prodotti che si comprano al supermercato non crescono sui banconi degli stessi), contaminare un suolo o (più in generale) depauperarlo delle proprietà che lo caratterizzano, vuol dire ridurre drasticamente l’approvvigionamento alimentare in grado di sostenere tutte le forme animali e vegetali che popolano il nostro pianeta [1].

Anche l’atmosfera ha una importanza fondamentale nel sostenere la vita. È ben noto, infatti, che, grazie alla particolare miscela dei vari gas che la compongono, tutti gli organismi viventi sono in grado di esplicare le proprie funzioni. Rimanendo solo nell’ambito umano, una composizione atmosferica solo in minima parte diversa da quella che conosciamo (ovvero all’incirca 20% di ossigeno molecolare, 79% di azoto molecolare e 1% di altre tipologie di gas) non consentirebbe la nostra sopravvivenza. Infatti, al di sotto del 16% circa di ossigeno molecolare atmosferico moriremmo per asfissia, mentre concentrazioni molto elevate di ossigeno molecolare atmosferico comporterebbero la distruzione delle cellule secondo meccanismi che non sto a descrivere perché al di là degli scopi di questo semplice articoletto [1].

I tre sistemi citati, ovvero acque, suoli ed atmosfera (tralascio per semplicità il quarto che è quello dei sedimenti), sono tutti indispensabili al sostentamento della vita come noi la conosciamo e rappresentano tre comparti distinti dell’ambiente in cui viviamo. Pur essendo distinti per la loro natura chimica, essi non sono indipendenti gli uni dagli altri, ma  sono interconnessi secondo uno schema semplificato del tipo:

In altre parole, gli equilibri chimici alla base dello sviluppo di uno dei tre comparti influenzano tutti gli altri. Questo vuol dire che un contaminante immesso in atmosfera dall’attività antropica può ricadere al suolo attraverso le piogge; dal suolo può raggiungere le acque di falda mediante lisciviazione; da queste, infine, può arrivare ai fiumi ed al mare. Durante tutto questo percorso, il contaminante può entrare a contatto con la biosfera, ed in particolare con l’uomo, attraverso la catena alimentare con conseguenze più o meno drammatiche a seconda del livello di tossicità del contaminante stesso  [1].

COSA VUOL DIRE RISORSA NON RINNOVABILE

In termini ambientali, una “risorsa” è una qualsiasi fonte o un qualsiasi mezzo atto al sostentamento della vita [1, 2]. Alla luce di questa definizione, si può dire che i comparti ambientali descritti nel paragrafo precedente sono utili “risorse” per tutti gli esseri viventi. Non è difficile intuire, infatti, che senza aria e senza acqua non potrebbe esistere la vita come noi la conosciamo, così come senza suolo non sarebbe possibile alcuna produzione alimentare.

Sfruttare le risorse per il sostentamento della vita vuol dire usarle, da un lato, per migliorare la qualità dell’esistenza (per esempio, producendo l’energia necessaria per muoversi verso l’agognato luogo delle meritate  vacanze), dall’altro, per produrre gli alimenti che servono per sopravvivere (in modo da poter lavorare e guadagnare abbastanza per poter andare nei luoghi vacanzieri anzidetti). In ogni caso, lo sfruttamento delle risorse ambientali comporta il consumo delle stesse con riduzione progressiva delle capacità di sostenere la vita. Per esempio, usare acqua dolce nella lavatrice sottrae questa risorsa all’alimentazione; coltivare i campi per produrre alimenti  diminuisce la qualità dei suoli (laddove il concetto di qualità è di tipo positivo dal momento che ci si riferisce ad un insieme di proprietà che  consentono l’utilizzo dei suoli ai fini della produzione alimentare).

Il significato di “rinnovabile” si riconduce alla capacità della risorsa utilizzata (e, di conseguenza, consumata) di rigenerarsi in modo da consentirne un uso costante nel tempo [1, 2]. Questa visione di “rinnovabile”, tuttavia, è troppo generica perché non tiene conto del fatto che tutti i comparti ambientali sono rinnovabili su scale temporali che vanno molto oltre il tempo di vita medio degli esseri umani.

Perché una risorsa possa essere considerata “rinnovabile” e, quindi, utile al sostentamento della vita, è necessario che il tempo necessario per la sua rigenerazione sia almeno confrontabile con quello medio della vita umana. Per questo motivo, si può affermare che i comparti ambientali anzidetti, in grado di rigenerarsi in tempi molto più lunghi della vita media umana, sono delle risorse non rinnovabili.

COSA E’ LA SOSTENIBILITA’?

“Sostenibilità” è un termine usato a livello scientifico con diversi significati a seconda del contesto in cui viene usato. In particolare, in campo agricolo, “sostenibilità” si riferisce alla capacità di un sistema a mantenere la propria produttività costante, indipendentemente dal grado di alterazione a cui il sistema stesso è sottoposto [2]. Detto ciò, si può intuire che l’attività agricola in toto, ovvero anche quella ritenuta a impatto nullo come l’agricoltura biologica, ha un forte effetto sui suoli e sui diversi comparti ambientali. La lavorazione meccanica dei suoli, per esempio, se da un lato ne migliora l’ossigenazione e la strutturazione, dall’altro li rende più facilmente erodibili; le piante che assumono nutrienti durante le diverse fasi della germinazione e della crescita li sottraggono al suolo diminuendone, così, la fertilità se tali nutrienti non vengono opportunamente restituiti al suolo mediante fertilizzazione; l’irrigazione, necessaria per consentire la produzione vegetale, sottrae acqua potabile necessaria alla sopravvivenza umana; l’attività zootecnica oltre a sfruttare suolo (per la costruzione delle stalle e l’approvvigionamento alimentare degli animali) è associata anche alla contaminazione atmosferica in quanto gli animali producono gas serra; e potrei continuare. La conservazione delle risorse non rinnovabili passa necessariamente attraverso l’uso di pratiche agricole sostenibili quali, per esempio, quelle che limitano l’uso massivo di fertilizzanti inorganici favorendo l’applicazione di fertilizzanti organici; l’uso di tecniche colturali che limitano la produzione di gas serra (per esempio il minimum tillage e la semina diretta su terreno non lavorato) o il consumo di acqua potabile (per esempio la pacciamatura); la gestione integrata del suolo attraverso la lotta alla desertificazione e la corretta gestione dei suoli destinati sia alla produzione alimentare che energetica [3-5].

COSA SIGNIFICA BIODIVERSITÀ

L’enciclopedia Treccani definisce la biodiversità come “la variabilità tra gli organismi viventi all’interno di una singola specie, fra specie diverse e tra ecosistemi”. In effetti il termine “biodiversità”, di cui tanti oggi abusano, è molto complesso e per spiegarlo provo ad usare delle metafore.

Immaginiamo un condominio in un palazzo di 5 piani (sistema A) con due appartamenti per piano; ogni singolo appartamento può essere considerato come un piccolo ecosistema autonomo. Gli abitanti di ogni appartamento rappresentano la biodiversità dell’ecosistema/appartamento. Essi dormono, si svegliano, fanno colazione, pranzano, cenano e comprano tutto ciò di cui hanno bisogno. Un giorno il singolo proprietario di un appartamento che vive da solo nel suo ecosistema/bilocale, decide di fare un dolce ma si accorge di aver finito lo zucchero ed è troppo tardi per trovare un negozio aperto. Cosa fa? Esce dal proprio ecosistema/appartamento e suona all’ecosistema/appartamento vicino. Quest’ultimo è un ecosistema/quadrilocale in cui possono vivere comodamente 4 persone. La biodiversità dell’ecosistema/bilocale è inferiore in termini numerici rispetto a quella dell’ecosistema/quadrilocale. La maggiore disponibilità di spazio consente una maggiore biodiversità. Tuttavia, i due ecosistemi autonomi interagiscono tra loro quando è necessario per permettere la sopravvivenza (nel nostro caso mediante lo scambio di zucchero) degli organismi viventi che lo occupano (potremmo dire che occupano le due diverse nicchie ecologiche).

Una volta evidenziato che gli organismi viventi possono sopravvivere grazie alla interazione tra gli ecosistemi confinanti, andiamo oltre.

Il numero di componenti medio negli ecosistemi/appartamento è, diciamo, 4; ne viene che la popolazione del condominio è di 40 persone.

Cambiamo scenario.

Consideriamo lo stesso numero medio di persone per appartamento ma in un condominio di un palazzo di 10 piani (sistema B). Il numero totale di persone in questo nuovo sistema è 80. Possiamo dire che la biodiversità (intesa come numero di persone) del sistema B è maggiore di quella del sistema A. Supponiamo ora che i due palazzi (ovvero sistema A e sistema B) siano costruiti in uno spazio in cui sia presente un termitaio (sistema C). Il termitaio è abitato da, diciamo, 10000 termiti. Possiamo dire che la biodiversità (sempre intesa come numero di individui per ogni sistema) varia nell’ordine sistema C > sistema B > sistema A. Tuttavia, la popolazione dei sistemi A e B è fatta da persone appartenenti alla stessa specie, ovvero umani (indichiamoli come sistema U, per semplicità), per cui possiamo dire che la biodiversità del termitaio è di gran lunga maggiore di quella degli umani nei due condomini appena citati, ovvero sistema C > sistema U. Facciamo, ora, un passo avanti e assumiamo che nel terreno dove sorgono i condomini ed il termitaio ci sia anche un fiume (sistema D) in cui mediamente vivono non meno di 500 pesci. Possiamo dire che la biodiversità (ancora intesa come numero di individui diversi) nei due ecosistemi suolo e acqua varia come sistema C > sistema D > sistema U. Tuttavia, se raggruppiamo i sistemi C ed U in base al fatto che sono entrambi terrestri (indichiamo i due messi insieme come sistema T), ne viene che sistema T > sistema D. Ma nel fiume, così come sulla terra, non “abitano” soltanto pesci o termiti o umani. Ci sono anche piante, uccelli, insetti, e altre moltitudini di micro, meso e macro organismi. È l’insieme di tutti questi esseri viventi, in grado di interagire tra loro con modalità differenti (per esempio in modo simbiotico o parassitario), a costituire la biodiversità [6].

L’esempio fatto evidenzia che la biodiversità si riferisce non solo alle specie viventi in un dato ecosistema, ma anche alla diversificazione degli ecosistemi stessi che sono in grado di interagire simbioticamente, e quindi sopravvivere, grazie alle interazioni tra loro.

L’importanza della biodiversità  risiede nel fatto che viene assicurato l’equilibrio dinamico della biosfera [7]. In particolare, maggiore è la biodiversità e maggiore è la probabilità che venga assicurata la continuità della vita nel caso in cui alterazioni ambientali sconvolgano gli ecosistemi [7].  In altre parole, se l’impatto di un meteorite sulla Terra comporta l’estinzione di una certa specie (come i dinosauri), la nicchia ecologica lasciata libera dalla specie estinta viene occupata da altre forme di vita e la vita, in senso generale, è, in ogni caso, in grado di continuare [7]

AGRICOLTURA E BIODIVERSITÀ

Alla luce di quanto detto fino ad ora è lecito chiedersi quale sia il ruolo dell’agricoltura in tutte le sue forme nello sviluppo della biodiversità.

È stato già evidenziato che tutte le pratiche agricole hanno un forte impatto sui diversi comparti ambientali alterandone le caratteristiche e rendendoli inadatti al sostentamento della vita se non vengono applicate opportune regole per la conservazione degli stessi [3-5]. Nella fattispecie, l’attività agricola necessita di ampi spazi nei quali poter coltivare le piante ad uso alimentare. I grandi spazi si ottengono solo attraverso il disboscamento. La semplice conversione di uno spazio da foresta a campo agricolo comporta non solo un aumento netto di anidride carbonica [1], ovvero un gas serra, nell’atmosfera (quindi incremento dell’inquinamento del comparto aria), ma anche un cambiamento nella tipologia di micro, meso e macro fauna che è in grado di sopravvivere in quel luogo [1]. Faccio un esempio molto semplice.

In un bosco vivono i gufi; se viene attuato il disboscamento per convertire il bosco in spazio arabile, si elimina l’habitat dei gufi che, di conseguenza, spariscono da quell’area. Al posto dei gufi subentrerà un’altra tipologia di uccelli, per esempio i corvi, che sopravvivono “predando” le colture che gli umani usano per la loro produzione alimentare. I gufi sono predatori naturali di topi ed altri piccoli animali. Questi ultimi, in assenza dei loro predatori, tenderanno a proliferare incrementando il loro numero. Come si arguisce da questo esempio banale, la conversione di uno spazio da bosco a campo agricolo comporta la sparizione di un certo tipo di esseri viventi e la comparsa di altri animali più adatti a vivere nel nuovo ambiente.

Il discorso che ho fatto sui gufi, i corvi ed i topi si applica anche alla biomassa microbica dei suoli che, come gli animali anzidetti, contribuisce alla biodiversità del sistema agricolo. Tutto questo, naturalmente, è valido se guardiamo solo  alla fauna. Se guardiamo alle specie vegetali, l’attività agricola (e, si badi bene, sto parlando di tutte le tipologie di agricoltura) comporta una drastica riduzione della biodiversità vegetale. Infatti le aree boschive sono molto ricche di specie vegetali di ogni tipo, in grado di vivere in simbiosi tra loro o parassitando altre specie vegetali. Se vogliamo produrre mega litri di olio extra vergine di oliva dalla varietà Biancolilla da esportare in tutto il mondo abbiamo bisogno solo di ulivi che appartengono alla cultivar che ci interessa. La massimizzazione della produzione, inoltre, comporta la necessità di eliminare tutte le piante “parassite” in grado di competere con quelle di interesse per l’assorbimento dei nutrienti.

In altre parole, l’attività agricola comporta una alterazione della biodiversità faunistica (micro, meso e macro) nel senso che ad una diminuzione del numero di specie viventi rispetto a quelle presenti nelle zone vergini corrisponde anche la colonizzazione del nuovo habitat da parte di altre specie adatte alla sopravvivenza negli spazi destinati all’agricoltura. Per altri versi, sotto il profilo della biodiversità vegetale, le monocolture sostituiscono l’enorme varietà biologica che caratterizza le aree boschive/forestali.

Da tutto quanto detto si capisce che è possibile distinguere tra biodiversità forestale/boschiva e biodiversità agricola (in questa sede tralascio gli altri tipi di biodiversità come quella aerea e acquatica che sono fuori contesto). La prima riceve un rapido decremento nel cambio di destinazione d’uso di un suolo (da forestale/boschivo a coltivato). Tuttavia, la biodiversità agricola, legata alla diversificazione delle specie viventi adatte alla vita in un ambiente “antropizzato”, dipende fortemente dal tipo di tecniche agricole utilizzate [8-11]. Infatti le pratiche intensive (intese come quelle che non guardano alla salvaguardia dell’ambiente ma solo alla produttività economica) portano ad una riduzione della biodiversità che è dal 10 al 30 % in meno rispetto a quella che si misura quando si fa uso di pratiche sostenibili [8-11]. Dal momento che è stato evidenziato che la salubrità alimentare è direttamente correlata alla biodiversità agricola [12, 13], da qualche anno tutte le agenzie internazionali spingono per l’applicazione di pratiche agricole sostenibili [12-14]. Queste ultime, quindi, oltre a consentire la conservazione delle risorse non rinnovabili come definite in precedenza, consentono anche la salvaguardia della biodiversità. Quest’ultima può essere a tutti gli effetti considerata anch’essa come una risorsa non rinnovabile (esattamente come suolo, aria ed acqua) da proteggere e conservare per il miglioramento della qualità della vita umana.

COSA SONO GLI ORGANISMI GENETICAMENTE MODIFICATI O OGM?

Esistono due aspetti distinti che devono essere presi in considerazione per definire il significato di “organismo geneticamente modificato”. Da un lato abbiamo l’approccio scientifico che si basa sui fatti, dall’altro abbiamo l’approccio politico che non tiene conto dei fatti ma solo dell’umore degli elettori e delle convenienze elettorali. Insomma, l’approccio politico alla definizione di OGM è di carattere culturale, piuttosto che reale [15]. Ma andiamo con ordine.

LE MODIFICHE GENETICHE PER LA SCIENZA

Fin da quando Darwin ha posto le basi della teoria dell’evoluzione è apparso chiaro, ed è diventato progressivamente sempre più evidente sotto il profilo sperimentale, che tutti gli organismi viventi hanno avuto origine da un progenitore comune che oggi noi chiamiamo LUCA, ovvero “Last universal common ancestor”, che altro non è che il famoso brodo primordiale nel quale si sono realizzate tutte le condizioni chimico fisiche per la formazione delle protocellule e lo sviluppo del metabolismo che caratterizza tutti gli esseri viventi [16]. Solo l’evoluzione, associata all’adattamento alle condizioni ambientali, dal progenitore comune riesce a spiegare la similitudine tra il nostro patrimonio genetico e quello di tanti altri organismi viventi. Per esempio, oltre il 98% di similitudine esiste tra il DNA umano e quello degli scimpanzé, oltre il 90% di affinità esiste tra il DNA umano e quello dei topi mentre oltre il 50% di somiglianza accomuna il nostro DNA a quello delle piante [15].

La differenziazione genetica avviene in modo casuale per effetto di errori imprevedibili durante i processi di replicazione del DNA. La moltitudine di organismi che viene così generata (quella che in precedenza è stata identificata col termine di “biodiversità”) è fatta da individui che sotto la spinta della pressione ambientale possono soccombere oppure sopravvivere. In quest’ultimo caso, il patrimonio genetico viene trasmesso alle generazioni successive.

Nel corso di milioni di anni, la differenziazione genetica ha prodotto l’insieme di organismi viventi (dai microorganismi  all’uomo) che oggi siamo abituati a conoscere. In definitiva, tutti noi siamo il prodotto di modificazioni genetiche (ovvero alterazioni imprevedibili del DNA) che ci consentono di occupare delle ben precise nicchie ecologiche nelle quali siamo in grado di sopravvivere [17].

Le modifiche genetiche possono essere  indotte anche in modo mirato. Per esempio, fin da quando 10.000 anni fa l’uomo è passato dalla fase nomade di caccia/raccolta a quella stanziale di carattere prevalentemente agricolo [18], ha tentato, tra successi ed insuccessi, di modificare le caratteristiche genetiche dei vegetali e degli animali  in modo da aumentare la produttività agricola dei primi e rendere più docili i secondi. In tutti e due i casi, lo scopo è sempre stata la massimizzazione della produzione alimentare così da sfamare un numero sempre più ampio (attualmente in fase di crescita esponenziale) di esseri umani.

In assenza di conoscenze specifiche, le modifiche genetiche mirate venivano indotte per tentativi ed errori attraverso l’incrocio di organismi aventi ognuno una o più delle caratteristiche desiderate. In questo modo era possibile ottenere piante “domestiche” in grado di resistere a certe particolari patologie a cui non erano soggette piante selvatiche e meno utili sotto l’aspetto alimentare. Allo stesso modo, era possibile selezionare animali da latte in grado di produrre questo alimento in modo continuativo o animali da caccia con specifiche caratteristiche morfologiche tali da renderli adatti per le diverse tipologie di caccia.

La progressione delle conoscenze ha condotto alla comprensione dei meccanismi biochimici alla base dell’ereditarietà genetica cosicché oggi è possibile operare modifiche genetiche con una possibilità di errore di gran lunga inferiore rispetto a quella associata ai tentativi di incrocio delle vecchie pratiche agricole/zootecniche. La nuove tecniche di ingegneria genetica consentono, infatti, di modificare il DNA di una specie vegetale variando unicamente i geni responsabili di certe particolari caratteristiche [19]. In questo modo si ottengono, in tempi molto più rapidi rispetto alle pratiche convenzionali, piante con proprietà nutrizionali o meccanismi di difesa di gran lunga superiori rispetto a quelle cosiddette tradizionali [15]. Un esempio tra tutti è il famoso “goldenrice” [20]. Si tratta di un riso modificato geneticamente capace di produrre, come metabolita secondario, il b-carotene, ovvero il precursore della vitamina A la cui carenza è associata a inibizione della crescita, deformazione e fragilità delle ossa e  modifiche delle strutture epiteliali e degli organi riproduttivi [21]. La carenza di vitamina A si ottiene solo per deficit nutrizionali in quelle popolazioni che non hanno accesso a fonti alimentari in grado di fornire i precursori della suddetta vitamina. È il caso, per esempio, delle popolazioni orientali (India in testa) la cui alimentazione è prevalentemente basata sull’uso del riso. La sostituzione del riso tradizionale col riso golden consente di superare i problemi nutrizionali di cui si accennava.

LE MODIFICHE GENETICHE PER LA POLITICA E L’OPINIONE COMUNE

È stato evidenziato come, sotto l’aspetto scientifico, tutti gli esseri viventi possano essere considerati come organismi geneticamente modificati perché derivati da processi evolutivi durante i quali piccole variazioni genetiche hanno consentito l’adattamento (e, di conseguenza, la sopravvivenza) nelle condizioni più disparate. È stato anche puntualizzato come il progresso tecnologico in ambito agricolo consenta oggi di effettuare modifiche genetiche mirate ed in tempi brevi in modo da ottimizzare la produttività agricola. I prodotti agricoli selezionati mediante ingegneria genetica non vengono utilizzati o immessi in commercio a cuor leggero, ma subiscono una serie di controlli molto minuziosi in modo da rilevare ogni possibile effetto collaterale sulla salute umana [15]. Nonostante la “naturalità” (nel senso comune del termine) delle modifiche genetiche e gli innumerevoli controlli cui i prodotti modificati geneticamente sono sottoposti, la politica, che – come già evidenziato – segue gli umori degli elettori, cerca di opporsi in tutti i modi agli OGM.

La prima direttiva Europea 90/220/CEE sugli OGM stabilisce al comma 2 dell’articolo 2 che è “organismo geneticamente modificato (OGM), un organismo il cui materiale genetico è stato modificato in modo diverso da quanto si verifica in natura con l’accoppiamento e/o la ricombinazione genetica naturale” [22], laddove viene preso in considerazione il concetto di “natura” che, come evidenziato in molta letteratura, è solo ed esclusivamente di carattere culturale [15, 23]. I processi tecnologici mirati alle modifiche genetiche per il miglioramento delle caratteristiche vegetali sono in tutto e per tutto simili, in termini biochimici, a quanto accade “naturalmente”. La differenza che una certa politica vuole vedere è solo nel procedimento utilizzato. In questo modo una modifica genetica ottenuta per tentativi ed errori mediante innesti non porta, normativamente, ad un OGM, mentre un organismo ottenuto mediante la tecnica del DNA ricombinante è considerato, per legge, un OGM. Si deve, quindi, puntualizzare che, sotto l’aspetto scientifico, questa differenziazione normativa è completamente priva di significato e potrebbe essere legata unicamente ad una politica protezionistica delle aziende di prodotti fitosanitari di cui il vecchio continente, e l’Italia in particolare, è abbastanza ricco [15, 24, 25]. In effetti, come riportato in una intervista alla senatrice Elena Cattaneo su Linkiesta [24], i maggiori avversari, in Italia, dei prodotti OGM sono proprio le aziende che producono fitofarmaci [25] le quali vedrebbero ridurre i propri introiti dalla introduzione in agricoltura delle piante OGM (nel prossimo paragrafo si discuterà brevemente dei possibili vantaggi/svantaggi dell’uso agricolo degli OGM).

Ma quale è il ruolo giocato dalle popolazioni Europee nell’indirizzare la politica dell’Unione e degli stati membri?  In realtà bisogna dire che i cittadini dell’Unione Europea non sono adeguatamente informati sull’aspetto scientifico degli OGM e risentono in gran parte delle leggende e dei miti propagandati ad arte da gente di spettacolo [26] e da persone che hanno mitizzato i sapori delle epoche andate [27]. Tra questi miti sono da ricordare quello delle biotecnologie contro natura, della alterazione del DNA umano per ingestione di piante OGM, della diffusione della resistenza agli antibiotici con conseguente incremento nella difficoltà a resistere ad alcune malattie, della riduzione della biodiversità (di cui si discuterà più avanti) e così via cantando [28]. La scarsa preparazione scientifica associata ai miti anzidetti fa in modo che il cittadino EU prema sui governi affinché venga limitato l’uso di organismi geneticamente modificati in agricoltura. I governi colgono la palla al balzo e, per non perdere consensi, seguono l’umore del “popolo” abusando di un principio di precauzione che, come si intuisce da quanto scritto fino ad ora e come si comprenderà dalla lettura dei paragrafi seguenti, non ha alcun senso.

AGRICOLTURA ED OGM

Al momento attuale l’uso di organismi geneticamente modificati in agricoltura è vietato in quasi tutta Europa. Solo Spagna e Portogallo hanno introdotto coltivazioni di mais OGM [29]. Tuttavia, la ascientificità delle proibizioni normative in atto sia in Europa che in tantissimi paesi del globo terrestre è supportata dalla pubblicazione di numerosi studi che evidenziano l’efficacia economica ed ambientale nell’uso agricolo di piante geneticamente modificate. In Cina, per esempio, la coltivazione di cotone OGM (quello che viene indicato come cotone Bt, ovvero  modificato geneticamente con il gene del Bacillusthuringensis inserito nel vegetale per fargli produrre una tossina che lo rende resistente ai parassiti) ha portato benefici sia economici che ambientali. Infatti, studi condotti per la valutazione a breve [30] e lungo termine [31] del cotone Bt sulla società Cinese dimostrano non solo che gli agricoltori che hanno introdotto questa pianta nella loro produzione hanno avuto un incremento di guadagni economici, ma hanno anche operato una riduzione nella quantità di fitofarmaci, dannosi per l’ambiente, usati nella loro pratica agricola. Il cotone Bt ha apportato benefici anche agli agricoltori Indiani come riportato nei riferimenti [32-34].  Inoltre, impatti positivi, sia economici che ambientali, si sono avuti anche in alcuni paesi del Sud America (Brasile, Argentina e Paraguay) e negli Stati Uniti [35-37] a seguito dell’introduzione della soja OGM.

Nonostante la grande massa di dati sperimentali che attestano della positività dell’uso in agricoltura di piante OGM, un  lavoro molto recente pubblicato su Science Advances [38] si pone in controtendenza rispetto a quanto finora riportato per gli Stati Uniti. In particolare, gli autori dello studio [38] rivelano che mentre l’uso di mais OGM ha portato ad una riduzione della quantità di insetticidi ed erbicidi rispetto alla situazione antecedente al 1998, l’uso di soja OGM ha comportato sì una riduzione nella quantità di insetticidi, ma un incremento in quella di erbicidi. Gli autori del lavoro contestualizzano i loro dati evidenziando che l’incremento nell’uso di erbicidi conseguente alla coltivazione di soja OGM è dovuto all’aumento alla resistenza al glifosato [39] da parte delle erbe infestanti.

RELAZIONE TRA ORGANISMI GENETICAMENTE MODIFICATI E BIODIVERSITA’

La nota in merito all’aumento alla resistenza al glifosato da parte delle erbe infestanti riportata nel riferimento [38] è un interessante punto di partenza per discutere dell’argomento OGM-biodiversità, scopo del presente articolo. Infatti, il punto focale del predetto studio [38] è che l’aumento della resistenza al glifosato da parte delle erbe infestanti è conseguente alla coltivazione di soja Roundup® resistant. Il Roundup® è un fitofarmaco a base di glifosato [39]. La soja Roundup® resistant è un vegetale che non subisce danni da parte del glifosato. Nel momento in cui la soja Roundup® resistant viene coltivata, si può far gran uso di glifosato  per eliminare le erbe infestanti che competono con la soja per l’assunzione di nutrienti dal suolo. La velocità di riproduzione e crescita delle erbe infestanti consente una variabilità genetica molto elevata. Questo significa che, per effetto  degli errori casuali nella replicazione del DNA di cui si accennava in precedenza, è possibile che, tra le tante piantine infestanti, ne possa nascere qualcuna che sia resistente al glifosato. La conseguenza è che sono proprio queste ultime, più adatte a sopravvivere al citato erbicida, a prendere il sopravvento e a portare ad un uso sempre più massiccio di glifosato o di altre tipologie di erbicidi. In altre parole, la coltivazione della soja Roundup® resistant favorisce la biodiversità. Si tratta di un tipo di biodiversità economicamente dannosa e contro la quale bisogna applicare fitofarmaci dal forte impatto ambientale; ma il punto, per il momento, non è questo. Il punto è che l’uso di un sistema OGM  favorisce la biodiversità vegetale strettamente detta. Una situazione analoga, sebbene più utile sotto l’aspetto economico per gli agricoltori che decidono di farne uso, si verifica in tutti quei paesi in cui non sono validi i brevetti sulle piante OGM. Per esempio in India il cotone Bt prodotto dalla Monsanto è stato utilizzato per generare 137 differenti ibridi ognuno con proprietà ben specifiche [15]. La possibilità di avere un numero di specie vegetali potenzialmente infinito mediante l’uso dell’ingegneria genetica ha consentito di salvaguardare tanti prodotti tipici [15] come, per esempio, la papaya nelle Hawaii [40] o il pomodoro San Marzano [41] prodotto tipico Campano. In altre parole, sulla base delle definizioni oggettive date in merito a biodiversità e sistemi OGM, si può concludere che gli organismi geneticamente modificati possono essere considerati come risorsa per la biodiversità, piuttosto che come un problema come da più parti propagandato [42-44].

CONCLUSIONI

Gli organismi geneticamente modificati sono una risorsa per la biodiversità. Tuttavia, bisogna evidenziare che oltre ad una biodiversità economicamente conveniente, l’uso di coltivazioni OGM può generare una biodiversità vegetale contrastabile attraverso un uso progressivamente più massiccio di fitofarmaci potenzialmente dannosi per l’ambiente. Alla luce di questo, gli OGM devono essere condannati senza appello? La risposta è: certamente no. L’applicazione dell’ingegneria genetica all’agricoltura si inserisce nell’ambito di quella che è stata dichiarata in precedenza come “agricoltura sostenibile”. In altre parole, gli OGM devono essere pensati come complementari ai prodotti dell’agricoltura tradizionale (intensiva o meno) in modo da consentire la salvaguardia  sia dei prodotti tipici che di tutte le risorse ambientali non rinnovabili dalla cui “distruzione”, alla luce dei meccanismi che avvengono in natura, gli unici ad uscire sconfitti sono solo gli esseri umani.

RIFERIMENTI

1

https://www.crcpress.com/Environmental-Chemistry-Ninth-Edition/Manahan-     Manahan/p/book/9781420059205

2

https://www.researchgate.net/publication/279179431_Research_and_Application_of_Biochar_in_Europe

3

http://www.sinanet.isprambiente.it/gelso/tematiche/buone-pratiche-per-lagricoltura

4

http://sito.entecra.it/portale/public/documenti/Risultati/445a78ed-4c43-1944-62b0-4ee61d1615a1.pdf

5

http://dspace.inea.it/bitstream/inea/519/1/Agres_Metodi.pdf

6

http://www.isprambiente.gov.it/it/temi/biodiversita

7

http://www.bollatiboringhieri.it/scheda.php?codice=9788833927039

8

http://onlinelibrary.wiley.com/doi/10.1111/gcb.12517/full

9

http://link.springer.com/article/10.1007/s10460-009-9251-4

10

http://www.nature.com/articles/ncomms5151

11

http://onlinelibrary.wiley.com/doi/10.1111/1365-2664.12219/full

12

http://www.fao.org/docrep/006/y5418i/y5418i00.HTM

13

http://ec.europa.eu/agriculture/cap-post-2013/communication/com2010-672_it.pdf

14

http://www1.interno.gov.it/mininterno/export/sites/default/it/sezioni/sala_stampa/notizie/formazione_professionale/app_notizia_20084.html

15

Dario Bressanini, OGM tra leggende e realtà, Zanichelli, 2009 (http://online.scuola.zanichelli.it/chiavidilettura/ogm-tra-leggende-e-realta/)

16

Cristian De Duve, Alle origini della vita, Bollati Boringheri, 2011 (http://www.bollatiboringhieri.it/scheda.php?codice=9788833922072)

17

http://online.scuola.zanichelli.it/LupiaSaraceni_ScienzeIntegrate-files/Zanichelli_Lupia_Saraceni_Scienze_Sintesi_UB1.pdf

18

http://www.laputa.it/libri/da-animali-a-dei-breve-storia-dellumanita/

19 http://nut.entecra.it/files/download/Pubblicazioni_divulgative/inran_interno_web_bassaqualita.pdf

20

http://www.treccani.it/enciclopedia/golden-rice_(Enciclopedia-della-Scienza-e-della-Tecnica)/

21

http://www.msd-italia.it/altre/manuale/sez01/0030035.html

22

http://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:31990L0220&from=IT

23

Silvano Fuso, Naturale = Buono, Carocci editore, 2016 (http://www.carocci.it/index.php?option=com_carocci&task=schedalibro&Itemid=72&isbn=9788843079230)

24

http://www.linkiesta.it/it/article/2015/10/11/perche-gli-ogm-fanno-paura/27729/

25

http://www.prodottifitosanitari.net/imprese/elenco_imprese

26

http://www.beppegrillo.it/2013/07/passaparola_ogm_tolleranza_zero.html

27

http://www.slowfood.com/sloweurope/it/gli-ogm-in-europa/

28

http://www.siga.unina.it/circolari/Fascicolo_OGM.pdf

29

http://www.greenbiz.it/food/agricoltura/12679-ogm-2014

30

Pray & Ma, 2001, Impact of BT cotton in China, World Development, 29: 813-825 (http://www.sciencedirect.com/science/article/pii/S0305750X01000109)

31

Qiao, 2015, Fifteen Years of Bt Cotton in China: The Economic Impact and its Dynamics, World Development, 70: 177-185 (http://www.sciencedirect.com/science/article/pii/S0305750X15000121)

32

Qaim, 2003, Bt Cotton in India: Field Trial Results and Economic Projections, World Development, 31: 2115–2127 (http://www.sciencedirect.com/science/article/pii/S0305750X03001670)

33

Krishna &Qaim, 2012, Bt cotton and sustainability of pesticide reduction in India, Agricultural Systems, 107: 47-55 (http://www.sciencedirect.com/science/article/pii/S0308521X11001764)

34

Subramanian &Qaim, 2009, Village-wide effects of agricultural biotechnology: the case of Bt cotton in India, World Development, 37: 256-267 (http://www.sciencedirect.com/science/article/pii/S0305750X0800123X)

35

https://www.researchgate.net/profile/Clemens_Van_de_Wiel/publication/242115382_GM-related_sustainability_agro-ecological_impacts_risks_and_opportunities_of_soy_production_in_Argentina_and_Brazil/links/554725d30cf234bdb21db793.pdf

36

http://www.agbioforum.org/v8n23/v8n23a15-brookes.htm?&sa=U&ei=KojTVOKAL9CyogTSqYCgCg&ved=0CBQQFjAA&usg=AFQjCNH-zn1ERidarL6-x-Pnq3lsHjPUeg

37

Bonny, 2008, Genetically modified glyphosate-tolerant soybean in the USA: adoption factors, impacts and prospects. A review, Agronomy for Sustainable Development, 28: 21-32 (http://link.springer.com/article/10.1051/agro:2007044)

38

Perry & al., 2016, Genetically engineered crops and pesticide use in U.S. maize and soybeans, Science Advances,

2(8), e1600850 (http://advances.sciencemag.org/content/2/8/e1600850.full.pdf+html)

39

http://www.laputa.it/blog/glifosato-pericolo-ambiente-innocuo-uomo/

40

http://www.gmo-compass.org/eng/grocery_shopping/fruit_vegetables/14.genetically_modified_papayas_virus_resistance.html

41

http://www.ncfap.org/documents/VirusResistantTomato.pdf

42

Facciamo chiarezza

43

http://cmsdata.iucn.org/downloads/ip_gmo_09_2007_1_.pdf

44

http://agroeco.org/wp-content/uploads/2010/09/garcia-altieri.pdf

Fonte dell’immagine di copertina: Wikimedia Commons

Violato il principio di indeterminazione di Heisenberg

Ebbene sì. Ho usato un titolo volutamente forte per introdurre una notizia che secondo me è veramente importante nel mondo della meccanica quantistica. Ho appena letto un interessantissimo lavoro in cui un team di ricercatori Spagnoli dichiara di aver scoperto che il principio di indeterminazione di Heisenberg può essere violato.

Cos’è questo principio? In soldoni, Heisenberg stabilì che non è possibile conoscere con lo stesso grado di accuratezza la posizione e la quantità di moto di una particella elementare.

Per spin di una particella elementare si intende, in modo molto semplicistico, la  rotazione della particella intorno a se stessa.

Se vogliamo conoscere il momento angolare di spin di una particella elementare, abbiamo bisogno di misurare delle grandezze che rispondono al principio elaborato da Heisenberg. Tuttavia, quando si decide di prendere in considerazione la misura del momento angolare dello spin nucleare, i limiti imposti dal principio di indeterminazione non sono più validi.

Non mi addentro nei particolari perché non voglio impelagarmi in troppi tecnicismi. Chi lo desidera, può leggere il lavoro pubblicato su Nature cliccando qui.  Alternativamente, la notizia riportata in modo più semplice è qui.

Voglio, tuttavia, fare una riflessione molto generale. Come la mettiamo, ora, con le correnti filosofiche che invocano il principio di indeterminazione per affermare che l’osservatore crea la realtà?

Ho sempre pensato che le pseudo filosofie che fanno elucubrazioni sulla base di estrapolazioni concettuali di teorie scientifiche la cui forza risiede nell’osservazione sperimentale, siano come castelli di sabbia. Nel momento in cui i modelli scientifici evolvono sulla base di nuove ipotesi predittive e di nuove indagini sperimentali, le pseudo filosofie si sgonfiano come palloncini di gomma bucati. Il lavoro pubblicato su Nature è l’esempio che non bisogna mai utilizzare una teoria scientifica fuori dal contesto per cui essa è stata elaborata. La conseguenza, altrimenti, è che tutto il castello costruito sulle basi suddette collassa nel momento in cui nuovi fatti si aggiungono a quelli esistenti e una nuova teoria sostituisce quella vecchia.

 

Anche agli scienziati piace scherzare. La bufala dell’uomo del Piltdown

Piltdown. Sussex. Gran Bretagna. Anno 1912. Viene ritrovato il cranio di un ominide a metà tra uomo e scimmia. L’annuncio del ritrovamento viene dato nel Dicembre dello stesso anno nel convegno della Geological Society of London. Qui i due autori della comunicazione, Dawson (autore del ritrovamento) e Woodward, battezzarono l’ominide a cui apparteneva il cranio col nome di Eoanthropus dawsoni o anche uomo del Piltdown.

Al momento della scoperta del cranio dell’uomo del Piltdown, la teoria dell’evoluzione di Darwin aveva circa 53 anni – la famosa “Origine delle specie” aveva visto la luce intorno al 1859 – e si rincorrevano le interpretazioni più disparate sia per la comprensione dell’origine dell’uomo, sia per denigrare la teoria anzidetta che toglieva l’essere umano dal centro del creato per porlo in una dimensione meno centrale dell’universo.

Origine della specie

Secondo le prime interpretazioni della teoria di Darwin, l’essere umano doveva essere considerato come un diretto discendente delle scimmie. In altre parole, le scimmie avrebbero subito nel corso del tempo  delle costanti e continue trasformazioni mediate sia dall’ambiente che dalle abilità necessarie a sopravvivere ai cambiamenti ambientali.Secondo questa interpretazione, il passaggio graduale dalla scimmia all’uomo deve necessariamente aver prodotto degli ominidi con caratteristiche intermedie tra le due specie.

Una via di mezzo

L’uomo del Piltdown si pone a metà tra la scimmia e l’uomo dal momento che mostra caratteristiche simili a quelle di una scimmia, nella parte mandibolare del cranio, ed a quelle dell’uomo, nella parte superiore del cranio. Si tratta, quindi, dell’anello mancante. Nel 1953, però, gli studiosi del British Natural History Museum e dell’Università di Oxford capirono che il cranio ritrovato da Dawson era un falso. Indagini successive hanno confermato l’origine truffaldina del cranio dell’uomo di Piltdown evidenziando che Dawson “limò” e mise assieme ossa umane (di circa 700 anni) con ossa di diverse tipologie di scimmia.

Oggi sappiamo che l’evoluzione non è andata come si credeva all’inizio del XX secolo.

In realtà, l’uomo, così come tutte le specie viventi, si è evoluto per come lo conosciamo oggi grazie all’azione congiunta di “caso e necessità”.  In altre parole, modifiche ambientali del tutto casuali – come terremoti ed inondazioni – alterano l’habitat tipico in cui gli organismi vivono. Nell’ambito di una stessa popolazione esiste un certo numero di individui che, a causa di modificazioni genetiche casuali, si ritrova ad essere maggiormente adattato alla sopravvivenza nelle nuove condizioni ambientali. Per questo motivo, proprio gli individui più abituati alle nuove condizioni ambientali riescono ad avere maggiore possibilità riproduttiva. La conseguenza è che, nel corso del tempo, gli individui più adatti sono quelli che predominano, mentre quelli meno adatti si estinguono. Grazie a questo modello evolutivo possiamo dire che non ci dobbiamo aspettare nessun “anello mancante”. Uno scherzo come quello effettuato nel 1912 oggi sarebbe solo una bufala da primo Aprile.

Per saperne di più

Svolta nella beffa del Piltdown

La bufala dell’uomo di Piltdown

Il pesce d’aprile del 1912

Acque micellari. Il ruolo del marketing e la comunicazione scientifica

Recentemente, in questo blog, ho riproposto una brevissima nota sulle acque micellari; una nota che avevo scritto già un po’ di tempo fa su facebook. Ha avuto un successo di pubblico notevole dal momento che ha raggiunto più di 57000 utenti (Figura 1).

Figura 1. Successo di pubblico per la nota sulle acque micellari

Nonostante l’evidenza scientifica sul ruolo che svolgono questi prodotti cosmetici, che è la medesima dei saponi, c’è stata una sòrta di sollevazione popolare. Da un lato sono state fatte considerazioni pseudo scientifiche sul modo in cui ho comunicato una cosa che ai miei occhi – e non solo – appare abbastanza ovvia; dall’altro è stata invocata a gran voce la necessità di rispettare ogni opinione, anche quelle che danno contro ogni evidenza e modello di carattere scientifico. La cosa bella è che questa sollevazione è avvenuta in gruppi e pagine  popolati da scettici o, quanto meno, presunti tali. Questo significa che queste persone dovrebbero farsi qualche domanda in più rispetto a quello che è il modo di pensare complottistico. Evidentemente non è così e quando le bufale toccano la propria sfera personale, si alza un muro che impedisce ad ognuno di noi di essere razionale.

Le Figure 2 e 3 mostrano uno spaccato delle diverse tipologie di contestazioni cui la mia nota ha dato luogo.

Figura 2. Considerazioni pseudo scientifiche
Figura 3. Considerazioni ad personam

A questo punto rientro nel mio ruolo chimico ed utilizzerò un linguaggio tecnico così da puntualizzare l’incongruenza di quanti si sono sentiti toccati in prima persona da considerazioni che avevano il solo scopo di evidenziare che il marketing manipola informazioni serie adattandole ai desiderata del mercato.

Il mercato lo facciamo tutti noi. Se siamo impreparati o se non siamo in grado di capire ciò che leggiamo, siamo noi i responsabili in prima persona della propagazione di sciocchezze, notizie infondate e bufale.

Tensioattivo o surfattante?

Nelle mie note ed elucubrazioni faccio uso dei due termini “surfattante” e “tensioattivo” in modo assolutamente libero. In italiano essi sono sinonimi. Del resto basta andare on line e ricercare il termine “surfattante” nella enciclopedia Treccani per trovare la seguente definizione

surfattante agg. e s. m. [dall’ingl. surfactant, acronimo della locuz. surf(ace) act(ive) a(ge)nt «agente superficialmente attivo»]. – Sinon., meno com., di tensioattivo”.

Micelle o non micelle? Questo è il problema

Non è parte dei programmi di studio di tutti i chimici. Per esempio io ho affrontato questi problemi quando mi sono impegnato nella ricerca sulla chimica delle sostanze umiche ed ho avuto necessità di approfondire la chimica fisica delle interazioni deboli. All’epoca studiai un bellissimo libro dal titolo The hydrophobic effect: formation of micelles and biological membranes” (autore Tanford, anno 1980, Editore Wiley intescience) in cui si riporta chiaramente il meccanismo della formazione di emulsioni olio/acqua. Una emulsione è una dispersione di piccole goccioline di olio in acqua (in realtà la definizione è un poco più complessa, ma mi sto soffermando solo sulla miscela che ci interessa per rispondere alle critiche che contestano quanto ho scritto nella nota sull’acqua micellare). Queste goccioline si formano per effetto di due “forze” contrastanti. Da un lato le molecole che costituiscono l’olio  sono anfifiliche (ovvero hanno una testa polare ed una coda apolare), dall’altro le molecole di acqua sono polari. La solubilizzazione di un soluto in un solvente è una vera e propria reazione chimica che segue il seguente percorso:

soluto-soluto → 2 soluto

solvente-solvente → 2 solvente

soluto + solvente → soluto-solvente

In altre parole, le molecole di soluto interagiscono tra loro, esattamente come fanno quelle di solvente. Perché il soluto si possa “sciogliere” nel solvente è necessario che esso si solvati, ovvero venga “circondato” da molecole di solvente. A tale scopo si devono rompere le interazioni soluto-soluto e solvente-solvente per la formazione di interazioni soluto-solvente. Questo è possibile solo se le interazioni soluto-solvente sono della stessa natura o più forti di quelle solvente-solvente e soluto-soluto. Essendo le molecole di olio anfifiliche, mentre quelle di acqua polari, si può qualitativamente dire che l’interazione tra queste due tipologie di molecole non è conveniente. Per questo motivo le molecole di olio tendono ad “isolarsi” da quelle di acqua formando delle goccioline. Come sono fatte queste goccioline? Sono fatte da una parte interna in cui interagiscono tra loro tutte le componenti più idrofobiche e da una superficie esterna dove sono localizzate le componenti più polari che possono “sopportare” la presenza dell’acqua. Si realizza, cioè, una situazione simile a quella descritta in Figura 4.

Figura 4. Struttura di una gocciolina di olio. La componente interna è isolata dalle molecole di acqua esterne da una superficie costituita dalla componente più polare delle molecole di olio.

Come è fatta una micella? Esattamente nello stesso modo. Senza scomodare il Tanford citato sopra, una micella è definita, nell’enciclopedia Treccani, come

aggregato in soluzione acquosa di molecole anfifiliche; le catene idrofobe idrocarburiche si trovano all’interno e i gruppi idrofili (polari o ionici) all’esterno in contatto con il solvente.

In altre parole, non c’è nessuna bestialità in quanto ho scritto. Mi rendo conto, tuttavia, che chi non ha molta familiarità con la chimica di questi sistemi complessi possa essere stato tratto in inganno.

Frittata con uova di gallina o con uova di storione?

Una delle critiche che mi sono state mosse è nell’aver detto che i surfattanti sono tutti uguali tanto è vero che qualcuno ha scritto: “Anche le uova di gallina sotto sale sono caviale, laddove per uovo, in senso lato si intende una cellula gametica aploide”.

Non sono un biologo, ma se prendo la definizione di uovo nell’enciclopedia Treccani trovo che uovo è

In biologia, il gamete femminile costituito da una cellula di varie dimensioni (detto perciò anche cellula uovo), di forma per lo più sferica, ellissoidale o cilindrica, che si origina generalmente nell’ovario e ha accumulati, nel suo citoplasma, materiali nutritizî di riserva (tuorlo o vitello o plasma nutritivo) per lo sviluppo dell’embrione

Lascio al lettore la libertà di leggere per intero la definizione di “uovo” nell’enciclopedia al link già inserito. Tuttavia, a me sembra di capire che non c’è differenza alcuna nella definizione di uovo di storione, gallina o struzzo. Sono tutte uova. Ci sono anche ricette di frittate di uova di storione. Si veda per esempio qui. Che le acque micellari siano in tutto e per tutto acqua e sapone, non è un errore. Il meccanismo di funzionamento dei saponi è il medesimo e l’effetto sulla pulizia della pelle anche.

Possiamo usare un tensioattivo per il forno a scopo cosmetico?

Non sono mancati commenti pseudo ironici del tipo:  “Ma infatti, stasera andate a casa, e struccatevi col fornet, tanto sempre detergente è, anche quello ha le micelle”. I prodotti per uso topico sono surfattanti come quelli del prodotto per la pulizia dei fornelli, ma devono rispettare dei requisiti di anallergicità e atossicità che quelli per i fornelli non hanno. Quindi, la battuta non fa tanto ridere. Non seguite questo consiglio perché rischiereste di farvi veramente male.

Relazione struttura-attività

Una delle critiche che mi sono state fatte è quella che riporto qui sotto:

“Io credevo di trovare un articolo ben più “scientifico”, in questo caso quelle poche righe sono aria fritta. Non si parla di concentrazioni, proporzioni, nulla. Lo posso dire anche io che ho fatto un esame di Chimica Organica in cui ho letto mezza pagina su come agisce un sapone che “acqua micellare” contiene la parola “micelle” che sono una proprietà dei saponi allora “acqua micellare” = “acqua e sapone”. Ma effettivamente non è così. La pelle non si deterge meglio con l’acqua micellare che con acqua e sapone solo perchè si è fermamente convinti che lo faccia. Se due animali perfettamente identici ma che volano uno a 3 metri dal suolo e uno a 4 possono essere due specie diverse, non vedo perchè due composizioni chimiche differenti con evidenti effetti differenti non possano essere, appunto, due robe differenti.”

Chi ha scritto queste cose sta cercando di dire che “acqua e sapone” e “acqua micellare” sono due cose diverse. In realtà, come ho già detto, non è così. Il meccanismo di funzionamento delle acque micellari è lo stesso dei saponi e, più specificatamente, dell’acqua e sapone. La differenza, se proprio ne vogliamo trovare una, è la concentrazione di surfattante Le acque micellari sono prodotti che io definisco “saponi omeopatici” per effetto del fatto che la quantità di tensioattivo è molto più bassa che in un sapone normale.

Le critiche continuano:

“Comunque è quantomeno antiscientifico (nella Galileana concezione del termine) da parte di laureati ammettere che anche se ci sono ingredienti in più “è la stessa cosa”. Se addirittura il semplice orientamento nello spazio conferisce a due molecole identiche proprietà diverse, perché due miscele (miscele si intenda nel più volgare possibile, poiché non vorrei incappare in uso di termini errati) con ingredienti diversi devono essere la stessa cosa?”

“Spiego il termine “Galileana concezione”. Un vero scienziato, non si figurerebbe mai di semplificare due cose alla stessa cosa. Anzi, si chiederebbe perché due composti apparentemente simili hanno azioni così diverse. Pensate applicato alla cura del cancro: direste mai che due cose sono uguali se hanno la stessa composizione ma una cura il cancro e l’altra no? Direste che è marketing? Oppure vi chiedereste perché?”

Da chimico posso dire con certezza che le elucubrazioni appena riportate sono una miscela di cose verosimili e cose chiaramente insensate sotto l’aspetto scientifico. Mi sembra evidente che la critica cerca di spostare l’attenzione all’isomeria conformazionale ovvero ad un tipo particolare di isomeria per cui due molecole che sono descritte dalla stessa identica formula bruta, hanno tuttavia una struttura differente per effetto della diversa orientazione nello spazio di uno o più gruppi funzionali. Per saperne di più potete andare al seguente link. Faccio un esempio molto banale considerando il talidomide (Figura 5).

Figura 5. Strutture enantiomeriche del talidomide. La figura è presa da www.chimicare.org

Si tratta di una molecola in cui uno degli atomi di carbonio ha quattro sostituenti diversi. Grazie a ciò, esso può esistere in due forme isomeriche (più correttamente si dovrebbe dire enantiomeriche) di cui una, la forma indicata con S ha effetti teratogeni (in parole semplici interferisce col normale sviluppo del feto ed una delle conseguenze è la focomelia), mentre l’altro, l’isomero R, non ha lo stesso effetto. Quest’ultimo, in particolare, interviene nei processi metabolici associati alla nausea, attenuandola. Negli anni Sessanta del ventesimo secolo questa molecola era il principio attivo di un farmaco anti nausea per donne gravide. Fu ritirato dal commercio perché il farmaco conteneva entrambi gli isomeri e provocò la nascita di più di 10000 (diecimila) bimbi focomelici. Oggi questo principio attivo è usato per la cura di diverse patologie invalidanti. Ma non è questo il punto. Il punto è che le due molecole mostrate in Figura 5 non sono uguali. Pur avendo la stessa formula bruta e pur avendo lo stesso nome, hanno attività biochimica e proprietà differenti per cui esse sono differenti. Non sono la stessa molecola. E’ questo il motivo per cui è necessario andare a differenziare le due molecole indicando nel loro nome le caratteristiche ottiche che le contraddistinguono. Al contrario del talidomide e degli isomeri conformazionali, acque micellari e saponi sono esattamente la stessa cosa. Entrambi contengono dei surfattanti che hanno esattamente la stessa funzione, ovvero la rimozione dello sporco.

Una incomprensione del concetto struttura-attività si riscontra anche nella considerazione secondo cui: “applicato alla cura del cancro: direste mai che due cose sono uguali se hanno la stessa composizione ma una cura il cancro e l’altra no? Direste che è marketing? Oppure vi chiedereste perché?“. Due cose chimicamente uguali non possono avere effetti biochimici differenti. A questo punto credo che il lettore si sarà convinto sulla base dell’esempio fatto prima descrivendo brevemente la chimica del talidomide. Allo stesso modo due miscele identiche curano entrambe la stessa particolare tipologia di cancro. Se una delle due miscele non funziona è perché non è adatta a quella particolare forma di cancro per cui è stata utilizzata.

Le acque micellari e loro composizione

In una delle tante risposte alla mia nota, c’è chi ha inserito la fotografia mostrata in Figura 6. Lo scopo era quello di far vedere che le acque micellari sono diverse dai saponi. Devo dire che questa cosa mi ha lasciato molto perplesso. Se io voglio difendere la mia causa e voglio far vedere che una cosa è differente da un’altra, non inserisco solo gli ingredienti di ciò che cerco di difendere, ma anche quelli della cosa che reputo differente.

Figura 6. Etichetta di un’acqua micellare proposta da un utente per dimostrare la differenza tra acque micellari e saponi

Ricopio qui quanto magistralmente scritto nel sito www.chimicamo.org:

I saponi sono sali solubili di acidi grassi quali l’acido oleico, l’acido stearico, l’acido palmitico, l’acido laurico e l’acido miristico. I saponi sono caratterizzati da una parte idrofoba costituita da una lunga catena carboniosa e da una parte idrofila costituita dal gruppo funzionale dell’acido carbossilico. Le soluzioni acquose di sapone si comportano come dispersioni colloidali a carattere micellare e sono dotate di reazione alcalina in seguito al grado di idrolisi del sapone nell’acqua. I saponi abbassano la tensione superficiale dell’acqua favorendo la stabilità e la formazione della schiuma. L’azione detergente è dovuta a diversi fattori tra cui l’attività capillare della soluzione acquosa che imbeve il tessuto staccandone lo sporco che viene allontanato dalla schiuma.

Quindi come si comportano i saponi in acqua? Formano micelle, ovvero sistemi chimici come quelli illustrati in Figura 4. E come funzionano le micelle fatte dalle componenti su citate? In modo semplicistico, le micelle fatte da aggregati degli acidi grassi riportati in Figura 7 non fanno altro che “intrappolare” le molecole che costituiscono la “macchia” permettendone l’allontanamento con l’acqua.

Figura 7. Acidi grassi i cui sali sodici sono tipicamente presenti nei saponi

Quando vi lavate le mani con una saponetta, oppure usate un sapone liquido cosa state facendo? Semplicemente state facendo interagire le componenti dei saponi con l’acqua in modo tale che si formino delle micelle. Queste ultime abbassano la tensione superficiale dell’acqua permettendo un migliore contatto tra l’acqua e la vostra pelle. Vi strofinate le mani in modo tale da permettere alle micelle a stretto contatto delle mani di interagire con lo sporco. Sciacquate le mani per allontanare le micelle che hanno “intrappolato” lo sporco.

Come funzionano le acque micellari? Tralasciando l’enorme quantità di profumi ed eccipienti vari che hanno il solo scopo di darvi una sensazione di “pelle liscia”, l’azione detergente è del tutto simile a quella descritta per i saponi. Le micelle possono essere fatte non dai sali degli acidi grassi riportati in Figura 7, ma dai gliceridi (mono, di, e tri) che li contengono. Per esempio, la composizione dell’acqua micellare riportata in Figura 6 riporta la presenza di gliceridi contenenti acido caprico (C10H20O2) e caprilico (C8H16O2) oltre che PEG 6 (PEG è l’acronimo di polietilenglicole che – questa è solo una curiosità – io utilizzavo tra la fine degli anni Ottanta e l’inizio degli anni Novanta come supporto solido per la sintesi in fase solida di oligonucleotidi ciclici. Come si vede il PEG è un tipico prodotto di sintesi che può avere diversi utilizzi. Si tratta del classico prodotto di sintesi che viene spacciato come naturale nelle acque micellari a loro volta considerate prodotti naturali o, comunque, più naturali dei saponi).

Per inciso il PEG 6 capric/capryl gliceride costa 1 euro ogni 25 g di prodotto. Tuttavia come indicato nella sua scheda di sicurezza è tutt’altro che un prodotto innocuo:

Non è un prodotto cosmetico pronto all’uso. Non deve essere utilizzato direttamente. Se non correttamente manipolato, può presentare controindicazioni e /o pericoli per la persona. Conservare lontano dalla portata dei bambini, fonti di calore, umidità e luce diretta. Evitare di inalare. Conservare a temperatura ambiente nel contenitore originale. Proteggere dal freddo e dal caldo eccessivi, non esporre ai raggi diretti del sole. Non utilizzare dopo la data di scadenza indicata. Non disperdere nell’ambiente il contenitore una volta esaurito il prodotto. Il prodotto contiene solo componenti biodegradabili. Nella diluizione indicata il prodotto non interferisce con gli impianti di trattamento delle acque reflue.

Conclusioni

Indipendentemente da quello che potete pensare, da un punto di vista chimico acque micellari e saponi sono prodotti che funzionano nello stesso modo. Se diluite un sapone liquido, lo applicate ad un batuffolo di ovatta e lo usate per pulirvi un pezzettino di pelle, avrete un effetto pulente del tutto analogo a quello di un’acqua micellare. L’effetto irritante che sentite quando usate un sapone tout court è legato alla sua concentrazione. Diluendolo, ne attenuate anche gli effetti. Del resto, leggendo la storia delle acque micellari, si evince che esse sono nate proprio per questo ad opera degli estetisti al lavoro sulle modelle durante le sfilate di moda. Per evitare gli effetti irritanti dovuti all’uso dei saponi, hanno pensato bene di diluire gli stessi. Poi sono arrivati i chimici coadiuvati dai pubblicitari che hanno esaltato proprietà che, in realtà, sono tipiche di tutti i surfattanti.

In definitiva, comprate quello che vi pare ma sappiate che state comprando semplicemente acqua e sapone.

Fonte dell’immagine di copertina: http://it.paperblog.com/review-acqua-micellare-lycia-3134640/

Fonte dell’immagine di chiusura: https://commons.wikimedia.org/wiki/File:Thats_all_folks.svg

Share