Omeopatia e fantasia. La proposta di Benveniste
Nel 1988 il gruppo di ricerca gestito dal Professor Benveniste pubblica su Nature un lavoro nel quale si evidenzia come l’attività di certi anticorpi permane anche dopo le diluizioni estreme tipiche dei rimedi omeopatici. L’ipotesi formulata per spiegare questi risultati inattesi è che l’impronta degli anticorpi venga in qualche modo “memorizzata” all’interno della struttura dell’insieme di molecole di acqua. Sarebbe questa “traccia” lasciata dagli anticorpi a indurre gli effetti biochimici dei rimedi omeopatici, secondo i fautori dell’omeopatia. Ipotesi indubbiamente affascinante ma che, essendo basata su affermazioni straordinarie, richiede prove straordinarie. Ho già avuto modo di spiegare che gli stessi editor di Nature si riservarono la possibilità di verificare la validità delle procedure utilizzate per l’ottenimento di quei risultati che apparentemente avrebbero dovuto consentire la riscrittura completa di tutti i libri di testo di chimica e fisica. I risultati dell’indagine condotta dal comitato di esperti di Nature non hanno lasciato dubbi: il lavoro del gruppo gestito da Benveniste sopravvaluta gli effetti che gli autori riportano nelle loro conclusioni, manca di riproducibilità, manca di una seria valutazione degli errori sperimentali sia casuali che sistematici (per esempio gli autori non hanno fatto sforzi per eliminare i pregiudizi di conferma) e le condizioni del laboratorio non offrono sufficienti garanzie per una interpretazione oggettiva, e quindi credibile, dei dati
Nonostante la bocciatura, gli amici dell’omeopatia tornano periodicamente alla carica con la memoria dell’acqua.
Omeopatia e fantasia. La proposta di Montagnier
Subito dopo aver vinto il Nobel per la scoperta del virus HIV, quello responsabile dell’AIDS, Luc Montagnier pubblica un lavoro dal titolo “Electromagnetic signals are produced by aqueous nanostructures derived from bacterial DNA sequences”. I risultati di questo lavoro hanno eccitato, e tuttora eccitano, i fautori dei rimedi omeopatici. Infatti, Montagnier riporta che alcune sequenze di DNA sarebbero in grado di emettere delle radiazioni elettromagnetiche a bassa frequenza capaci di produrre degli insiemi nano-strutturati di molecole di acqua che permarrebbero in soluzione anche in assenza delle sequenze di DNA che li hanno prodotti. I nano-aggregati sarebbero a loro volta in grado di emettere le stesse onde elettromagnetiche delle sequenze di DNA. Si ottiene, in definitiva, una trasmissione delle informazioni contenute nelle sequenze di DNA a tutta la soluzione.
La novità del lavoro di Luc Montagnier è legata al fatto che la trasmissione elettromagnetica descritta occorre anche in assenza di soluto. In altre parole, i frammenti di DNA che innescano la trasmissione sembrano lasciare il loro “ricordo” all’interno della soluzione. Questo ricordo è riconducibile alle nano-strutture acquose che contengono l’informazione lasciata dal DNA. Montagnier si spinge anche oltre. Egli, infatti, ipotizza che tutte le patologie possano essere di origine batterica o virale, anche quelle per cui attualmente non sono riconosciute cause di questo tipo, come per esempio l’autismo. Secondo Montagnier, le non determinabili quantità di DNA immerse nel nostro organismo da questi “vettori” trasmetterebbero, attraverso l’acqua presente nel nostro sangue, le informazioni relative alle patologie di cui cadiamo preda.
Bello vero? L’ha detto un premio Nobel. Chi sono io per contraddire uno che è arrivato nell’Olimpo degli scienziati? Devo essere umile ed accettare le parole di Montagnier.
Sapete qual è il problema? Che io non solo non sono umile quando si parla di scienza, ma lo sono ancora meno quando si parla di chimica. Divento veramente antipatico se chi mi dice queste cose è uno che non solo non conosce la chimica, ma si dice pure simpatizzante dell’omeopatia. Se poi è un chimico (o in generale uno scienziato) simpatizzante dell’omeopatia, allora divento un antipatico intransigente e passo a trattare questo scienziato per quello che è: un ignorante assoluto.
Ma vediamo perché.
Cosa non va nel lavoro di Montagnier (parte I)
Se si legge il lavoro di Montagnier si nota subito una cosa. Esso è stato inviato alla rivista il 3 Gennaio, revisionato dopo suggerimenti ricevuti da revisori anonimi il 5 Gennaio e pubblicato in via definitiva il 6 Gennaio 2009. Tre giorni per inviare, revisionare e pubblicare un lavoro scientifico in cui si riportano delle informazioni che possono cambiare radicalmente le nostre conoscenze chimiche e fisiche, è eccezionale. L’ipotesi di Montagnier, infatti, tenderebbe a ridisegnare completamente tutto quanto sappiamo sull’acqua. I modelli che abbiamo usato fino ad ora e che funzionano perfettamente devono essere o rivisti o abbandonati.
Una rivista che pubblica così velocemente è encomiabile. Vuol dire che essa è molto efficiente nella scelta dei revisori anonimi e nel successivo processo di revisione ed editing. I revisori si sono, evidentemente, dichiarati disponibili a leggere e commentare il lavoro di Montagnier in tempi veramente ridotti. Si sono detti disponibili a sottrarre tempo prezioso al loro lavoro di ricerca e didattica per una incombenza che è fondamentale nel mondo scientifico: la peer review o revisione tra pari. Questo va bene. Anche a me capita di fare revisioni solo uno o due giorni dopo aver ricevuto la richiesta da parte delle riviste del mio settore.
Cosa dire, però, del servizio editoriale della rivista? Indubbiamente si è dimostrato particolarmente efficiente. Infatti, poche ore dopo aver ricevuto i commenti dei revisori, l’editore ha contattato gli autori che immediatamente hanno provveduto alle eventuali revisioni suggerite. Infine, nel giro di altre poche ore il lavoro è stato formattato secondo gli schemi della rivista, le bozze inviate agli autori, corrette e restituite alla rivista che ha poi pubblicato immediatamente il lavoro.
Posso dire che sono invidioso? A me è capitato che le uniche volte in cui le informazioni in merito ad un mio lavoro siano arrivate entro 48 ore dall’invio ad una rivista è perché il lavoro non era stato considerato pubblicabile sulla rivista stessa. Ma io non sono un Nobel e devo essere umile.
Peraltro io non sono neanche editor-in-chief né chairman dell’editorial board delle riviste su cui pubblico come, invece, lo è Luc Montagnier. Basta andare sul sito de “Interdisciplinary Sciences: Computational Life Sciences” della Springer e cercare nell’editorial board staff per trovare il nome di Montagnier associato alla carica di Chairman dell’editorial board staff. Non è che l’efficienza precedentemente discussa potrebbe essere dovuta al fatto che il Professor Montagnier abbia agito contemporaneamente come autore, editore e revisore del suo stesso lavoro? Se fosse così, sarebbe un plateale caso di scienza patologica legato ad un comportamento an-etico.
Ma io non sono nessuno e devo essere umile. Soprattutto queste mie elucubrazioni sanno di complottismo. Ed allora entriamo nel merito.
Cosa non va nel lavoro di Montagnier (parte II)
Da una lettura accurata del lavoro si evince che Montagnier fa ampio uso della tecnica PCR (polymerase chain reaction che in Italiano è conosciuta come reazione di amplificazione a catena). Si tratta di una tecnica che consente di amplificare (ovvero ottenere in gran quantità ed in poche ore) una specifica sequenza di DNA. Il limite di questa tecnica risiede nel fatto che occorre molta attenzione perché il rischio di contaminazione dei campioni è molto alto. Per esempio, l’amplificazione del DNA umano risulta facilitata dal fatto che frammenti di pelle sono presenti un po’ ovunque. Essi tendono ad accumularsi, anche se non ce ne accorgiamo, nei tubicini Eppendorf (citati nel lavoro di Montagnier) utilizzati proprio per la reazione di amplificazione a catena. Una volta che il DNA, o suoi residui, sono stati amplificati, non è possibile riconoscere quale parte del campione prodotto viene dal contaminante e quale, invece, dal sistema nucleotidico che si intendeva realmente amplificare. Un altro limite della tecnica è che possono avvenire delle reazioni collaterali tra i reagenti utilizzati che producono delle sequenze di DNA indistinguibili da quelle che realmente interessano. Per poter essere certi che la PCR abbia condotto ai risultati sperati è necessario effettuare dei controlli negativi, ovvero dei test che consentano di escludere senza ombra di dubbio che le reazioni occorse durante l’amplificazione non prodotto contaminazione. Nel lavoro di Montagnier non c’è alcuna descrizione di tali controlli. I suoi risultati possono essere inficiati da ogni possibile tipo di contaminazione. In altre parole tutto ciò che è stato detto in merito al lavoro di Benveniste si può riprendere e ripetere per quello di Montagnier.
Conclusioni
Anche se i lavori cardine cui fanno riferimento gli amici dell’omeopatia sono fallaci sotto l’aspetto metodologico, ci sarà sempre qualcuno che dirà: “va bene. I lavori che hai preso in considerazione hanno dei punti deboli, ma l’omeopatia funziona. Bisogna solo cercare il perché”.
Non è così, mio caro lettore ignorante e seguace della fede omeopatica. L’omeopatia funziona solo nella tua testa. I rimedi omeopatici non hanno alcun effetto se non quello placebo. E quest’ultimo funziona solo se sei in stato di veglia, cosciente e se nessuno ti dice che quanto assumi è solo acqua e zucchero. Insomma, il rimedio omeopatico su di te funziona perché, anche se non lo vuoi ammettere (e chi lo vorrebbe?), sei un ipocondriaco, cioè un malato immaginario. Questa tua condizione, che ti piaccia o no, ti rende facile preda di maghi, fattucchiere, imbonitori e venditori di olio di serpente.
Post-Conclusioni
Il mondo scientifico non è rimasto indifferente all’ipotesi di Montagnier. Esistono un po’ di lavori con i quali gli scienziati hanno cercato di individuare le nano-strutture acquose. Ma questa è storia per un altro post.
Oggi più che mai è necessario che tutti quelli che – a vario titolo – sono coinvolti professionalmente nella ricerca scientifica escano dalle aule universitarie e si sforzino di spiegare che i vaccini sono farmaci per la prevenzione di patologie mortali.
Se abbiamo debellato il vaiolo, se riusciamo a tenere sotto controllo malattie come il morbillo, la rosolia o, peggio, la poliomelite ed il tetano, lo dobbiamo alle vaccinazioni. Si tratta di patologie che hanno mietuto e mietono milioni di morti. Sono sempre lì, dietro l’angolo, pronte a colpire mortalmente, se distogliamo la nostra attenzione. Non possiamo rischiare pandemie come avvenuto in passato. Ne va della vita di tutti noi, dei nostri figli e nipoti.
Dobbiamo capire che le vaccinazioni ci aiutano a tenere alta la guardia contro nemici invisibili; che i medici non sono contro di noi e non ordiscono alcun complotto mondiale a danno nostro; sono operatori che hanno deciso di sacrificare la propria vita per “essere sui pezzi” ventiquattro ore al giorno, facendo pesare le loro scelte non solo su di loro, ma anche sulle proprie famiglie. Non sono demoni; lo sono, invece, quelli che sconsigliano le vaccinazioni anteponendo il proprio “io” al “noi”.
Conclusioni:
Solo chi è concentrato su se stesso non riesce a capire che, non vaccinando, non protegge se stesso e gli altri, aprendo lo spiraglio attraverso cui patologie solo “sopite” possono risvegliarsi e farci precipitare in un incubo dal quale sarà difficile risvegliarsi. Ben vengano, quindi, le settimane dell’immunizzazione. Spero che queste si ripetano su basi periodiche.
Le impressioni e le considerazioni finali di tutti i relatori del congresso le potete trovare qui, qui e qui.
Dunque, vediamo. C’è un’associazione di consumatori, il Codacons, che nasce per dar voce “al singolo consumatore” (è scritto nel sito web del Codacons). Dar “voce al singolo consumatore”, qualunque cosa voglia dire, probabilmente significa far parlare il consumatore quando si sente truffato, imbrogliato, derubato così da poter ristabilire il giusto “equilibrio” tra chi vende e chi compra. E va più che bene. Se un venditore mi vende merce avariata, non funzionante o non all’altezza delle aspettative, io consumatore ho il diritto di recedere dall’acquisto e di pretendere la restituzione di quanto speso. Ci sono leggi al riguardo. Un’associazione di consumatori dovrebbe fornire tutti i mezzi per poter capire quali sono i miei diritti di consumatore e quali i miei doveri. Perché è anche vero che io ho il diritto di pretendere la qualità (in senso positivo) di ciò che acquisto, ma è anche vero che non posso (non ho il diritto) danneggiare il venditore se, dopo essere stato informato, procedo all’acquisto (incauto acquisto). Ma non è solo questo. Un’associazione di consumatori dovrebbe anche fornire gli strumenti per la difesa dei diritti personali o di categorie di persone che hanno subito ingiustizie da parte di grandi operatori.
D’altra parte esiste un mondo, quello scientifico, che è abituato a fornire informazioni alla luce di quanto noto. In campo medico significa raccogliere tutte le informazioni possibili in merito a certe pratiche, analizzarle fin nei minimi particolari e trarre conclusioni.
I vaccini
In campo scientifico è più che nota l’utilità dei vaccini. E’ stata svelata la truffa, basata su un conflitto di interessi, da parte di Wakefield che, qualche anno fa, pubblicò uno studio, poi ritirato dalla letteratura per i motivi anzidetti (truffa a seguito di conflitto di interessi).
Bisogna aggiungere che lo studio di Wakefield, ritirato, fu seguito, per opportuna riproducibilità, da un’altra serie di studi che non ne hanno mai potuto riprodurre i risultati. In altre parole, il mondo scientifico non se ne è stato con le mani in mano. Si è dato da fare. Quando la riproducibilità non è stata ottenuta, si sono fatte le pulci al lavoro ed è venuta fuori la truffa dovuta al conflitto di interessi. Insomma, è stata svelata la non-eticità di Wakefield che, per questo, è stato anche radiato dall’ordine dei medici. Infine, ogni mese vengono pubblicati lavori che attestano della sicurezza dei vaccini. Basta visitare la pagina facebook del Dr. Burioni e di Ulricke Schmidleithner o anche quella di IoVaccino.
Democrazia scientifica
Accade ora che in Italia ci siano “forze” che agiscono al di fuori del mondo scientifico, l’unico ad aver titolo a poter parlare di scienza con cognizione di causa, che spingono per una pari dignità tra chi è contro i vaccini in modo insensato e chi, invece, li consiglia perché, conoscendone il funzionamento, sa perfettamente che questi farmaci sono importantissimi per la prevenzione e la lotta a patologie invalidanti se non mortali.
Sono state bloccate più volte le proiezioni di un film (Vaxxed) che narra la storia di Wakefield facendone un martire: il Davide della medicina che aiuta la gente contro il Golia della medicina che, invece, vuol fare del male. Ma non è così. La storia di Wakefield non è quella di Davide e la medicina, quella seria, non è un Golia malefico. Certo, oggi, con le attività che sono economy-driven (ovvero modulate solo dal guadagno facile sia in termini economici che in termini di produttività), il medico ha perso in parte quella funzione di supporto psicologico che avevano un tempo i cosiddetti medici di famiglia. Dal medico tuttologo di 50 anni fa, si è passati al medico specializzato che sa benissimo e molto meglio rispetto al tuttologo quello che fa. Il modo con cui può comunicare col paziente può essere cambiato, ma questo non è un problema generale, bensì personale. Ci sono medici che hanno empatia e riescono a rassicurare il paziente; ci sono medici che, pur professionalmente molto qualificati, mostrano meno empatia ed il paziente si sente maltrattato. Ma non è così, come tutti quelli che hanno avuto a che fare con persone serie sanno benissimo.
Una delle forze esterne al mondo scientifico che sembrano agire in controtendenza a quella che è la ricerca scientifica è il Codacons.
E quale è stata la reazione del Codacons? Sì proprio l’associazione nata per la tutela dei consumatori. Beh…la leggete a questo link.
Riporto uno stralcio di quanto scritto nel link:
“Lo studente d Treviglio che con le sue proteste ha bloccato la proiezione al cinema del film “Vaxxed” è troppo giovane per conoscere la storia dei vaccini in Italia, ma se si fosse documentato sul web come fanno molti ragazzi della sua età avrebbe scoperto alcune analogie tra quanto contenuto nella pellicola e la storia recente dei vaccini in Italia”.
“Conoscenza matura”
Quindi, il Dr. Carlo Rienzi, presidente del Codacons, ritiene che l’età di una persona sia vincolante per la conoscenza. Senza sapere come questo studente abbia approfondito le sue conoscenze in merito ai vaccini, ritiene che la sua giovane età non gli consenta di esprimere un giudizio di merito. Giudizio che peraltro non è personale, ma è avallato dal mondo scientifico. Tra l’altro il Dr Rienzi attribuisce al web una valenza che non ha perché è pur vero che le notizie si possono cercare in rete, ma è altrettanto vero che nella giungla del web bisogna anche essere capaci di distinguere tra notizie false, verosimili e vere. Non tutto quello che è scritto in rete ha validità scientifica e di certo non l’hanno i siti che sono di carattere anti-vaccinista.
Come si può fare a distinguere tra vero, verosimile e falso?
O si studia oppure ci si affida a chi ne sa di più. Chi ne può sapere di più in campo vaccinale? Ci sono tanti blog e pagine internet gestite da specialisti che NON esprimono opinioni personali, ma divulgano quanto c’è di noto nel mondo scientifico (alcuni esempi sono stati fatti prima).
Ciò che è noto è che tutte le posizioni antivacciniste sono senza senso e denotano solo profonda ignoranza in campo scientifico.
Cosa accade al Codacons? Qui non posso che dare una mia personale opinione alla luce di quanto leggo in rete. Chi dice “non sono antivaccinista, ma…” in realtà denota una vena antivaccinista che si fonda su informazioni pseudoscientifiche, false e certamente incomplete
Faccio parte del mondo scientifico. Ho fatto questa scelta di vita fin dai tempi del liceo pensando di accedere ad un mondo fatto di sogni dove poter realizzare il mio spirito “salgariano” di avventure nel mondo del microscopico, di ciò che non si può vedere se non con la fantasia.
Durante la mia vita scientifica ho incontrato tante persone meravigliose, ma altrettante abbiette e degne solo di disprezzo.
Ancora mi ricordo delle sensazioni che ho provato quando Morris Schnitzer, il padre della chimica delle sostanze umiche, si alzò dalla platea per salire sul palco dove avevo appena finito la mia presentazione in cui lo attaccavo pesantemente, per stringermi la mano e complimentarsi con me. Io avevo 31 anni, lui era sulla settantina. In quel momento ho avuto sentimenti contrastanti ed ho capito quello che deve essere un vero scienziato. Mi sono sentito orgoglioso per quel riconoscimento che mi veniva dalla vecchia guardia, ma nello stesso tempo mi sono sentito umiliato perché quella persona non meritava l’attacco ad alzo zero che avevo fatto. Tra i due, io avevo un deficit di signorilità; il Prof. Schnitzer, dall’alto della sua esperienza, sapeva che prima o poi sarebbe arrivato un giovane a far progredire il campo di cui lui era stato fondatore; se lo aspettava perché questo è il mondo scientifico. Ci si fanno domande, si cerca di dare una risposta. È quella giusta? Non lo so. Di sicuro lo è sulla base delle conoscenze del momento, fino a che qualcuno non si alza e dice “guardiamo le cose da un altro punto di vista” e nasce qualcosa di nuovo.
Credo che questo sia ciò che tutti noi, che apparteniamo a questo mondo, dovremmo fare. Non a tutti è dato fare delle rivoluzioni, ma tutti possiamo, e dobbiamo, contribuire a che ciò si verifichi. Anche il lavoro oscuro di chi non sarà mai ricordato è preziosissimo. È proprio sul lavoro di questi “stregoni” oscuri che si costruiscono le basi per l’avanzamento delle conoscenze.
Eppure siamo tutti umani. Quando il proprio egocentrismo prevale sul mondo ideale fatto principalmente di sogni, accadono cose spiacevoli. Accade che un Wakefield si inventi dei dati su una correlazione inesistente vaccini/autismo; accade che uno Schoen si inventi di sana pianta dati sperimentali sui superconduttori organici; accade che dei Fleischmann e Pons interpretino dei fenomeni casuali invocando quella che potrei definire la pietra filosofale della chimica nucleare; accade che qualcuno si inventi dati sulla tossicità, finora inesistente, degli organismi geneticamente modificati; accade che qualcuno, operando come revisore, bocci un lavoro per sostituire il nome del legittimo autore col proprio; accade anche che, approfittando della propria posizione dominante, editors di riviste più o meno importanti impongano citazioni, anche fuori luogo, ad autori di studi inviati a quelle stesse riviste. Lo scopo è incrementare in modo artificioso il valore di quei parametri che il mondo scientifico ha deciso di utilizzare per classificare la qualità delle diverse tipologie di ricerca.
Sono utili questi parametri? La risposta a questa domanda non è facile perché una risposta affermativa implicherebbe che esistono ricerche di serie A e ricerche di serie B. Significherebbe, nel mondo ideale, classificare la conoscenza né più né meno come fece Gentile con la sua riforma nel 1923: la ricerca tecnico-scientifica non è conoscenza; la cultura e la conoscenza è solo quella umanistica. Non si terrebbe, quindi, conto del fatto che tutti i saperi, da quelli matematici, fisici, chimici, a quelli storici, letterari etc, contribuiscono all’accrescimento della qualità della vita umana.
Una risposta negativa alla domanda succitata implicherebbe una scarsa considerazione della realtà in cui ci troviamo a vivere. Le risorse economiche ed umane sono limitate. Cosa e chi finanziare prima? Da qui la necessità di valutazioni quanto più oggettive possibili per poter stabilire, per esempio, che la salute umana viene prima della grotta di Platone.
Come in tutte le cose, però, in medio stat virtus. Una ricerca sulla SLA è certamente importante per tantissime persone che soffrono le pene dell’inferno, ma altrettanto importante è poter rispondere alle tante domande sul ruolo che noi esseri umani abbiamo nel mondo in cui viviamo. Finanziare studi di un certo tipo prima di altri di diversa natura, va bene, ma tutta la conoscenza deve essere supportata. Non esiste una cultura di serie A ed una di serie B.
Purtroppo, devo aggiungere, la ricerca economy-driven sta generando mostri. Carriere di sognatori sono nelle mani di pochi individui senza scrupoli che pur di lasciare un segno nei libri di storia pensano che ogni mezzo sia lecito per raggiungere l’obiettivo. Piuttosto che lavorare per migliorare la qualità delle proprie conoscenze, del proprio modo di porsi di fronte a chi conosce meno, pensano ad alterare artificialmente dati e numeri in modo da innalzare i parametri che servono per salire sempre più in alto nelle classifiche in modo da avere privilegi che non meritano.
Il mondo scientifico non differisce dalla società civile. In realtà ne è lo specchio fedele. Nella società civile ci sono milioni di persone che operano tutte assieme per migliorare la qualità del sistema in cui devono vivere. Tuttavia, ci sono anche migliaia di imbroglioni ed imbonitori che operano attuando atteggiamenti mafiosi e truffaldini. Allo stesso modo, nella società scientifica ci sono migliaia di persone oneste che operano facendo del loro meglio e cercando di apportare miglioramenti per il bene di tutti. Tuttavia, ci sono pochi mediocri che fanno tanto rumore e che operano imbrogliando. Approfittano delle loro posizioni dominanti per imporre il loro punto di vista mediocre quanto loro.
La scienza è malata? Non più di quanto lo sia la società civile. La cosa importante è non sottomettersi e combattere contro le intimidazioni ed i ricatti. C’è chi nella società civile ci ha rimesso la vita. Ricordo i tanti Falcone e Borsellino che hanno alzato la testa ed hanno detto “NO!”. Anche nel mondo scientifico ci sono tanti che dicono “NO!” e che sono felici di rimanere nell’anonimato e di pagare in prima persona per il loro “NO!” con l’ostracizzazione, la mancanza di fondi, i ricatti morali. Ciò che è importante è inseguire i propri sogni. Il sogno della propria dignità personale viene prima di tutto. Ben vengano le operazioni che tanti fanno per evidenziare ed ostracizzare le mele marce.
E’ recente la notizia che in Russia (ed ora a quanto sembra anche in Italia) stia “spopolando” una droga dagli effetti devastanti sull’organismo. Si tratta della desomorfina, meglio conosciuta col nome di krokodril.
In tutti i casi si riportano di effetti devastanti sull’organismo come tromboflebite, ulcerazioni, cancrena e necrosi fino ad arrivare anche alla morte.
Cos’è la desomorfina?
Figura 1 Struttura molecolare della morfina e della desomorfina
La desomorfina è un derivato della morfina, un metabolita (alcaloide) contenuto nell’estratto di papavero (Papaverum sonniferum). Differisce dalla morfina per un gruppo ossidrilico (-OH) ed un doppio legame (vedere il cerchio nella Figura 1). Da un punto di vista sintetico si ottiene a partire dalla codeina che è la forma metilata della morfina.
La sintesi
In Figura 2 (ripresa da Wikipedia) si riporta lo schema sintetico della desomorfina a partire dalla codeina.
Figura 2 Schema sintetico della desomorfina
Il processo sintetico prevede una prima trasformazione della codeina in alfa-clorocodeina mediante l’uso del cloruro di tionile (SOCl2). A questo link la scheda di sicurezza del cloruro di tionile.
Il cloruro di tionile ha un punto di ebollizione di 76°C ed una tensione di vapore di circa 12 kPa a 20°C. Questo vuol dire che a temperatura ambiente i suoi vapori possono essere presenti in quantità tossiche per l’organismo. In acqua avviene una decomposizione del cloruro di tionile secondo lo schema sottostante (si formano acido solforoso e acido cloridico):
SOCl2 + 2H2O → H2SO3 + 2HCl (1)
Dal momento che il nostro organismo è formato per lo più (80%) di acqua, un qualsiasi contatto del SOCl2 con le nostre mucose o con la nostra pelle provoca irritazioni pericolose dovute proprio agli acidi sopra-descritti (per inciso l’HCl è il componente dell’acido muriatico e l’H2SO3 uno dei componenti delle piogge acide). A causa delle irritazioni prodotte dal cloruro di tionile, il primo istinto è quello di usare acqua per ripulirsi. Ciò, invece, è assolutamente deleterio perché non farebbe altro che spostare la reazione (1) a destra con conseguente aggravio delle conseguenze sulle mucose o sulla pelle.
Da tutto questo una prima conclusione: gli effetti della desomorfina sono dovuti alla presenza di cloruro di tionile residuo della sintesi sopra descritta.
Dopo l’alogenazione , avviene una riduzione catalitica seguita da dealogenazione. Questo processo, in genere, si fa usando idrogeno (H2) oppure, molto più economicamente, boridruro di sodio (NaBH4). Benché riducente blando, il boridruro di sodio (scheda di sicurezza a questo link) è mortale per inalazione ed ingestione ed irritante per la pelle e le mucose. In questo caso si può utilizzare acqua per neutralizzarlo.
Ecco la seconda possibile fonte di pericolosità del Kokrodil. Eventuali tracce di boridruro di sodio (o di un qualsiasi altro agente riducente) possono indurre all’assunzione di acqua che mescolata al SOCl2 di cui sopra comporta rischi notevoli.
Ultimo step della sintesi è la demetilazione. I gruppi eterei si idrolizzano solo in ambiente fortemente acido. Anche in questo caso, lavaggi non efficaci delle miscele di reazione possono lasciare tracce degli acidi forti usati nella sintesi che potrebbero portare alle proprietà irritanti del Kokrodil.
Conclusioni
Da tutto quanto riportato in questa nota si evince che gli effetti deleteri del krokodril non sono dovuti alla desomorfina come tale, ma alla presenza di impurezze varie derivanti dalla sintesi di questa droga chiamata anche “droga dei poveri”.
Nota. Questo breve articoletto sulla desomorfina nasce grazie a una discussione avvenuta nel 2012 nel gruppo Facebook Fisica Quantistica ed Assurdità
Quante volte vi è capitato di restare troppo tempo in acqua? E quante volte avete notato che uscendo dal bagno avete le punte delle dita raggrinzite? Vi siete mai chiesti perché? E vi siete mai chiesti qual è il vantaggio evolutivo che possiamo avere da una cosa del genere?
Sembra quasi banale, ma solo nel 2013 è stato pubblicato un lavoro serio in merito a questa questione. Quindi, non possiamo dire che le informazioni che sto per dare siano troppo vecchie. Si tratta di qualcosa che è stato spiegato solo ieri. Qui il link.
È facile dimostrare che l’aumento del numero di grinze sulla pelle corrisponde ad un aumento di area superficiale della stessa. Ho già riportato una dimostrazione di questo tipo per altri sistemi, ma la tipologia di ragionamento si applica anche per superfici come la pelle che raggrinzisce.
Un elevato valore di area superficialedella pelle sulla punta delle zampette dei gechi spiega, per esempio, le loro caratteristiche anti-gravitazionali.
Figura 1 Anatomia della pelle. (Fonte: http://health.howstuffworks.com/skin-care/information/anatomy/skin1.htm)
Infatti, grazie alla loro elevata area superficiale, le dita dei gechi sono in grado di realizzare delle interazioni di Van derWaals molto forti con le superfici con cui vengono a contatto. Queste forze di attrazione sono così intense che riescono a vincere la forza peso che tenderebbe a spingere il geco verso la superficie terrestre.
L’aumento di area superficiale delle dita umane, conseguente al raggrinzimento per immersione prolungata in acqua, ha un significato evolutivo preciso secondo i ricercatori della Newcastle University. A quanto pare abbiamo conservato questa caratteristica perché ci serve per poter usare le mani, senza che gli oggetti ci scivolino, in condizioni di elevata umidità o quando siamo sott’acqua. L’aumento di area superficiale, dovuto agli impulsi nervosi che consentono la diminuzione del volume della polpa epidermica, aumenta la capacità di presa grazie all’intensificarsi delle forze di interazione superficiale tra le nostre dita e ciò che afferriamo.
Non c’è che dire. I fenomeni naturali sono sempre affascinanti
Fonte dell’immagine di copertina: https://www.themarysue.com/water-wrinkles-purpose/
È da un po’ di tempo che frequento la rete. Nel 2009 mi sono iscritto a Facebook e, nel tempo, mi sono trovato a gestire diversi gruppi di carattere scientifico. Sono intervenuto con commenti più o meno pacati in diverse discussioni e mi sono sempre trovato ad affrontare persone che non avevano, e non hanno, idee chiare in merito alla scienza ed al suo impatto sulla società. Tra le varie discussioni, per lo più serali, avute in rete ne ricordo una con un utente in merito al rapporto tra scienza e paranormale. Questo utente si chiedeva :
Scienza e Paranormale: è possibile un incontro tra le due materie per un confronto costruttivo con pari dignità e rispetto o rimangono due mondi incompatibili ed agli antipodi nelle rispettive prigioni mentali?
Cerco di argomentare per chiarire cosa realmente penso del paranormale.
Da una banale ricerca in wikipedia, si trova che paranormale è “quel presunto fenomeno (detto anche anomalo) che risulta contrario alle leggi della fisica e agli assunti scientifici e che, se misurato secondo il metodo scientifico,risulta inesistente o, nel caso di fenomeno esistente, comunque spiegabile sulla base delle conoscenze attuali”. In altre parole il fenomeno paranormale è un fenomeno anomalo sul quale non è possibile, allo stato attuale, dare una spiegazione attendibile sulla base dei modelli scientifici in vigore.
I modelli scientifici sono, per loro natura, migliorabili dal momento che rappresentano solo una rappresentazione della realtà fenomenologica. Il modo più semplice per costruire questi modelli è quello di partire dal sistema semplificato, osservarne il comportamento, descriverlo matematicamente e quindi renderlo progressivamente più complicato. Se il modello ipotizzato per il sistema più semplice è robusto, allora esso sarà in grado di descrivere il comportamento (modello previsionale) del sistema via via più complesso. Nel momento in cui il sistema non può essere più descritto dal modello ipotizzato, questo non perde di validità, ma assume validità ristretta. Ovvero è valido solo per certe condizioni al contorno e non per tutte. Il cambiamento del modello per la descrizione del sistema complesso deve, necessariamente, includere quanto spiegato anche dal modello ristretto alle condizioni al contorno specifiche.
Un esempio per tutti. La legge dei gas ideali (PV=nRT) si applica solo per gas le cui particelle non interagiscono tra loro e sono puntiformi, cioè non hanno dimensione. I gas, in realtà, non solo sono costituiti da particelle che hanno un volume ma interagiscono anche tra loro. Tutti sanno (ed è intuitivo) che il moto stocastico delle particelle di un gas implica che esse si scontrino e rimbalzino in tutte le direzioni. Per tener conto sia delle interazioni tra le particelle e del fatto che il volume del gas è quello occupato dall’insieme delle particelle meno il volume delle stesse si elabora il modello di Van derWaals che tiene conto di questi due parametri. Questo modello, tuttavia, ha anch’esso validità ristretta perché, per esempio, non tiene conto della comprimibilità dei gas. Allora si elabora il modello del viriale. E potrei continuare.
l’osservazione sperimentale
Tutto quanto detto si basa su un fatto assolutamente incontrovertibile e da cui non si può prescindere: l’osservazione sperimentale. Affinché un modello possa essere validato ed essere ritenuto robusto (resistere nel tempo) è necessario fare le osservazioni sperimentali. Queste devono essere fatte secondo criteri ben precisi, ovvero il fenomeno deve essere sotto controllo ed essere riproducibile. Se questo non accade è impossibile elaborare un modello che abbia carattere predittivo generale. Dire che il fenomeno deve essere sotto controllo significa che bisogna conoscere tutti i parametri che consentono l’ottenimento del fenomeno e la sua osservazione. Per esempio, a seconda dei casi, possono essere importanti temperatura, pressione, umidità, fase del sistema etcetc etc. Alla luce dell’insieme di questi parametri si elabora un’ipotesi e si riproduce il fenomeno. Se il fenomeno non avviene nello stesso modo in cui è stato osservato in precedenza, allora vuol dire che non si sono considerate tutte le possibili condizioni al contorno. Bisogna, quindi, variare queste condizioni fino a che non si ottiene esattamente lo stesso fenomeno. A questo punto si incominciano a variare tutti i possibili parametri in modo da falsificare il modello. Questo vuol dire che si cerca di trovare in tutti i modi possibile quell’unico parametro o quella serie di parametri che rendono non vero il modello proposto. Quando questo avviene (ed è il 90% dei casi) si cambia ipotesi e si procede fino a che non si trova un modello che non si riesce a falsificare. Il punto successivo è quello di rendere pubblico il modello e fare in modo che chi lo desidera possa verificare la validità del modello.
Condizioni per un nuovo modello
Frequentemente accade che il modello venga falsificato da persone di gruppi di ricerca che non sono coinvolti fin dal primo momento nella ricerca del modello. Tuttavia, il nuovo modello proposto da questi nuovi ricercatori deve tener conto anche del vecchio, ovvero deve spiegare il comportamento già osservato dai primi ricercatori più le nuove scoperte. Se il modello modificato tiene conto solo delle nuove osservazioni non può essere valido, ma è valido (come detto prima) solo per le specifiche condizioni al contorno.
Fatta questa lunga premessa, si può dire che quelli che vengono ritenuti come fenomeni paranormali sono, in realtà, fenomeni anomali che non possono essere spiegati per diversi ordini di motivi. Il primo potrebbe essere la non riproducibilità del fenomeno. Se il fenomeno non è riproducibile, allora vuol dire che non si controllano tutte le condizioni al contorno perché il fenomeno accade una tantum e la sua rarità non consente di capire cosa bisogna controllare. Il punto di vista scientifico è, quindi, di lasciare il giudizio in sospeso fino a che non si sarà in grado di controllare tutte le condizioni al contorno.
I fulmini
Un esempio di quanto detto è quello dei fulmini di cui non si conosceva la natura fino a che non si è capita la chimica dell’atmosfera. Fino ad allora i fulmini erano considerati rivelazioni del divino. Un altro esempio sono i tornadi che ancora oggi sono difficili da modellizzare benché se ne sia capito molto. Ancora un esempio è legato alla teoria del flogisto che ha avuto un grande seguito fino a quando Lavoisier non ha capito che i processi di combustione sono dovuti a processi di ossidazione e non a perdita di un qualche cosa di non meglio definito. E potrei continuare. Tuttavia, la base comune di tutti questi fenomeni era la loro osservabilità, misurabilità e riproducibilità.
Il secondo motivo della anomalità dei fenomeni potrebbe essere semplicemente la loro non osservabilità. Ovvero il fenomeno semplicemente non è misurabile. Se un fenomeno non è misurabile vuol dire che non esiste, ma che è un’illusione della singola persona o della moltitudine. Qui l’esempio più classico è quello della pareidolia, della telecinesi e così via di seguito.
A questo punto si potrebbe obiettare, come ha fatto l’utente che ha iniziato questo confronto dialettico, che:
Io non posso dire che Diaspar non esiste in quanto la scienza non lo ha mai dimostrato
In realtà questo esempio è fuori luogo, scientificamente parlando, perché parte da un presupposto sbagliato. Infatti, questo commento implica la volontà da parte dello scienziato di non voler scientemente dimostrare l’esistenza di Diaspar, termine usato dall’utente per indicare un generico fenomeno paranormale. Scopo della scienza non è quello di dimostrare l’esistenza o meno di qualcosa. Lo scopo della scienza è quello di spiegare come avvengono i fenomeni osservabili. Se io non sono in grado di osservare Diaspar, semplicemente per me non solo non esiste, ma non ha alcun senso spiegarne il comportamento.
Cosa si conclude da tutto questo? Che i fenomeni paranormali non sono altro che il frutto della fantasia soggettiva. Non hanno alcun riscontro reale e rientrano nell’ambito delle favole.
Ben vengano allora blogger, youtuber ed altri personaggi che dal mondo scientifico si immettono nella divulgazione per contrastare in modo corretto, con informazioni di prima mano, l’onda antiscientifica. Leggo sempre con piacere la competenza con cui i debunker (nome corretto di chi lotta contro I movimenti antiscientifici) affrontano i “fuffari” in rete.
Nei giorni passati ho letto con enorme interesse un articolo scritto dal Dr. Salvo Di Grazia conosciuto in rete come MedBunker. È a questo link.
Nel suo lavoro, MedBunker affronta con competenza e cognizione di causa i problemi legati all’intervista rilasciata dalla Dr.ssa Gatti nel servizio della trasmissione Report in merito ai vaccini.
MedBunker ci fa capire come le affermazioni fatte dalla Dott.ssa Gatti in merito alle nanoparticelle nei vaccini siano infondate. Lo fa in modo molto semplice.
Tanto per capire di cosa si parla, le nanoparticelle sono sistemi solidi dispersi in un mezzo qualsiasi e si distinguono, solo ed esclusivamente, per le loro dimensioni. Il suffisso “nano”, infatti, significa 10-9, ovvero 1/1000000000. Anteporre il suffisso “nano” alla parola “particella” significa solo dire che si stanno prendendo in considerazione sistemi solidi le cui dimensioni ricadono nell’ordine del miliardesimo di metro. In altre parole, le nanoparticelle possono essere di ogni tipo. Esistono nanoparticelle di origine organica, come nanoparticelle di origine inorganica.
Quando insegno la chimica del suolo, evidenzio che sistemi chimici che hanno le dimensioni anzidette e che sono disperse nella fase acquosa dei suoli, costituiscono quelli che vengono indicati come “colloidi del suolo”. I minerali argillosi e la sostanza organica naturale sono i due tipici esempi di “nanoparticelle” (i primi di origine inorganica, la seconda di origine organica) presenti in natura.
MedBunker ha ragione. Le nanoparticelle sono ovunque. Sono tossiche? Dobbiamo averne paura? Certamente no. La tossicità di un sistema chimico (qualunque sia la sua dimensione) dipende da tanti fattori tra cui, non ultimo e molto importante, la concentrazione. È la dose che fa il veleno come ci ha insegnato Paracelso. Tuttavia non voglio scrivere un trattato di tossicologia chimica.
In questa sede voglio centrare la mia attenzione su quello che io reputo un errore sempre più frequente nei processi di debunk e che potrebbe, a mio avviso, spuntare le armi che abbiamo a disposizione per contrastare il proliferare di sciocchezze on-line. Prendo ad esempio MedBunker solo perché è l’ultimo degli articoli in cui ho notato questo errore. Non me ne voglia Salvo Di Grazia se uso il suo lavoro per scrivere questa nota. La stessa tipologia di errore l’ho trovata ovunque, anche nelle discussioni interminabili nei vari siti di debunk che gestisco in rete.
MedBunker, dopo aver smontato le argomentazioni della Dottoressa Gatti in merito alle nanoparticelle nei vaccini, scrive:
“Il suo microscopio ha trovato migliaia di nanoparticelle in flaconi di vaccino. Prima lo ha fatto sapere tramite internet e poi con un libro, edito da Macrolibrarsi, casa editrice specializzata in libri sui misteri, sugli UFO e sui poteri paranormali. Ma in effetti non era sufficiente e tutti le chiedevano a gran voce di pubblicare (come dovrebbe fare qualsiasi scienziato) in una rivista scientifica, non ci pensa due volte ed in effetti lo fa. Peccato che la rivista scientifica che ha scelto è praticamente sconosciuta, non ha nemmeno un “impact factor” (fattore d’impatto, misura l’importanza di una rivista scientifica) ed il suo editore, Medcrave, è noto per essere un “predatory journal“, cioè un editore che accetta qualsiasi cosa, dallo studio vero a quello falso o stupido, dietro pagamento, protagonista persino di un editoriale del BMJ sulle mail indesiderate, lo spam, che arriva ai ricercatori con la richiesta di pubblicare qualcosa“.
Era proprio necessario invocare i “predatory journals”? Era proprio necessario evidenziare che il giornale scelto dalla Dottoressa Gatti è privo di impact factor?
Come probabilmente è noto, sono nel mondo scientifico da quasi una trentina di anni. In tutti questi anni ho operato come peer reviewer (ovvero revisore scientifico) per tantissime riviste. Da Nature a Ciencia Rural, la prima con impact factor altissimo, la seconda con impact factor molto basso, ma egualmente dignitosa e piena di lavori estremamente interessanti. Ho operato come revisore scientifico per riviste appena nate prive, per questo motivo, di impact factor e per riviste che nel tempo non hanno mai avuto un impact factor. Ebbene sì, per essere indicizzati ed avere un IF bisogna affidarsi alla Thomson Reuters, agenzia privata, oggi proprietà della Clarivate Analytics, che chiede un “obolo” che non tutti sono in grado di/o vogliono pagare. In alternativa indicizzazioni gratis si possono ottenere mediante altre agenzie come Google Scholar, Scopus, ResearchGate ed oltre. Spuntano agenzie di rating bibliografico ogni momento. Non è detto che una rivista indicizzata con Google Scholar, Scopus o altro, sia indicizzata anche dalla Thomson Reuters. Ed in ogni caso, quale indice è quello più qualificato? Chi decide quale parametro bibliometrico è migliore? In ambito accademico e per il mio settore disciplinare, per esempio, si è deciso arbitrariamente che Thomson Reuters e Scopus debbano essere le uniche agenzie da considerare per il superamento dell’abilitazione scientifica nazionale. Altri settori possono decidere altrimenti. Molti colleghi decidono arbitrariamente che il loro indice di Hirsch (o h-index, un parametro quantitativo che misura l’impatto che il singolo scienziato ha sulla sua comunità di riferimento) debba essere quello di Google Scholar perché questo motore è in grado di indicizzare molto di più rispetto ai motori precedentemente citati. Io stesso per esempio ho un h-index che varia in funzione del motore di ricerca presso cui i miei lavori sono indicizzati. Un motore di ricerca che indicizza un numero di lavori inferiore ad un altro, produrrà un h-index inferiore perché, gioco forza, non può prendere in considerazione le citazioni dei lavori che non è in grado di indicizzare. Non si possono mettere nel computo “oggetti” che, di fatto, per quel motore non esistono.
Lo stesso dicasi per quanto riguarda l’impact factor delle riviste di cui ha parlato MedBunker nel sua articolo. Ci sono riviste indicizzate un po’ ovunque e non sempre l’IF elaborato dai diversi database coincide.
È vero. Ci sono riviste “predatorie” che pubblicherebbero di tutto pur di battere cassa. Ma è altrettanto vero che il giudizio che un peer reviewer elabora su uno specifico articolo è indipendente da tutti i parametri quantitativi precedentemente citati. Ogni reviewer (revisore) valuta il merito del lavoro che è chiamato a giudicare. Non si possono certo replicare in laboratorio gli esperimenti di cui si legge in un lavoro (è impossibile e un revisore avrebbe bisogno di fondi e personale in gran quantità pe replicare gli esperimenti di altri). Si valuta la congruenza tra il disegno sperimentale, i dati ottenuti e le conclusioni elaborate. Se c’è congruenza, il lavoro passa e viene pubblicato. Se non c’è congruenza, il lavoro viene rifiutato o accettato con major/minor revisions, ovvero si chiede all’autore (autori) di rivedere il lavoro e la procedura sperimentale perché sono state notate delle fallacie.
In modo oggettivo MedBunker evidenzia che il lavoro della Dr.ssa Gatti è stato preso in considerazione nel merito da qualcun altro. Ed è ciò che, secondo me, deve essere l’unica cosa da prendere in considerazione: tutto il resto non conta. Che la casa editrice sia “predatoria”, che la rivista non sia “impattata” non sono argomentazioni da prendere in considerazione. Ciò che va evidenziato è l’incongruenza del disegno sperimentale rispetto ai dati prodotti ed alle conclusioni raggiunte. Nient’altro. Il lavoro è stato pubblicato. È stato oggetto di revisione? Sì. Allora bene. La revisione non è stata assegnata a “giudici” esperti. Questo deve essere segnalato alla rivista che prenderà, poi, le opportune decisioni. È così che, a mio avviso, si cresce. Non puntando il dito contro il contenitore per evidenziare le mancanze del contenuto.
In merito alle riviste predatorie ed al perché su di esse molti autori Italiani inviino i loro prodotti, nonché i limiti dei database che indicizzano le riviste predatorie, si trova qualcosa a questo link o a quest’altro.
È stato un convegno molto interessante e particolarmente istruttivo. Si sono ritrovati a Roma, nella sala convegni dell’Ergife Palace Hotel dal 7 all’8 Aprile 2017, medici, psicologi, chimici e divulgatori scientifici di varia estrazione culturale per fare il punto della situazione sul livello della comunicazione scientifica nell’era della post-verità. Oggi più che mai si sente la necessità di scendere dai propri scranni – una volta si sarebbe detto “uscire dalla torre eburnea” – per informare, al di fuori delle aule universitarie, l’intera comunità in merito al progresso a cui siamo arrivati per la salvaguardia della salute pubblica. Oggi, come un secolo fa, impazzano maghi, imbonitori e ciarlatani. Questi, sfruttando la buona fede delle persone, fanno circolare informazioni perniciose e fuorvianti in merito all’efficacia di farmaci e cure per malattie più o meno invalidanti. Il loro solo scopo è quello di vendere i propri rimedi universali a prezzi esorbitanti per arricchirsi mediante lo sfruttamento della disperazione di amici, parenti e familiari di persone affette da patologie attualmente incurabili e particolarmente dolorose. Fino ad ora gli esponenti del mondo scientifico avevano deciso di non scendere “in singolar tenzone” contro antivaccinisti, omeopati, venditori di fumo convinti che la “verità” si facesse strada da sola nelle menti delle persone; ma soprattutto convinti che la propria attività scientifica fosse molto più importante che scendere in strada a conversare col “volgo”: “faccio grandi scoperte che mi porteranno gloria e fama. Il popolo comune mi dovrà ringraziare per i miei sforzi”; ecco quello che, più o meno velatamente, tutti abbiamo pensato.
Purtroppo non funziona così.
Attualmente le fonti di informazione sono molteplici; non ci sono più solo le aule universitarie a cui possono accedere potenzialmente tutti, ma che sono aperte, praticamente, solo a chi se lo può permettere.
Il ruolo della rete
Oggi la rete è quella che corrisponde all’enciclopedia Britannica di quando ero piccolo. Anzi, sotto il profilo economico, la rete internet è anche migliore dell’enciclopedia Britannica perché più accessibile. Mentre scienziati e tecnici erano impegnati a discutere tra loro e produrre informazione su riviste tecniche non accessibili a tutti, i venditori di olio di serpente accedevano alla rete ed occupavano gli enormi spazi che gli scienziati avevano lasciato liberi nell’assurda convinzione che le cose si sarebbero “aggiustate” da sole. Il risultato è stato il proliferare di teorie astruse come quelle sulla terra piatta, l’antivaccinismo e l’omeopatia, solo per citarne alcune. Ma se la terra piatta può essere considerata una nota di colore nell’enorme autostrada dell’idiozia umana, antivaccinismo, omeopatia, teorie anti-chemioterapiche etc. non sono così innocue. I disperati, quelli che hanno ingiustificate paure ataviche, coloro che hanno timore delle responsabilità, possono “attaccarsi” alle forme più disparate di antiscientificità e diffondere informazioni sbagliate col rischio di sottrarsi alle cure efficaci o promuovere il ritorno di epidemie di patologie erroneamente ritenute scomparse. È notizia dell’ultima ora, per esempio, che gli Stati Uniti considerano l’Italia un paese a rischio a causa della progressiva riduzione vaccinale che sta facendo aumentare il numero di casi di morbillo nella popolazione. Pur essendo noi nell’Europa avanzata tecnologicamente, siamo considerati come un paese in via di sviluppo. E questo grazie alla capacità imbonitrice di maghi e fattucchieri ed alla “ignavia” di chi ha sempre considerato la comunicazione divulgativa non importante nel panorama della propria attività scientifica.
TIPPING POINT
Il convegno organizzato dalla C1V edizioni è stato un punto di svolta.
Ha evidenziato tutte le carenze attualmente presenti nel mondo scientifico in merito alla comunicazione di massa ed ha puntualizzato che occorrerebbero strumenti migliori di quelli attuali per contrastare l’antiscientificità dilagante. Quali? Per esempio l’apertura di corsi universitari dedicati alla comunicazione scientifica. Non basta essere ottimi ricercatori per saper comunicare, così come non basta essere ottimi divulgatori per saper fare ricerca. Occorrono figure intermedie; figure multilingue, ovvero che siano in grado di comprendere sia il linguaggio ipertecnico degli scienziati che quello più popolare delle persone comuni che, col loro contributo, permettono il lavoro dei tanti, sebbene ancora troppo pochi, impegnati nella ricerca e nello sviluppo della conoscenza. Non è più il tempo dei cavalieri solitari che partono lancia in resta ed affrontano i pericoli da soli; non è più il tempo di far combattere battaglie epiche ed epocali a persone solitarie; persone come Piero Angela hanno fatto scuola; hanno aperto la strada. Ora tocca a tutti noi, coinvolti più o meno approfonditamente nello sviluppo della ricerca scientifica, scendere in strada e far capire che non siamo novelli Frankenstein, non siamo mostri che vogliono assoggettare il mondo ai propri desideri, ma solo persone che, per più o meno ottimi motivi, hanno solo il desiderio di far progredire l’umanità.
Il 10 (o l’11, non si sa bene) Aprile 1755 nasce a Meißen, in Germania, Samuel Hahnemann. Non tutti sanno di chi si tratti, ma basta una veloce ricerca in rete per scoprire che Samuel Hahnemann è colui che ha inventato l’omeopatia.
La seconda metà del Settecento e tutto l’Ottocento hanno visto progressi scientifici e tecnologici senza pari; basti pensare che tra il 1777 ed il 1778 Lavoisier scopre il ruolo dell’ossigeno nella combustione e nella respirazione animale[1]; tra il 1773 ed il 1780 Priestley scopre il ruolo delle piante nel purificare l’aria contaminata da anidride carbonica[1]; nel 1775 Cavendish propone un esperimento per misurare la densità della Terra mentre nel 1784 scopre la composizione precisa dell’aria oltre a proporre una sintesi dell’acqua[1]; nel 1783 i fratelli Montgolfier realizzano il sogno dell’uomo: il volo con la mongolfiera[2]; nel 1800 Volta scopre la pila[3]; tra il 1802 ed il 1810, Dalton enuncia la legge delle proporzioni multiple, la legge delle pressioni parziali ed introduce la teoria atomica[1]; nel 1803 Berthollet dimostra “che il risultato di una trasformazione chimica è modificato dalle proporzioni relative delle sostanze messe a reagire, e dalle condizioni fisiche – temperatura, pressione, ecc. – in cui essa avviene”[1]; nel 1804 Trevithick inventa la locomotiva a vapore su rotaia[4]; tra il 1803 ed il 1824, Berzelius scopre il cerio, il selenio, il torio, isola il silicio, lo zirconio ed il tantalio e studia i composti del vanadio, oltre a formulare per primo la teoria dell’isomerismo[1]; nel 1828, Wöhler per primo dimostra come un composto organico, ovvero un composto implicato nella vita, possa essere ottenuto dalla reazione di due composti inorganici, ovvero non coinvolti nei processi vitali, contribuendo ad abbattere la teoria della “vis vitalis”[5] proposta dal suo maestro Berzelius[1]; tra il 1814 ed il 1841 Avogadro pubblica i suoi lavori in cui dimostra che “volumi uguali di gas diversi, alla stessa temperatura e pressione, contengono lo stesso numero di molecole”[6], oltre ad elaborare teorie sulla densità dei gas e la costituzione della materia[1]; nel 1847, Semmelweis intuisce le cause della febbre puerperale e propone l’uso dell’ipoclorito di sodio per la disinfezione delle mani dei medici impegnati tra i reparti di ostetricia e di medicina legale[7]; intorno al 1860, Cannizzaro contribuisce a rafforzare le ipotesi di Avogadro, scopre che l’idrogeno è una molecola biatomica e pubblica la reazione di dismutazione della benzaldeide che oggi è conosciuta come reazione di Cannizzaro[1].
Dettagli molto più approfonditi e di carattere didattico sulla storia della scienza possono essere trovati sia nel riferimento [1] che nei riferimenti [8], [9], [10] e [11].
In pratica, il periodo in cui Hahnemann svolge la sua attività di medico vede la nascita e lo sviluppo di teorie più o meno note, oggi ancora valide, molte attualmente inglobate in modelli di carattere più generale, altre del tutto scomparse. Tra queste ultime ricordiamo la teoria della “vis vitalis”[5], elaborata da Berzelius, con la quale si tentava di spiegare l’origine della vita e la teoria della generazione spontanea[12] che, nella prima metà del 1800, era sostenuta ancora da personalità come de Lamarck e Saint-Hilaire. Queste erano teorie valide nel contesto storico in cui furono sviluppate quando ancora non si sapeva dell’esistenza di forme di vita microscopiche e non si disponeva degli strumenti adatti per poterle riconoscere.
La medicina era ancora agli albori come scienza e si basava essenzialmente sul fatto che le malattie erano intese come alterazioni degli equilibri tra i quattro umori (sangue, flemma, bile nera e bile gialla) e le quattro condizioni fisiche (caldo, freddo, umido e secco)[13]. Il ritorno all’equilibrio poteva essere assicurato solo attraverso pratiche che oggi noi chiameremmo magiche: purghe, unguenti, emetici e salassi.
Era anche il tempo in cui il metodo scientifico, basato sulla sperimentazione e la riproducibilità, veniva ampiamente applicato in molti rami della scienza sebbene, molte volte, con estrema rudimentalità (sia di esempio la storia di Semmelweis ostracizzato dalla comunità medica a causa delle sue osservazioni sperimentali[7]). Ed è stato proprio l’applicazione di un rudimentale metodo scientifico a portare Hahnemann all’elaborazione di quella che è indicata come “medicina omeopatica”.
Le origini dell’omeopatia
Nel tentativo di spiegare il significato di “malattia” e di “cura della malattia” in modo più efficace rispetto agli inefficienti riti magici che prevedevano purghe, unguenti, emetici e salassi, Hahnemann rielabora la teoria della “vis vitalis”[5] introducendo il concetto di malattia intesa come una alterazione dello stato di salute causato da un “miasma”[14]. Quest’ultimo viene considerato come una esalazione che altera il funzionamento della “vis vitalis” e, di conseguenza, le proprietà dell’organismo. Quando l’organismo tenta di opporsi spontaneamente all’aggressione del “miasma”, ottiene solo l’incremento della patologia. In altre parole, il “miasma” si identifica con una condizione progressivamente peggiorativa, non risolvibile spontaneamente, dello stato di salute [14]. Il “miasma”, inoltre, non agisce allo stesso modo su tutti gli organismi. Individui diversi sviluppano un tipo di malattia il cui percorso dipende dal loro personale modo di essere. In altre parole, la malattia è indipendente dall’ambiente e relativo invece alla costituzione interna dell’individuo. Da ciò nasce la necessità della cura soggettiva, non valida per tutti, individuata solo attraverso una indagine “olistica” che tenga conto dell’interazione della “vis vitalis” con tutte le componenti dell’organismo malato.
A una tale conclusione Hahnemann giunge applicando su se stesso il metodo scientifico basato sulle osservazioni sperimentali. Infatti, per capire in che modo la corteccia dell’albero della china agisse nel riordinare il flusso della “vis vitalis” nell’organismo ammalato di malaria, egli si sottopone (da sano) ad una cura che prevede dosi progressivamente più elevate della predetta corteccia. All’aumentare delle dosi, Hahnemann osserva sintomi del tutto simili a quelli della malaria: debolezza, brividi e febbre[13]. Quindi, se un individuo sano, che assume un dato rimedio, rivela i sintomi della malattia che viene debellata quando lo stesso rimedio è assunto da un individuo malato, ne viene che il modo migliore per eliminare le cause dell’alterazione alla “vis vitalis”, riportando l’organismo alle sue funzioni originali, è quello del “chiodo scaccia chiodo”, ovvero il rimedio deve indurre la stessa malattia che si intende sconfiggere. Da qui il termine “omeopatia” per indicare “il simile cura il simile” contrapposto ad “allopatia” in cui la malattia viene combattuta con rimedi che si oppongono alla stessa. Inoltre, Hahnemann suggerisce che più bassa è la concentrazione del principio che viene assunto dal malato e migliore è la sua efficacia, contravvenendo a quelli che erano i principi basilari della farmacologia ben noti anche nel suo tempo[13].
In particolare, egli suggerisce che per “attivare” la “vis vitalis” del rimedio è necessario effettuare diluizioni successive utilizzando il metodo della “succussione”, ovvero lo scuotimento sistematico delle miscele seguendo dei criteri che oggi definiremmo magici[13].
Il falso mito del riduzionismo scientifico
Oggi sappiamo che uno dei ruoli svolto dalla ventina di molecole ad azione antimalarica nella corteccia dell’albero della china è quello di inibire la sintesi di un enzima coinvolto nei processi di detossificazione del gruppo eme che si ottiene per effetto della “digestione” dell’emoglobina da parte dei parassiti che inducono la malaria. Infatti, il gruppo eme è tossico per questi parassiti. Essi dispongono di un enzima che distrugge l’eme rendendolo innocuo. Gli alcaloidi della corteccia dell’albero della china impediscono l’azione del predetto enzima e consentono all’eme di agire contro i parassiti stessi. Dettagli e meccanismi di azione dei diversi alcaloidi antimalarici si possono trovare in un documento word scaricabile qui.
La conoscenza del meccanismo di azione degli alcaloidi della corteccia della china è stata resa possibile da un approccio riduzionista, ovvero dalla considerazione che un qualsiasi complesso chimico (dalla roccia, ad un organismo monocellulare, fino all’uomo) è fatto dall’interazione di tante parti ognuna della quali ha una ben precisa funzione. Quindi, se vogliamo sapere come funziona un determinato metabolita, innanzitutto dobbiamo isolarlo e purificarlo. Una volta purificato ne individuiamo la struttura e ne comprendiamo il ruolo biologico sulla base del principio di relazione tra struttura chimica ed attività biologica: una molecola che ha una certa struttura chimica ha solo quella particolare funzione biologica. Una qualsiasi variazione strutturale (per esempio un cambiamento di isomeria) altera la funzione biologica della molecola che, di conseguenza, non è più in grado di assolvere al suo ruolo nell’organismo.
Solo chi non è troppo addentro a fatti scientifici, come spesso capita quando si interloquisce con pseudo filosofi che pensano di conoscere il mondo meglio di chiunque altro, ritiene che i processi di riduzione di un complesso alle sue componenti sia perdere di vista l’organismo in tutta la sua complessità. Le argomentazioni “olistiche” sostenute dai fautori dell’omeopatia si possono riassumere nella banale affermazione che le proprietà di un organismo vivente non sono date dalla somma delle singole componenti che lo caratterizzano, ma sono qualcosa di più. In altre parole, ancora più banalmente, secondo i fautori dell’omeopatia è sempre valida la regola che 2 + 2 > 4 (Figura 1).
Questa è una fallacia logica (oltre che ignoranza scientifica) che può essere confutata molto semplicemente facendo l’esempio dello studio delle proprietà dell’acqua.
Figura 1. Schema comparativo tra il metodo applicato dai fautori dell’omeopatia ed il metodo scientifico. Senza alcuna conoscenza di base, le proprietà dei sistemi complessi sembrano inconciliabili con le proprietà delle singole componenti. Il risultato sembra, quindi, che 2+2=10. In realtà, l’approfondimento delle proprietà chimico fisiche delle singole componenti, consente di spiegare le proprietà emergenti dalle interazioni tra singole molecole di acqua (ovvero, per es., che il ghiaccio galleggia sull’acqua liquida) che non sono racchiuse in nessuna delle singole componenti che contraddistingue la molecola. In definitiva, ogni singolo step conoscitivo corrisponde all’operazione (2 + 2 = 4). La somma totale delle conoscenze dà il risultato corretto di 10.
L’acqua è una molecola di formula H2O, ovvero è costituita da idrogeno ed ossigeno nel rapporto 2 : 1. L’idrogeno è un elemento della tavola periodica con numero atomico 1 e peso atomico di circa 1 u.m.a. (unità di massa atomica), l’ossigeno ha numero atomico 8 e peso atomico di circa 16 u.m.a. Queste informazioni, pur essendo basilari, non ci dicono assolutamente nulla in merito al ruolo svolto da idrogeno ed ossigeno nel modulare le proprietà dell’acqua. Per poter capire nei minimi dettagli il comportamento dell’acqua, abbiamo bisogno di un grado di conoscenza ulteriore. In altre parole abbiamo bisogno di sapere in che modo idrogeno ed ossigeno interagiscono tra loro. Per poterlo sapere abbiamo bisogno di introdurre gli orbitali atomici che si combinano a formare gli orbitali molecolari. Non è questa la sede per andare troppo nei dettagli.
Basti sapere che l’utilizzo del formalismo degli orbitali molecolari consente di capire che la molecola dell’acqua ha una struttura tetraedrica in cui due vertici sono occupati dai due atomi di idrogeno ed altri due dai doppietti solitari dell’ossigeno. Il centro del tetraedro è occupato dall’ossigeno. Queste informazioni non sono ancora sufficienti a capire perché l’acqua ha il comportamento che noi conosciamo, ovvero perché il ghiaccio galleggia e perché il volume dell’acqua aumenta quando la temperatura scende intorno ai 4 °C. Il gradino di conoscenze successivo consiste nel capire in che modo le diverse molecole di acqua interagiscono tra di loro. Senza utilizzare troppi dettagli, si può dire che le molecole di acqua, ognuna occupante una certa porzione di spazio tridimensionale, si legano tra loro mediante legami ad idrogeno in modo tale da formare dei “clusters” (ovvero gruppi di molecole) fatti da tetraedri in cui una molecola di acqua centrale lega altre quattro molecole di acqua (via legami a idrogeno) disposte lungo i vertici di un tetraedro. Bastano queste informazioni a spiegare perché il ghiaccio galleggia? Non ancora. Abbiamo bisogno di un andare un gradino oltre le nostre conoscenze. Per poter spiegare la più bassa densità del ghiaccio rispetto all’acqua liquida, abbiamo bisogno di sapere quali sono le peculiarità del legame a idrogeno. Affinché un legame a idrogeno si possa formare, devono essere rispettati sia dei requisiti energetici che dei requisiti geometrici. Questi ultimi consistono nel fatto che il legame O-H (legame covalente) in una molecola di acqua deve essere allineato col legame H…O (legame a idrogeno) a formare un unico asse (geometria lineare del legame a idrogeno)[15]. Quando l’acqua si raffredda, la geometria lineare si deve conservare. Questo implica che le diverse molecole di acqua si dispongono in posizioni ben precise allontanandosi le une dalle altre ed aumentando, di conseguenza, lo spazio tra di esse con diminuzione della densità. Il risultato finale di tutta questa conoscenza è che il ghiaccio galleggia sull’acqua liquida e, per questo, nel 1912 il Titanic[16], non potendo violare il principio di incompenetrabilità dei corpi[17], è affondato.
Come si evince dalla complessa spiegazione appena riportata (schematizzata nella Figura 1), da nessuna parte del ragionamento basato su modelli scientifici è riportato che 2 + 2 è diverso da 4. Anzi, le proprietà dell’acqua solo apparentemente sembrano essere un miracolo. Esse non sono altro che il risultato emergente dalla complessità delle proprietà chimico fisiche delle singole componenti della molecola in cui ogni livello di conoscenza corrisponde alla semplice operazione matematica (2 + 2 = 4). È l’assenza di conoscenze, associata alla convinzione che le spiegazioni scientifiche siano intuitive (mentre tutte le spiegazioni scientifiche sono contro intuitive), a generare i mostri pseudo scientifici che nella fattispecie si identificano con l’omeopatia.
Il falso mito della memoria dell’acqua
Non è un caso che l’acqua sia stata usata come esempio per evidenziare le fallacie cognitive di chi pensa che l’omeopatia sia la panacea di ogni male. Attualmente, non essendo più sostenibile la concezione di “vis vitalis”, i supporters dell’omeopatia si aggrappano all’idea che la struttura dell’acqua sia come un materasso memory-foam. In pratica, sulla base di lavori scientifici di cui si è dimostrata l’inconsistenza[18], viene affermato che la validità dell’omeopatia risiede nel fatto che la struttura dei “clusters” dell’acqua è modificata dalla presenza del principio attivo. L’impronta del principio attivo rimane inalterata nei processi di diluizione. L’alterazione della struttura dei “clusters” indurrebbe delle variazioni nei campi elettromagnetici generati dagli elementi che compongono l’acqua. Sono questi campi elettromagnetici che indurrebbero il processo di guarigione dell’organismo malato[18]. A parte l’inconsistenza scientifica delle affermazioni anzidette (nessuna di esse è mai stata provata), proviamo a ragionare sulle alterazioni dei campi elettromagnetici.
Una tecnica analitica molto nota in chimica è la risonanza magnetica nucleare[19]. Essa si basa sull’alterazione delle caratteristiche fisiche dei nuclei presenti nelle molecole grazie all’applicazione di campi magnetici aventi ben precise intensità. Senza entrare troppo nei dettagli che sono oltre gli scopi di questa nota, basti sapere che l’uso dei campi magnetici ad intensità variabile consente di monitorare la dinamica (ovvero il movimento) delle molecole di acqua in tutte le condizioni. Chi volesse approfondire può far riferimento ad un lavoro pubblicato su eMagRes nel riferimento [20]. Se i “clusters” dell’acqua fossero come i materassi memory-foam, ovvero se la rete tridimensionale di legami a idrogeno fosse modificata dall’impronta del principio attivo, ci dovremmo aspettare dinamiche differenti delle molecole di acqua soggette alle deformazioni anzidette. Queste dinamiche si dovrebbero riflettere sulla velocità con cui un nucleo (nella fattispecie quelli degli atomi di idrogeno dell’acqua) cede la sua energia per effetto dell’interazione con i campi magnetici ad intensità variabile. Ed invece il modello matematico che descrive la velocità appena citata e riportato nel riferimento [21] indica chiaramente che al tendere a zero della concentrazione di soluto (ovvero di un qualsiasi composto disciolto in acqua), l’acqua si comporta esattamente come se non avesse mai contenuto alcun soluto. Non c’è alcuna traccia della memory-foam, ovvero dell’impronta lasciata dal soluto nella rete tridimensionale dei legami a idrogeno. Questa riportata è solo una delle tante prove contro la memoria dell’acqua. Molte altre se ne possono trovare in letteratura e molti lavori pubblicati evidenziano gli errori commessi negli esperimenti a supporto della fantomatica memoria dell’acqua[18]. Da dove nasce la fama della memoria dell’acqua? Dal fatto che l’industria omeopatica è molto remunerativa: i formulati omeopatici costano parecchio e possono essere considerati a ragion veduta un vero e proprio lusso. Individuare una pseudo spiegazione scientifica aiuta molto nel marketing e nella vendita di prodotti omeopatici incrementando, in questo modo, l’indotto economico e l’arricchimento di gente senza scrupoli che sfrutta la credulità della gente. Inoltre, la pseudo spiegazione ammanta di scientificità qualcosa che scientifico non è, mettendo in pace l’animo delle persone che temono le proprie paure e hanno necessità di rivolgersi all’omeopatia. A nulla vale l’avvertimento in base al quale un formulato omeopatico funziona meglio se si fa una vita sana. Se si fa una vita sana, ovvero alimentazione corretta senza eccessi e sana attività fisica, non c’è bisogno né di medicinali veri e propri né di formulati omeopatici. Neanche vale dire che in caso di malattia conclamata il formulato omeopatico coadiuva le cure più tradizionali dall’efficacia acclarata. Lavori di letteratura dimostrano chiaramente che l’attività dei formulati omeopatici è del tutto simile al placebo[22] per cui, a parte influenzare l’approccio psicologico del paziente con la malattia, non hanno alcuna utilità medica.
Il falso mito dei miliardi di molecole nelle preparazioni omeopatiche
Ho già avuto modo di scrivere in merito al mito secondo cui i preparati omeopatici sono efficaci perché conterrebbero ancora miliardi di molecole di principio attivo[23]. Tuttavia, come dicevano i nostri antenati “repetita iuvant”. Innanzitutto, l’affermazione secondo cui in un formulato omeopatico si “agitano” miliardi di molecole fa un poco a pugni sia con la presunta memoria dell’acqua che col fatto che un prodotto omeopatico non è considerato un farmaco vero e proprio. Forse chi fa questa affermazione non si rende neanche conto che contraddice se stesso. Se il formulato omeopatico contiene miliardi di molecole di principio attivo, allora, secondo chi afferma ciò, la sua presunta efficacia è dovuta al fatto che può essere considerato alla stregua di un farmaco vero e proprio. E se è così, perché i formulati omeopatici non sono soggetti alla stessa legislazione (nazionale ed internazionale) dei farmaci veri e propri secondo cui prima di essere immessi nel mercato essi devono superare dei test molto stringenti in merito alla loro tossicità? Se l’attività dei formulati omeopatici è dovuta alla presunta presenza di miliardi di molecole, perché c’è bisogno di trovare una spiegazione scientifica in merito alla memoria dell’acqua dal momento che sono i miliardi di molecole ancora presenti ad avere una qualche attività?
Ma veniamo al punto. Chi afferma che nei formulati omeopatici ci sono miliardi di molecole che si agitano, non dice una sciocchezza vera e propria. Sta semplicemente usando una parte dei fatti rigirandoli a proprio uso e consumo secondo delle abitudini che sono consolidate e riconosciute. In ambito scientifico si parla di “cherry picking”, ovvero, tra tutto ciò che mi serve, prendo solo le informazioni che fanno comodo al mio caso e mi consentono di avallare le mie idee. Si chiama anche “bias cognitivo”. Si tratta della nostra predisposizione a voler prendere in considerazione solo ed esclusivamente ciò di cui siamo già convinti. Questi sono errori in cui possono incorrere tutti. Tuttavia, chi si occupa di scienza è, in genere, più allenato delle persone comuni, che non hanno basi scientifiche, e sanno riconoscere, per lo più, queste fallacie. Ai fini esemplificativi sono costretto ad entrare in alcuni tecnicismi che spero di spiegare nel modo più semplice possibile senza appesantire un discorso già pesante e tecnico di suo.
Prendiamo in considerazione una soluzione acquosa satura[24] di vitamina C (anche definito come acido ascorbico) che corrisponde ad una concentrazione di 1.87 mol/L ed indicata anche come 1.87 M[25]. Diluiamo questa soluzione di acido ascorbico (che tecnicamente si chiama soluzione madre) in un rapporto 1 : 100 con acqua. Diluire 1 : 100 significa che preso 1 della soluzione madre aggiungo 99 di acqua. Naturalmente mi sto riferendo ai volumi, per cui 1 mL di soluzione madre viene addizionato con 99 mL di acqua. Quale sarà la concentrazione finale? È facile. Basta semplicemente dividere la concentrazione della soluzione madre per 100, ovvero il volume espresso in millilitri della soluzione finale. Quindi la nuova soluzione ha concentrazione 1.87 x 10^(-2) M. Andiamo avanti e diluiamo la nuova soluzione in rapporto 1 : 100. Si ottiene una soluzione la cui concentrazione è la centesima parte di quella iniziale, quindi: 1.87 x 10^(-4) M. Se continuiamo n volte, la soluzione finale avrà concentrazione 1.87 x 10^(-2n) M.
Nel linguaggio usato dagli omeopati sto facendo le famose diluizioni CH, ovvero centesimali, per cui
CH = 1.87 x 10^(-2) M
2CH = 1.87 x 10^(-4) M
………..
nCH = 1.87 x 10^(-2n) M
Quale sarà il numero di molecole di acido ascorbico nella soluzione nCH? Si dimostra che il numero di molecole presente in una data soluzione si ottiene moltiplicando il numero di moli della sostanza per il numero di Avogadro[6], ovvero per un numero che è 6.022 x 10^23. Di conseguenza, il numero di molecole di acido ascorbico nella soluzione a concentrazione 1.87 x 10^(-2n) M sarà:
1.87 x 10^(-2n) x 6.022 x 10^23 molecole/L = 11.3 x 10^(23-2n) molecole/L
In pratica dopo 12 diluizioni centesimali (n = 12), si ottiene una soluzione che contiene 1.13 molecole per litro o, in soldoni, 1 molecola per litro. Ne viene che dopo 20 diluizioni centesimali (n=20), di fatto non c’è più nulla nella soluzione. Si tratta solo di solvente, ovvero di acqua.
Non voglio essere, però, così drastico e mi fermo a 5 diluizioni centesimali (n = 5). Il numero di molecole è 11.3 x 10^13 molecole/L. In effetti, nella soluzione 5CH ci sono 113000 miliardi di molecole per litro. Allora i fautori dell’omeopatia hanno ragione. Ci sono ancora miliardi di molecole in soluzione. Certo che ci sono! L’unico problema è che nel mondo biochimico (quello del quale dobbiamo tener conto quando si discute di salute umana) non conta il valore assoluto relativo al numero di molecole, ma la concentrazione delle stesse espressa in mol/L o M (si parla, in pratica, di effetto concentrazione). In altre parole 113000 miliardi di molecole corrispondono ad una concentrazione di 1.87 x 10^(-10) M. Cosa significa questo numero? Significa che ci sono circa 2 moli di acido ascorbico ogni 0.1 nL di acqua[26]. Questo corrisponde ad una concentrazione di 3.29 x 10^(-2) ppb[27], ovvero in un litro di acqua ci sono 3.29 x 10^(-2) μg di acido ascorbico . Se consideriamo che la dose minima giornaliera di acido ascorbico indicata nel Codex Alimentarius per evitare lo scorbuto è di 30 mg, ne viene che dovremmo bere circa 100 L di formulato omeopatico 5CH di acido ascorbico al giorno. Adesso, considerando che una giornata di veglia è fatta di 12 ore, possiamo concludere che dovremmo assumere almeno 8 L di formulato 5CH di acido ascorbico all’ora. Tuttavia, la dose letale media di acqua corrisponde alll’assunzione di 5 L in una sola ora. Ciò comporta la morte fisica. Il gioco omeopatico vale, quindi, la candela?
Conclusioni
La medicina omeopatica fa parte della nostra storia scientifica. È stato un modo per cercare di dare spiegazioni in un momento preciso del nostro tempo, quando le conoscenze biochimiche erano ancora agli albori e la delucidazione del metabolismo umano di là da venire. Non si può far finta che non sia esistita, ma certamente lo sviluppo e l’evoluzione delle conoscenze scientifiche hanno reso obsolete le trovate metafisiche di Samuel Hahnemann. Molte altre teorie sono apparse e poi scomparse nel corso della storia della scienza ed oggi le ricordiamo solo per il ruolo che hanno svolto nel contesto storico in cui sono nate. L’azione del tempo le ha rese obsolete e prive di significato. Oggi l’omeopatia può essere considerata, senza tema di smentita, solo una pratica esoterica priva di ogni validità scientifica e come un ramo secco nell’immenso albero delle nostre conoscenze.
Qui di seguito il video della mia presentazione sull’omeopatia tenuta al Caffè dei Libri di Bassano del Grappa il 29 Dicembre 2016
[5] La “vis vitalis” è una forza metafisica che determina le proprietà strutturali e funzionali di ogni organismo. I patogeni responsabili delle malattie alterano la fluidità della “vis vitalis” e, di conseguenza, comportano alterazioni delle caratteristiche funzionali del corpo e le sensazioni sgradevoli associate alle malattie. Solo il mondo organico è caratterizzato dalla “vis vitalis” mentre è esclusa da quello inorganico. Mondo organico e mondo inorganico sono caratterizzate da chimiche differenti. La sintesi di Wöhler che converte isocianato di ammonio (un sale inorganico) in urea (un composto organico) è stato il primo esempio del superamento del concetto di “vis vitalis” legato alla incompatibilità tra chimica organica e chimica inorganica.
[6] Kotz J. C., Treichel P. M., Townsend J. R. Chimica, quinta ed. italiana, EdiSES, 2012
[8] Bill Bryson, breve storia di (quasi) tutto, Guanda editore
[9] Isaaac Asimov, Breve storia della biologia, Zanichelli
[10] Isaac Asimov, Breve storia della chimica, Zanichelli
[11] Isaac Asimov, Il libro di fisica, Ed. Oscar Mondadori
[12] La teoria della generazione spontanea si basa sull’assunzione che la vita sorga spontaneamente da materiale inanimato di natura organica in quanto dotato di “vis vitalis”. La vita non può nascere spontaneamente dal materiale inorganico in quanto questo non è dotato della “vis vitalis”. Benché ancora sostenuta da alcuni, già all’inizio del XIX secolo la teoria della generazione spontanea era considerata obsoleta perché erano stati fatti esperimenti che dimostravano come la vita non potesse essere generata dal materiale organico in assenza di aria. http://online.scuola.zanichelli.it/barbonescienzeintegrate/files/2010/03/V09_01.pdf
[19] Conte e Piccolo, (2007) Solid state nuclear magnetic resonance spectroscopy as a tool to characterize natural organic matter and soil samples. The basic principles, Opt. Pura Apl. 40 (2): 215-226 (http://www.sedoptica.es/Menu_Volumenes/Pdfs/259.pdf)
[24] Una soluzione si dice satura quando il soluto ha raggiunto la sua concentrazione massima nel solvente ed aggiunte successive determinano la precipitazione del soluto.
[25] M sta per molarità ed è un modo di esprimere la concentrazione del soluto in un solvente. Corrisponde al numero di moli (mol) di soluto per unità di volume di solvente espresso in litri (L). La mole, per convenzione internazionale, corrisponde alla quantità di sostanza contenuta in 0.012 kg dell’isotopo 12 del carbonio. Operativamente, per calcolare il numero di moli si divide il peso della sostanza di interesse, espresso in grammi, per il suo peso formula (o peso molecolare, nel caso di molecole) espresso in g/mol.
[26] Il simbolo nL sta per nanolitro e corrisponde alla miliardesima parte del litro.
[27] Il simbolo ppb indica le parti per miliardo. È un modo di esprimere la concentrazione non più in uso nel sistema internazionale (SI) pur essendo rimasto nel linguaggio tecnico di laboratorio. Se si prende un oggetto e lo si divide in un miliardo di pezzettini, uno solo di essi corrisponde ad una parte sull’intero miliardo. Nel nostro caso 1 ppb corrisponde ad 1 microgrammo (μg) di acido ascorbico per Litro di acqua.
Pubblicato anche su www.laputa.it/omeopatia
Questo sito usa i cookie per migliorare la tua esperienza di navigazione. Viene assunto che tu sia d'accordo. Tuttavia, puoi annullare i cookie se lo desideri cliccando su “cookie settings” e deselezionando i cookie non necessari. Cookie settingsACCEPT
Privacy & Cookies Policy
Privacy Overview
Questo sito Web utilizza i cookie per migliorare la tua esperienza durante la navigazione. Tra questi, i cookie classificati come necessari vengono memorizzati nel browser in quanto sono essenziali per il funzionamento base del sito. Si utilizzano anche cookie di terze parti che aiutano ad analizzare e comprendere come si utilizza il sito. Questi cookie sono memorizzati nel tuo browser solo con il tuo consenso. Hai anche la possibilità di disattivarli. La disattivazione di alcuni cookie può, tuttavia, influire sulla tua esperienza di navigazione.
I cookie cosiddetti necessari sono essenziali per il funzionamento corretto del sito Web. Questa categoria include solo i cookie che assicurano le funzionalità di base e la sicurezza del sito Web. Non viene conservata alcuna informazione personale.