Scienza e novità – nuove strategie chimiche per l’agricoltura

In questi giorni si leggono tanti soloni discettare di dogmatismo scientifico perché il mondo accademico, almeno una parte consistente di esso, bolla come pseudoscientifiche le elucubrazioni esoteriche di chi cerca di ammantare di scientificità la pratica agricola che va sotto il nome di biodinamica®. Ricordo brevemente che si tratta di una pratica che si basa sulle concezioni filosofiche di Rudolf Steiner, vissuto tra il 1861 ed il 1925, il quale dettò alcune regole per la produzione alimentare che avevano come obiettivo l’equilibrio “spirituale” tra l’uomo e la Terra. Non è questo il momento per evidenziare le sciocchezze di Steiner. Ne ho scritto qualcosa qui e recentemente, assieme ad Enrico Bucci, ne ho parlato anche qui. Voglio, piuttosto, centrare l’attenzione sul fatto che i soliti redivivi Giordano Bruno e Galileo Galilei pensano di essere innovativi e che la scienza ufficiale brutta e cattiva si opponga alle loro novità per motivi economici o di arrivismo carrieristico. Tralasciando queste accuse che qualificano solo chi le fa, è da un po’ di tempo che non racconto di novità in ambito scientifico. Oggi voglio raccontarvi di nuove scoperte che la chimica – sì, proprio quella che produce le tanto vituperate sostanze tossiche (qui, per esempio) – sta facendo per aiutare la produzione agricola.

Chi mi segue sa che qualche volta ho parlato delle grandi scoperte scientifiche. Tra queste bisogna certamente annoverare il processo Haber-Bosch grazie al quale è possibile convertire l’azoto molecolare in ammoniaca.

Vi chiederete: embé?

Da un punto di vista chimico, l’azoto molecolare (N2) è una delle molecole più stabili (ovvero irreattive) che esistano in natura. L’energia di dissociazione della molecola di azoto è di circa 900 kJ mol-1. Ai non chimici questa informazione quantitativa è inutile. Vediamo di trasformarla in qualcosa di più comprensibile.

La reazione del processo Haber-Bosch (che potete trovare descritta qui) è:

N2 + 3H2 = 2NH3

Per ottenere questa conversione attualmente bisogna operare a 500 °C (contro i 600 °C del processo originario) e 150 bar (contro i 300 bar del processo originario). In altre parole, occorre una temperatura particolarmente alta (voi mettereste la mano nel piombo o nel rame fusi? Ecco…neanche io. 500 °C è una temperatura alla quale sia il rame che il piombo sono in fase liquida) ed una pressione altrettanto drastica (150 bar corrispondono approssimativamente alla pressione esercitata dall’acqua quando scendiamo ad una profondità di circa 1500 m).

L’importanza di questa reazione è legata al fatto che l’aria che noi respiriamo è costituita per l’80 % di azoto molecolare che è, quindi, disponibile a basso costo. La conversione Haber-Bosch consente di ottenere ammoniaca dalla quale poter, poi, sintetizzare molecole quali il solfato di ammonio che vengono usate, tra l’altro, per arricchire di azoto disponibile i suoli. Ricordo che l’azoto è un elemento importantissimo non solo per l’uomo, ma anche per le piante – ed in generale per tutti gli esseri viventi. Il motivo è che esso è presente in molecole come DNA e RNA, e nel nostro corredo proteico. Una carenza di azoto porta le piante a condizioni di stress in quanto esse non sono in grado di sintetizzare le predette molecole. Vi renderete conto, quindi, che l’uso di concimi a base di azoto è estremamente importante per conservare la fertilità dei suoli (che è la capacità di un suolo di sostenere la vita) e consentire la produzione alimentare per fornire sostentamento alla popolazione mondiale attualmente ancora in crescita.

Ebbene, fatta questa lunga premessa su un processo chimico oggi molto importante per le sue implicazioni in agricoltura, veniamo alla novità (l’articolo originale è qui. Se non avete possibilità di accesso a JACS, potete leggerne un riassunto qui).

Ricercatori statunitensi si sono messi a studiare in modo sistematico un fenomeno dall’apparente non riproducibilità.

Circa 75 anni fa si osservò che il biossido di titanio (TiO2), un composto inorganico usato come catalizzatore nella chimica verde, come sbiancante nelle vernici e nei dentifrici, nella forma allotropica indicata come rutilo  (Figura 1) riesce a convertire l’azoto molecolare in ammoniaca secondo lo schema riportato più su in condizioni molto blande, ovvero temperatura e pressione ambiente.

Figura 1. Struttura del rutilo (Fonte)

Il fenomeno veniva osservato solo saltuariamente. Tuttavia, nel tempo un certo numero di ricercatori ha condotto studi computazionali dai quali si è evinto che la non ripetibilità della conversione era legata al fatto che centro dell’attenzione nell’ottenimento del biossido di titanio era un prodotto con elevato grado di purezza. Quando tracce di impurezze carboniose erano presenti sulla superficie del catalizzatore, esso funzionava ottimamente a temperatura e pressione ambiente per convertire azoto molecolare in ammoniaca. Nel lavoro su JACS (una delle riviste più autorevoli della American Chemical Society) sono riportate finalmente le prove sperimentali di quanto ottenuto attraverso la computazione.

Qual è la morale di questa storia. I “bufalari” sono usi opporsi alla scienza perché definiscono gli scienziati chiusi nelle loro posizioni dogmatiche. Questi ignoranti ed arroganti neanche si rendono conto che se un fenomeno non viene osservato, non c’è nessun motivo per studiarlo. Quali ipotesi si dovrebbero formulare se il fenomeno semplicemente non esiste? Invece, la conversione di azoto in ammoniaca, sebbene saltuaria, era evidente. Bisognava solo capire quali fossero le condizioni necessarie a rendere ripetibile e riproducibile il fenomeno. Una volta individuate queste condizioni, si è ottenuta la fissazione dell’azoto in modo più conveniente del processo Haber-Bosch. Si tratta ora solo di replicare lo studio in laboratori indipendenti e ingegnerizzate il tutto in modo da produrre fertilizzanti a costo molto più basso dell’attuale.

Altro che le scemenze sulla biodinamica o sulla agro-omeopatia che esistono solo nella testa dei seguaci di queste pseudoscienze.

Fonte dell’immagine di copertinahttp://www.fritegotto.it/News-Due-moli-di-azoto-e-tre-di-idrogeno/

Numeri, numerielli e numericchi: la qualità dei dati scientifici (aggiornamenti alla Parte II)

Interessante. Oggi parlavo con un collega che evidentemente sta seguendo i miei post sul blog, in particolare questi sugli errori, e mi faceva notare che anche io non sono esente da errori nel riportare correttamente le cifre significative di cui ho parlato qui. Dovrei stare attento quando giudico gli altri e scrivo certe cose perché io stesso sono suscettibile delle medesime critiche. Sono d’accordo. Anzi aggiungo che sono assolutamente d’accordo. Ma proprio per questo devo guardare anche a me stesso.

Ho controllato nei diversi lavori che ho pubblicato, avendo come traccia solo che si trattava di un lavoro degli inizi della mia carriera. In effetti è così. L’ho trovato. Si tratta di: Zena, Conte, Piccolo (1999) GC/ECD determination of ethylenethiourea residues in tobacco leaves, Fresenius Environmental Bulletin 8, 116-123. Si tratta di un lavoro in cui sono stati ricercati i prodotti di degradazione, anzi del prodotto di degradazione, di un fungicida usato nella coltivazione del tabacco. Le tabelle incriminate sono quelle che potete vedere in Figura 1 e Figura 2.

Figura 1. Tabella 1 con il numero non corretto di cifre significative
Figura 2. Altra tabella con errori nelle cifre significative

Si tratta di errori del tutto analoghi a quelli che ho denunciato nella Parte II di questo reportage.

Non è certo un caso che la rivista che ha accettato questo lavoro abbia un impact factor di 0.673 per il 2017/2018. In effetti una qualsiasi altra rivista più quotata quasi sicuramente non avrebbe fatto passare un lavoro con questi errori così evidenti. La qualità di questa rivista è valutabile al seguente link Fresenius Environmental Bulletin.

La Figura 3 mostra come si posiziona negli anni Fresenius Environmental Bulletin nei vari quartili che sono utilizzati per la valutazione della qualità di una rivista scientifica.

Figura 3. Posizionamento dei Fresenius Environmental Bulletin negli anni

Per i non addetti ai lavori, ogni rivista viene posizionata in un quartile in base all’importanza della rivista stessa. Il quartile più importante è indicato come Q1, poi a scalare ci sono Q2, Q3 e Q4. Le riviste che si posizionano in Q1 sono quelle più accreditate (Nature e Science, tanto per essere chiari), mentre più alto è il valore del quartile, meno importante è la rivista in cui si decide di pubblicare. Il codice dei colori riportato in Figura 3 mostra che Fresenius Environmental Bulletin per il 2017 si trova in Q4 per il settore Environmental Science e Q3 per i settori Pollution e Waste Management and Disposal.  La posizione migliore che questa rivista aveva nel 1999 era Q2 per Waste Management and Disposal.

Come fa una rivista a scendere così in basso nel posizionamento dei quartili? Uno dei motivi è che accetta lavori come il mio con errori così evidenti che non consentono agli stessi di far crescere la rivista in cui sono pubblicati.

Le quotazioni di una rivista crescono con la qualità dei lavori che essa accetta e pubblica. Lavori di bassa qualità non permettono alla rivista di essere catalogata tra quelle importanti per un determinato settore scientifico.

Volete sapere quale è stato l’impatto di questo mio lavoro nella comunità scientifica? Lo potete vedere nella Figura 4 che è ricavata dallo screenshot della mia pagina Google Scholar (qui).

Figura 4. Impatto del lavoro su Fresenius Environmental Bulletin nella comunità scientifica

Come vedete, dal 1999 ad oggi il lavoro è stato citato solo sei volte. In quasi venti anni sei citazioni sono davvero poche. Solo come confronto, nella Figura 4 è riportato anche l’impatto (in numero di citazioni) di altri due miei lavori. Evidentemente la qualità dei dati sperimentali descrivibile attraverso l’uso scorretto delle cifre significative riflette la qualità complessiva del lavoro che non è risultato utile alla comunità scientifica relativa al mio settore.

Devo ancora trattenermi in quel che dico o scrivo perchè alcuni ritengono che sottolineare il pressapochismo che sovente si nota nel riportare le cifre significative sia insignificante o, addirittura, sbagliato? No.
Anche io posso sbagliare, ma l’importante è stato imparare dai miei errori, non certo non commetterne mai. Anzi, sono molto grato al mio collega che ha avuto la costanza e la pazienza di andarsi a scaricare tutta (sic!) la mia produzione scientifica, leggere un bel po’ di lavori ed andare a spulciare nei meandri delle mie pubblicazioni se eventualmente ci fosse da segnalare al sottoscritto la presenza di sbagli, anche in pubblicazioni di quasi venti anni fa. Di questo lo ringrazio perchè la mia memoria non è così ferrea.
Ma, anche, questo mi permette di dire che tutti commettiamo errori e che non bisogna mai abbassare la guardia di fronte alla sciatteria scientifica se si ha la volontà di crescere e migliorare professionalmente.

Fonte dell’immagine di copertinahttps://saluteuropa.org/scoprire-la-scienza/chi-supervisiona-la-qualita-delle-pubblicazioni-scientifiche/

Numeri, numerielli e numericchi: la qualità dei dati scientifici (Parte III)

Nelle prime due parti del reportage sulla qualità dei dati scientifici ho posto l’attenzione sulla differenza tra riviste chiuse e riviste aperte (qui) e ho evidenziato che la scarsa qualità dei dati scientifici non riguarda solo i predatory journal, ma anche giornali ritenuti molto affidabili (qui). In altre parole ho puntualizzato che la cosiddetta bad science, ovvero ciò che sfocia nella pseudo-scienza, è trasversale; ne sono pervase un po’ tutte le riviste: siano esse predatory journal oppure no; siano esse open-access oppure no. Ne ho discusso anche altrove (per esempio qui e qui), quando ho evidenziato che lavori poco seri sono apparsi su Nature e Science (riviste al top tra quelle su cui tutti noi vorremmo pubblicare) e che più che dal contenitore, ovvero dalla rivista, bisogna giudicare la qualità di un lavoro scientifico sulla base di ciò che viene scritto. Nonostante questo, tutte le istituzioni accademiche e non, riconoscono che la probabilità di avere bad science in un predatory journal è più alta che nelle riviste considerate non predatory; per questo motivo tutte le istituzioni formulano delle linee guida per tenersi lontani da riviste di dubbia qualità.

In che modo difendersi dalla bad science delle riviste predatorie?

Esistono tanti siti al riguardo. Per esempio, la mia Università, l’Università degli Studi di Palermo, mette a disposizione una pagina (qui) in cui elenca una serie di siti web da cui attingere per valutare se una rivista è seria oppure no. In particolare, se la rivista in cui si desidera pubblicare è compresa negli elenchi dei link riportati ed è anche nella Beall’s list of predatory journals and publishers, con molta probabilità si tratta di un predatory journal a cui si raccomanda di non inviare il proprio rapporto scientifico. Se, invece, la rivista o l’editore sono negli elenchi citati ma non nella  Beall’s list of predatory journals and publishers, con buona probabilità si tratta di riviste non predatorie. Qual è il limite di queste raccomandazioni? I predatory journal spuntano come funghi per cui  è possibile che ci si imbatta in una rivista che non è stata ancora catalogata come predatoria. Cosa fare in questo caso? Bisogna ricordarsi che tutte le riviste predatorie hanno in comune alcuni caratteri essenziali che le distinguono dalle riviste più accreditate:

  1. Comitati editoriali anomali, non determinati o inesistenti
  2. Tendenza a pubblicare lavori scientifici in settori molto eterogenei tra loro
  3. Tasse per la pubblicazione estremamente basse (in genere meno di 150 €)
  4. Presenza di immagini sfocate o non autorizzate presenti nei loro siti web
  5. Richiesta di invio dei lavori mediante posta elettronica, spesso a indirizzi e-mail non professionali o non accademici, e non attraverso un sistema di invio on-line
  6. Mancanza di qualsiasi politica sulle ritrattazioni, correzioni, errata corrige e plagio (più della metà delle riviste più accreditate descrive nei propri siti web come comportarsi in ognuna delle quattro circostanze)
  7. Basso o inesistente valore di impact factor (IF)

Tutti questi caratteri possono essere presenti contemporaneamente o in parte in una data rivista. Tuttavia, la loro presenza non necessariamente deve essere indice di predazione. Infatti, per esempio, una rivista nuova non ha l’impact factor che si calcola confrontando il numero di citazioni di tutti gli studi pubblicati in un biennio col numero totale di studi pubblicati nello stesso biennio (qui). Questo significa che una rivista può cominciare ad avere un IF solo a partire dal terzo anno di vita. Se la rivista è di nuova fondazione, può attuare una politica di incentivazioni alla pubblicazione fornendo agevolazioni ai ricercatori che decidono di inviare il loro lavoro. Per esempio, la ACS Omega (una rivista ancora senza IF della American Chemical Society, ACS) permette la pubblicazione gratuita a chiunque disponga di voucher (del valore di circa 750 $) elargiti dalla ACS a ricercatori di paesi in via di sviluppo o con problemi di fondi di ricerca per la pubblicazione in open access. C’è anche da dire che attualmente è abbastanza facile costruire siti web accattivanti ed attraenti. Per questo motivo, a meno che non si tratti di truffe molto evidenti, è abbastanza difficile trovare riviste predatorie con siti web fatti male. Infine, in passato ho pubblicato su riviste molto importanti del mio settore (quindi non predatorie, non open access e con ottimo IF), il cui editor rispondeva ad un indirizzo e-mail con dominio gmail.com.

Ma adesso sto diventando prolisso. Basta annoiarvi.

Ho aperto questo articolo scrivendo che tutte le istituzioni accademiche (e non) si raccomandano di seguire le linee guida appena indicate per evitare di pubblicare su riviste dalla scarsa qualità. In altre parole, le linne guida riportate sono un modo per riconoscere l’attendibilità dei contenitori in cui “versare” le conoscenze scientifiche che noi raccogliamo dalla nostra attività di ricercatori. Per ora non vi voglio annoiare di più. Nella quarta ed ultima parte di questo reportage dimostrerò che, in realtà, la qualità della ricerca non dipende dalla tipologia di rivista, ma da ben altri fattori tra cui le istituzioni che finanziano la ricerca e che, nello stesso tempo, si raccomandano di tenersi lontani da certi giornali.

Altre letture

https://www.enago.com/academy/identifying-predatory-journals-using-evidence-based-characteristics/

https://bmcmedicine.biomedcentral.com/track/pdf/10.1186/s12916-015-0423-3

Fonte dell’immagine di copertina: https://www.efsa.europa.eu/it/press/news/170803

Numeri, numerielli e numericchi: la qualità dei dati scientifici (Parte II)

Eravamo rimasti alle riviste predatorie (qui), quelle riviste che, dietro corrispettivo di una tassa più o meno salata, pubblicano di tutto senza una seria revisione tra pari (peer review); anzi possiamo anche dire senza alcuna revisione tra pari.

Volete un esempio?

Cliccate qui e si aprirà uno studio dal titolo “Combined Effects of Ethylacetate Extracts of Propolis Inducing Cell Death of Human Colorectal Adenocarcinoma Cells”, autori: Britta Schulz, Elizabeth Smith , Richard Funden and Ulf Moosberger; rivista: J Integr Oncol 2018, 7:2 (DOI: 10.4172/2329-6771.1000207). In questo studio (citato nel numero 1274 della rivista Internazionale) si discute dell’attività anticancerosa della propoli, ovvero di una sostanza resinosa “fabbricata” dalle api, di origine vegetale e ritenuta la panacea di ogni male. Cosa c’è di strano in questo lavoro? Semplicemente che si tratta di un lavoro inventato dai giornalisti del Süddeutsche Zeitung Magazin e del Süddeutsche Zeitung nell’ambito di una inchiesta (pubblicata appunto sul numero 1274 di Internazionale) in merito ai giornali predatori. Gli stessi giornalisti del Süddeutsche Zeitung Magazin e del Süddeutsche Zeitung, poi, affermano che, per non lasciar traccia di questa pseudo scienza, hanno richiesto il ritiro del lavoro. Ed infatti, qui trovate proprio la retraction, sebbene non sia per nulla indicato che si è trattato di un lavoro inventato.

È finita? Certo che no.

Cliccate qui. Potrete accedere al lavoro dal titolo “Aspirin plus Vitamin C Provides Better Relief than Placebo in Managing the Symptoms of the Common Cold” con autori: Aurelio Sessa and Michael Voelker; rivista: J Health Care Prev 1: 102. Cosa ha di strano questo lavoro? Semplice. Lo studio è stato condotto usando la ben nota Aspirina© C Plus contro un placebo fatto di banale acqua gassata. La prima è risultata migliore della seconda nel trattamento dei sintomi del raffreddore. Il punto è che lo studio è incompleto. Per poter essere valido oltre ogni dubbio, gli autori avrebbero dovuto usare un campione controllo a cui somministrare la normale Aspirina©, quella che in farmacia ci costa pochi euro. Perché non l’hanno fatto? Semplicemente perché avrebbero dovuto riportare che gli effetti della costosa Aspirina© C Plus sono gli stessi della più economica Aspirina©.

In questo caso si parla di dati e lavori apparsi su riviste di editori che sono inclusi nella Beall’s list of predatory journals and publishers per cui, sapendo che la serietà di tali riviste è opinabile, uno scienziato serio si guarda bene dal prenderli in considerazione se non dopo essere entrato approfonditamente nel merito di quanto lì scritto ed aver fatto un’accurata revisione post pubblicazione (ricordo che il principio fondante del metodo scientifico si basa sull’importanza di ciò che viene detto e non su quella del contenitore dove viene pubblicato un lavoro. Ne ho parlato anche qui).

Le sciocchezze nelle riviste più accredidate: il caso del gruppo editoriale Nature

Bisogna ammettere che lavori dalla dubbia o inesistente serietà possono essere pubblicati anche su riviste più accreditate. Ne volete un esempio? Eccolo (qui). Si tratta di un lavoro sull’efficacia dell’omeopatia pubblicato su Scientific Reports (una rivista del gruppo editoriale Nature) che tutti i siti pro-omeopatia e tutti i quelli che pensano che l’omeopatia abbia un’efficacia più alta del placebo si affannano a pubblicizzare come pubblicata sulla molto più quotata Nature (qui e qui, per esempio). Cosa ha di strano questo lavoro?

Lo story-telling

Faccio una premessa. Le riviste del gruppo Nature hanno una particolarità: gli articoli sono scritti come se fossero una specie di story-telling. In altre parole, si privilegia la narrazione dei risultati e della loro interpretazione rispetto alla parte tecnico-sperimentale, ovvero l’elencazione dei materiali e metodi usati per gli esperimenti. Non fraintendetemi. Non è che materiali e metodi manchino; ci sono, solo che vengono inseriti in coda all’articolo pubblicato. Questo vuol dire che chi legge spesso si sofferma solo sullo story-telling senza approfondire oltre le modalità con cui sono stati condotti gli esperimenti. Questo modo di esporre una ricerca è positivo perché permette la comprensione di un articolo scientifico ad un pubblico molto più ampio di quello che accede a riviste che non usano il medesimo approccio narrativo: i lettori non si distraggono con particolari tecnici che, molte volte, risultano ostici ed incomprensibili. Il punto è che proprio nei materiali e metodi si annidano le insidie. È dalla lettura di quei paragrafi molto tecnici che si può capire se un progetto sperimentale è stato ben congegnato.

I dettagli tecnici

Andiamo nei particolari. A pagina 9 è scritto:

Drug treatment and groups. Animals were randomly divided into five groups, each consisting of 8 rats (n = 8). Group I: Normal control group of rats were orally administered once daily with 1 ml saline for 14 days. Group II: Sham operated group of rats were treated with 1 ml saline once daily for 14 days. Group III: CCI-induced neuropathy control group of rats orally received 1 ml saline once daily for 14 days. Group IV: CCI-induced neuropathy + RT treated group of rats orally received 0.1 ml of RT (1 × 10−12 dilution) with 1 ml of distilled water once daily for 14 days. Group V: CCI-induced neuropathy + gabapentin treated group of rats orally received Gabapentin (60 mg/kg/day, p.o.) suspended in 0.5% carboxymethyl cellulose (CMC) once daily for 14 days.

Da quanto riportato, si capisce che si tratta di una sperimentazione fatta su ratti divisi in 5 gruppi ognuno contenente 8 individui. Già da questo si potrebbe argomentare che 8 individui non sono una popolazione statisticamente significativa. Per poter avere dati che abbiano un significato statistico accettabile bisogna andare su numeri più grandi. Ed in effetti gli autori sembrano essere coscienti di questo limite perché a pagina 7 (nelle conclusioni del lavoro) scrivono:

Although, the results of present study suggested the anti-neuropathic effect of RT, further pre-clinical and clinical studies are warranted to confirm these effects. Several other biochemical mechanisms may be involved in RT mediated anti-neuropathic effect. Results of present study are suggestive of the anti-nociceptive effect of RT against neuropathic pain and deserve further validation of its effectiveness in various painful conditions.

In altre parole, occorrono esperimenti più approfonditi per validare le loro conclusioni.

La sperimentazione in cieco

Ma torniamo al “Drug treatment and groups”. Riuscite a notare cosa manca? Manca la sperimentazione in cieco. In altre parole, i trattamenti somministrati ai ratti dei cinque gruppi sono stati condotti in modo tale da non evitare né l’effetto Rosenthal né l’effetto Hawthorne. Si tratta di due possibili meccanismi dell’effetto placebo che ho già avuto modo di descrivere qui (ne parlo anche nel mio libro). La conclusione è che, sebbene pubblicato su una rivista prestigiosa di una casa editrice molto antica ed altrettanto prestigiosa, il lavoro non è fatto bene e le conclusioni non consentono di dire che i rimedi ad elevata diluizione sperimentati sono più efficaci dei placebo.

Altri esempi di lavori superficiali su riviste accreditate

Una delle riviste del mio settore è Journal of Chemical Ecology. È una rivista con un impact factor di 2.419 per il 2017. Certo non è paragonabile a quello di Nature che è 42, ma stiamo parlando di riviste scientifiche di carattere differente. Nature è una rivista generalista e, per questo, letta da scienziati di ogni settore disciplinare;  Journal of Chemical Ecology è un giornale di chimica ecologica ed è destinato ad una nicchia molto piccola di scienziati, ovvero chimici che si occupano di ecologia ed ecologi. Da qui discende che il numero di citazioni che possono ricevere i lavori di Nature è di gran lunga più alto di quello che possono ricevere i lavori di Journal of Chemical Ecology destinato ad un settore enormemente più piccolo di quello di Nature (ricordo che l’impact factor è un parametro quantitativo che si calcola confrontando il numero di citazioni di tutti gli studi pubblicati in un biennio col numero totale di studi pubblicati nello stesso biennio. Per esempio, supponiamo che il numero di citazioni di tutti gli studi pubblicati su una rivista nel biennio 2015-2016 sia 13000, mentre il numero di studi pubblicati nello stesso periodo sia 5000. L’impact factor si ottiene dal rapporto 13000/5000, ovvero esso è 2.6).

Fatta questa premessa doverosa per evitare che i non addetti ai lavori si mettano a fare confronti idioti tra riviste che non possono essere confrontate tra loro (e vi assicuro che stupidi che fanno questi confronti ce ne sono), vediamo cosa mi è capitato sotto le mani.

Le cifre significative

Chi mi legge da un po’ di tempo sa che non scrivo solo per il mio blog, ma anche per altri siti come Laputa e Chimicare. In quest’ultimo ho pubblicato un breve articolo sulla matematica elementare nella chimica. Lo potete trovare qui. Non voglio tediarvi con troppi dettagli. L’articoletto sulla matematica elementare per la chimica descrive il numero esatto di cifre che si deve utilizzare per esprimere il valore numerico di una grandezza fisica e il modo con cui si esprime l’errore sperimentale:

  1. Sono cifre significative tutte le cifre non nulle presenti nel numero che esprime la misura sperimentale
  2. Lo zero compreso tra numeri non nulli è una cifra significativa
  3. Gli zeri che seguono numeri non nulli sono anch’essi cifre significative
  4. Lo zero all’inizio del numero che esprime la misura sperimentale non è una cifra significativa
  5. Tutti gli esponenziali in un numero espresso in forma scientifica non sono cifre significative
  6. Se la prima cifra non significativa è <5, il valore dell’ultima cifra significativa rimane inalterato (1.03, con 3 cifra non significativa, viene approssimato a 1.0; un errore del tipo 0.012, con 2 non significativo, viene approssimato a 0.01)
  7. Se la prima cifra non significativa è >5, il valore dell’ultima cifra significativa viene approssimato per eccesso (1.06, con 6 cifra non significativa, viene approssimato a 1.1; un errore del tipo 0.016, con 6 non significativo, viene approssimato a 0.02)
  8. Se la prima cifra non significativa è =5, il valore dell’ultima cifra significativa resta inalterato se è un numero pari o 0, viene approssimato per eccesso se è un numero dispari (1.05, con 5 non significativo, viene approssimato a 1.0; 1.25, con 5 non significativo, viene approssimato a 1.2; 1.15, con 5 non significativo, viene approssimato a 1.2; un errore del tipo: 0.015, con 5 non significativo, si approssima a 0.02; un errore del tipo: 0.025, con 5 non significativo, diventa: 0.02)
Gli errori in Journal of Chemical Ecology

Ed eccoci arrivati al dunque. Nel 2012 appare su J Chem Ecol un articolo dal titolo “Herbivore-Mediated Effects of Glucosinolates on Different Natural Enemies of a Specialist Aphid” (qui). Non voglio porre l’attenzione sulla natura del lavoro, ma sul modo con cui gli autori (un insieme di entomologi, agronomi ed ecologi) hanno espresso i loro dati sperimentali. La Figura 1 riporta uno stralcio della Tabella 1 del lavoro citato.

Figura 1. Stralcio della Tabella 1 di un lavoro pubblicato su J Chem Ecol

In giallo ho evidenziato gli errori commessi dagli autori nel riportare il numero di cifre significative e i relativi errori sperimentali per le concentrazioni delle molecole indicate nella prima colonna a sinistra della tabella. Se aprite il lavoro (qui) potete divertirvi voi stessi a trovare gli errori commessi dagli autori nella restante parte della tabella, alla luce delle indicazioni che ho dato poco più sopra. Come possiamo ritenere affidabili le conclusioni di un lavoro scientifico se chi l’ha scritto si macchia di superficialità nell’esprimere i valori numerici delle grandezze che misura? Perché dovrei ritenere superficiale una parte del lavoro e non superficiale un’altra parte del lavoro? Devo dire che quando opero come revisore nei processi di peer review, gli errori che ho appena mostrato sono quelli che mi fanno rifiutare i lavori per la pubblicazione: se io insegno e pretendo dai miei studenti il rigore scientifico che si palesa anche, ma non solo, nella correttezza con cui si effettuano le misure e si riportano i dati sperimentali, pretendo analoga coerenza sia da me che dai miei colleghi che, come professionisti, siamo chiamati ad essere di esempio per le generazioni che ci sostituiranno nel nostro ruolo e nel mondo della ricerca scientifica.

Come è possibile che certi lavori arrivino ad essere pubblicati?

La risposta alla domanda è che anche noi scienziati siamo umani. Prima di tutto non siamo esperti di tutto lo scibile. Se un lavoro che deve essere sottoposto alla revisione tra pari arriva nelle mani di un non esperto del settore, la correttezza professionale dovrebbe imporre di non accettare l’incarico per la revisione. Ma non sempre accade. Anzi, più spesso di quanto si creda, accade che i lavori vengano revisionati da non esperti che non si dichiarano tali o addirittura da amici degli autori che chiudono entrambi gli occhi di fronte ad errori palesi. Quando ciò accade, un lavoro riesce ad essere pubblicato anche su una rivista prestigiosa semplicemente perché chi doveva accorgersi degli svarioni, o ha scientemente evitato le critiche oppure non aveva gli strumenti adatti per poterlo fare. A questo punto la domanda che una persona comune che non si occupa di scienza si può fare è: ma come faccio a fidarmi della letteratura scientifica? Se non si è preparati in modo adeguato, non ci sono molte possibilità per riconoscere un lavoro fatto bene, da uno pasticciato. L’unica arma che un lettore comune ha per distinguere la buona scienza da una scienza fatta male (o pseudo scienza) è il fattore tempo. Quando un lavoro viene pubblicato non passa inosservato. C’è sempre uno scienziato in un qualche laboratorio in giro per il mondo che si appropria dei dati pubblicati e cerca di riprodurli. Se nonostante tutti i tentativi non ci riesce, pubblica una nota in cui evidenzia l’inconsistenza dei dati riportati in letteratura. La confutazione/approvazione di un dato sperimentale pubblicato richiede tanto tempo e tanta pazienza, ma alla fine il protocollo che noi indichiamo come “metodo scientifico” consente di fare una cernita tra dati seri e dati meno seri: è capitato con i lavori di Wakefield, Schoen e tanti altri di cui ho già parlato qui.

Adesso, però, vi ho annoiato anche troppo. Il reportage continua la prossima settimana.

Fonte dell’immagine di copertina: qui

Matematica, fisica e medicina: debunking e fact checking

Viaggio tanto. In aereo, in treno, in autobus e porto sempre con me qualche libro da leggere per evitare di annoiarmi e tenere acceso, per quanto possibile, il cervello. Nel mio ultimo viaggio ho portato con me l’ultimo di Walter Quattrociocchi ed Antonella Vicini dal titolo “Liberi di crederci” (Figura 1). In esso gli autori  focalizzano la loro attenzione sulla loro ipotesi in base alla quale debunking e fact checking sono inutili. Il motivo è che queste due pratiche non fanno altro che rafforzare le convinzioni di chi è già orientato ideologicamente verso certe posizioni politiche, scientifiche o altro.

Figura 1. Copertina del libro del Dr. Walter Quattrociocchi e della Dr.ssa Antonella Vicini

Ho, tuttavia, notato che gli autori nella loro disamina commettono a mio modesto parere un paio di ingenuità.

Ad un certo punto essi scrivono a proposito di vaccinazioni in questi termini:  “La legge ha innalzato l’obbligo a dieci vaccinazioni, pena il divieto di frequentare l’asilo nido e la scuola dell’infanzia per i non vaccinati”.
Ecco. Questo è il tipico modo di esprimersi dei no-vaxx. Non sto dicendo che Quattrociocchi/Vicini lo siano. Sto solo dicendo che hanno usato una terminologia non corretta. Le vaccinazioni non sono 10. Dieci sono le patologie contro cui si viene vaccinati. Le vaccinazioni che bisogna fare sono solo due: vaccino esavalente e vaccino MPRV. In totale, seguendo il calendario vaccinale, le iniezioni che bisogna fare sono cinque, diluite nei primi 5/6 anni di vita del bambino. In particolare, il vaccino esavalente (che copre per difterite, tetano, pertosse, polio, Hib, epatite B) viene fatto dopo il secondo mese di vita (ed ha 2 richiami); il vaccino MPRV (che copre per morbillo, parotite, rosolia e varicella) viene fatto dopo l’anno di età (con richiamo singolo dopo i 5/6 anni). In definitiva, quindi, non si fanno 10 iniezioni con relativi richiami (come verrebbe da dedurre dalla terminologia usata da Quattrociocchi/Vicini), ma 3 + 2 iniezioni. Giusto per completezza non è neanche vero che il numero di antigeni è enorme (a onor del vero Quattrociocchi/Vicini non ne discutono, ma lo faccio io per completare il discorso vaccini in questa sede). Infatti, i due vaccini che vengono inoculati e che coprono per 10 patologie contengono circa 260 antigeni contro, per esempio, i 3000 che anni fa erano contenuti nel solo vaccino anti morbillo.

Leggere questa inesattezza mi ha lasciato un po’ l’amaro in bocca. Non potevano chiedere informazioni a qualche esperto (come ho fatto io per scrivere queste poche righe) prima di pubblicare il loro libro? Quando trattano dei propri argomenti Quattrociocchi/Vicini sono veramente pignoli. Perché non lo sono altrettanto quando si riferiscono a campi scientifici che prevedono competenze diverse dalle loro? O non è una distrazione e questa frase con relativo linguaggio è voluta?

Ma andiamo oltre.

A parte ciò che ho appena evidenziato, nella loro discussione in merito alle echo chamber, Quattrociocchi/Vicini scrivono: “Un altro errore comune è confondere le scienze come la fisica o la matematica, i cui risultati si ottengono con metodologie rigorose, con la medicina”.

Qui entriamo in un campo minato perché tutti quelli che si occupano di scienza e di filosofia della scienza possono avere idee differenti.
Io qui dico la mia con la consapevolezza di innescare una miccia.

Innanzi tutto: cos’è la scienza? È il complesso di conoscenze che si ottiene applicando un metodo, quello scientifico, alle osservazioni fisiche che si fanno: vedo; faccio un’ipotesi; sulla base di questa ipotesi faccio una previsione; verifico la previsione mediante degli esperimenti; se la risposta sperimentale è sì, l’ipotesi è corretta; se la risposta è no, l’ipotesi va riformulata. Questo, in sintesi, il metodo scientifico (ne avevo parlato anche qui). Sulla base di quanto scritto, può la matematica essere definita scienza? Diciamo che la matematica è nata per risolvere problemi concreti legati al commercio in senso lato (mi perdonino i miei amici matematici se sono un po’ troppo superficiale). Quindi, usando il pensiero moderno, mi sento di dire che la matematica è nata come una forma di scienza. Tuttavia, da quando abbiamo imparato a contare per risolvere problemi concreti, è passata tanta acqua sotto ai ponti. La matematica ha subito una evoluzione che altre discipline scientifiche non hanno ancora avuto. La matematica, per come la vedo io, è diventata una struttura del pensiero. Non ha più bisogno delle osservazioni fisiche (come quelle legate al commercio in senso lato) per poter avanzare.

Ad oggi, come sovrastruttura del pensiero, la matematica è al di sopra di quelle che possono essere indicate come scienze (ovvero tutti quei campi che hanno bisogno di osservazioni sperimentali per poter avanzare) e fornisce gli strumenti (logici e fisici) ad ognuna di esse. Esistono scienze che sono come la matematica? Qualcosa che ci si avvicina sono la fisica e la chimica teorica. Tuttavia, entrambe hanno poi bisogno di procedure sperimentali per poter validare ciò che sono le conclusioni del pensiero. Senza esperimenti sia la chimica che la fisica teorica sono fini a se stesse e non hanno validità alcuna.

E la medicina? In quanto forma di conoscenza basata sul metodo induttivo – cioè trarre un giudizio generale o universale partendo dall’osservazione di uno o più fatti particolari, di dati contingenti, v. vocabolario Treccani – (esattamente come fisica e chimica), anche la medicina è una scienza. Gli strumenti logici e fisici con cui procedere vengono forniti alla medicina dalla matematica (proprio come nel caso di fisica e chimica). Quali sono le metodologie rigorose che accomunerebbero matematica e fisica, ma non la medicina come scritto da Quattrociocchi/Vicini nel loro libro? Forse la statistica, su cui si basa principalmente la medicina, non è ritenuta rigorosa? Ed allora la termodinamica statistica elaborata da Boltzmann? E la meccanica quantistica (che fornisce gli strumenti per la diagnostica per immagini) basata sulla statistica? E potrei continuare perché anche la biologia, altra branca della conoscenza scientifica, si basa sulla statistica. Forse l’autore si riferisce alla discrezionalità umana che sembra essere presente nella medicina ma non nella fisica? Non è così. Entrambe le forme di conoscenza sono soggette a discrezionalità umana: un medico può sbagliare una diagnosi, così come un fisico può sbagliare l’impianto sperimentale oppure, pur avendo un impianto sperimentale corretto, non riuscire a “vedere” ciò che ha “sotto il naso”. In altre parole, anche un fisico può sbagliare la diagnosi.
In definitiva, secondo me, nella loro affermazione, gli autori sono stati un po’ superficiali (come lo sono stati nel caso dei vaccini). Questa superficialità può avere conseguenze notevoli perché chi non è avvezzo al metodo scientifico può essere portato a pensare che la medicina sia roba da stregoni, mentre la fisica sia una materia con dignità superiore. Non è così. Entrambe le discipline hanno pari dignità ed entrambe fanno buon uso di tutti gli strumenti, egualmente rigorosi, messi a disposizione dalla sovrastruttura matematica. E tanto per evidenziare che il lavoro medico prevede un approccio rigoroso ed interdisciplinare, inserisco la notizia che potete leggere ingrandendo la Figura 2 (oppure cliccando qui).

Figura 2. La medicina riesce a salvare la vita ad un bambino con rara patologia

È finita qui? No. Perché basandosi sulle loro osservazioni, come scritto nel paragrafetto introduttivo, Quattrociocchi/Vicini evidenziano l’inutilità del fact checking. Mi sembra allora interessante riportare una notizia apparsa recentemente su La Gazzetta di Modena (qui e Figura 3) e su altri siti minori (per esempio qui).

Figura 3. Un fact checking test ha avuto successo tra gli studenti di un istituto professionale

Una professoressa di un istituto tecnico industriale di Modena ha ideato un fact checking test con cui si sono cimentati i suoi allievi. A quanto pare il fact checking ha funzionato. Alcuni pregiudizi sono stati rimossi. Mi rendo conto che questo è un fatto isolato rispetto ai grandi numeri di cui dispone Quattrociocchi. Mi permetto di pensare, però, che c’è qualcosa di positivo. Da un punto di vista scientifico posso dire che il fact checking ha funzionato date le condizioni al contorno utilizzate (ragazzini di un istituto tecnico industriale costretti ad imparare). Se riformulassimo le condizioni al contorno in modo da adattarle ai grandi numeri, sarebbe possibile un esito positivo del fact checking e, di conseguenza, la rimozione dell’ipotesi di inutilità dello stesso evidenziata dagli studi di Quattrociocchi? Non lo so e qui mi fermo. Non è il mio campo ma qualcun altro con più competenze di me potrebbe anche farci un pensiero sopra e dire a noi se questa ipotesi di lavoro potrebbe funzionare o meno.

Fonte dell’immagine di copertina: https://www.insidemarketing.it/fact-checking-strumenti-verifica-notizie/

Anche i vaccini fanno oh!

È di queste ore la notizia che il nostro Ministro degli Interni (Salvini) nella sua campagna elettorale permanente ha strizzato gli occhi alla fazione antivaccinista presente in Italia nel tentativo di racimolare voti per le elezioni che si terranno nel momento in cui egli deciderà di far cadere questo governo: “Alcuni vaccini salvano la vita ma dieci vaccini per alcuni bambini sono inutili ed alcuni pericolosi. Non sono un ‘no vax’ e ci sono tante reazioni avverse documentate. Io ritengo che la salute dei bambini spetti alla mamma e al papà e quindi alcuni vaccini sono fondamentali, troppi vaccini rischiano di far male” (qui il link alla notizia).

Opinioni in ambito scientifico da parte di non addetti al settore lasciano il tempo che trovano, ma quando certe cose vengono dette da un esponente politico che ricopre una carica istituzionale importante come quella di Ministro degli Interni, le cose cambiano.

Se i vaccini sono pericolosi, non è certo togliendo l’obbligo vaccinale che essi diventano meno pericolosi.  Siano essi uno, due o dieci,  restano comunque pericolosi. Ed allora dovere delle istituzioni, incluso quello del Ministro degli Interni, è la salvaguardia della salute pubblica (Art. 32 della Costituzione). Alla pericolosità dei vaccini si risponde non solo togliendo l’obbligo ma anche eliminando del tutto le vaccinazioni. Perché se i vaccini sono pericolosi, più pericolosi delle malattie da cui si pretende essi ci proteggano, allora ne va impedita la somministrazione a tutti e non solo ai pochi illuminati ai quali si consentirebbe, abolendo l’obbligo vaccinale attualmente in vigore,  la libera scelta di non vaccinare.

Naturalmente la mia è una provocazione. Bene hanno fatto il Prof. Burioni ed il Prof. Lopalco ad alzare gli scudi contro questa infelice uscita del Ministro Salvini evidenziandone tutta l’inconsistenza scientifica (qui e qui le posizioni di Burioni e Lopalco, mentre qui quelle del Ministro della Salute).

Su cosa poggia l’idea sulla pericolosità dei vaccini del Ministro Salvini? La risposta la dà lui stesso quando loda Gatti e Montanari per il loro coraggio nel denunciare il contenuto tossico dei vaccini da essi analizzati mediante microscopia elettronica (qui la notizia).

Veniamo, quindi, al punto.

Non voglio entrare nel merito scientifico della validità dei vaccini.  Fior di medici (Burioni e Lopalco sono solo i front men) ne sanno molto più di me e  sono bravissimi a fugare ogni dubbio in merito.

Come chimico  voglio, invece, entrare nei dettagli del lavoro di Gatti e Montanari che è preso come riferimento dagli anti-vaccinisti e dal Ministro Salvini che, nonostante le sue dichiarazioni, si dice non anti-vaccinista (caro Ministro, la sua opinione di padre in merito all’utilità dei vaccini, purtroppo per lei, non è significativa. Non è lei, non virologo e non medico, a poter dire “i vaccini sono utili” oppure “alcuni vaccini sì, tanti altri no”. Sono gli addetti ai lavori che hanno passato anni sui libri e nelle corsie degli ospedali ad avere l’ultima parola sulla parte tecnica della prevenzione vaccinale, non lei. Lei può indicare la strada da percorrere in senso politico per le cose che le competono; ma, mi dispiace per lei, in merito agli aspetti tecnici sui vaccini e sulla validità del lavoro di Gatti e Montanari, le sue opinioni non hanno alcuna consistenza).

Nel 2016, I dottori Antonietta Gatti e Stefano Montanari hanno pubblicato un lavoro dal titolo “New Quality-Control Investigations on Vaccines: Micro- and Nanocontamination” su una rivista che si chiama International Journal of Vaccines and Vaccination. Questa rivista è inserita nella lista Beall degli editori e delle riviste predatorie. Una rivista predatoria è tale quando, a fronte di una tassa più o meno elevata, pubblica un lavoro senza una attenta valutazione in peer review. Per questo motivo articoli di natura pseudo scientifica appaiono in letteratura e diventano il baluardo di tante persone che, non abituate al pensiero razionale, non sono in grado di comprendere che le conclusioni riportate in questi lavori sono completamente sbagliate. Tuttavia, come ho avuto già modo di scrivere (qui), non bisogna focalizzarsi sul contenitore per giudicare un lavoro scientifico, bensì sul contenuto del lavoro stesso.

Ed eccoci qui. Leggiamo il lavoro assieme (qui).

Lasciamo da parte i fronzoli dell’introduzione. Questa in genere è scritta per riassumere i punti salienti che spingono una ricerca in una certa direzione. A noi non interessa. Sappiamo che gli autori vogliono trovare conferma ai loro bias cognitivi, ovvero vogliono dimostrare che i vaccini sono pericolosi perché contengono sistemi chimici di natura tossica. Soffermiamoci, invece, sull’aspetto tecnico e valutiamone la consistenza scientifica.

Dopo la lista delle preparazioni vaccinali che hanno deciso di analizzare, gli autori scrivono:

we performed a new kind of investigation based on observations under a Field Emission Gun Environmental Electron Scanning Microscope (FEG-ESEM, Quanta 200, FEI, The Netherlands) equipped with the X-ray microprobe of an Energy Dispersive Spectroscope (EDS, EDAX, Mahwah, NJ, USA) to detect the possible presence of inorganic, particulate contaminants and identify their chemical composition“.

La tecnica, i cui dettagli sono descritti qui,  qui e qui, consente di “vedere” e “quantificare” il contenuto elementare di sistemi inorganici presenti in micro-campioni rappresentativi dei sistemi sotto indagine.

La Figura 1 mostra il risultato quali- quantitativo ottenuto dall’analisi di una microgoccia (20 μL) di uno dei vaccini presi in considerazione (la microgoccia viene seccata prima di ogni analisi per cui quest’ultima viene effettuata sulla fase solida che si ottiene dal trattamento del campione).

Figura 1. Cristalli di vari sali identificati mediante spettroscopia EDS (Fonte)

Gli autori scrivono:

Figure 1a shows a layer of crystals of Sodium chloride (NaCl) embedding salts of Aluminum phosphate (AlPO4) in a drop of Gardasil (anti-HPV vaccine by Merck) as the EDS spectrum (Figure 1b) shows. Saline is the fluid base to any vaccine preparation and Aluminum salts or Aluminum hydroxide [Al(OH)3] are the adjuvants which are usually added. Looking at the area outside these precipitates but inside the liquid drop, we identified other things: single particles, clusters of particles and aggregates (organic-inorganic composites) that are due to an interaction of the inorganic particulate matter with the organic part of the vaccine“.

In altre parole, Gatti e Montanari, dicono di aver trovato cristalli di cloruro di sodio (il normale sale da cucina) assieme a fosfato di alluminio la cui presenza è giustificata dal fatto che, come adiuvante vaccinale, vengono utilizzati sia sali di alluminio che idrossido di alluminio. Oltre a quanto già riportato,  gli autori evidenziano come abbiano trovato anche complessi metallo-organici come conseguenza delle interazioni tra le componenti inorganiche e quelle organiche presenti nei vaccini.

Subito dopo la fotografia mostrata in Figura 1, gli autori riportano tutta una serie di foto al microscopio elettronico dalle quali affermano di aver trovato tanti altri metalli pesanti e tante altre sostanze addirittura non dichiarate nella composizione dei vaccini che di solito si legge sui bugiardini. Per esempio, riportano della presenza di ferro, rame, cromo, silicio, titanio, piombo etc etc etc.

Sono veramente informazioni che fanno paura, vero? Una persona a digiuno di chimica quando legge che nei vaccini sono stati trovati miscele di metalli pesanti come quelli indicati, ha ragione a preoccuparsi. Ma come? Si parla tanto dei pericoli dei metalli pesanti e ce li ritroviamo nei vaccini che vengono iniettati in esserini indifesi come sono i neonati?

Che dire. Le preoccupazioni sarebbero fondate se non ci fosse un “ma”. Prendiamo per esempio il cromo. Simbolo Cr, il cromo è un metallo di transizione (Figura 2) con due stati di ossidazione importanti sotto l’aspetto biochimico: Cr3+ (anche indicato come Cr(III)) e Cr6+ (anche indicato come Cr(VI)).

Figura 2. Tavola periodica degli elementi (Fonte)

Come indicato in tutti i testi di farmacologia, l’attività biochimica delle due forme di cromo è diversa. Il Cr(III) è un microelemento essenziale per la vita dell’uomo. Esso è coinvolto nel metabolismo del glucosio cosicché una sua carenza può provocare il diabete oltre che problemi cardiaci. Un suo eccesso nella nostra dieta può portare a problemi di salute come l’insorgenza di macchie cutanee. Il Cr(VI), a differenza del Cr(III), non è un micronutriente e l’esposizione al cromo (VI)  provoca eruzioni cutanee, problemi di stomaco e ulcera, problemi respiratori, indebolimento del sistema immunitario, danni a fegato e polmoni, alterazione del materiale genetico, cancro ai polmoni e morte.

Questa breve disamina sul cromo mi serve solo per far capire che non basta dire che in un sistema chimico ci sono metalli pesanti per aver paura. Per potersi preoccupare è necessario che si conosca anche sotto quale forma è presente quel determinato metallo pesante. Nei vaccini non è presente il cromo nello stato di ossidazione +6.

È vero che alte concentrazioni di uno qualsiasi dei metalli anzidetti, anche se biochimicamente non tossico, può provocare danni alla salute. Tuttavia, sono gli stessi autori del lavoro che ci aiutano a capire che non dobbiamo preoccuparci. Vediamo perché.

Leggiamo la tabella 3 del lavoro di Gatti e Montanari. In particolare, facciamo attenzione alla seconda colonna, quella indicata come “Total Debris n.”, ovvero numero di particelle sotto forma di precipitato. Si legge che gli autori hanno individuato nelle diverse tipologie di vaccino un numero di particelle solide che va da 2 (in Anatetall) a 2723 (in Varilrix). Sono veramente tante, vero? Direi di si. Trovare ben 2723 particelle solide in 20 μL di vaccino (questa è la quantità usata per le analisi) vuol dire che in 1 mL di una dose vaccinale ci sono 136150 particelle solide. È un numero veramente grande. Perché dovremmo consentire che ad un neonato vengano iniettate queste enormi quantità di particelle solide? Chi ci può assicurare che questo numero così alto di particelle solide non porti problemi ai bambini?

A questo punto bisogna ricorrere alle conoscenze di chimica elementare e ricordare che il parametro che ci consente di valutare l’effetto di una sostanza sulla salute umana è la concentrazione. La concentrazione in chimica si riferisce al numero di moli di una sostanza per unità di volume. In altre parole la concentrazione è un parametro che ci consente di dire quanto di una data sostanza è presente in dato volume di soluzione.

Ricordo anche che un parametro molto importante in chimica è il numero di Avogadro. Esso ci dice che una mole di sostanza contiene 6.022 x 1023 particelle elementari. In altre parole, per esempio, una mole di acqua pesa 18 g e contiene 6.022 x 1023 molecole del tipo H2O.

A questo punto ci possiamo chiedere: 136150 particelle differenti a che concentrazione corrispondono?

Semplice. Basta dividere il numero di particelle per il numero di Avogadro e per il volume iniettato. Supponiamo, allora, di fare un’iniezione di 1 mL (cioè 1 x 10-3 L), si ottiene:

[136150/6.022 x 1023]/1 x 10-3 mol/L = 2.26 x 10-16 mol/L

In altre parole, la concentrazione di sostanza corrispondente a 2723 particelle solide ottenute per evaporazione di 20 μL di vaccino è al di sotto delle femto moli (< 10-15 mol, oppure fmol) per litro. Si tratta, insomma, di una quantità di materia che è assolutamente innocua sotto il profilo farmacologico.

Gli autori del lavoro giocano semplicemente col modo di esprimere le misure. 2723 particelle in 20 μL sembra un numero elevatissimo. Ma se lo esprimiamo  in unità mol/L, che sono quelle normalmente utilizzate in farmacologia, ne viene che i vaccini sono assolutamente puri sotto l’aspetto chimico.

Conclusioni

Gatti e Montanari, col loro lavoro, hanno semplicemente dimostrato che i vaccini hanno una elevatissima purezza chimica. Caro Ministro Salvini, forse farebbe meglio a far leggere certi riferimenti ai suoi consulenti scientifici prima di fare le dichiarazioni che ho letto.

Altre letture

I love it when an antivax study meant to show dirty vaccines are backfires so spectacularly

 

Fonte immagine di copertina: Wikimedia Commons. Photo Credit: James GathanyContent Providers(s): CDC – This media comes from the Centers for Disease Control and Prevention’s Public Health Image Library (PHIL), with identification number #2674.

 

I dolcificanti parte V. Potassio 6-metil-1,2,3 ossatiazin-4-(3H)-one 2,2-diossido

Continuiamo il breve reportage sugli edulcoranti. Dopo aver discusso di alcuni dolcificanti di sintesi e chiarito il meccanismo per cui sentiamo il sapore dolce (qui il link ai diversi articoli pubblicati fino ad ora), passiamo ad una molecola molto usata in campo alimentare.

Avete mai sentito parlare del composto il cui nome è riportato nel titolo di questa nota? Si tratta della molecola mostrata in Figura 1.

Figura 1. Sale potassico del 6-metil-1,2,3-ossatiazin-4-(3H)-one 2,2-diossido meglio noto come acesulfame K o E950

Un po’ complicato, vero? In effetti, questa molecola è più nota col nome commerciale di acesulfame K o con la sigla E950. Si tratta di un edulcorante di sintesi scoperto per caso, a cavallo tra gli anni ’60 e ’70 del XX secolo, da Clauss e Jensen.

Si presenta come una polvere bianca con un potere dolcificante circa 120 volte più intenso di quello del saccarosio (riferimento qui). Essendo termicamente stabile, viene utilizzato nei prodotti dolciari destinati alla cottura, oltre che in numerosissimi altri prodotti come quelli farmaceutici e negli alimenti per animali.

Nonostante il suo elevato potere dolcificante, l’acesulfame K lascia un retrogusto amaro. Per questo motivo esso viene sempre usato assieme ad altri edulcoranti artificiali come sucralosio, fruttosio ed aspartame. Il sapore dei  co-edulcoranti copre il retrogusto amaro dell’acesulfame K oltre a potenziarne il potere dolcificante attraverso un effetto sinergico il cui meccanismo non è stato ancora ben chiarito.

Tossicità dell’acesulfame K

Essendo un edulcorante artificiale, l’acesulfame K rappresenta nell’immaginario collettivo il non plus ultra dei prodotti tossici. In realtà, questo edulcorante non viene metabolizzato dal nostro organismo. Infatti, è stato dimostrato che esso viene completamente escreto intatto nelle urine dei pazienti che lo assumono (riferimento qui).

Non essendo metabolizzato, esso risulta acariogeno (cioè non provoca la carie), e acalorico (ovvero non dà alcun apporto energetico per cui ne è indicato l’uso nelle diete ipocaloriche); ha anche un indice glicemico nullo, per cui è consigliato nei prodotti alimentari per diabetici.

Nessuno studio fino ad ora è riuscito a correlare l’insorgenza di una qualsivoglia forma tumorale all’uso di acesulfame K. L’unico studio che sembra suggerire una qualche tossicità di questo edulcorante è stato pubblicato nel 2010 (qui). In particolare, è stato evidenziato che un possibile prodotto di degradazione dell’acesulfame K usato nella produzione di lassi, è l’acetoacetammide che ha caratteristiche genotossiche. Tuttavia, la quantità di alimenti contenenti acesulfame K e l’eventuale suo prodotto di degradazione (cioè l’acetoacetammide) che assumiamo quotidianamente è così bassa da rendere del tutto inesistente ogni possibile rischio genotossico.

I veri problemi dell’acesulfame K

Gli unici problemi legati all’assunzione di acesulfame K sono legati proprio alla sua elevata stabilità chimica. Infatti, quando se ne assume oltre la dose giornaliera consigliata (ovvero tra i 10 ed i 15 mg/kg di peso corporeo), l’acesulfame K può rimanere nel lume intestinale causando ritenzione idrica e diarrea (riferimento qui). È stato anche dimostrato che l’assunzione eccessiva di acesulfame K può provocare insulino-resistenza, ovvero la patologia di cui soffrono gli individui affetti da diabete di tipo II (riferimento qui).

In definitiva, come per tutti gli educloranti, anche per l’acesulfame K vale sempre la stessa raccomandazione: non bisogna esagerare con la sua assunzione. Come diceva già Paracelso: è la dose che fa il veleno.

Fonte dell’immagine di copertina

Acqua azzurra, acqua chiara, acqua alcalina

Ebbene sì. Mi son trovato in una pizzeria del Nord Italia. Una di quelle pizzerie che vanno per la maggiore, un po’ chic (in realtà lo era, ora è una pizzeria come tante altre) e tanto bio. Non è che io mi faccia infinocchiare dalla storia del bio. So perfettamente che è solo marketing: quelli che pensano che i prodotti bio siano migliori a livello nutrizionale sono tanti ed hanno soldi; ma allora perché non dar loro quello che vogliono e far transitare i soldi dalle loro tasche a quelle dei venditori di fumo?

Ma andiamo con ordine.

Pizzeria del Nord Italia; tutto bio; famosa per fare pizze molto buone. Mi accomodo e mi viene fornito un menu. E cosa ti leggo? Guardate un po’ qui (Figura 1)

Figura 1. Dettaglio del menu in una pizzeria del Nord Italia in cui si evidenzia la possibilità di avere acqua a basso residuo fisso ed alcalina

Ora, passi per i succhi di frutta e le bevande con un po’ di succo e tanta anidride carbonica, ma come è possibile mettere tra le bibite “bio” anche l’acqua naturale e l’acqua frizzante? Esiste un’acqua non bio, forse? E la cosa più simpatica è che per attirare i gonzi (onestamente non so se quelli che lavorano lì credano veramente a queste scemenze) l’acqua naturale (che regalano loro; ma come sono generosi!) è alcalinizzata.
Sì, avete letto bene. Nelle mie peripezie ho finalmente trovato un locale che fornisce agli avventori acqua alcalinizzata. Potevo non assaggiarla? Ma certo che l’ho presa, tanto più che era regalata; non volevo offendere nessuno rifiutando un cotanto regalo.

cos’è l’acqua alcalina e ionizzata a basso residuo fisso?

Partiamo dal fatto che l’acqua chimicamente pura viene usata solo in laboratorio. È quella che noi chiamiamo acqua iperpura. Vuol dire che oltre alle molecole H2O non contiene niente altro o, se c’è qualcosa, questo non è rilevabile con le tecniche analitiche di cui disponiamo. Questa acqua da laboratorio non è potabile. E sapete perché? Perché quando la ingeriamo viene a contatto con le pareti cellulari delle nostre cellule. Nella parte interna delle cellule c’è una soluzione acquosa in cui c’è di tutto: dalle sostanze organiche disciolte ai sali minerali. La membrana cellulare quindi si trova circondata da un lato da una soluzione molto concentrata di soluti di natura differente, dall’altro da acqua che contiene soluti a concentrazioni analiticamente non rilevabili. Sapete cosa accade? Accade che l’acqua che sta fuori, quella da laboratorio, tende a penetrare attraverso la membrana cellulare per diluire la concentrazione dei soluti presenti nella soluzione all’interno della cellula. Il processo si chiama osmosi (Figura 2).

Figura 2. Rappresentazione schematica dell’osmosi (Fonte)

Il processo osmotico consiste, quindi, nella diluizione della soluzione più concentrata da parte di quella meno concentrata. Il passaggio del solvente attraverso la membrana termina quando le concentrazioni da entrambi i lati della membrana sono uguali. C’è un “ma”. La differenza di concentrazione tra la zona interna e quella esterna alla cellula, genera una differenza di potenziale osmotico così elevata che la membrana cellulare si rompe. Occorre, cioè, quella che si chiama lisi cellulare. In termini più umani come possiamo trasporre in immagini più immediate quello che ho scritto? L’acqua iperpura che abbiamo ingerito è a diluizione infinita (significa che non c’è nulla dentro, ovvero, nel linguaggio scientifico, non è possibile determinare la presenza di soluti). Questo vuol dire che il processo osmotico descritto sopra continua fino a quando anche la soluzione all’interno della cellula diventa infinitamente diluita. In altre parole, l’acqua continua a passare all’interno della cellula gonfiandola. La cellula si può gonfiare fino a un certo punto come un palloncino. Dopo un certo limite scoppia. Ora capite che se ingeriamo l’acqua iperpura che usiamo in laboratorio rischiamo la morte per lisi cellulare.
L’acqua che noi beviamo, in realtà, non è iperpura, ma contiene delle sostanze disciolte in quantità variabile in funzione della sorgente dell’acqua stessa. Il residuo fisso di cui si parla in Figura 1 non è altro che la quantità di materiale inorganico che è presente nell’acqua e che si rileva per differenza in peso dopo aver sottoposto una quantità nota di acqua ad un trattamento termico in stufa a 180 °C. Il residuo fisso non è un problema in termini di potabilità. Anzi, la sua presenza ci consente di dire che l’acqua che beviamo è sicura perché non innesca i processi descritti sopra. Ricordo che la potabilità dell’acqua non è solo chimica ma anche biologica; un’acqua chimicamente potabile potrebbe non esserlo microbiologicamente. Questo vuol dire che sto facendo un discorso non completo perché mi sto concentrando solo sulla composizione in termini chimici dell’acqua e non sulla presenza o meno di microorganismi.

Il residuo fisso è nocivo per la salute?

”Ma manco pe gniente” come direbbero in un improbabile dialetto. Tutto quello che leggete in merito ai danni sulla salute del residuo fisso sono sciocchezze messe in giro da gente che, molto probabilmente, non ha alcuna conoscenza chimica o, se ne ha, essa è abbastanza scarsa. Basta leggere, per esempio, il sito della Fondazione Veronesi o quello delle acque minerali italiane. In questo ultimo sito potete leggere che esistono delle acque con elevatissimo residuo fisso che vanno assunte sotto controllo medico. Alla luce di quanto ho spiegato sopra, si può capire perché. Se la concentrazione salina è troppo alta, la membrana cellulare si trova all’interfaccia di una soluzione poco concentrata, quella interna alla cellula, ed una molto concentrata, all’esterno della cellula. Il passaggio dell’acqua attraverso la membrana in base al meccanismo osmotico descritto, avviene dall’interno all’esterno della cellula. La conseguenza è ancora una volta la lisi cellulare ed il rischio di morte. Avete capito perché non possiamo bere l’acqua di mare? In definitiva le acque potabili che noi utilizziamo hanno un residuo fisso variabile in funzione della sorgente da cui preleviamo l’acqua. Se il residuo fisso è entro i limiti dei 1500 mg/L non ci sono problemi di sòrta (qui per i limiti del residuo fisso).

E l’acqua ionizzata alcalina?

Vi ricordate questa scena del film “Amici miei”?

Ecco. Si tratta di una supercazzola.

Uno ione è una qualsiasi specie chimica che ha una carica elettrica positiva (e si chiama catione) o negativa (e si chiama anione). Esistono anche specie chimiche che, pur essendo elettricamente neutre – ovvero non sono né cationi né anioni, sono comunque caratterizzate dalla presenza di cariche. Si tratta degli zwitterioni in cui il numero di cariche elettriche positive eguaglia quello delle cariche elettriche negative col risultato finale di non essere soggetti all’azione di un campo elettrico applicato. Quindi che vuol dire acqua ionizzata? Assolutamente nulla. A meno che questi chimici della domenica non intendano riferirsi all’equilibrio di dissociazione dell’acqua che è:

ed intendano dire che le specie a destra dell’equilibrio descritto siano acqua ionizzata. In realtà questi chimici improvvisati non sanno che  quello descritto è un processo di equilibrio che risponde a tutta una serie di parametri di cui ho già discusso tempo fa (qui). Il problema è che oggi va di moda l’acqua alcalinizzata. Banalmente è un’acqua il cui pH è > 7. Questo perché fin dalle scuole elementari viene insegnato che quando il pH < 7 l’acqua è acida, quando pH > 7 l’acqua è basica o alcalina, quando pH=7 l’acqua è neutra. Poiché ho già scritto in merito, non mi ripeto, ma vi invito ad andare a questo link per informazioni dettagliate. Basti solo ricordare che il valore del pH, tra le altre cose, dipende anche dalla temperatura e che non è possibile separare gli ioni H+ da quelli OH- come vogliono farci credere nella Figura 3.

Figura 3. Meccanismo secondo cui sarebbe possibile separare gli ioni H+ da quelli OH- (Fonte)
Perché l’acqua alcalinizzata dovrebbe far bene?

Semplicemente perché un giorno un medico, della cui professionalità dubito fortemente, fece una “scoperta” epocale: le zone limitrofe a tessuti tumorali avevano un pH acido per cui il contrasto del tumore può essere realizzato alcalinizzando il nostro organismo. Avete capito la scemenza? Un medico…cioè uno che avrebbe dovuto studiare la chimica, la biochimica e la fisiologia animale che afferma che è possibile combattere I tumori alcalinizzando i nostri tessuti. Questo bel tipo (taccio nomi e siti web perché non voglio offrire visibilità a questo pseudo scienziato) neanche sa cosa sia un sistema tampone e come lui tutti quegli altri ignoranti che propongono diete alcaline e rimedi alcalini.

Cosa c’è di vero nella relazione tumori-acidità?

Già da tempo è noto che le zone limitrofe di tessuti tumorali sono caratterizzati da un valore di pH acido (un lavoro di riferimento lo trovate qui). Il perché lo potete trovare in un lavoro del 2013 pubblicato su Cancer Cell Journal (qui). I ricercatori giapponesi, responsabili dello studio citato, hanno compreso che l’acidificazione dei tessuti tumorali è dovuta alla secrezione di acido lattico da un processo che si chiama glicolisi anaerobica, oltre che alla CO2 prodotta nella via dei pentoso fosfati. Non sto qui a descrivere i dettagli del lavoro, basti comprendere che questa secrezione non è la causa, ma la conseguenza del tumore. Tuttavia, l’acidificazione sembra inneschi un meccanismo a cascata in base al quale si velocizza la produzione di metastasi (mi scuso con i miei lettori medici se ho usato i termini sbagliati). Capite, ora, che non basta alcalinizzare il nostro organismo per curare I tumori. Prima di tutto perché i nostri tessuti sono dei veri e propri tamponi, quindi rispondono a piccole variazioni di pH in modo da ritornare alle condizioni fisiologiche; in secondo luogo perché anche se fossimo in grado di alterare il pH dei tessuti in modo da neutralizzare l’acido lattico e la CO2 responsabili del microambiente acido intorno alle cellule tumorali, non si risolverebbe la causa che ha innescato quelle alterazioni metaboliche, di cui secrezioni di acido lattico e incremento di CO2 sono la conseguenza. È come voler riparare la perdita di acqua da una tubazione eliminando l’acqua che esce, senza tappare il buco.

Conclusioni

Andate a mangiare la pizza dove vi pare. Quella che ho mangiato io era buonissima. Sappiate però che se vi propongono cose strane, vi vogliono solo prendere soldi senza alcun motivo reale se non un loro personale arricchimento economico. L’arricchimento economico nel caso del locale dove ho mangiato non è certo legato al fatto che mi hanno regalato acqua ionizzata alcalinizzata, ma alla reputazione che guadagnano se questo regalo è fatto a persone ricettive del messaggio naturistico. Queste persone arricchiscono il locale col passaparola. Non è una cosa grave, per carità, l’importante è la consapevolezza di andare in un posto in cui i prezzi sono di un certo tipo perché seguono una moda che di scientifico non ha assolutamente nulla.

Buona pizza a tutti

Fonte dell’immagine di copertina

Luce e colore

Quando la luce colpisce un oggetto essa può essere assorbita, può attraversarlo o può essere riflessa. Le intensità della luce assorbita e di quella riflessa dipendono dalla lunghezza d’onda della luce incidente. In particolare, un qualsiasi oggetto che viene colpito dalla luce ordinaria ed assorbe tutte le radiazioni dello spettro luminoso visibile senza restituirne alcuna ai nostri occhi, appare nero; se riflette tutte le radiazioni dello spettro luminoso, il colore risultante dalla combinazione di tutte le radiazioni riflesse è il bianco; se l’oggetto assorbe solo un certo numero di radiazioni luminose tranne alcune, esso appare del colore generato dalla combinazione delle diverse radiazioni riflesse; se ad essere riflessa è una sola radiazione, l’oggetto appare del colore descritto dalla lunghezza d’onda della singola radiazione riflessa.

Cosa vuol dire “assorbimento della luce” a livello molecolare?

Quando la luce incide su un corpo, possono avvenire delle transizioni elettroniche. In altre parole, gli elettroni coinvolti nella formazione dei vari legami passano da un orbitale[1] ad un altro ad energia più elevata. Più vicini sono gli orbitali tra cui avviene la transizione elettronica e meno energia occorre perché essa avvenga. Nel caso di sistemi di natura organica, la distanza tra gli orbitali contigui tra cui avvengono le transizioni elettroniche si riduce all’aumentare del numero di doppi legami coniugati[2] presenti nelle molecole. Per questo motivo, molecole con un gran numero di legami coniugati sono in grado di assorbire gran parte della radiazione elettromagnetica e di conferire al macro-sistema in cui essi si trovano (per esempio i tessuti di una foglia oppure quelli di una carota) un colore corrispondente alla luce che viene riflessa. Per illustrare meglio questo concetto si faccia riferimento alla Figura 1. In essa si riporta, sull’asse orizzontale, lo spettro della radiazione elettromagnetica (la luce) tra circa 350 e circa 700 nm, ovvero nell’intervallo del visibile; sull’asse verticale si riporta la percentuale di assorbimento della radiazione luminosa; la curva arancione si riferisce all’assorbimento della luce da parte dei carotenoidi di cui un rappresentante, il β-carotene, è riportato in alto a sinistra. Si noti come i picchi di assorbimento siano compresi nell’intervallo 350-550 nm; la conseguenza è che la luce giallo-arancio (lunghezza d’onda, λ, > 550 nm) è quella che viene riflessa. Per questo motivo i tessuti vegetali che contengono i carotenoidi (per esempio le carote) appaiono arancioni.

Figura 1. Spettri di assorbimento dei carotenoidi e della clorofilla

La Figura 1 mostra anche i picchi di assorbimento della clorofilla-b la cui struttura è in alto a destra. Ci sono diversi massimi di assorbimento nell’intervallo tra 400 e 500 nm e tra 600 e circa 700 nm. Non c’è alcun assorbimento intorno ai 570 nm, ovvero la lunghezza d’onda della luce di colore verde. Il risultato è che i tessuti vegetali che contengono la clorofilla-b appaiono di colore verde. Quando la clorofilla si degrada, spariscono i massimi di assorbimento descritti e la colorazione delle foglie vira al giallo-arancio-rosso.

 Ancora una volta la chimica mostra tutto il suo fascino. Fenomeni che possono sembrare magici hanno un significato riconducibile alle caratteristiche più intrinseche della materia. E la materia ci appare in tutta la sua poesia.

Suggerimenti

Al seguente link una bellissima poesia tradotta da Popinga, al secolo Marco Fulvio Barozzi:  http://keespopinga.blogspot.it/2015/10/un-atomo-nelluniverso.html

Note

[1] Un orbitale è una zona dello spazio attorno al nucleo di un atomo in cui esiste la più elevata probabilità di poter trovare un elettrone in movimento.

[2] Senza prendere in considerazione la teoria dei legami chimici, per semplicità si può dire che i doppi legami coniugati sono doppi legami alternati tra diversi atomi di carbonio come nel seguente caso: -C=C-C=C-C=C-C=C-

Fonte dell’immagine di copertina: https://www.inkcartridges.com/blog/graphic-design/how-color-psychology-influences-your-print-design/

Riflessioni pre natalizie. Sviluppo scientifico e stasi tecnologica

Una delle riviste che mi piace leggere è Wired. Non sempre lo faccio perché è una rivista che esce un paio di volte all’anno e non sempre mi ricordo di prenderla in edicola. Stavolta sì; mi è capitata sotto gli occhi nell’edicola dell’aeroporto e l’ho presa. Capisco che sapere quali siano le mie letture preferite non è che importi a molti, così come non é particolarmente interessante sapere in che modo mi ricordi di prendere le riviste in edicola. Questo sproloquio introduttivo mi serve solo per dire che nell’ultimo numero di Wired, dedicato a come sarà il nostro futuro, ho trovato una introduzione di Carlo Rovelli, tra i fisici italiani più prestigiosi, che mi ha fatto molto riflettere.

Rovelli in sintesi afferma: “Il futuro non dipenderà da nuove prodigiose scoperte o inaspettate tecnologie ma sarà determinato dai governanti che ci sceglieremo: ragionevoli o irragionevoli”. Le sue argomentazioni sembrano molto ragionevoli e condivisibili: “parlare del futuro è sempre parlare del presente. Scienza e tecnologia continuano ad avanzare ma, fra le due, c’è uno scarto. Presto mi aspetto maggiori passi avanti nella conoscenza del mondo […]. Ma non credo che la tecnologia spiccherà grandi salti avanti. […] A me, in effetti, sembra che lo sviluppo tecnologico sia già in un periodo di forte rallentamento. Da quando sono nato ho visto arrivare l’uso di massa del trasporto aereo, i computer, internet. Sembra molto ma, se provo a confrontarlo coi cambiamenti che ha vissuto mia nonna le novità di oggi impallidiscono. Lei ha conosciuto la radio, la televisione, l’illuminazione stradale, le automobili, gli aeroplani, la penicillina, l’educazione generalizzata, l’uomo sulla Luna e la bomba atomica. E ci sono state, in passato, innovazioni tecnologiche che hanno sovvertito la vita del pianeta […]. Per esempio la diffusione dei trattori ha fatto sì che la percentuale di uomini che coltivava la terra passasse da più del novanta percento a meno del dieci, e ciò ha cambiato l’esistenza di milioni di esseri umani e sovvertito in modo radicale la struttura sociale della società”.

Devo dire che, probabilmente perché sono appassionato di fantascienza e per questo abbastanza sognatore, non sono molto d’accordo con Rovelli. Egli ha fatto una serie di esempi molto significativi, però a me non convincono molto.

Chi avrebbe potuto prevedere nel 1905 che la spiegazione dell’effetto fotoelettrico di Einstein avrebbe portato dopo più di ottanta anni ai cancelli automatici? E chi avrebbe potuto prevedere negli anni sessanta del novecento che le tavolette usate dal Dr. Spock in Star Trek, noto telefilm di fantascienza, sarebbero diventate reali con gli attuali e-reader e tablet? Vogliamo parlare degli attuali telefoni cellulari di cui si anticipa l’esistenza sempre in Star Trek?

Mi potreste dire: “ma di cosa stai blaterando? Stai confondendo finzione con realtà. Una cosa è l’effetto fotoelettrico altra è la fantasia degli sceneggiatori di Star Trek”. È vero. Solo che molte volte la realtà supera la fantasia come spiega Lawrence Krauss nel suo “La fisica di Star Trek”.

Dove voglio andare a parare? Voglio semplicemente dire che lo sviluppo delle nostre conoscenze scientifiche non ci consente di dire come, quando e quanto la tecnologia potrà subire salti in avanti. Quello che a Rovelli sembra un periodo di forte rallentamento tecnologico, io lo vedo in altro modo.

La tecnologia è indissolubilmente legata al progresso scientifico. Ma anche il progresso scientifico è legato allo sviluppo tecnologico. Cose che oggi sono possibili, solo qualche anno fa erano impensabili a partire da internet di cui parla Rovelli e dal World Wide Web. La necessità di superare la lentezza nello scambio di informazioni nel mondo scientifico portò Timothy John Berners-Lee ad inventarsi quello che a noi oggi sembra qualcosa di ovvio: il web a cui internet è legato a doppio filo. E col web oggi io posso lavorare sul mio tablet scrivendo questo articolo mentre sorseggio il mio caffè. Di esempi del genere ne potrei fare a bizzeffe. Solo per rimanere nel mio ambito settoriale che è quello della risonanza magnetica nucleare, chi potrà mai dire cosa ci consentirà di conoscere in termini scientifici l’applicazione della rilassometria NMR a ciclo di campo combinata con la risonanza magnetica per immagini? Questo che è uno sviluppo tecnologico non potrà fare altro che far avanzare le frontiere della nostra conoscenza. Con esse ci saranno altri sviluppi tecnologici che potranno consentire  ulteriori passi avanti nelle conoscenze in un ciclo senza fine.

La tecnologia che deriva dallo sviluppo scientifico non è neutra neanche nei nostri confronti. Essa influenza il nostro modo di pensare e di muoverci man mano che la utilizziamo. Faccio mie e rendo più generali le riflessioni di Nicholas Carr nel suo “Internet ci rende stupidi?”: quando facciamo uso di uno strumento, qualsiasi esso sia, il nostro cervello viene modificato. In altre parole, si modificano le nostre connessioni neuronali in modo tale da permetterci di adattarci allo strumento di cui facciamo uso. Lo sviluppo di strumenti sempre più innovativi ci porta ad una riprogrammazione continua del nostro computer interno – il nostro cervello – cosicché esso è di gran lunga differente rispetto a quello dei nostri nonni.

Pur non essendo il nostro hardware – il nostro aspetto fisico – differente da quello dei nostri antenati di 10000 anni fa, il nostro software – ovvero le connessioni neuronali nel nostro cervello – invece lo è perché si è dovuto riprogrammare progressivamente per poter adattarsi alle innovazioni avvenute nel corso dei secoli. Questa riprogrammazione richiede del tempo ed è, secondo me, quello che a Rovelli sembra il periodo di progressivo rallentamento tecnologico in cui viviamo.

La Figura 1 (fatta a mano in un rigurgito vintage scientifico) rappresenta quello che penso in merito al progresso scientifico – ovvero delle conoscenze – e tecnologico. Ogni volta che c’è una innovazione (segmenti con pendenza positiva) abbiamo bisogno di tempo per la riprogrammazione del nostro software interno (segmenti con pendenza quasi nulla). Dopo questo tempo si presentano nuove innovazioni seguite da nuovi periodi di apparente rallentamento.

Non sono un neuro-scienziato e so benissimo di essermi avventurato in un campo che non è il mio. È molto probabile che io abbia detto una serie di sciocchezze, ma è proprio questo lo scopo di queste riflessioni: intavolare una discussione proficua con chi è più esperto di me.

Immagine di copertina. Foto personale della copertina di Wired inverno 2017/18