Numeri, numerielli e numericchi: la qualità dei dati scientifici (Parte III)

Nelle prime due parti del reportage sulla qualità dei dati scientifici ho posto l’attenzione sulla differenza tra riviste chiuse e riviste aperte (qui) e ho evidenziato che la scarsa qualità dei dati scientifici non riguarda solo i predatory journal, ma anche giornali ritenuti molto affidabili (qui). In altre parole ho puntualizzato che la cosiddetta bad science, ovvero ciò che sfocia nella pseudo-scienza, è trasversale; ne sono pervase un po’ tutte le riviste: siano esse predatory journal oppure no; siano esse open-access oppure no. Ne ho discusso anche altrove (per esempio qui e qui), quando ho evidenziato che lavori poco seri sono apparsi su Nature e Science (riviste al top tra quelle su cui tutti noi vorremmo pubblicare) e che più che dal contenitore, ovvero dalla rivista, bisogna giudicare la qualità di un lavoro scientifico sulla base di ciò che viene scritto. Nonostante questo, tutte le istituzioni accademiche e non, riconoscono che la probabilità di avere bad science in un predatory journal è più alta che nelle riviste considerate non predatory; per questo motivo tutte le istituzioni formulano delle linee guida per tenersi lontani da riviste di dubbia qualità.

In che modo difendersi dalla bad science delle riviste predatorie?

Esistono tanti siti al riguardo. Per esempio, la mia Università, l’Università degli Studi di Palermo, mette a disposizione una pagina (qui) in cui elenca una serie di siti web da cui attingere per valutare se una rivista è seria oppure no. In particolare, se la rivista in cui si desidera pubblicare è compresa negli elenchi dei link riportati ed è anche nella Beall’s list of predatory journals and publishers, con molta probabilità si tratta di un predatory journal a cui si raccomanda di non inviare il proprio rapporto scientifico. Se, invece, la rivista o l’editore sono negli elenchi citati ma non nella  Beall’s list of predatory journals and publishers, con buona probabilità si tratta di riviste non predatorie. Qual è il limite di queste raccomandazioni? I predatory journal spuntano come funghi per cui  è possibile che ci si imbatta in una rivista che non è stata ancora catalogata come predatoria. Cosa fare in questo caso? Bisogna ricordarsi che tutte le riviste predatorie hanno in comune alcuni caratteri essenziali che le distinguono dalle riviste più accreditate:

  1. Comitati editoriali anomali, non determinati o inesistenti
  2. Tendenza a pubblicare lavori scientifici in settori molto eterogenei tra loro
  3. Tasse per la pubblicazione estremamente basse (in genere meno di 150 €)
  4. Presenza di immagini sfocate o non autorizzate presenti nei loro siti web
  5. Richiesta di invio dei lavori mediante posta elettronica, spesso a indirizzi e-mail non professionali o non accademici, e non attraverso un sistema di invio on-line
  6. Mancanza di qualsiasi politica sulle ritrattazioni, correzioni, errata corrige e plagio (più della metà delle riviste più accreditate descrive nei propri siti web come comportarsi in ognuna delle quattro circostanze)
  7. Basso o inesistente valore di impact factor (IF)

Tutti questi caratteri possono essere presenti contemporaneamente o in parte in una data rivista. Tuttavia, la loro presenza non necessariamente deve essere indice di predazione. Infatti, per esempio, una rivista nuova non ha l’impact factor che si calcola confrontando il numero di citazioni di tutti gli studi pubblicati in un biennio col numero totale di studi pubblicati nello stesso biennio (qui). Questo significa che una rivista può cominciare ad avere un IF solo a partire dal terzo anno di vita. Se la rivista è di nuova fondazione, può attuare una politica di incentivazioni alla pubblicazione fornendo agevolazioni ai ricercatori che decidono di inviare il loro lavoro. Per esempio, la ACS Omega (una rivista ancora senza IF della American Chemical Society, ACS) permette la pubblicazione gratuita a chiunque disponga di voucher (del valore di circa 750 $) elargiti dalla ACS a ricercatori di paesi in via di sviluppo o con problemi di fondi di ricerca per la pubblicazione in open access. C’è anche da dire che attualmente è abbastanza facile costruire siti web accattivanti ed attraenti. Per questo motivo, a meno che non si tratti di truffe molto evidenti, è abbastanza difficile trovare riviste predatorie con siti web fatti male. Infine, in passato ho pubblicato su riviste molto importanti del mio settore (quindi non predatorie, non open access e con ottimo IF), il cui editor rispondeva ad un indirizzo e-mail con dominio gmail.com.

Ma adesso sto diventando prolisso. Basta annoiarvi.

Ho aperto questo articolo scrivendo che tutte le istituzioni accademiche (e non) si raccomandano di seguire le linee guida appena indicate per evitare di pubblicare su riviste dalla scarsa qualità. In altre parole, le linne guida riportate sono un modo per riconoscere l’attendibilità dei contenitori in cui “versare” le conoscenze scientifiche che noi raccogliamo dalla nostra attività di ricercatori. Per ora non vi voglio annoiare di più. Nella quarta ed ultima parte di questo reportage dimostrerò che, in realtà, la qualità della ricerca non dipende dalla tipologia di rivista, ma da ben altri fattori tra cui le istituzioni che finanziano la ricerca e che, nello stesso tempo, si raccomandano di tenersi lontani da certi giornali.

Altre letture

https://www.enago.com/academy/identifying-predatory-journals-using-evidence-based-characteristics/

https://bmcmedicine.biomedcentral.com/track/pdf/10.1186/s12916-015-0423-3

Fonte dell’immagine di copertina: https://www.efsa.europa.eu/it/press/news/170803

Numeri, numerielli e numericchi: la qualità dei dati scientifici (Parte II)

Eravamo rimasti alle riviste predatorie (qui), quelle riviste che, dietro corrispettivo di una tassa più o meno salata, pubblicano di tutto senza una seria revisione tra pari (peer review); anzi possiamo anche dire senza alcuna revisione tra pari.

Volete un esempio?

Cliccate qui e si aprirà uno studio dal titolo “Combined Effects of Ethylacetate Extracts of Propolis Inducing Cell Death of Human Colorectal Adenocarcinoma Cells”, autori: Britta Schulz, Elizabeth Smith , Richard Funden and Ulf Moosberger; rivista: J Integr Oncol 2018, 7:2 (DOI: 10.4172/2329-6771.1000207). In questo studio (citato nel numero 1274 della rivista Internazionale) si discute dell’attività anticancerosa della propoli, ovvero di una sostanza resinosa “fabbricata” dalle api, di origine vegetale e ritenuta la panacea di ogni male. Cosa c’è di strano in questo lavoro? Semplicemente che si tratta di un lavoro inventato dai giornalisti del Süddeutsche Zeitung Magazin e del Süddeutsche Zeitung nell’ambito di una inchiesta (pubblicata appunto sul numero 1274 di Internazionale) in merito ai giornali predatori. Gli stessi giornalisti del Süddeutsche Zeitung Magazin e del Süddeutsche Zeitung, poi, affermano che, per non lasciar traccia di questa pseudo scienza, hanno richiesto il ritiro del lavoro. Ed infatti, qui trovate proprio la retraction, sebbene non sia per nulla indicato che si è trattato di un lavoro inventato.

È finita? Certo che no.

Cliccate qui. Potrete accedere al lavoro dal titolo “Aspirin plus Vitamin C Provides Better Relief than Placebo in Managing the Symptoms of the Common Cold” con autori: Aurelio Sessa and Michael Voelker; rivista: J Health Care Prev 1: 102. Cosa ha di strano questo lavoro? Semplice. Lo studio è stato condotto usando la ben nota Aspirina© C Plus contro un placebo fatto di banale acqua gassata. La prima è risultata migliore della seconda nel trattamento dei sintomi del raffreddore. Il punto è che lo studio è incompleto. Per poter essere valido oltre ogni dubbio, gli autori avrebbero dovuto usare un campione controllo a cui somministrare la normale Aspirina©, quella che in farmacia ci costa pochi euro. Perché non l’hanno fatto? Semplicemente perché avrebbero dovuto riportare che gli effetti della costosa Aspirina© C Plus sono gli stessi della più economica Aspirina©.

In questo caso si parla di dati e lavori apparsi su riviste di editori che sono inclusi nella Beall’s list of predatory journals and publishers per cui, sapendo che la serietà di tali riviste è opinabile, uno scienziato serio si guarda bene dal prenderli in considerazione se non dopo essere entrato approfonditamente nel merito di quanto lì scritto ed aver fatto un’accurata revisione post pubblicazione (ricordo che il principio fondante del metodo scientifico si basa sull’importanza di ciò che viene detto e non su quella del contenitore dove viene pubblicato un lavoro. Ne ho parlato anche qui).

Le sciocchezze nelle riviste più accredidate: il caso del gruppo editoriale Nature

Bisogna ammettere che lavori dalla dubbia o inesistente serietà possono essere pubblicati anche su riviste più accreditate. Ne volete un esempio? Eccolo (qui). Si tratta di un lavoro sull’efficacia dell’omeopatia pubblicato su Scientific Reports (una rivista del gruppo editoriale Nature) che tutti i siti pro-omeopatia e tutti i quelli che pensano che l’omeopatia abbia un’efficacia più alta del placebo si affannano a pubblicizzare come pubblicata sulla molto più quotata Nature (qui e qui, per esempio). Cosa ha di strano questo lavoro?

Lo story-telling

Faccio una premessa. Le riviste del gruppo Nature hanno una particolarità: gli articoli sono scritti come se fossero una specie di story-telling. In altre parole, si privilegia la narrazione dei risultati e della loro interpretazione rispetto alla parte tecnico-sperimentale, ovvero l’elencazione dei materiali e metodi usati per gli esperimenti. Non fraintendetemi. Non è che materiali e metodi manchino; ci sono, solo che vengono inseriti in coda all’articolo pubblicato. Questo vuol dire che chi legge spesso si sofferma solo sullo story-telling senza approfondire oltre le modalità con cui sono stati condotti gli esperimenti. Questo modo di esporre una ricerca è positivo perché permette la comprensione di un articolo scientifico ad un pubblico molto più ampio di quello che accede a riviste che non usano il medesimo approccio narrativo: i lettori non si distraggono con particolari tecnici che, molte volte, risultano ostici ed incomprensibili. Il punto è che proprio nei materiali e metodi si annidano le insidie. È dalla lettura di quei paragrafi molto tecnici che si può capire se un progetto sperimentale è stato ben congegnato.

I dettagli tecnici

Andiamo nei particolari. A pagina 9 è scritto:

Drug treatment and groups. Animals were randomly divided into five groups, each consisting of 8 rats (n = 8). Group I: Normal control group of rats were orally administered once daily with 1 ml saline for 14 days. Group II: Sham operated group of rats were treated with 1 ml saline once daily for 14 days. Group III: CCI-induced neuropathy control group of rats orally received 1 ml saline once daily for 14 days. Group IV: CCI-induced neuropathy + RT treated group of rats orally received 0.1 ml of RT (1 × 10−12 dilution) with 1 ml of distilled water once daily for 14 days. Group V: CCI-induced neuropathy + gabapentin treated group of rats orally received Gabapentin (60 mg/kg/day, p.o.) suspended in 0.5% carboxymethyl cellulose (CMC) once daily for 14 days.

Da quanto riportato, si capisce che si tratta di una sperimentazione fatta su ratti divisi in 5 gruppi ognuno contenente 8 individui. Già da questo si potrebbe argomentare che 8 individui non sono una popolazione statisticamente significativa. Per poter avere dati che abbiano un significato statistico accettabile bisogna andare su numeri più grandi. Ed in effetti gli autori sembrano essere coscienti di questo limite perché a pagina 7 (nelle conclusioni del lavoro) scrivono:

Although, the results of present study suggested the anti-neuropathic effect of RT, further pre-clinical and clinical studies are warranted to confirm these effects. Several other biochemical mechanisms may be involved in RT mediated anti-neuropathic effect. Results of present study are suggestive of the anti-nociceptive effect of RT against neuropathic pain and deserve further validation of its effectiveness in various painful conditions.

In altre parole, occorrono esperimenti più approfonditi per validare le loro conclusioni.

La sperimentazione in cieco

Ma torniamo al “Drug treatment and groups”. Riuscite a notare cosa manca? Manca la sperimentazione in cieco. In altre parole, i trattamenti somministrati ai ratti dei cinque gruppi sono stati condotti in modo tale da non evitare né l’effetto Rosenthal né l’effetto Hawthorne. Si tratta di due possibili meccanismi dell’effetto placebo che ho già avuto modo di descrivere qui (ne parlo anche nel mio libro). La conclusione è che, sebbene pubblicato su una rivista prestigiosa di una casa editrice molto antica ed altrettanto prestigiosa, il lavoro non è fatto bene e le conclusioni non consentono di dire che i rimedi ad elevata diluizione sperimentati sono più efficaci dei placebo.

Altri esempi di lavori superficiali su riviste accreditate

Una delle riviste del mio settore è Journal of Chemical Ecology. È una rivista con un impact factor di 2.419 per il 2017. Certo non è paragonabile a quello di Nature che è 42, ma stiamo parlando di riviste scientifiche di carattere differente. Nature è una rivista generalista e, per questo, letta da scienziati di ogni settore disciplinare;  Journal of Chemical Ecology è un giornale di chimica ecologica ed è destinato ad una nicchia molto piccola di scienziati, ovvero chimici che si occupano di ecologia ed ecologi. Da qui discende che il numero di citazioni che possono ricevere i lavori di Nature è di gran lunga più alto di quello che possono ricevere i lavori di Journal of Chemical Ecology destinato ad un settore enormemente più piccolo di quello di Nature (ricordo che l’impact factor è un parametro quantitativo che si calcola confrontando il numero di citazioni di tutti gli studi pubblicati in un biennio col numero totale di studi pubblicati nello stesso biennio. Per esempio, supponiamo che il numero di citazioni di tutti gli studi pubblicati su una rivista nel biennio 2015-2016 sia 13000, mentre il numero di studi pubblicati nello stesso periodo sia 5000. L’impact factor si ottiene dal rapporto 13000/5000, ovvero esso è 2.6).

Fatta questa premessa doverosa per evitare che i non addetti ai lavori si mettano a fare confronti idioti tra riviste che non possono essere confrontate tra loro (e vi assicuro che stupidi che fanno questi confronti ce ne sono), vediamo cosa mi è capitato sotto le mani.

Le cifre significative

Chi mi legge da un po’ di tempo sa che non scrivo solo per il mio blog, ma anche per altri siti come Laputa e Chimicare. In quest’ultimo ho pubblicato un breve articolo sulla matematica elementare nella chimica. Lo potete trovare qui. Non voglio tediarvi con troppi dettagli. L’articoletto sulla matematica elementare per la chimica descrive il numero esatto di cifre che si deve utilizzare per esprimere il valore numerico di una grandezza fisica e il modo con cui si esprime l’errore sperimentale:

  1. Sono cifre significative tutte le cifre non nulle presenti nel numero che esprime la misura sperimentale
  2. Lo zero compreso tra numeri non nulli è una cifra significativa
  3. Gli zeri che seguono numeri non nulli sono anch’essi cifre significative
  4. Lo zero all’inizio del numero che esprime la misura sperimentale non è una cifra significativa
  5. Tutti gli esponenziali in un numero espresso in forma scientifica non sono cifre significative
  6. Se la prima cifra non significativa è <5, il valore dell’ultima cifra significativa rimane inalterato (1.03, con 3 cifra non significativa, viene approssimato a 1.0; un errore del tipo 0.012, con 2 non significativo, viene approssimato a 0.01)
  7. Se la prima cifra non significativa è >5, il valore dell’ultima cifra significativa viene approssimato per eccesso (1.06, con 6 cifra non significativa, viene approssimato a 1.1; un errore del tipo 0.016, con 6 non significativo, viene approssimato a 0.02)
  8. Se la prima cifra non significativa è =5, il valore dell’ultima cifra significativa resta inalterato se è un numero pari o 0, viene approssimato per eccesso se è un numero dispari (1.05, con 5 non significativo, viene approssimato a 1.0; 1.25, con 5 non significativo, viene approssimato a 1.2; 1.15, con 5 non significativo, viene approssimato a 1.2; un errore del tipo: 0.015, con 5 non significativo, si approssima a 0.02; un errore del tipo: 0.025, con 5 non significativo, diventa: 0.02)
Gli errori in Journal of Chemical Ecology

Ed eccoci arrivati al dunque. Nel 2012 appare su J Chem Ecol un articolo dal titolo “Herbivore-Mediated Effects of Glucosinolates on Different Natural Enemies of a Specialist Aphid” (qui). Non voglio porre l’attenzione sulla natura del lavoro, ma sul modo con cui gli autori (un insieme di entomologi, agronomi ed ecologi) hanno espresso i loro dati sperimentali. La Figura 1 riporta uno stralcio della Tabella 1 del lavoro citato.

Figura 1. Stralcio della Tabella 1 di un lavoro pubblicato su J Chem Ecol

In giallo ho evidenziato gli errori commessi dagli autori nel riportare il numero di cifre significative e i relativi errori sperimentali per le concentrazioni delle molecole indicate nella prima colonna a sinistra della tabella. Se aprite il lavoro (qui) potete divertirvi voi stessi a trovare gli errori commessi dagli autori nella restante parte della tabella, alla luce delle indicazioni che ho dato poco più sopra. Come possiamo ritenere affidabili le conclusioni di un lavoro scientifico se chi l’ha scritto si macchia di superficialità nell’esprimere i valori numerici delle grandezze che misura? Perché dovrei ritenere superficiale una parte del lavoro e non superficiale un’altra parte del lavoro? Devo dire che quando opero come revisore nei processi di peer review, gli errori che ho appena mostrato sono quelli che mi fanno rifiutare i lavori per la pubblicazione: se io insegno e pretendo dai miei studenti il rigore scientifico che si palesa anche, ma non solo, nella correttezza con cui si effettuano le misure e si riportano i dati sperimentali, pretendo analoga coerenza sia da me che dai miei colleghi che, come professionisti, siamo chiamati ad essere di esempio per le generazioni che ci sostituiranno nel nostro ruolo e nel mondo della ricerca scientifica.

Come è possibile che certi lavori arrivino ad essere pubblicati?

La risposta alla domanda è che anche noi scienziati siamo umani. Prima di tutto non siamo esperti di tutto lo scibile. Se un lavoro che deve essere sottoposto alla revisione tra pari arriva nelle mani di un non esperto del settore, la correttezza professionale dovrebbe imporre di non accettare l’incarico per la revisione. Ma non sempre accade. Anzi, più spesso di quanto si creda, accade che i lavori vengano revisionati da non esperti che non si dichiarano tali o addirittura da amici degli autori che chiudono entrambi gli occhi di fronte ad errori palesi. Quando ciò accade, un lavoro riesce ad essere pubblicato anche su una rivista prestigiosa semplicemente perché chi doveva accorgersi degli svarioni, o ha scientemente evitato le critiche oppure non aveva gli strumenti adatti per poterlo fare. A questo punto la domanda che una persona comune che non si occupa di scienza si può fare è: ma come faccio a fidarmi della letteratura scientifica? Se non si è preparati in modo adeguato, non ci sono molte possibilità per riconoscere un lavoro fatto bene, da uno pasticciato. L’unica arma che un lettore comune ha per distinguere la buona scienza da una scienza fatta male (o pseudo scienza) è il fattore tempo. Quando un lavoro viene pubblicato non passa inosservato. C’è sempre uno scienziato in un qualche laboratorio in giro per il mondo che si appropria dei dati pubblicati e cerca di riprodurli. Se nonostante tutti i tentativi non ci riesce, pubblica una nota in cui evidenzia l’inconsistenza dei dati riportati in letteratura. La confutazione/approvazione di un dato sperimentale pubblicato richiede tanto tempo e tanta pazienza, ma alla fine il protocollo che noi indichiamo come “metodo scientifico” consente di fare una cernita tra dati seri e dati meno seri: è capitato con i lavori di Wakefield, Schoen e tanti altri di cui ho già parlato qui.

Adesso, però, vi ho annoiato anche troppo. Il reportage continua la prossima settimana.

Fonte dell’immagine di copertina: qui

Numeri, numerielli e numericchi: la qualità dei dati scientifici (Parte I)

Internet è alla portata di tutti. Basta pagare un abbonamento flat ad una qualsiasi delle innumerevoli aziende telefoniche del nostro paese per avere un accesso illimitato a siti di ogni tipo, inclusi quelli di carattere scientifico. Naturalmente, chi non fa parte di un ente (pubblico o privato) che ha accesso alle banche dati scientifiche non può leggere e scaricare lavori che non sono “open access”.

“Open access”. Oggi sembra essere la moda. Tante istituzioni, anche a livello trans nazionale, invitano i ricercatori a pubblicare su riviste accessibili a tutti. Devo dire che la questione delle pubblicazioni scientifiche accessibili a tutti è un argomento spinoso. In linea di principio io sono molto d’accordo.

Sistema open access contro sistema chiuso

Nel business editoriale scientifico chiuso gli editori sono gli unici ad attuare una politica win-win-win-win. Win-1 perché fanno pagare il download di un singolo articolo da pochi dollari a qualche centinaio (dipende dall’importanza della rivista e solo nel caso in cui non sia stato pagato un abbonamento). Tuttavia, a livello istituzionale, impongono agli enti di ricerca e/o di didattica il pagamento di un abbonamento che non è certo economico. I dipendenti di quella istituzione che paga l’abbonamento (annuale) possono accedere a tutti i lavori scientifici che desiderano per le riviste per cui è stato pagato l’abbonamento.  Win-2 perché, affinchè  possa essere pubblicato, un lavoro deve essere sottoposto a revisione tra pari. Gli editor-in-chief di una rivista chiedono ad esperti di settore di fare la revisione dei lavori. Il punto è che chiedono ai revisori un surplus di lavoro gratuito (per quanto ne so, una sola rivista in campo medico dà un gettone per il lavoro di revisione).  Ed arriviamo, adesso, a win-3. I lavori che vengono inviati alle riviste scientifiche sono finanziati dalle stesse istituzioni che pagano l’abbonamento alle riviste (oltre a pagare lo stipendio ai ricercatori perché facciano il loro lavoro di ricerca). Possiamo chiudere il cerchio con win-4: le riviste vendono un prodotto che non comprano e, di conseguenza, per il quale non pagano. Insomma, per come la vedo io, il sistema closed usato fino ad ora non solo non consente la libera circolazione delle informazioni scientifiche ma è abbastanza oneroso per le università/enti di ricerca che, pur non avendo grosse disponibilità economiche, si trovano a dover pagare la ricerca (con opportuni finanziamenti), i ricercatori (sia per il lavoro che devono svolgere sia per le revisioni editoriali richieste da terzi), l’abbonamento alle riviste per poter ottenere i lavori pubblicati dai propri ricercatori.

Meglio l’open access, allora? Beh, in qualche modo sì. In questo caso, il singolo ricercatore o, meglio ancora, l’istituzione di appartenenza paga una cifra per la pubblicazione del lavoro di ricerca che viene, però, reso accessibile a tutti. Insomma, a pagare non è chi necessita della lettura di un rapporto scientifico, ma paga chi pubblica, sempre che il lavoro venga accettato per la pubblicazione. Il costo dei lavori è molto variabile: può andare dalle poche decine di euro fino alle migliaia. Quindi, occorre reperire fondi da destinare alla pubblicazione. Ma del resto è così anche nel sistema chiuso: se non ci sono fondi disponibili, non posso comprare gli articoli che mi servono per aggiornarmi.

E poi ci sono le riviste chiuse che chiedono un contributo per la stampa a colori, ma questo è altro e per le finalità del discorso non è molto importante parlarne.

Vantaggi e svantaggi

Se sono un ricercatore che studia un ambito scientifico molto ristretto per cui è difficile reperire fondi, mi conviene il sistema chiuso. Faccio il mio lavoro col minimo di soldi che riesco a trovare, scrivo il mio rapporto scientifico e invio il lavoro ad una delle riviste che non mi chiedono di pagare per la pubblicazione. Pagherà chi ha bisogno di sapere cosa ho fatto, fermo restando che, come autore, posso inviare gratuitamente il lavoro pubblicato a chiunque me ne faccia richiesta.

Se sono un ricercatore che è in grado di attrarre molti fondi, mi conviene pubblicare sulle riviste open. Parte dei miei fondi sono, in ogni caso, destinati alla mia università per spese di gestione; mettiamo tra queste anche il libero accesso alle informazioni scientifiche. Questo implica una maggiore visibilità ed una maggiore penetrazione delle mie ricerche nel mondo scientifico, anche quello non direttamente collegato al mio specifico settore disciplinare.

Maggiore visibilità per il ricercatore significa anche maggiore visibilità per l’istituzione di appartenenza che, quindi, ha tutto l’interesse a privilegiare l’open access invece che la pubblicazione chiusa. Ed infatti, attualmente molte, se non tutte, le università in Italia chiedono che i lavori scientifici vengano pubblicati anche sulle riviste open access.

Il problema è che quando il mercato diventa libero si innesca la concorrenza ed è possibile, anzi certo, che si possa incorrere in delle truffe.

La truffa dell’open access

Posso fondare una rivista (per esempio Journal of Scientific Folly-news) e chiedere un obolo di, mettiamo, 20 euro a chiunque mi invii un articolo che verrà accettato per la pubblicazione. Mi conviene accettare per la pubblicazione 20 articoli al giorno in modo tale che in un mese io possa fare un introito di 12000 € di cui solo una piccola parte destinata a pagare lo stipendio di chi si occupa di impaginare e gestire il sito web. Se poi sono ingordo, invece di accettare 20 articoli al giorno ne posso accettare un po’ di più in modo da migliorare i margini di guadagno. Però…se un articolo costa solo 20 €, faccio la figura dell’accattone. Meglio imporre un obolo di 50 € (tanto vuoi che un ricercatore non possa pagare anche di tasca sua una cifra così bassa?) e far finta di accettare solo il 20 % di tutti gli articoli inviati (tanto chi mi controlla?). Ed ecco che cominciano i problemi. Se voglio accettare più lavori possibili devo essere di bocca buona: devo fare in modo che la peer review sia più labile possibile o del tutto inesistente. Meglio se inesistente: magari io stesso, come editor, posso far finta di leggere il lavoro e imporre delle banali revisioni agli autori.

I predatory jounals

Pensate che sia impossibile? Ebbene, vi sbagliate. C’è stato qualcuno che si è preso la briga di studiare il comportamento degli editori in ambito scientifico ed ha fatto un elenco di tutte quelle riviste che pubblicano qualsiasi cosa, indipendentemente dalla qualità dei dati sperimentali. Si chiama Beall’s list of predatory journals and editors (Figura 1)Beall è il nome di chi ha avuto la pazienza di raccogliere tutte le informazioni che potete leggere qui.

Figura 1. La Beall’s list of predatory journals

Mi chiederete: possibile che ci siano giornali che, pur dichiarando di essere peer review, non attuano alcuna politica di valutazione della qualità dei dati e per la verifica della congruenza dei dati sperimentali con le ipotesi proposte?

Beh…date un’occhiata alla Figura 2.

Figura 2. Esempio di articolo apparso in letteratura. Evidentemente non è stato utilizzato alcun processo di selezione

Di questo ho già parlato. Se volete leggere la storia (da cui si riprende anche in parte ciò che è scriutto in questo primo articolo di un reportage più ampio) basta cliccare qui.

Per ora mi fermo. Nelle prossime puntate del reportage andrò a valutare la qualità dei dati pubblicati. Stay Tuned

Fonte dell’immagine di copertinahttps://www.corriere.it/spettacoli/16_febbraio_25/storie-scienza-adbb2aec-dba3-11e5-b9ca-09e1837d908b.shtml

Matematica, fisica e medicina: debunking e fact checking

Viaggio tanto. In aereo, in treno, in autobus e porto sempre con me qualche libro da leggere per evitare di annoiarmi e tenere acceso, per quanto possibile, il cervello. Nel mio ultimo viaggio ho portato con me l’ultimo di Walter Quattrociocchi ed Antonella Vicini dal titolo “Liberi di crederci” (Figura 1). In esso gli autori  focalizzano la loro attenzione sulla loro ipotesi in base alla quale debunking e fact checking sono inutili. Il motivo è che queste due pratiche non fanno altro che rafforzare le convinzioni di chi è già orientato ideologicamente verso certe posizioni politiche, scientifiche o altro.

Figura 1. Copertina del libro del Dr. Walter Quattrociocchi e della Dr.ssa Antonella Vicini

Ho, tuttavia, notato che gli autori nella loro disamina commettono a mio modesto parere un paio di ingenuità.

Ad un certo punto essi scrivono a proposito di vaccinazioni in questi termini:  “La legge ha innalzato l’obbligo a dieci vaccinazioni, pena il divieto di frequentare l’asilo nido e la scuola dell’infanzia per i non vaccinati”.
Ecco. Questo è il tipico modo di esprimersi dei no-vaxx. Non sto dicendo che Quattrociocchi/Vicini lo siano. Sto solo dicendo che hanno usato una terminologia non corretta. Le vaccinazioni non sono 10. Dieci sono le patologie contro cui si viene vaccinati. Le vaccinazioni che bisogna fare sono solo due: vaccino esavalente e vaccino MPRV. In totale, seguendo il calendario vaccinale, le iniezioni che bisogna fare sono cinque, diluite nei primi 5/6 anni di vita del bambino. In particolare, il vaccino esavalente (che copre per difterite, tetano, pertosse, polio, Hib, epatite B) viene fatto dopo il secondo mese di vita (ed ha 2 richiami); il vaccino MPRV (che copre per morbillo, parotite, rosolia e varicella) viene fatto dopo l’anno di età (con richiamo singolo dopo i 5/6 anni). In definitiva, quindi, non si fanno 10 iniezioni con relativi richiami (come verrebbe da dedurre dalla terminologia usata da Quattrociocchi/Vicini), ma 3 + 2 iniezioni. Giusto per completezza non è neanche vero che il numero di antigeni è enorme (a onor del vero Quattrociocchi/Vicini non ne discutono, ma lo faccio io per completare il discorso vaccini in questa sede). Infatti, i due vaccini che vengono inoculati e che coprono per 10 patologie contengono circa 260 antigeni contro, per esempio, i 3000 che anni fa erano contenuti nel solo vaccino anti morbillo.

Leggere questa inesattezza mi ha lasciato un po’ l’amaro in bocca. Non potevano chiedere informazioni a qualche esperto (come ho fatto io per scrivere queste poche righe) prima di pubblicare il loro libro? Quando trattano dei propri argomenti Quattrociocchi/Vicini sono veramente pignoli. Perché non lo sono altrettanto quando si riferiscono a campi scientifici che prevedono competenze diverse dalle loro? O non è una distrazione e questa frase con relativo linguaggio è voluta?

Ma andiamo oltre.

A parte ciò che ho appena evidenziato, nella loro discussione in merito alle echo chamber, Quattrociocchi/Vicini scrivono: “Un altro errore comune è confondere le scienze come la fisica o la matematica, i cui risultati si ottengono con metodologie rigorose, con la medicina”.

Qui entriamo in un campo minato perché tutti quelli che si occupano di scienza e di filosofia della scienza possono avere idee differenti.
Io qui dico la mia con la consapevolezza di innescare una miccia.

Innanzi tutto: cos’è la scienza? È il complesso di conoscenze che si ottiene applicando un metodo, quello scientifico, alle osservazioni fisiche che si fanno: vedo; faccio un’ipotesi; sulla base di questa ipotesi faccio una previsione; verifico la previsione mediante degli esperimenti; se la risposta sperimentale è sì, l’ipotesi è corretta; se la risposta è no, l’ipotesi va riformulata. Questo, in sintesi, il metodo scientifico (ne avevo parlato anche qui). Sulla base di quanto scritto, può la matematica essere definita scienza? Diciamo che la matematica è nata per risolvere problemi concreti legati al commercio in senso lato (mi perdonino i miei amici matematici se sono un po’ troppo superficiale). Quindi, usando il pensiero moderno, mi sento di dire che la matematica è nata come una forma di scienza. Tuttavia, da quando abbiamo imparato a contare per risolvere problemi concreti, è passata tanta acqua sotto ai ponti. La matematica ha subito una evoluzione che altre discipline scientifiche non hanno ancora avuto. La matematica, per come la vedo io, è diventata una struttura del pensiero. Non ha più bisogno delle osservazioni fisiche (come quelle legate al commercio in senso lato) per poter avanzare.

Ad oggi, come sovrastruttura del pensiero, la matematica è al di sopra di quelle che possono essere indicate come scienze (ovvero tutti quei campi che hanno bisogno di osservazioni sperimentali per poter avanzare) e fornisce gli strumenti (logici e fisici) ad ognuna di esse. Esistono scienze che sono come la matematica? Qualcosa che ci si avvicina sono la fisica e la chimica teorica. Tuttavia, entrambe hanno poi bisogno di procedure sperimentali per poter validare ciò che sono le conclusioni del pensiero. Senza esperimenti sia la chimica che la fisica teorica sono fini a se stesse e non hanno validità alcuna.

E la medicina? In quanto forma di conoscenza basata sul metodo induttivo – cioè trarre un giudizio generale o universale partendo dall’osservazione di uno o più fatti particolari, di dati contingenti, v. vocabolario Treccani – (esattamente come fisica e chimica), anche la medicina è una scienza. Gli strumenti logici e fisici con cui procedere vengono forniti alla medicina dalla matematica (proprio come nel caso di fisica e chimica). Quali sono le metodologie rigorose che accomunerebbero matematica e fisica, ma non la medicina come scritto da Quattrociocchi/Vicini nel loro libro? Forse la statistica, su cui si basa principalmente la medicina, non è ritenuta rigorosa? Ed allora la termodinamica statistica elaborata da Boltzmann? E la meccanica quantistica (che fornisce gli strumenti per la diagnostica per immagini) basata sulla statistica? E potrei continuare perché anche la biologia, altra branca della conoscenza scientifica, si basa sulla statistica. Forse l’autore si riferisce alla discrezionalità umana che sembra essere presente nella medicina ma non nella fisica? Non è così. Entrambe le forme di conoscenza sono soggette a discrezionalità umana: un medico può sbagliare una diagnosi, così come un fisico può sbagliare l’impianto sperimentale oppure, pur avendo un impianto sperimentale corretto, non riuscire a “vedere” ciò che ha “sotto il naso”. In altre parole, anche un fisico può sbagliare la diagnosi.
In definitiva, secondo me, nella loro affermazione, gli autori sono stati un po’ superficiali (come lo sono stati nel caso dei vaccini). Questa superficialità può avere conseguenze notevoli perché chi non è avvezzo al metodo scientifico può essere portato a pensare che la medicina sia roba da stregoni, mentre la fisica sia una materia con dignità superiore. Non è così. Entrambe le discipline hanno pari dignità ed entrambe fanno buon uso di tutti gli strumenti, egualmente rigorosi, messi a disposizione dalla sovrastruttura matematica. E tanto per evidenziare che il lavoro medico prevede un approccio rigoroso ed interdisciplinare, inserisco la notizia che potete leggere ingrandendo la Figura 2 (oppure cliccando qui).

Figura 2. La medicina riesce a salvare la vita ad un bambino con rara patologia

È finita qui? No. Perché basandosi sulle loro osservazioni, come scritto nel paragrafetto introduttivo, Quattrociocchi/Vicini evidenziano l’inutilità del fact checking. Mi sembra allora interessante riportare una notizia apparsa recentemente su La Gazzetta di Modena (qui e Figura 3) e su altri siti minori (per esempio qui).

Figura 3. Un fact checking test ha avuto successo tra gli studenti di un istituto professionale

Una professoressa di un istituto tecnico industriale di Modena ha ideato un fact checking test con cui si sono cimentati i suoi allievi. A quanto pare il fact checking ha funzionato. Alcuni pregiudizi sono stati rimossi. Mi rendo conto che questo è un fatto isolato rispetto ai grandi numeri di cui dispone Quattrociocchi. Mi permetto di pensare, però, che c’è qualcosa di positivo. Da un punto di vista scientifico posso dire che il fact checking ha funzionato date le condizioni al contorno utilizzate (ragazzini di un istituto tecnico industriale costretti ad imparare). Se riformulassimo le condizioni al contorno in modo da adattarle ai grandi numeri, sarebbe possibile un esito positivo del fact checking e, di conseguenza, la rimozione dell’ipotesi di inutilità dello stesso evidenziata dagli studi di Quattrociocchi? Non lo so e qui mi fermo. Non è il mio campo ma qualcun altro con più competenze di me potrebbe anche farci un pensiero sopra e dire a noi se questa ipotesi di lavoro potrebbe funzionare o meno.

Fonte dell’immagine di copertina: https://www.insidemarketing.it/fact-checking-strumenti-verifica-notizie/

Il decalogo del ciarlatano scientifico

Chi è il ciarlatano? Si tratta di una persona poco affidabile, di un imbonitore, di qualcuno che vende fumo. Nel mondo scientifico, il ciarlatano è colui che cerca la fama proponendo modelli che spiegano solo ciò che egli pensa di osservare, senza dare alcuna importanza a ciò che è stato fatto in precedenza. Si tratta di persone con seri problemi di personalità che tendono a paragonarsi a grandi del passato come Galilei.

Come possiamo riconoscere un ciarlatano? Alla luce dell’analisi del comportamento medio dei ciarlatani, è possibile stilare un decalogo di atteggiamenti cui il ciarlatano medio tende ad attenersi.

Il decalogo per riconoscere il ciarlatano scientifico

1. tende a isolarsi dall’ambiente scientifico;
2. per comunicare le sue scoperte non usa i canali tradizionali in genere utilizzati da tutti gli scienziati (riviste scientifiche e congressi), ma preferisce la stampa non specializzata;
3. i suoi metodi sono segreti e non vengono divulgati;
4. pretende vi sia un pregiudizio degli scienziati nei suoi confronti;
5. cita casi in cui insigni scienziati dovettero lottare contro il dogmatismo scientifico dei loro tempi;
6. denuncia l’insufficienza delle teorie scientifiche attuali;
7. i suoi resoconti sono lacunosi o inesistenti;
8. quando i suoi metodi vengono sottoposti a una valutazione scientifica, rifiuta di accettarne i risultati;
9. può essere indifferentemente incolto o fornito di titoli accademici;
10. i suoi sostenitori sono privi di competenze nel campo in cui pretende di esprimersi.

Riconoscete in uno o più punti persone che rispondono ad uno o più dei requisiti anzidetti? Io sì. Ci sono stati e ci sono molti colleghi che, pur avendo fatto un ottimo lavoro in un passato più o meno recente, sono poi passati al lato oscuro della scienza. Non mancano tra questi illustri premi Nobel che, affetti dal Nobel disease, pensano di poter dire la loro anche in campi di cui sono totalmente inesperti.

Per approfondire

Luca Simonetti – La scienza in tribunale (2018) Fandango libri
Lista di scienziati famosi affetti da Nobel disease

Fonte dell’immagine di copertina: http://www.stoccolmaaroma.it/2014/due-nobel-a-trieste/

Fonte dell’immagine in chiusura: http://goabgamersab.blogspot.it/2015/08/bien-bienvenidos-vallan-ala-pagina-web.html

Omeopatia in radio

Nel 2009 sono entrato nel mondo dei social network e da allora ho conosciuto tante persone, molte odiose, tante antipatiche, ma moltissime interessantissime oltre che simpaticissime. E’ questo il caso di Lele Pescia, Ivo Ortelli e La Iena Ridens che mi hanno ospitato nella loro trasmissione “Neandhertal Pride” a parlare di omeopatia.

Chi mi segue sa che mi sono interessato di questa pseudoscienza che fa tanti proseliti nel mondo. Se siete curiosi, qui trovate il link a quanto ho già scritto.

In realtà, siamo partiti dall’omeopatia per affrontare problematiche anche di carattere più generale.

Se avete perso la diretta e se siete interessati ad ascoltare la mia voce, cliccate qui sotto e vi si apriranno le porte del mio intervento di ieri in  Neandhertal Pride

Riflessioni pre natalizie. Sviluppo scientifico e stasi tecnologica

Una delle riviste che mi piace leggere è Wired. Non sempre lo faccio perché è una rivista che esce un paio di volte all’anno e non sempre mi ricordo di prenderla in edicola. Stavolta sì; mi è capitata sotto gli occhi nell’edicola dell’aeroporto e l’ho presa. Capisco che sapere quali siano le mie letture preferite non è che importi a molti, così come non é particolarmente interessante sapere in che modo mi ricordi di prendere le riviste in edicola. Questo sproloquio introduttivo mi serve solo per dire che nell’ultimo numero di Wired, dedicato a come sarà il nostro futuro, ho trovato una introduzione di Carlo Rovelli, tra i fisici italiani più prestigiosi, che mi ha fatto molto riflettere.

Rovelli in sintesi afferma: “Il futuro non dipenderà da nuove prodigiose scoperte o inaspettate tecnologie ma sarà determinato dai governanti che ci sceglieremo: ragionevoli o irragionevoli”. Le sue argomentazioni sembrano molto ragionevoli e condivisibili: “parlare del futuro è sempre parlare del presente. Scienza e tecnologia continuano ad avanzare ma, fra le due, c’è uno scarto. Presto mi aspetto maggiori passi avanti nella conoscenza del mondo […]. Ma non credo che la tecnologia spiccherà grandi salti avanti. […] A me, in effetti, sembra che lo sviluppo tecnologico sia già in un periodo di forte rallentamento. Da quando sono nato ho visto arrivare l’uso di massa del trasporto aereo, i computer, internet. Sembra molto ma, se provo a confrontarlo coi cambiamenti che ha vissuto mia nonna le novità di oggi impallidiscono. Lei ha conosciuto la radio, la televisione, l’illuminazione stradale, le automobili, gli aeroplani, la penicillina, l’educazione generalizzata, l’uomo sulla Luna e la bomba atomica. E ci sono state, in passato, innovazioni tecnologiche che hanno sovvertito la vita del pianeta […]. Per esempio la diffusione dei trattori ha fatto sì che la percentuale di uomini che coltivava la terra passasse da più del novanta percento a meno del dieci, e ciò ha cambiato l’esistenza di milioni di esseri umani e sovvertito in modo radicale la struttura sociale della società”.

Devo dire che, probabilmente perché sono appassionato di fantascienza e per questo abbastanza sognatore, non sono molto d’accordo con Rovelli. Egli ha fatto una serie di esempi molto significativi, però a me non convincono molto.

Chi avrebbe potuto prevedere nel 1905 che la spiegazione dell’effetto fotoelettrico di Einstein avrebbe portato dopo più di ottanta anni ai cancelli automatici? E chi avrebbe potuto prevedere negli anni sessanta del novecento che le tavolette usate dal Dr. Spock in Star Trek, noto telefilm di fantascienza, sarebbero diventate reali con gli attuali e-reader e tablet? Vogliamo parlare degli attuali telefoni cellulari di cui si anticipa l’esistenza sempre in Star Trek?

Mi potreste dire: “ma di cosa stai blaterando? Stai confondendo finzione con realtà. Una cosa è l’effetto fotoelettrico altra è la fantasia degli sceneggiatori di Star Trek”. È vero. Solo che molte volte la realtà supera la fantasia come spiega Lawrence Krauss nel suo “La fisica di Star Trek”.

Dove voglio andare a parare? Voglio semplicemente dire che lo sviluppo delle nostre conoscenze scientifiche non ci consente di dire come, quando e quanto la tecnologia potrà subire salti in avanti. Quello che a Rovelli sembra un periodo di forte rallentamento tecnologico, io lo vedo in altro modo.

La tecnologia è indissolubilmente legata al progresso scientifico. Ma anche il progresso scientifico è legato allo sviluppo tecnologico. Cose che oggi sono possibili, solo qualche anno fa erano impensabili a partire da internet di cui parla Rovelli e dal World Wide Web. La necessità di superare la lentezza nello scambio di informazioni nel mondo scientifico portò Timothy John Berners-Lee ad inventarsi quello che a noi oggi sembra qualcosa di ovvio: il web a cui internet è legato a doppio filo. E col web oggi io posso lavorare sul mio tablet scrivendo questo articolo mentre sorseggio il mio caffè. Di esempi del genere ne potrei fare a bizzeffe. Solo per rimanere nel mio ambito settoriale che è quello della risonanza magnetica nucleare, chi potrà mai dire cosa ci consentirà di conoscere in termini scientifici l’applicazione della rilassometria NMR a ciclo di campo combinata con la risonanza magnetica per immagini? Questo che è uno sviluppo tecnologico non potrà fare altro che far avanzare le frontiere della nostra conoscenza. Con esse ci saranno altri sviluppi tecnologici che potranno consentire  ulteriori passi avanti nelle conoscenze in un ciclo senza fine.

La tecnologia che deriva dallo sviluppo scientifico non è neutra neanche nei nostri confronti. Essa influenza il nostro modo di pensare e di muoverci man mano che la utilizziamo. Faccio mie e rendo più generali le riflessioni di Nicholas Carr nel suo “Internet ci rende stupidi?”: quando facciamo uso di uno strumento, qualsiasi esso sia, il nostro cervello viene modificato. In altre parole, si modificano le nostre connessioni neuronali in modo tale da permetterci di adattarci allo strumento di cui facciamo uso. Lo sviluppo di strumenti sempre più innovativi ci porta ad una riprogrammazione continua del nostro computer interno – il nostro cervello – cosicché esso è di gran lunga differente rispetto a quello dei nostri nonni.

Pur non essendo il nostro hardware – il nostro aspetto fisico – differente da quello dei nostri antenati di 10000 anni fa, il nostro software – ovvero le connessioni neuronali nel nostro cervello – invece lo è perché si è dovuto riprogrammare progressivamente per poter adattarsi alle innovazioni avvenute nel corso dei secoli. Questa riprogrammazione richiede del tempo ed è, secondo me, quello che a Rovelli sembra il periodo di progressivo rallentamento tecnologico in cui viviamo.

La Figura 1 (fatta a mano in un rigurgito vintage scientifico) rappresenta quello che penso in merito al progresso scientifico – ovvero delle conoscenze – e tecnologico. Ogni volta che c’è una innovazione (segmenti con pendenza positiva) abbiamo bisogno di tempo per la riprogrammazione del nostro software interno (segmenti con pendenza quasi nulla). Dopo questo tempo si presentano nuove innovazioni seguite da nuovi periodi di apparente rallentamento.

Non sono un neuro-scienziato e so benissimo di essermi avventurato in un campo che non è il mio. È molto probabile che io abbia detto una serie di sciocchezze, ma è proprio questo lo scopo di queste riflessioni: intavolare una discussione proficua con chi è più esperto di me.

Immagine di copertina. Foto personale della copertina di Wired inverno 2017/18

Sui somari, sugli stupidi e della pseudoscienza

Scienza e democrazia

Ho appena finito di leggere il libro del Prof. Burioni dal titolo “La congiura dei Somari. Perché la scienza non può essere democratica”, in cui l’autore spiega, semmai ce ne fosse bisogno, cosa vuol dire la locuzione “la scienza non è democratica”.
In breve, come sanno tutti coloro che a vario titolo si occupano di scienza, questa non è democratica nel senso che chiunque si svegli la mattina ha diritto di parola e può dire ciò che vuole su qualunque argomento; la scienza è democratica perché chiunque lo desideri può approfondire un particolare aspetto della realtà che ci circonda e dare il suo personale contributo nella spiegazione dei fatti che ha deciso di osservare. In altre parole, la scienza non si basa sulle opinioni di nessuno – sia scienziati che gente che fa altro nella propria vita – ma sui fatti. Si osserva un fenomeno, si ipotizza un modello interpretativo, si conducono esperimenti per validare o falsificare quel modello; nel primo caso il modello funziona e diventa teoria, nel secondo il modello non funziona e bisogna riformularlo; a questo punto gli esperimenti devono essere ripetuti. Come si capisce da questa breve disamina, la modellizzazione dei fatti sperimentali è alla base di quella che viene indicata come verità scientifica. La verità scientifica non ha una valenza assoluta ma è relativa alle condizioni entro le quali le ipotesi sono state formulate.

Ottimismo scientifico

Da quanto appena descritto nasce l’ottimismo scientifico in base al quale una nuova idea o una nuova osservazione mai fatta prima possono condurre ad una nuova verità scientifica che può inglobare quella precedente oppure semplicemente sostituirla: è accaduto per il modello geocentrico dell’universo sostituito da quello eliocentrico, sebbene entrambi avessero pari dignità in termini di formulazione matematica, per la teoria del flogisto sostituita dalle leggi di Lavoisier, per la fisica di Newton inglobata nella meccanica quantistica e così via di seguito.
L’ottimismo scientifico viene male interpretato da chi non conosce la scienza. Infatti, spesso si nasconde la propria ignoranza affermando che le proprie idee siano valide perché si è sicuri che in un futuro non si sa bene quanto lontano, ci sarà qualcuno che proverà la validità delle affermazioni formulate. Il più delle volte ci si riferisce alla vita romanzata di Galilei o di Einstein attraverso un confronto piuttosto spinto: “come quei due grandi scienziati sono stati avversati dall’establishment dei loro tempi, così vengo avversato io perché le mie idee sono innovative e contrarie alle opinioni comuni. Tuttavia, ci sarà in futuro chi mi darà ragione come è accaduto a Galilei ed Einstein”. Chi fa questi pensieri, che io definisco osceni, non si rende conto che quei due hanno avuto ragione non perché avessero espresso delle opinioni generiche basate sul nulla, ma perché avevano generato un impianto fisico che si è dimostrato valido alla prova del tempo. Hanno fatto esperimenti, hanno controllato e ricontrollato i loro dati, e le loro teorie hanno subito l’attacco del mondo scientifico che ha tentato di falsificarle. Non è stato possibile trovare incrinature nel loro impianto teorico. La conseguenza è che esse sono state accettate. Ma solo fino a prova contraria. Se c’è qualcuno che pensa che le teorie di Galilei ed Einstein siano verità assolute, farebbe meglio a ricredersi. Non è così. E non è così per tutte le teorie scientifiche che oggi studiamo sui libri. Sono sicuro che in qualche laboratorio in giro per il mondo c’è qualcuno che sta tentando di falsificare – in senso popperiano – uno qualsiasi dei modelli attualmente accettati nella letteratura scientifica. Tuttavia, i tentativi di falsificazione sono condotti non sulla base di teorie astruse venute in mente durante notti di plenilunio dopo aver mangiato pesante ed ecceduto in libagioni, bensì sulla base di disegni sperimentali sempre più innovativi che servono per comprendere fino a dove ci possiamo spingere con le teorie al momento accreditate.

Sui somari

Il Prof. Burioni va oltre le spiegazioni appena riassunte. Egli, infatti, da ottimo docente quale è, definisce il termine “somaro” che è attualmente desueto, ma era molto di moda quando persone della mia età, che grosso modo è la stessa di Burioni, andavano alle elementari. Un “somaro” nella accezione dell’autore – che poi è l’accezione di quando eravamo piccoli noi – è colui che, pur non avendo studiato, pensa di poter dare un contributo ad argomenti di cui non conosce nulla, alla pari di chi di quegli argomenti ha fatto non solo il proprio oggetto di studi, ma anche la propria ragione di vita.
Alla luce di quanto scritto, tutti siamo dei somari. Prendendo spunto da quanto scrive il Prof. Burioni, io chimico sono un somaro se pretendo di discutere alla pari col mio elettricista, col mio meccanico o finanche con un altro chimico che si occupi di un settore completamente differente dal mio. Ma questo è chiaro. Ho passato la mia vita a studiare chimica; certo ho studiato anche la fisica ed, in particolare, l’elettromagnetismo per cui so cos’è una corrente alternata ed una corrente continua, ma da qui a poter mettere le mani sull’impianto elettrico di casa mia ce ne passa: ho bisogno di un elettricista esperto che sappia cosa fare. Potreste dirmi: ma se hai studiato chimica, come mai non puoi confrontarti con un chimico che lavora in un campo che non è il tuo? Appunto! Io passo la mia vita a studiare la dinamica molecolare dell’acqua e dei nutrienti nei vari comparti ambientali; come potrei anche solo pensare di discutere alla pari con un chimico che si occupa di dinamica di nutrienti nel corpo umano? Come potrei discutere alla pari con un chimico che si occupa di chimica computazionale o di chimica di sintesi? Solo chi non conosce le varie sfumature dei vari rami della chimica può pensare che un chimico abbia familiarità con lo scibile chimico. Se mi addentrassi con le mie conoscenze attuali in una discussione con un esperto sulla chimica computazionale, verrei riconosciuto subito per quello che sono in quell’ambito: un somaro. Ma non ho motivo di offendermi. Sono consapevole di non conoscere tutto, per cui cerco di discutere alla pari solo con chi ha la mia stessa formazione. In tutti gli altri casi o ascolto ed imparo oppure sono io che do lezioni. Certo sono in grado di seguire una discussione in un qualunque ambito chimico, ma non sono in grado di dare un contributo significativo se non nel mio ristretto ambito professionale.
Sulla base di quanto ho finora scritto, non capisco perché apostrofare gli antivaccinisti col termine “asini” abbia scatenato in rete tutta una serie di invettive da parte di chi, volendo applicare le modalità del pensiero debole, ritiene che l’approccio di Burioni non serva per convincere le persone. Qui non si tratta di convincere nessuno. Qui si tratta di dire le cose come stanno: la mamma informata che non vaccina i figli perché ritiene che gli adiuvanti siano tossici o che il sistema immunitario degli infanti sia perfetto o che l’igiene protegga dai virus, altro non é che una somara perché rientra nella tipologia di persone che non solo parla di cose che non sa, pretendendo di dare consigli come se fosse un medico, ma nemmeno si informa correttamente perché cerca solo le informazioni che avallano le sue personalissime opinioni.

Sugli stupidi

Ed ora vengo al punto. Quanto riportato dal Prof. Burioni non è cosa nuova nel panorama culturale italiano. Molto prima di lui, uno storico Italiano, specializzato in storia economica, definisce con il termine “stupido” quello  che è il “somaro” di Burioni. Si tratta di Carlo M. Cipolla la cui biografia si può leggere qui. In realtà, lo “stupido” del Prof. Cipolla ha una accezione più ampia del “somaro” di Burioni. Infatti, mentre il “somaro” è colui che non ha studiato ma, soggetto all’ effetto Dunning-Kruger, ritiene di sapere tutto di un qualsiasi ramo dello scibile umano intervenendo così a sproposito in ogni discussione, lo “stupido” è colui che ha un comportamento grazie al quale arreca un danno sia a se stesso che alla società di cui fa parte.

Ma andiamo con ordine.

Nel suo “Le leggi fondamentali della stupidità umana”, Carlo Cipolla descrive quattro tipologie umane che, in modo analitico, egli dispone nei quattro quadranti di un sistema di assi cartesiani (Figura 1).

Figura 1. Distribuzione delle varie tipologie umane. L’asse x riporta il vantaggio crescente (da sinistra a destra) per il singolo soggetto, mentre l’asse y mostra il vantaggio crescente (dal basso verso l’alto) per un insieme di persone o la società (Fonte)

La disposizione delle quattro tipologie umane segue un andamento ben preciso in funzione del vantaggio crescente che l’individuo dà a se stesso ed alla comunità di individui a cui appartiene. In questo modo, è possibile distinguere individui intelligenti che, col loro comportamento, riescono ad ottenere vantaggi per se stessi e per gli altri (quadrante I del sistema di assi cartesiani in Figura 1); se, invece, gli individui ottengono solo vantaggi per se stessi, ma non per la società, allora si identificano come banditi (quadrante II del sistema di assi cartesiani in Figura 1); quando gli individui oltre ad essere dannosi per se stessi fanno anche danno alla società, vengono catalogati come stupidi (quadrante III del sistema di assi cartesiani in Figura 1); quando un individuo arreca danno a se stesso, ma nel contenpo un vantaggio alla società, può essere catalogato come uno sprovveduto (quadrante IV del sistema di assi cartesiani in Figura 1). Oggi lo sprovveduto verrebbe identificato col termine “sfigato”; ma come si diceva una volta “o tempora, o mores”. Cipolla ha pubblicato le sue leggi fondamentali all’inizio degli anni ’70 del ventesimo secolo, quando ancora non era in uso il termine “sfigato”.

Non esiste un modo oggettivo per poter catalogare ognuno di noi in uno qualsiasi dei quattro quadranti considerati in Figura 1. Lo si può fare solo caso per caso andando a valutare le conseguenze delle nostre azioni su noi stessi e sulla società. Come regola generale possiamo dire che gli intelligenti tendono ad agire in modo tale da non apportare danni a nessuno. Può, tuttavia, capitare che in un determinato momento della propria esistenza, una persona intelligente possa commettere degli errori così da diventare o uno sprovveduto o un bandito. La probabilità che una persona intelligente  ha di essere catalogata tra gli stupidi in un qualsiasi momento della propria vita è piuttosto bassa, se non addirittura nulla. Infatti, riprendendo l’attenta analisi del Prof. Cipolla si può dire che “la grande maggioranza delle persone stupide sono fondamentalmente e fermamente stupide — in altre parole essi insistono con perseveranza nel causare danni o perdite ad altre persone senza ottenere alcun guadagno per sé, sia esso positivo o negativo. Ci sono tuttavia persone che, con le loro inverosimili azioni, non solo causano danni ad altre persone, ma anche a se stesse. Queste sono un genere di super-stupidi che, in base al nostro sistema di computo, appariranno in qualche punto dell’area S alla sinistra dell’asse delle Y (si tratta del quadrante III di Figura 1, NdA)”.

I somari, Gli stupidi e la scienza

Perché ho fatto questa lunga premessa citando sia il libro del Prof- Burioni che l’opera del Prof. Cipolla? Semplicemente perché, sebbene il primo si riferisca ai somari nel contesto scientifico ed il secondo agli stupidi in un contesto economico (il Prof. Cipolla, ricordo, era uno storico dell’economia), non riesco a non catalogare tra gli stupidi tutti quelli che il Prof. Burioni cataloga tra i somari; sono quelli che si professano anti-vaccinisti o seguaci dell’omeopatia; allo stesso modo non riesco a non catalogare tra i banditi tutti coloro che propagandano il credo antivaccinista e quello omeopatico.

Provo a spiegarmi meglio.

Quante volte abbiamo letto che qualcuno è morto per gli effetti di una malattia che avrebbe potuto evitare attraverso la vaccinazione? Quante volte abbiamo letto di morti causate dalla cattiva pratica medica che ha impedito l’uso di cure efficaci per applicare l’omeopatia? Vogliamo parlare del bimbo morto per le conseguenze di un’otite curata con l’omeopatia (qui)? Vogliamo discutere delle vittime della difterite (qui) o di quelle del morbillo (qui)?

Quando dei genitori decidono di non vaccinare il proprio figlio sulla base di paure infondate nonostante tutte le rassicurazioni dei medici, fanno un danno a se stessi (perché la possibile perdita di un figlio è certamente un danno per se stessi), un danno al proprio figlio (che da adulto non vaccinato potrà essere soggetto a malattie mortali come è capitato recentemente in Sicilia, qui) ed un danno alla società (perché consentono la riduzione dell’immunità di gregge, qui, con il conseguente ritorno di malattie oggi ritenute impropriamente scomparse o poco importanti). In altre parole, l’atteggiamento no-vaxx o quello di chi segue le medicine alternative è un atteggiamento che nel linguaggio moderno potrebbe venir catalogato come atteggiamento lose-lose-lose, ovvero tutti ci perdono: dai genitori, ai figli, alla società. Non è detto che i genitori che rifiutano le vaccinazioni o utilizzano medicina alternativa per i propri cari siano somari nell’accezione usata dal Prof. Burioni. Se un somaro è colui che non conosce la materia di cui parla, non può essere il caso di quei genitori che hanno perso il figlio come riportato nella notizia a questo link. Non può essere considerato somaro neanche l’operatore sanitario che, seguendo la filosofia antivaccinista, non somministra i vaccini procurando un danno sia a se stesso che agli altri (la notizia è qui). In questi casi specifici va applicata la teoria della stupidità elaborata dal Prof. Cipolla, con la conclusione che ognuno di noi può trarre autonomamente.

E i banditi?

Alla luce della definizione data in modo analitico dal prof. Cipolla, i banditi sono quelli che per procurare un vantaggio per se stessi, fanno un danno agli altri. Esempi di banditi secondo questa accezione? Indubbiamente Wakefield che, per procurare a se stesso dei guadagni, ha fatto grossi danni alla società dal momento che, grazie a lui, oggi spopola la falsa correlazione vaccini-autismo alla base del movimento antivaccinale. La storia di Wakefield è qui. In generale, tutti coloro che hanno tanto da guadagnare dalla pseudo scienza (per esempio con la vendita di libri, con le comparsate ai convegni, con fondi di qualsiasi tipo) e dall’aumento del numero di seguaci, sono da considerarsi banditi.

Conclusioni

Cosa ho voluto evidenziare con questo articolo neanche tanto breve? Che i personaggi che si muovono nell’ambito della pseudo scienza non sempre possono essere catalogati come somari. Io li distinguo in due tipologie: stupidi e banditi. I primi sono quelli che, anche se in buona fede, perserverano nelle loro false convinzioni provocando danni a se stessi, alle loro famiglie ed alla società che li circonda;  vanno tenuti sotto controllo in modo tale da difendere sia la società che loro stessi dal loro comportamento. I secondi sono quelli che, pur avendo gli strumenti adatti per poter discriminare verità scientifiche da falsi miti, non lo fanno o scientemente – ed allora sono banditi intelligenti che vanno perseguiti per evitare danni alla società – o inconsapevolmente – ed allora sono banditi stupidi da perseguire come i primi perché oltre alla società fanno danni anche a se stessi.

Per approfondire

La stupidità: http://www.aepsi.it/Stupidita_2.pdf

Le leggi fondamentali della stupidità umana

Fonte dell’immagine di copertina

http://funnystack.com/category/funny-donkey/page/9/

Scienza: contenuto e contenitori

Quante volte ho letto che un certo lavoro non è attendibile perché pubblicato su una rivista poco importante o su una rivista che viene considerata predatoria?

Certo. E’ importante che i risultati del proprio lavoro vengano accettati da una rivista che sia significativa per la comunità scientifica di riferimento. E’, altresì, importante che i risultati di una ricerca vengano pubblicati il più velocemente possibile perché la competizione tra gruppi di ricerca è talmente elevata che basta un niente per perdere la primogenitura su una determinata scoperta scientifica. E’ per questo che nascono archivi come arXiv che consentono di archiviare i risultati di una ricerca prima ancora che essi vengano pubblicati. Il limite di questi archivi è che il lavoro lì depositato non necessariamente può vedere la luce. Può accadere che rimanga lettera morta e che, di conseguenza, di esso rimanga traccia solo su quel data base. Non tutto quanto presente negli archivi digitali che attestano della primogenitura di un dato modello, è da prendere in considerazione perché non tutto quanto ha passato il vaglio della comunità scientifica di riferimento.

“Passare il vaglio della comunità scientifica di riferimento” non significa che un dato modello viene accettato perché rispecchia il modo di pensare in auge in quel momento; questa locuzione vuol dire che quando un lavoro arriva nelle mani di referenti/revisori anonimi, questi verificano la congruità delle ipotesi formulate con il disegno sperimentale e la congruità dei risultati ottenuti con le conclusioni che sono state tratte. Non è possibile per i referenti/revisori riprodurre esattamente gli stessi esperimenti di cui leggono, perché questi ultimi richiedono finanziamenti ad hoc e strumentazioni che non tutti i laboratori possono avere a disposizione. Inoltre, riprodurre gli esperimenti significa per i referenti/revisori cambiare lavoro, ovvero dedicarsi ad altro e non alla ricerca che hanno deciso di portare avanti.

Prendete me, per esempio. Solo per il 2017 (ed Ottobre è appena iniziato) ho fatto da referente/revisore per 15 lavori ed almeno altrettanti ho rifiutato di giudicare per mancanza di tempo. Se volessi mettermi a fare tutti gli esperimenti dei lavori che ho giudicato, non avrei tempo per portare avanti le mie ricerche e la mia didattica. Quello che faccio è, quindi, cercare di capire quanto ho appena scritto: verifico la congruità delle ipotesi formulate con il disegno sperimentale e la congruità dei risultati ottenuti con le conclusioni che sono state tratte

Ma veniamo al punto.

Più volte ho evidenziato che non il contenitore (la rivista), bensì il contenuto (ovvero i risultati della ricerca) è importante perché un modello scientifico possa essere considerato valido (per esempio qui).

La storia della scienza è piena di esempi di contenuti dall’importanza notevole, in termini di progressione delle conoscenze, ma pubblicati in contenitori poco noti; ma è anche piena di esempi di contenuti di nessuna o scarsa importanza presenti in contenitori molto prestigiosi.

Volete qualche esempio?

Cosa dire del lavoro di Benveniste sulla memoria dell’acqua pubblicato su Nature e sconfessato dagli stessi editor ad un approfondimento successivo? Ne ho parlato qui. E del lavoro di Wakefield in merito all’inesistente correlazione vaccino-autismo vogliamo parlare? E’ stato pubblicato, e poi ritirato, dalla prestigiosissima rivista The Lancet. Ne ho discusso qui.

Recentemente mi è capitato di leggere un breve articolo su www.sciencealert.com in cui è stata ripercorsa la storia di otto lavori che descrivono scoperte scientifiche che sono valse il premio Nobel agli autori.

Sapevate, per esempio, che Nature, nel 1933, ha rifiutato il lavoro di Enrico Fermi in merito alle interazioni deboli poi pubblicato nel 1934 su una rivista molto meno prestigiosa dal nome “Zeitschrift für Physik” oggi scomparsa? L’articolo in questione è qui (in tedesco).

Anche la scoperta di un meccanismo importantissimo in ambito biochimico ed alla base della vita, non è stato pubblicato da Nature perché in quel momento la rivista era fin troppo satura di lavori da pubblicare ed avrebbe dovuto posporre la pubblicazione di tale scoperta a tempi migliori (Figura 1). Mi riferisco al lavoro fondamentale di Hans Adolf Krebs che nel 1953 ha ricevuto l’ambito riconoscimento per aver scoperto il ciclo dell’acido citrico.

Figura 1. La lettera con cui l’editor di Nature chiede a Krebs se è disponibile a ritardare la pubblicazione del suo lavoro (Fonte)

Il lavoro fu poi inviato ad una rivista meno prestigiosa (Enzymologia) che lo pubblicò nel 1937 (qui). Se volete leggere il lavoro originale, lo potete scaricare da qui.

Chi mi conosce sa che nella mia attività di ricerca mi interesso delle applicazioni in campo ambientale delle tecniche di risonanza magnetica nucleare. Tra i miei idoli c’è sicuramente Richard Ernst che nel 1991 ha vinto il premio Nobel per il suo contributo allo sviluppo della tecnica NMR. Ernst ha applicato la trasformata di Fourier ai decadimenti che descrivono il comportamento ad oscillatore smorzato  della magnetizzazione nucleare, generata dall’applicazione di campi magnetici aventi certe intensità,  stimolata da radiazioni elettromagnetiche aventi lunghezza d’onda nel campo delle  radiofrequenze. Lo so ho parlato difficile. In altre parole, Ermst ha capito che poteva trasformare qualcosa di incomprensibile come quanto indicato in Figura 2:

Figura 2. Decadimento della magnetizzazione nucleare

in qualcosa di più facilmente leggibile come lo spettro di Figura 3:

Figura 3. Spettro NMR in fase solida dell’alcol coniferilico (precursore delle sostanze umiche). Ogni segnale dello spettro è attribuito in modo univoco ad ogni singolo atomo di carbonio

Il lavoro che descrive la scoperta di Ernst fu rifiutato dal Journal of Chemical Physics e fu pubblicato sul meno prestigioso Review of Scientific Instruments. Il lavoro di Ernst è qui. Invece,  a questo link trovate la lezione che Ernst ha fatto all’Accademia delle Scienze quando ha ricevuto il premio.

Conclusioni

La storia della scienza ci insegna che non dobbiamo tener conto del prestigio di un giornale. Ciò che importa è il valore del contenuto di un rapporto scientifico. Un lavoro è ottimo sia che venga pubblicato su una rivista altamente impattata, sia che venga pubblicato su una rivista sconosciuta. Un lavoro è sciocchezza sia che venga pubblicato su Nature o che venga accettato per la pubblicazione sulla rivista del vicinato. Gli addetti ai lavori, coloro che guardano ai contenuti piuttosto che alla copertina, lo sanno ed è per questo che leggono di tutto. La grande idea, quella che può essere alla base della rivoluzione scientifica, si può nascondere anche tra le righe di un lavoro pubblicato su una rivista sconosciuta.

Fonte dell’immagine di copertinahttps://www.dreamstime.com/royalty-free-stock-photo-chemistry-infographic-template-medical-research-illustration-image40572265

L’importanza della stupidità nella scienza

Vi siete mai chiesti cosa spinga una persona ad occuparsi di scienza? È l’appagamento nel sentirsi stupidi seguito, certamente, da quello di essere il primo ad aver trovato una risposta ad un problema prima di allora giudicato insormontabile. La capacità di poter indirizzare la stupidità verso le sue forme più produttive, permette l’avanzamento delle conoscenze. Il ruolo delle scuole e delle università è quello di plasmare le menti alla stupidità produttiva ovvero a convincersi che fare domande a se stessi come alla natura non è mai stupido, né indizio di ignoranza, ma solo sete di conoscenza. Non esistono domande stupide, ma solo risposte inadeguate.

L’importanza della stupidità nella scienza
Di Martin A. Schwartz
Pubblicato su Journal of Cell Science, 2008, 121, 1771
Traduzione (libera) di P. Conte

Ho recentemente rivisto dopo tanti anni una vecchia amica. Siamo stati studenti di dottorato nello stesso periodo, entrambi in ambito scientifico, sebbene in aree di interesse differenti. Tuttavia, dopo un po’, lei è andata via per iscriversi alla Scuola di Legge di Harvard ed è, attualmente, un avvocato anziano per una grande organizzazione ambientale.

Ad un certo punto la nostra conversazione è andata al perché lei abbia lasciato i suoi studi di dottorato. Con mia enorme sorpresa, mi ha detto che si sentiva stupida. Dopo un paio di anni dal sentirsi continuamente stupida ogni santo giorno, si è sentita pronta per fare qualcos’altro.

Io ho sempre pensato che lei fosse una delle menti più brillanti che abbia mai conosciuto e, del resto, la sua carriera successiva ha supportato questa mia opinione. Tuttavia, quello che mi ha detto mi ha fatto riflettere. Ed ho cominciato a pensarci sopra. Ed il giorno dopo, ad un certo punto, qualcosa mi ha colpito.

La scienza fa sentire stupido anche me, solo che io mi sono abituato a sentirmi tale. Mi sono così abituato a sentirmi stupido che vado alla continua ricerca di nuove opportunità per sentirmi stupido. Non so cosa potrei fare senza quella sensazione e sono arrivato a pensare che questo sia un modo di essere.

Lasciatemi spiegare.

Per quasi ognuno di noi, uno dei motivi per cui a scuola la scienza ci piaceva era che eravamo bravi in tale materia. Ma questa non può essere l’unica ragione. Il fascino della comprensione e l’emozione della scoperta devono essere altri ingredienti fondamentali. Tuttavia, la scienza fatta a scuola significa seguire le lezioni; studiare bene i compiti significa dare le risposte corrette ai test. Se si conoscono le risposte, tutto va bene e ti senti intelligente.

Un lavoro di dottorato, in cui bisogna portare avanti un progetto di ricerca, è tutt’altra cosa. Per me è stata un’impresa scoraggiante: come avrei potuto dar forma alle domande che avrebbero portato a risposte corrette? Come avrei potuto disegnare ed interpretare un esperimento in modo che le conclusioni fossero assolutamente convincenti? Come avrei potuto prevedere le difficoltà ed aggirarle oppure, non riuscendoci, riuscire a superarle nel momento in cui si fossero presentate?

Il mio progetto di dottorato era interdisciplinare e ogni volta che incontravo un problema, andavo a tormentare chiunque nel mio dipartimento e nella mia facoltà ritenessi un esperto nel campo che mi interessava. Mi ricordo ancora il giorno quando Henry Taube (che vinse il Nobel un paio di anni dopo) mi disse che non aveva una risposta al problema che io avevo riscontrato nel suo settore scientifico. Io ero uno studente del terzo anno e immaginavo che Taube sapesse almeno 1000 volte meglio di me (e con ciò approssimavo per difetto) quello che sapevo io. Se egli non avesse avuto una risposta, nessuno avrebbe potuto averla.

Ecco ciò che mi colpì: nessuno sapeva. Ed ecco perché era un problema di ricerca. Ed era il MIO problema di ricerca. Si supponeva che fossi io a risolverlo. Una volta resomi conto di ciò, ho trovato una risposta in un paio di giorni. Non era così difficile, dopotutto, dal momento che dovevo solo provare un paio di cose.

La lezione cruciale è stata che la quantità di cose che non conoscevo, non era semplicemente vasto, era del tutto infinito. Prendere coscienza di questo fatto, invece di scoraggiarmi, mi ha dato nuova forza. Se la nostra ignoranza è infinita, la sola cosa da fare è operare per il meglio che possiamo.

Mi sento di dire che i nostri programmi di dottorato offrono agli studenti un disservizio in due modi. Innanzitutto, penso che gli studenti non si rendano conto di quanto dura sia la ricerca scientifica e quanto sia molto, ma molto importante effettuare questa ricerca. Fare ricerca è molto più duro dello studiare e seguire il più pesante dei corsi. Ciò che rende la ricerca veramente difficile è la totale immersione nell’ignoto. Semplicemente, noi non sappiamo quello che stiamo facendo. Noi non possiamo essere sicuri se stiamo dando la risposta corretta o facendo l’esperimento giusto fino a che non diamo una risposta o otteniamo un risultato. Certamente, la scienza diventa ancora più difficile a causa della competizione per recuperare fondi e per la lotta per poter pubblicare su giornali importanti. In ogni caso, a parte tutto ciò, fare ricerca è intrinsecamente difficile. Cambiare la politica dipartimentale, istituzionale o nazionale, non la rende meno difficile. In secondo luogo, noi non facciamo un buon lavoro quando non lasciamo capire agli studenti come essere produttivamente stupidi. In altre parole, se noi non ci sentiamo stupidi vuol dire che non stiamo neanche provando a fare ricerca. Non sto parlando della stupidità relativa in cui gli studenti di una classe leggono gli appunti, pensano un poco e superano brillantemente le prove, mentre un altro non ci riesce. E nemmeno sto parlando di tutte quelle persone brillanti che lavorano in settori che non corrispondono alle loro propensioni o talenti.

La scienza implica il concetto di stupidità assoluta. Quel tipo di stupidità che è un fatto esistenziale e che ci spinge ad inoltrarci in un mondo completamente sconosciuto in cui non sappiamo cosa potrà mai accadere.

Gli esami ed i test danno l’idea che bisogna sempre avere la risposta giusta, e che il “non lo so” sia solo una questione di impreparazione. In realtà, gli esami non devono servire per capire se gli studenti sanno la risposta giusta. Se è così, allora lo scopo degli esami è sbagliato. Il punto dei test e degli esami è individuare la debolezza degli studenti, in parte per indirizzare i loro sforzi ed in parte per comprendere se la conoscenza degli studenti si arena ad un livello sufficientemente elevato per poter loro affidare un progetto di ricerca.

Stupidità produttiva significa scegliere di essere ignoranti. Focalizzarsi su problemi importanti ci pone nella posizione molto sgradevole dell’essere ignoranti.

Una delle cose più belle della scienza è che ci permette di fare pasticci di ogni genere, di sbagliare continuamente, ma, cionondimeno, farci sentire bene fintantoché riusciamo ad imparare qualcosa di nuovo ad ogni errore.

Non c’è alcun dubbio. Questa può essere una cosa veramente difficile per gli studenti abituati alla risposta giusta. Non c’è alcun dubbio. Livelli ragionevoli di confidenza e resilienza emozionale aiutano. Ma penso che l’educazione scientifica possa rendere molto più semplice una transizione veramente importante: passare da ciò che altre persone hanno scoperto, a ciò che noi stessi siamo in grado di scoprire.

Più ci abituiamo ad essere stupidi, più profondamente possiamo inoltrarci nei territori sconosciuti del sapere umano per poter fare scoperte veramente grandi..

Pubblicato il 19.11.2015 sulla mia pagina Facebook

Fonte dell’immagine di copertinahttps://www.associazionelucacoscioni.it/notizie/rassegna-stampa/esiste-nel-diritto-internazionale-un-diritto-umano-alla-scienza/