Pubblicare un articolo scientifico non è un gioco da ragazzi


A uno scienziato che deve pubblicare un articolo scientifico serve davvero poco per trasformarsi dal rispettabile dottor Jekyll al pericoloso mister Hyde. Bastano pochi ingredienti per creare la pozione adatta…

Spesso gli scienziati sono sotto pressione: pubblicare un articolo scientifico (anzi molti) per poter avanzare nella carriera accademica

Pubblica o muori (Credits: Chromatograph, Unsplash; rielaborazione: Camilla Tuccillo)

La forza del mondo della scienza sta nelle citazioni: gli scienziati e le riviste più affidabili sono quelli che ricevono più citazioni dal resto della comunità scientifica. Ogni scienziato, infatti, possiede un indice – detto indice H – che misura la quantità dei suoi lavori e quante volte i suoi articoli sono citati dalle riviste.

Se da una parte questo metodo può creare affidabilità, dall’altra può essere molto rischioso poiché induce gli scienziati stessi a preferire la quantità alla qualità.

Inoltre non è semplice trovare una rivista su cui pubblicare un articolo scientifico. Soprattutto se si tratta di una rivista con la R maiuscola. Per chi presenta un articolo, la risposta nella maggior parte dei casi è “ritenta, sarai più fortunato”: serve una certa qualità. La strada più semplice ovviamente esiste ed è quella delle riviste predatorie: basta pagare per poter pubblicare. In altre parole, basta la quantità.

Un articolo da pubblicare

Immaginiamo il caso…

Un rispettabile (e immaginario) Dr. J, studioso delle molecole delle piante, ha condotto un esperimento: ha fatto bere a un gruppo di persone – il campione – affette da cistite un concentrato di mirtillo rosso. Dopo due giorni, sette soggetti su dieci sono guariti. Il Dr. J è pronto per scrivere e pubblicare un articolo scientifico: “i mirtilli rossi curano la cistite”.

Come ogni scienziato, ha un sogno: vedere il proprio lavoro su una rivista con la R maiuscola. Ci prova, inviando l’articolo. Inviare non vuol dire però pubblicare.

Pubblicare un articolo scientifico – La peer review

Prima di essere pubblicato, ogni articolo deve passare il vaglio critico di altri esperti: la cosiddetta peer review. Altri esperti di molecole delle piante verranno contattati dalla Rivista e sarà sottoposto loro l’articolo del Dr. J. In maniera del tutto anonima e gratuita, questi revisionano l’articolo.

Gli esiti possibili sono quattro; l’articolo può essere:

  • Accettato senza riserve
  • Accettato, ma è da migliorare
  • Respinto, ma ne è concessa la revisione da parte dell’autore e la riproposta
  • Respinto senza appello

La peer review è necessaria poiché è molto difficile per un singolo autore riuscire a individuare eventuali errori, imprecisioni o difetti del proprio studio. Infatti i revisori avanzano per lo più valutazioni di metodo. Metodo scientifico si intende.

Proprio per questo, il lavoro del Dr. J verrebbe respinto: non è stato così rigoroso come avrebbe dovuto.

Una delle critiche che giustamente viene mossa al suo lavoro è che mancano dei gruppi di controllo. Quando si allestisce un esperimento con il quale si vuole dimostrare la funzione di una molecola ancora ignota, il metodo vuole che venga allestito almeno un controllo negativo.

Un controllo negativo corrisponde a un campione di persone affette da cistite a cui viene fatta bere della semplice acqua. Ci si deve aspettare che alla maggior parte delle persone non passi la cistite dopo due giorni – come avviene col concentrato di mirtillo. Altrimenti ciò potrebbe essere dovuto a una caratteristica propria dell’infezione: nella maggior parte dei casi passa dopo due giorni, anche senza particolari cure.

Le regole del metodo scientifico

Alla base del metodo scientifico ci sono degli elementi essenziali perché un esperimento possa essere ritenuto valido dall’intera comunità scientifica.

Ripetibilità: evitare eventuali errori di misurazione

Lo stesso scienziato deve poter ripetere quell’esperimento più volte, esattamente nelle stesse condizioni, e ottenere ogni volta un risultato simile. Eventuali discordanze tra le diverse misurazioni compiute con gli stessi criteri indicano che da qualche parte si è sbagliato qualcosa.

Riproducibilità: poter confermare il risultato ottenuto.

Lo stesso esperimento deve poter essere rifatto da altri scienziati e in condizioni diverse. Se tutta la comunità scientifica può riprodurre l’esperimento e ottenere lo stesso risultato, lo studio può essere considerato affidabile – è proprio su questo principio che si basa la peer review.

Il metodo scientifico prevede delle regole precise. Per pubblicare un articolo scientifico su una rivista che preveda peer review devono essere rispettate

Vita da laboratorio (Credits: Cdc, Unsplash)

Doppio cieco: evitare che le convinzioni di un soggetto influenzino il risultato dell’esperimento

Il campione, in questo caso di persone, viene diviso in due gruppi – entrambi ignari della propria sorte. Al primo viene somministrato il preparato da testare, all’altro un preparato di “niente” (ossia un placebo). Poi si valutano i risultati ottenuti. Per diminuire ancora di più la probabilità di influenzare il risultato, anche chi conduce l’esperimento “è cieco”, nel senso che non sa a quale gruppo sta somministrando il preparato da testare e a quale invece il placebo. L’unico depositario della verità è un terzo, esterno all’esperimento, che non svelerà nulla fino alla fine dell’esperimento stesso.

Quando questi e altri parametri non vengono rispettati, le riviste non accettano il lavoro. Ecco perché il processo della peer review rende alcune riviste più affidabili di altre – in cui invece non è richiesto.

Il fattore d’impatto

Esiste un modo per sapere quanto è affidabile una rivista scientifica? In realtà, ne esistono molti. Il più comune è l’impact factor. L’impact factor di una rivista indica quanto spesso i suoi articoli vengono citati in un particolare anno.
Per ribadire il concetto, le citazioni sono la forza della comunità scientifica. Creano collegamenti e consensi: se altri scienziati citano il lavoro di un determinato gruppo di ricerca, gli stanno dando credito e fiducia.

L’impact factor è un numero ed è il risultato di un rapporto. Si calcola su un periodo di due anni. Consideriamo, ad esempio, la rivista Medicine, Health Care and Philosophy e il suo indice del 2018.

Il primo termine del rapporto è il numero di articoli degli anni 2016/17 che sono stati citati da altre riviste nel 2018. Il secondo termine è il numero di articoli pubblicati negli anni 2016/17. Il risultato, in questo particolare caso, è 1,450.

Cosa vuol dire? Siccome il rapporto è maggiore di uno, alcuni degli articoli pubblicati su questa rivista negli anni 2016 e 2017 sono stati citati più di una volta da altre riviste nel 2018. Essendo 1,450 un valore medio, è probabile che alcuni articoli siano stati citati più di una volta e altri nessuna.

Per fare un esempio più pratico: una rivista che pubblichi 300 articoli in due anni, i cui contenuti vengono citati 600 volte dalle altre riviste, avrà un impact factor di 2. Come dicevamo, non significa che ogni articolo sia stato citato due volte: otterremmo lo stesso risultato anche se un solo articolo su 300 venisse citato 600 volte e gli altri neanche una, per quanto sia improbabile.

Lo Sci Journal ha condotto uno studio sugli impact factor del 2018 e del 2019 di 13mila riviste. La maggior parte – più del 70% – ha un indice compreso tra l’uno e il due. Meno del 2% delle riviste ha un indice superiore a dieci.

Il Journal Citation Reports ogni anno calcola l’impact factor per ogni giornale che ne fa parte. Per accedervi purtroppo è necessaria l’iscrizione. Ma l’impact factor di una rivista si trova tranquillamente cercando su un motore di ricerca “nome della rivista impact factor: troverete quello più recente.

La piattaforma Scimago Journal and Country Rank, invece, si può consultare liberamente. Non riporta l’impact factor delle riviste che ne fanno parte, ma altri indici; indici che fanno sempre riferimento alle citazioni ricevute. Ad esempio l’indice H e l’indice Sjr (Scimago Journal Rank). Come dicevamo in apertura, l’indice H misura la produttività e le citazioni di un singolo scienziato; l’indice Sjr invece misura l’influenza di una rivista in base a due fattori: il numero di citazioni e il prestigio delle riviste da cui tali citazioni provengono.

Publish or perish: la ghigliottina delle pubblicazioni

Purtroppo pubblicare un articolo scientifico su queste riviste è tanto onorevole quanto complicato. Hanno standard alti e il processo di peer review può durare mesi.

Spesso gli scienziati sono sotto pressione: pubblicare un articolo scientifico per poter avanzare nella carriera accademica

Dal laboratorio alla carta (Credits: Isaac Smith, Unsplash)

Un aforisma molto diffuso all’interno della comunità scientifica dice così: “publish or perish”. “Pubblica o muori”. Non si potrebbe descrivere meglio di così la pressione che grava su uno scienziato: pubblicare un lavoro per avere successo in una carriera accademica.
Questo ha due potenziali conseguenze: preferire la quantità alla qualità e accettare di pubblicare un articolo scientifico su riviste non proprio ortodosse. Ovvero le cosiddette riviste predatore.

Pubblicare un articolo scientifico: a che prezzo?

Le riviste predatorie fanno parte del mercato editoriale “Open Access”, ad accesso libero; in cui chiunque può pubblicare un articolo scientifico a pagamento. E che chiunque può consultare, senza la necessità di un abbonamento.

Una caratteristica peculiare di queste riviste è che contattano privatamente lo scienziato mostrandosi interessati al suo lavoro; senza sapere però di cosa si tratti. Al rispettabile Dr. J, infatti, arrivano continuamente email di questo tipo. Per non “morire”, accetta di “pubblicare”: è consapevole dal fatto che il proprio lavoro sia piuttosto carente dal punto di vista del metodo e che anche una rivista con un impact factor basso potrebbe non accettarlo.

Una volta avvenuto il pagamento, il seppur buon intenzionato Dr. J si trasforma in un pericoloso Mr. H. Pericoloso perché le riviste predatorie non prevedono la revisione dell’articolo che stanno per pubblicare. Non vi è nessun controllo scientifico.

Nessuno farà notare a Mr. H che il suo lavoro è pieno di pezzi mancanti. E quando questo lavoro finirà sotto gli occhi di un lettore che non sa come funziona il metodo scientifico, quest’ultimo crederà, senza dubbi, a quello che sta leggendo. La prossima volta che avrà la cistite berrà un concentrato di mirtillo rosso. Guarirà? In ogni caso, nulla di grave; al massimo avrà fatto una buona merenda. Ma se si fosse trattato di uno studio sull’effetto dell’acido muriatico in caso di epatite?

Pensa. Controlla. Invia.

Il Dr. J avrebbe potuto in qualche modo evitare di trasformarsi in Mr. H? Non è così scontato per gli scienziati, soprattutto per quelli più giovani, saper distinguere la strada buona da quella cattiva.

Proprio per questo è nata un’iniziativa internazionale dal nome “Think. Check. Submitt”, rivolta a tutti i ricercatori che vogliano pubblicare il proprio lavoro.

Pensa: “Stai inviando le tue ricerche a un giornale o editore di fiducia? È la rivista giusta per il tuo lavoro?”

Controlla: “Utilizza la nostra lista di controllo per valutare il giornale o l’editore.”

Invia: “Solo se puoi rispondere ‘sì’ alle domande sulla nostra lista di controllo.”

La causa dell’accesso libero

Il mercato editoriale ad accesso libero nasce per validi motivi: poter rendere accessibile a un pubblico sempre più vasto le conoscenze scientifiche.

Le riviste Open Access nascono con l'intento di diffondere la scienza più rapidamente e a un pubblico più vasto

Scienza ad accesso libero (Credits: Kholmber, Pixabay)

Esistono infatti una serie di organizzazioni volte a tutelare riviste ad accesso libero che non hanno preso la cattiva strada. La Cope (Committee on Publication Ethics), la Doaj (Directory of Open Access Journals), la Oaspa (Open Access Scholarly Publishers Association) e la Wame (World Association of Medical Editors) hanno identificato i principi di trasparenza e le buone pratiche che distinguono una rivista ad accesso libero affidabile da una non affidabile.

In prima fila: la peer review. Nessun lavoro viene pubblicato se prima non è stato validato da altri scienziati esperti del settore.

La revisione da parte di pari permette alle conoscenze scientifiche di essere efficienti e affidabili, garantisce integrità tra i membri della comunità scientifica. E soprattutto contribuisce al raggiungimento del consenso scientifico, cioè l’opinione collettiva della comunità riguardo un particolare campo della scienza in un particolare istante.

La Doaj ha stilato una lista di riviste ad accesso libero in cui, prima di pubblicare un articolo scientifico, ne è necessaria la revisione. Sono presenti oltre 14mila riviste.

Riviste mimetiche

Le riviste predatorie sono estremamente difficili da scovare: molto spesso infatti il titolo mima quello di una rivista affidabile e più famosa. Un po’ come dire: “Ho pubblicato una storia a fumetti su Dopolino“!

Nel 2016, due ricercatori svedesi hanno condotto uno studio e stilato una lista di caratteristiche tipiche di queste riviste. Eccone alcune.

  • Il titolo e/o il riassunto degli articoli contengono errori
  • Il sito web non è professionale e non dà informazioni sulla redazione
  • Sul sito non si trova un indirizzo fisico
  • Il nome della rivista non coincide con la localizzazione fisica
  • Invia delle email personali agli scienziati

Soprattutto: la rivista non fa parte di alcuna organizzazione professionale riconosciuta e impegnata nel miglioramento pratiche editoriali.

Quando articoli e lavori scientifici vengono citati dalla stampa è quasi impossibile riconoscerne la provenienza. Per valutarne l’affidabilità, è sempre bene controllare le fonti. Oltre alle riviste predatorie, in agguato vi sono anche le piattaforme preprint. Su queste vengono pubblicati studi non ancora sottoposti a revisione. Sono studi non definitivi che però vengono considerati come validi. Una eventuale smentita (dopo apposita peer review) potrebbe passare inosservata, dal momento che la notizia iniziale potrebbe aver ricevuto grande risonanza.

Un esempio riguarda proprio l’emergenza sanitaria che stiamo vivendo – in onore della quale è nata una piattaforma preprint interamente dedicata. Il caso del farmaco antimalarico come possibile cura contro il Covid-19; questa notizia è stata successivamente smentita. Ma solo dopo che negli ospedali si è iniziato a somministrare il farmaco, ingiustamente sottratto a chi ne aveva bisogno per curare l’artrite reumatoide.

Valutare un articolo scientifico non è un gioco da ragazzi

Un modello di diffusione del sapere scientifico più rapido, aperto e accessibile è un modello vantaggioso per molti: da una parte lo è per gli scienziati, che conoscono in tempo reale una scoperta avvenuta all’altro capo del mondo; dall’altra lo è per tutti noi, che possiamo godere di una scienza più democratica che aristocratica – come invece è sempre stata.

L’altra faccia di questa medaglia è la semplicità con cui possono circolare anche informazioni non corrette. E diffondersi. I media e i giornalisti che riportano le informazioni scientifiche spesso non sono conoscitori del metodo che uno studio dovrebbe seguire. Di conseguenza non sempre sanno riconoscerne eventuali errori o mancanze.

Quindi come potremmo comportarci noi lettori? Per esempio, controllare la fonte di quella notizia, il nome e gli indici della rivista, il numero degli autori, la presenza di un campione abbastanza grande, la presenza di un gruppo di controllo e in generale di quello di cui abbiamo parlato finora.

E se è proprio impossibile trovare almeno qualcuna di queste informazioni… beh, fidarsi è bene ma non fidarsi è meglio!

+ Non ci sono commenti

Aggiungi