Una antica tradizione per affermare l’accesso aperto: il preprint
Biblioteca generale “E. Barone”, Facoltà di Economia, Sapienza Università di Roma; enrico.dotti@uniroma1.it
Per tutti i siti web l’ultima consultazione è stata effettuata il 25 ottobre 2019.
Abstract
Il lancio di Plan S nel settembre 2018 e le nuove politiche contrattuali sperimentate da importanti istituti scientifici in un confronto anche aspro con i grandi editori promettono un decisivo sviluppo dell’accesso aperto. La strada prevista è sostanzialmente quella gold, da attuarsi attraverso il pagamento dell’APC per i singoli articoli, o tramite il modello read and publish, che si realizza prevalentemente con la trasformazione del contratto di abbonamento in un accordo (transformative agreement) secondo il quale, sulla base di un costo forfettario, i ricercatori possono pubblicare e i lettori leggere gli articoli senza ulteriori oneri. Entrambi i modelli riconoscono sostanzialmente il ruolo degli editori scientifici e della peer-review e non interferiscono con le attuali pratiche valutative. Entrambi escludono, almeno in prima istanza, la pubblicazione da parte dell’autore dell’articolo non referato (preprint). Nel nostro articolo si discute proprio la possibilità e l’opportunità di percorrere la strada della pubblicazione senza le tradizionali forme di mediazione. In particolare, si dà conto di uno studio che analizza un gran numero di articoli confrontando la versione non referata con quella referata con lo scopo di verificare il valore aggiunto della peer-review. Si espone poi brevemente un’indagine sulle policy per l’accesso aperto adottate dalle università italiane evidenziando che, sebbene una parte di esse abbia previsto modelli di Open Access non privi di efficacia, potrebbe incrementarla permettendo il deposito del preprint nell’archivio istituzionale. Si seguirebbe, in questo modo, la via proposta da Green, che prevede un modello double-step (deposito del preprint e poi, eventualmente, della versione referata). Puntare sul preprint, per quanto in forma non esclusiva, per affermare l’accesso aperto, è oggi suggerito anche dall’atteggiamento che nei confronti di esso hanno i diversi attori della diffusione della ricerca scientifica, esemplificato dalle politiche dei grandi editori commerciali, più liberali sulla pubblicazione ad accesso aperto del preprint degli articoli pubblicati sulle loro riviste.
English abstract
The launch of Plan S on 4th September 2018 and the new contractual policies between scientific institutions and major publishers could promote an important development of open access. Plan S and the new agreements will follow mainly the gold road model, that involves the payment of articles processing charges or the “read and publish” based on replacement of subscription model in an agreement (known as “transformative agreement”) according to which the authors can publish open access articles paying a fixed charge. Both models leave unchanged the role of publishers and peer-review and permit to follow usual evaluation criteria; both leave out, or at least do not promote, auto-archiving of preprints. I introduce the possibility and opportunity to follow the path of publishing without the need of peer review, and I review a study about the difference between peer reviewed articles and preprints articles published in arXiv to establish the real peer review’s added value. I present a report about Italian university open access policies to point out the importance of preprints publications to improve open access. Following the Toby Green suggestion to archive research outputs both as preprints and peer-reviewed form, university could increase open access publication archived in their repository, because the publisher’s open access policies are more and more liberal about preprints.
Nel secondo semestre del 2018 due importanti iniziative hanno rilanciato il movimento per l’accesso aperto. Il 4 settembre 2018 cOAlition S, un consorzio costituitosi su iniziativa dell’European Research Council (ERC), l’ente di finanziamento della ricerca in seno alla Commissione europea, ha lanciato Plan S, una iniziativa che prevede l’accesso aperto a tutte le pubblicazioni che usufruiscono di finanziamenti pubblici entro il 2020. Pochi mesi dopo, il 3 e il 4 dicembre, si è tenuta a Berlino, presso la Max Planck Gesellschaft, la conferenza “Aligning strategies to enable open access” nel corso della quale rappresentanti di 37 paesi tra i più attivi nella produzione di ricerca scientifica hanno discusso il piano dell’ERC e audito i rappresentanti dei grandi aggregatori di risorse documentarie (Springer, Elsevier e Wiley) per dibattere su una possibile rinegoziazione generale delle condizioni contrattuali nella direzione di una maggiore apertura e una minore onerosità dell’accesso alle pubblicazioni. La discussione ha portato, dopo una certa resistenza da parte degli editori, ad avviare un processo di transformative agreement, tramite i quali, per semplificare, i ricercatori (o i loro istituti) non pagano l’abbonamento ma l’accesso aperto.
Plan S e i transformative agreement convergono sulla necessità di sostituire il modello ad abbonamento, ritenuto ormai insostenibile da una larga parte della comunità scientifica, con sistemi che permettano “almeno” una più vasta diffusione degli articoli scientifici frutto di ricerche finanziate con fondi pubblici. Queste azioni, a nostro parere, lasciano però intatto il paradosso presente nel vecchio modello, che consiste nel riacquisto a pagamento dello stesso prodotto che si è ceduto gratuitamente.
I transformative agreement, come abbiamo visto, perpetuano quella modalità; Plan S, pur non basandosi esclusivamente su di essi, suggerisce di non rinunciare all’intervento editoriale, oneroso, della peer-review. Questi strumenti, in definitiva, sposterebbero il peso economico della pubblicazione dal lettore al ricercatore, esponendo tra l’altro a rischi di marginalità quegli studiosi che non possono contare su adeguati finanziamenti alla loro ricerca.
Scopo di questo articolo è tornare a riflettere, anche alla luce di studi recenti, sulla possibilità di praticare un modello alternativo di open access, senz’altro noto e relativamente diffuso, ma allo stesso modo sospetto e negletto, l’autoarchiviazione del preprint. In particolare, dopo aver richiamato brevemente alcune considerazioni sull’impatto generale che il preprint può avere sull’intero processo della ricerca, vorremmo provare a verificarne la validità, soprattutto nel confronto con la pubblicazione della versione referata, per poi proporlo come elemento utile alla diffusione della scienza anche in contesti strutturati quali gli archivi istituzionali.
Tornare a parlare di ciò proprio mentre, come abbiamo visto, il cammino dell’accesso aperto sembra percorrere altre strade, ci sembra utile per non smarrire alcune importanti indicazioni del movimento nato con la Dichiarazione di Budapest, che individuava in una tradizione consolidata nella pratica di ricerca la spinta per favorire la libera raccolta dei frutti di essa. L’antica tradizione riconosciuta a Budapest è «la scelta degli scienziati e degli studiosi di pubblicare gratuitamente i frutti delle loro ricerche in riviste scientifiche, per amore della ricerca e della conoscenza», che è efficace soprattutto se la filiera della disseminazione scientifica mantiene la gratuità in ogni suo passaggio. Per quanto la Dichiarazione preveda, insieme all’autoarchiviazione (green road), la pubblicazione su riviste ad accesso aperto (gold road) e non neghi l’onerosità che quest’ultimo modello può comportare, certo non suggerisce che la generosità degli autori sia fonte di profitto per gli editori. La natura virtuosa della pratica di autoarchiviazione, che esploreremo in seguito, non è fornita ad essa soltanto dalla convenienza economica, ma soprattutto dalla riappropriazione da parte del ricercatore dei prodotti della sua scienza, non perché li tenga per sé, ma perché li condivida come “beni comuni”.
Un modello alternativo: l’autoarchiviazione di preprint
L’idea che la diffusione della conoscenza non sorga da un interesse immediatamente venale ha implicato che scienziati e ricercatori abbiano utilizzato per esercitarla spesso strumenti informali, fuori dal mercato. Luisella Goldschmidt-Clermont, sociologa e senior scientific information officer del CERN e autrice di uno studio «rimasto inedito, per ironia della sorte, in un lungo letargo nello status di preprint», Communication Patterns in High-Energy Physics fornisce un elenco di tali strumenti e ne suggerisce la portata:
Alla base della scala, troviamo lo scambio comunicativo orale, che avviene tra un numero limitato di scienziati. Per oscuri motivi, una tavola imbandita sembra possedere un certo potere catalitico il cui effetto è anche più grande se vi sono tovaglia e tovaglioli di carta. Dal momento che questi vengono scarabocchiati con tutti i tipi di simboli, vanno a costituire ciò che può essere considerato come comunicazione scritta al suo status più basso. Il loro ruolo è determinante nel favorire un alto livello di attività mentale e che questo effetto non debba essere attribuito ad altri fattori (quali ad esempio bicchieri di vino) è abbondantemente provato in un altro impianto comunicativo sperimentale: la situazione catalitica della lavagna dove il livello di attività mentale è alto tanto quanto quello della situazione con i tovaglioli di carta. Sebbene la scritta “non cancellare” rappresenti una caratteristica ricorrente della lavagna, nessun serio tentativo è stato mai fatto per dare uno status permanente alla conoscenza trasmessa attraverso questi canali. Il grado successivo di elaborazione viene raggiunto con le lettere (letters) che gli scienziati si scambiano fra di loro. Talvolta vengono mostrate a dei colleghi, o ne vengono fatte solo alcune copie. Questa procedura, apparentemente inoffensiva, apre la porta alla … giungla: comunicazioni private, reports interni, note tecniche, preprints, reports, appunti di conferenze, abstracts, ambito nel quale la comunicazione orale e scritta sono strettamente interconnesse. Sebbene la comunicazione orale giochi un ruolo predominante, le tracce che lascia sono indirette: sono infatti nascoste nei processi creativi del pensiero scientifico.
Lo studio di Luisella Goldschmidt-Clermont non ci fornisce solo un resoconto sociologico delle pratiche di comunicazione del suo campione (i fisici delle alte energie), evidenziandone la componente informale, ma ne misura la rilevanza epistemologica. Propone di tracciare, e lo farà nel corso della sua carriera, sentieri nella giungla, acquisendo, catalogando e conservando quella letteratura (il preprint, e in genere la letteratura grigia) che è apparentemente di passaggio, ma che, a differenza della scala di Wittgenstein, non va gettata via una volta arrivati all’obiettivo, all’articolo referato e pubblicato, perché ne permette uno sguardo in profondità e getta luce, come sanno i filologi, sulla natura dell’intera ricerca.
Trent’anni dopo l’articolo di Luisella Goldschmidt-Clermont, in un contesto radicalmente modificato sul versante della tecnologia, Paul Ginsparg crea arXiv, che diventerà il luogo d’elezione per il deposito e la distribuzione dei preprint dei fisici. Anche Ginsparg sottolinea la rilevanza metodologica del preprint. Scrive Paola Castellucci:
La grande intuizione di Ginsparg è che il processo avviene prima, durante e dopo la pubblicazione; quindi la pubblicazione non è un fattore intrinseco all’atto di scoperta né all’atto di condivisione e confronto con la comunità scientifica. La stampa è stato il mezzo individuato come opportuno in un determinato periodo storico, nell’età della stampa, appunto. Si tratta di una sovrastruttura e non di una struttura del processo scientifico e in presenza di uno strumento più adeguato – la rete – può essere abbandonata. Anzi, Ginsparg dimostra che lo scambio di preprint tramite la rete va a a recuperare dei fattori propri dell’oralità e della corrispondenza privata, o della conversazione in una comunità di pari, che la stampa aveva decisamente minimizzato.
Ginsparg anticipa i convenuti di Budapest recuperando le pratiche comunicative, ma in prima istanza produttive, da sempre proprie degli scienziati. Lo fa con un intento molto simile a quello di Goldschmidt-Clermont, come lei per raccogliere e diffondere conoscenza nella maniera più adatta alla sua comunità di riferimento, ancora i fisici, ma questa volta a Los Alamos. Il repository creato da Ginsparg, nel momento in cui scriviamo, contiene oltre un milione e mezzo di e-print non solo di fisica ma anche di matematica, computer science, biologia quantitativa, finanza qualitativa, statistica, ingegneria elettronica e scienza dei sistemi ed economia.
L’esempio di arXiv è stato seguito da una moltitudine di archivi disciplinari di preprint, incrementati e utilizzati da moltissimi ricercatori e studiosi, tra i quali RePEc, il repository per l’economia creato da Thomas Krichel e CogPrints, ideato nel 1997 da Stevan Harnad, che alcuni anni prima (1990) aveva pubblicato un importante saggio sull’impatto che la pubblicazione di preprint avrebbe potuto avere sulla ricerca scientifica, Scholarly skywriting and the prepublication continuum of scientific inquiry, riverberato fino ai nostri giorni in una moltitudine di teorie e di pratiche.
Preprint e peer-review
Il saggio di Harnad, oltre a ribadire la rilevanza epistemologica del preprint, individua buoni ragioni pratiche per scegliere questo modello. La rapidità della disseminazione è senza dubbio una di esse: Elena Giglia ricorda come i ricercatori delle scienze biomediche abbiano avviato una pratica di pubblicazione in repository di preprint stimolati dall’urgenza di pubblicare documentazione che aiutasse a far fronte alle epidemie di Ebola e Zika, che non potevano aspettare i tempi lunghi della peer-review. I tempi lunghi possono dipendere dalla difficoltà di trovare revisori in grado di valutare un articolo, soprattutto se l’argomento trattato non è mainstream; questo implica che studi particolarmente innovativi potrebbero avere difficoltà a essere pubblicati finché non si costituisce un contesto adatto, che può essere creato da comunicazioni in convegni o disseminazioni informali o dalla pubblicazione di preprint. Ciò significa che la pubblicazione del preprint di un articolo può favorire l’innovazione e il progresso della scienza.
Un’altra ragione, che interseca l’argomento della peer-review, è che il preprint, proprio per la rapidità di disseminazione che lo caratterizza e l’ampiezza della sua diffusione favorisce l’“intelligenza distribuita”, la stessa che sottende lo sviluppo di Linux e che è il fondamento di Wikipedia. Parafrasando l’aforisma di Linus Torvald «con un numero sufficiente di occhi, tutti i ‘bachi’ (bugs) sono banali», potremmo dire che il controllo collettivo può evidenziare sia gli errori sia gli aspetti innovativi di una ricerca pubblicata in un articolo scientifico, migliorandone l’efficacia più di quanto possa fare una revisione di tre “pari”.
A ciò si può aggiungere che la maggiore facilità di pubblicare un preprint rispetto a un articolo referato favorisce i ricercatori giovani, che possono trovare nei repository una palestra e una vetrina; che non è una modalità necessariamente alternativa alla pubblicazione su rivista; che, per la sua natura meno formale, può far rientrare nella comunicazione scientifica tutti quei prodotti, classificati come “letteratura grigia”, relegati in ambiti ristretti perché considerati troppo tecnici o incompiuti.
I vantaggi della pubblicazione di un articolo prima della diffusione su rivista, o senza che ciò avvenga, hanno spinto intere comunità di studiosi (come i fisici delle particelle) o parti di esse a praticarla prioritariamente. Nonostante ciò si registra una resistenza molto significativa alla diffusione di questo modello, principalmente perché il preprint è considerato un oggetto incompiuto, preliminare, che ha bisogno di un avallo superiore per diventare scienza, la peer-review o revisione tra pari. È noto che le carriere accademiche sono basate nella maggior parte degli ordinamenti sulle pubblicazioni scientifiche e che sono considerate tali, nella maggior parte dei casi, solo quelle che hanno subito un processo di referaggio. La ragione consiste fondamentalmente nella considerazione che esperti di una disciplina possono verificare se un articolo scritto da un loro pari sia ragionevolmente coerente con i fondamenti di essa, se presenti errori di merito o di metodo, se sia innovativo o riproduca senza originalità argomenti già espressi in letteratura. Sulla base della revisione l’articolo proposto può essere respinto, accolto o possono essere suggerite modifiche che correggano gli errori evidenziati dai revisori. Questo processo garantirebbe una scienza certa e inequivoca.
D’altra parte il processo di revisione ha un costo che, oltre a determinarsi materialmente come APC (article processing charge, il costo che gli editori sostengono per l’elaborazione dell’articolo ai fini della pubblicazione), si manifesta come insofferenza per un processo di disseminazione scientifica che penalizza irragionevolmente i ricercatori, che pagano per riacquistare ciò che è loro. Questo costo deve essere giustificato dal fatto che senza di esso la scienza non sarebbe in grado di esercitare il compito che le è richiesto dalla società e al quale la società già destina molte risorse.
Alcuni studiosi ritengono che il costo non sia giustificato. Uno studio di Martin Klein e altri, Comparing Published Scientific Journal Articles to Their Pre-print Versions, ha analizzato 12.000 articoli pubblicati su arXiv e li ha confrontati con la versione referata ripubblicata prevalentemente (96%) su riviste di Elsevier. Gli articoli appartengono ai settori disciplinari propri del repository esaminato, ovvero fisica, matematica, statistica e computer science. Gli autori hanno utilizzato una serie di algoritmi di text mining per valutare le differenze tra le due versioni di ogni articolo relative alla lunghezza del testo, al numero di apax e all’occorrenza di parole significative; gli algoritmi sono stati applicati ai titoli, agli abstract e al corpo degli articoli. I risultati prodotti dal calcolo sono stati collocati in un range compreso tra 0 e 1, dove 0 rappresentava la perfetta differenza e 1 la perfetta identità. Come si evince dal grafico relativo alle differenze del corpo dell’articolo, a nostro avviso le più significative, la maggior parte dei campioni esaminati presenta una sostanziale uguaglianza, collocandosi tra 0,9 e 1 (Fig. 1).
L’esperimento di Klein vuole essere, per esplicita ammissione degli autori, una risposta alle dichiarazioni degli editori relative al valore aggiunto del processo di revisione. I risultati ottenuti dimostrerebbero che tale valore è minimo o nullo e che, soprattutto, non vale il suo prezzo. Le obiezioni a una conclusione così radicale potrebbero essere almeno due: la prima relativa al metodo utilizzato, che implica una certa fiducia sulla predittività degli strumenti di text mining, che analizzano con procedure discrete oggetti (i significati) che presentano una componente irriducibilmente continua; la seconda, nel merito, insisterebbe sul fatto che la differenza tra due articoli, pur essendo molto piccola dal punto di vista quantitativo, potrebbe essere fondamentale per qualità. Nonostante ciò, vista l’entità del campione, potremmo forse ammettere che il risultato dell’esperimento fornisce un’indicazione di massima, ovvero che “fondare” il circuito della ricerca sulla revisione e sulle riviste commerciali può non essere necessario, e che la strada intrapresa da Ginsparg, Krichel, Harnad e quanti hanno deciso di affidarsi a un modello alternativo può essere percorsa da chi vuole praticare efficacemente l’Open Access.
Le università italiane e l’accesso aperto
Tra questi, almeno nelle intenzioni, gli atenei italiani, che il 4 e 5 novembre 2004, all’incontro di Messina patrocinato dalla Conferenza dei rettori delle università italiane (CRUI), hanno sottoscritto la Dichiarazione di Berlino. Con la sottoscrizione, si impegnavano a incoraggiare i ricercatori a pubblicare ad accesso aperto, i detentori delle risorse culturali a supportarlo, a permettere la valutazione delle pubblicazioni ad accesso aperto e la loro utilizzazione per l’avanzamento delle carriere e a creare infrastrutture per indicizzarle, conservarle e consultarle. Almeno nelle intenzioni: a dieci anni da quella promessa, Giovanni Solimine scriveva:
Nel nostro Paese, purtroppo, malgrado gran parte degli atenei abbia firmato la Dichiarazione di Messina del 2004, con la quale si incoraggiano i ricercatori a pubblicare in archivi istituzionali aperti, in molti casi questa adesione, anche a causa dell’assenza di un più deciso impulso a livello nazionale che la sostenesse, è rimasta una semplice affermazione di principio, cui non hanno fatto seguito policy di ateneo e iniziative volte a garantire una reale disponibilità degli elaborati derivanti dalle ricerche che le università finanziano; anche la pubblicazione di riviste scientifiche peer reviewed ad accesso aperto cresce a ritmo ancora troppo lento.
Solimine collega l’attuazione dei principi sanciti a Berlino e sottoscritti a Messina anche alla redazione di policy di ateneo. Su questa stessa linea, due anni dopo la sottoscrizione, la CRUI aveva costituito all’interno della Commissione biblioteche il Gruppo italiano per l’Open Access che aveva, tra l’altro, lo scopo di elaborare delle linee guida per la redazione di policy per l’accesso aperto. Il documento fu pubblicato nel 2013; secondo il suo dettato, le policy sono «regolamentazioni istituzionali organiche che [… possono] contribuire a estendere e potenziare l’accesso aperto alle pubblicazioni e ai dati scientifici prodotti dalle […] università grazie a fondi pubblici» e rappresentano «uno strumento per rendere operativo il principio dell’accesso aperto». Sulla base di queste considerazioni, possiamo ammettere che l’adozione di una policy sia una condizione per intraprendere un percorso ad accesso aperto. Condizione forse non indispensabile e senz’altro, come vedremo, non necessariamente sufficiente, ma che indica un’attenzione e una disposizione nei confronti di quella pratica da parte dell’ateneo in cui si manifesta. Con tali limiti e precauzioni dobbiamo ammettere che pochi atenei hanno onorato la loro promessa: a quindici anni dalla sottoscrizione solo 28 (su 71, meno del 40%) università italiane si sono dotate di una policy sull’accesso aperto. I documenti adottati dalle università per regolamentare l’accesso aperto, pur seguendo, per grandi linee, i modelli forniti dalle Linee guida della CRUI, presentano, a nostro parere, diversi gradi di efficacia. Strutturate prevalentemente come testo articolato, le policy normano alcuni aspetti della pratica della diffusione della ricerca prodotta in ateneo che vanno oltre lo stretto ambito dell’open access, caratterizzandosi spesso come regolamenti per il deposito di prodotti della ricerca nell’archivio istituzionale. Tutte però comprendono almeno un articolo specifico sull’accesso aperto, che le caratterizza riguardo al maggiore o minore grado di incidenza nell’attivazione di tale pratica. Premettendo che l’analisi di una policy implica un relativo margine di incertezza, possiamo riscontrare in poco meno della metà di esse (40,7%) un alto grado di incisività, che si manifesta nell’obbligo previsto di cedere all’ateneo licenza di pubblicare ad accesso aperto i documenti depositati nell’archivio istituzionale nel caso in cui tale potestà sia ancora in capo all’autore e non ceduta all’editore. Naturalmente quest’ultima clausola fa la differenza perché, come vedremo, tutti (o quasi) i prodotti depositati nell’archivio sono pubblicati, o stanno per essere pubblicati, in un periodico di un editore con il quale l’autore ha stipulato qualche forma di contratto; allora l’obbligo previsto dalle policy più radicali si affievolisce per una ragione immanente, ovvero che la decisione se cedere quei diritti all’editore o all’ateneo rimane sempre in capo all’autore (giusto, peraltro l’art. 107 e seguenti della legge 633/1941), e una contingente, ovvero che l’autore li cede quasi sempre all’editore. Anche nel caso di policy obbligatorie, allora, la possibilità che l’autore ceda i diritti di pubblicazione ad accesso aperto all’ateneo dipende dalle politiche degli editori relative ad esso.
Secondo Sherpa/RoMEO, gli editori che permettono di pubblicare ad accesso aperto gli articoli già pubblicati (o in corso di pubblicazione) nelle loro riviste sono l’81% di quelli censiti. Questa percentuale risulta della somma della percentuale degli editori che adottano una policy di tipo green, ovvero che permettono la pubblicazione sia del preprint sia del postprint (41%), di tipo blue, solo il postprint (33%) e di tipo yellow, solo il preprint (7%). Secondo questi numeri l’accesso aperto sembrerebbe cosa fatta. Due questioni però concorrono a frenare l’ottimismo: la prima è che i numeri riportati «are for publishers’ default policies, and exclude both provisional policies and special policy exceptions», e che dunque andrebbe verificato quanto le eccezioni siano eccezionali. La seconda consiste nel fatto che non tutti gli editori hanno lo stesso peso nel processo di pubblicazione: nel 2013 i cinque maggiori editori scientifici pubblicavano più del 50% degli articoli. Queste considerazioni inducono a considerare la percentuale fornita da Sherpa/RoMEO con prudenza. Il Big Deals Survey Report, frutto di una ricerca pubblicata nel maggio 2019 da Rita Morais, Lennart Stoy e Lidia Borrell-Damián per la European University Association (EUA), riferisce che 29 dei 31 consorzi europei che negoziano l’acquisto periodici scientifici per università e centri di ricerca europei e hanno riposto all’indagine, hanno speso per il 2018, solo per le pubblicazioni gestite dai cinque maggiori editori, 475.267.400 euro. Nello stesso documento si rileva come oltre la metà dei consorzi non preveda, tra le opzioni contrattate con gli editori, alcuna forma di accesso aperto. Questi dati possono essere utilmente confrontati con i risultati dell’indagine condotta da Piwowar e altri relativa alla quantità di articoli scientifici pubblicati ad accesso aperto dal 2009 al 2015. Secondo gli autori appena il 28% degli articoli pubblicati nel periodo preso in esame permette l’accesso aperto, ma questa percentuale rappresenta la media di valori in crescita costante, che raggiungono il 45% nell’ultimo anno preso in esame. Proiettando questo dato sui cinque anni successivi al 2015, quindi fino a oggi, si arriverebbe a percentuali di apertura non dissimili da quelle previste da Sherpa/RoMEO.
I dati fin qui riportati ci consentono di affermare che le policy delle 11 università che prevedono l’obbligatorietà della cessione della licenza per l’accesso libero, anche alle condizioni che abbiamo sottolineato, rappresentano un passo rilevante lungo la strada dell’Open Access. D’altra parte, il contesto in cui quella pratica si potrebbe attuare non è del tutto privo di ostacoli e difficoltà. In primo luogo l’accesso aperto praticato nelle forme gold e hybrid è costoso. Lo studio di Piwowar ci avverte che la crescita dell’Open Access evidenziata per il periodo studiato, è dovuta soprattutto all’applicazione di quei due modelli. È possibile ritenere, sulla base di quanto ricordato all’inizio, che Plan S e i transformative agreement, che percorrono prevalentemente la strada gold, saranno le leve che spingeranno quella crescita. Se a ciò si aggiunge la previsione del citato rapporto dell’EUA secondo il quale nei prossimi tre anni in Europa si spenderanno un miliardo e quattrocento milioni di euro per le risorse documentarie necessarie alla ricerca scientifica possiamo dire che il problema del prezzo dei periodici, che ha concorso alla nascita del movimento per l’accesso aperto, è ben lungi dall’essere risolto. In secondo luogo, dobbiamo ricordare che molte pubblicazioni sono rilasciate ad accesso aperto dopo un periodo di embargo, che ne limita la pubblica lettura e riutilizzazione a quando sono diventate… inutilizzabili.
Un modello alternativo: il double-step
Una soluzione di compromesso al problema dell’attuazione dell’Open Access potrebbe essere quella di affiancare, all’interno dei repository istituzionali, la versione preprint a quella referata. Questa pratica assocerebbe le virtù che abbiamo provato a elencare della pubblicazione di preprint e la necessità dei ricercatori di depositare un prodotto referato che possa essere valutato ai fini istituzionali. Toby Green ha proposto un modello analogo a questo in un recente articolo, reputandolo complessivamente vantaggioso per la disseminazione scientifica. Green sostiene che pubblicando immediatamente i risultati di una ricerca l’autore ha il vantaggio di provare la validità della sua ricerca immediatamente, senza lasciar passare non solo i tempi della peer-review se l’articolo è preso in carico da un editore per la revisione, ma anche quelli della ricerca dell’editore stesso; d’altra parte la comunità scientifica corre meno il rischio di lasciar andare prodotti migliorabili che potrebbero essere riutilizzati da altri ricercatori, o dal ricercatore stesso che ha pubblicato il preprint. Il modello di Green è riassunto nel seguente grafico (Fig. 2).
Su 100 articoli prodotti, solo 50 sono accettati dalle riviste e solo 25 sono pubblicati dopo essere stati sottoposti alla peer-review. Il modello, secondo l’autore, è analogo a quello di internet:
One of the internet era principles is fail fast: you try something, and if it fails, you stop and move on in another direction. What if authors posted papers onto preprint servers or repositories to test whether the paper ‘succeeds’ or ‘fails’? If it succeeds, the resource heavy process of peer review and formal publication would kick in. If it fails, the author does not resubmit, and he or she moves on in another direction, leaving the work as a preprint.
Ma è ragionevole mantenere un archivio di prodotti che non hanno passato la prova della peer-review o non ci sono proprio arrivati? Alle ragioni che abbiamo enumerato nella prima parte dell’articolo relative al vantaggio del preprint (rapidità, possibilità di presentare ricerche non mainstream, economicità) e ai risultati dell’esperimento di Klein, che farebbero supporre una ragionevole validità dei prodotti non referati, possiamo aggiungerne un’altra, a nostro avviso piuttosto rilevante: la struttura di riferimento degli autori (in un contesto di repository istituzionali, dunque di accademia), che li ha, in qualche modo, accreditati, dovrebbe essere sufficiente a garantirne il valore. Inoltre, il dibattito sull’efficacia della peer-review tradizionale e sull’opportunità di ricorrere a sistemi alternativi per verificare la validità dei prodotti della ricerca ha ormai raggiunto un certo grado di maturità. Possiamo ormai interrogarci consapevolmente sul suo valore e la sua opportunità.
Abbiamo visto in precedenza che secondo Sherpa/RoMEO gli editori che permettono la pubblicazione del preprint in un archivio sono il 48% di quelli censiti (41% con una policy green più il 7% con policy yellow). Abbiamo anche sostenuto che questi dati vanno considerati con prudenza, perché gli editori non sono tutti uguali. Elsevier, ad esempio, secondo il già citato rapporto dell’EUA, raccoglie in Europa il 56% dei proventi per gli abbonamenti ottenuti dai cinque grandi editori (che corrispondono a oltre la metà della somma spesa complessivamente dai consorzi europei oggetto dello studio), si può dunque sostenere, anche a ragione della quantità di riviste “fondamentali” che gestisce, che è uno degli editori di riferimento dei ricercatori europei. La sua policy relativa all’accesso aperto permette, con qualche significativa eccezione, la ripubblicazione (o prepubblicazione) ad accesso aperto del preprint di un articolo pubblicato su una delle sue riviste; dichiara sul suo sito: «You can always post your preprint on a preprint server. Additionally, for ArXiv and RePEC you can also immediately update this version with your accepted manuscript. Please note that Cell Press, The Lancet, and some society-owned titles have different preprint policies. Information on these is available on the journal homepage».
La policy di Elsevier, con il peso che abbiamo riconosciuto a questo editore, ci permette di guardare con un certo ottimismo all’applicabilità del modello di Green: i ricercatori che pubblicano sulle riviste del gruppo, come abbiamo visto, non troverebbero, nella maggior parte dei casi, alcun ostacolo nell’autoarchiviazione della versione non referata. La libertà di depositare copia dell’articolo nel repository istituzionale, comunque, dovrebbe essere svincolata dalla volontà dei singoli editori: è questo l’intento di una proposta di legge suggerita dalla Roberto Caso e dall’AISA (Associazione italiana per la scienza aperta) che, pur riguardando solo le pubblicazioni frutto di finanziamenti pubblici (anche parziali), se approvata indicherebbe al legislatore e agli attori della ricerca una strada praticabile per l’affermazione dell’Open Access.
I due studi presentati in questo articolo suggeriscono, a nostro avviso, che il percorso intrapreso a Budapest per realizzare l’accesso aperto può passare anche attraverso la valorizzazione del preprint. Nella pratica, questo potrebbe voler significare un maggior impegno da parte delle università e degli istituti di ricerca per accogliere organicamente le versioni non referate degli articoli all’interno dei repository istituzionali; abbiamo visto che si può provare a farlo senza affievolire l’esigenza, legittima, dei ricercatori, di veder valutato, a fini amministrativi, il loro lavoro. Il modello double-step proposto da Green è una soluzione di compromesso; il movimento per l’affermazione dell’accesso aperto presenta da tempo soluzioni più radicali, come l’attuazione di politiche di referaggio alternative, inoltre, come abbiamo visto, molti ricercatori già disseminano i loro lavori all’interno di repository di preprint sempre più popolati. D’altra parte, crediamo che liberare, per le ragioni e alle condizioni che abbiamo suggerito, un gran numero di articoli, permettendo agli studiosi di diffonderli e utilizzarli liberamente, sia così utile alla comunità, non solo scientifica, da rappresentare una richiesta ineludibile.