Biblioteche e comunicazione scientifica nell’era del web: un dibattito aperto
Centro di Ateneo per le biblioteche “Roberto Pettorino” Università di Napoli Federico II valeria.locastro@unina.it
Abstract
In questo lavoro si indaga il contributo che la teoria biblioteconomica può portare nell’elaborazione di un nuovo ruolo e un nuovo riposizionamento delle biblioteche digitali nel web, ambiente che ha completamente stravolto il modo in cui la conoscenza viene costruita, gestita e distribuita. Gli attori di questi processi sono gli intellettuali, i mediatori di informazioni e i cittadini comuni che si trovano a confrontarsi con processi della comunicazione scientifica molto diversi rispetto ai meccanismi consueti. Inoltre si fa strada un movimento sempre più forte che, partito dai primi pionieri della Rete, ha poi investito in maniera progressiva la comunità scientifica e i cittadini chiedendo l’accesso aperto alla letteratura scientifica, ai dataset della ricerca e a tutto quello che viene prodotto e finanziato con i soldi pubblici. Le istituzioni culturali come le università e le biblioteche partecipano di questi processi e possono dare il loro contributo nella costruzione della visione della conoscenza e della scienza come beni comuni.
English abstract
In this work the author examines, through an inspection of recent studies, the contribution that librarianship may provide regarding the elaboration of a new role and a new positioning of digital libraries on the Web, an environment that has totally upset the way knowledge is created, managed and allocated. The stakeholders of this process are the intellectuals, the mediators of information and ordinary people engaging with a very different process of scholarly communication from the usual. Moreover an increasingly strong movement, originated from the first pioneers of the Web, rises from the ranks, gradually steering the scientific community and people, asking for open access to scientific litterature, to dataset of research and to all that is produced and financed with public fundings. Cultural institutions such as universities and libraries take part of these processes and can give their contribution to the construction of the concept of knowledge and of science as common goods.
I valori da portare con sé nell’ecosistema digitale
«Il millennio che sta per chiudersi ha visto nascere ed espandersi le lingue moderne dell’Occidente e le letterature che di queste lingue hanno esplorato le possibilità espressive e cognitive e immaginative. È stato anche il millennio del libro, in quanto ha visto l’oggetto-libro prendere la forma che ci è familiare. Forse il segno che il millennio sta per chiudersi è la frequenza con cui ci si interroga sulla sorte della letteratura e del libro nell’era tecnologica cosiddetta postindustriale […]». Così scriveva nel 1984 Italo Calvino nell’introduzione alle Lezioni americane, che a causa della sua morte improvvisa non ebbe il tempo di tenere ad Harvard: Calvino aveva individuato nella ‘leggerezza’, ‘rapidità’, ‘esattezza’, ‘visibilità’, ‘molteplicità’ (l’ultima, relativa alla ‘consistency’ non fu completata) i ‘valori da portare con sé’.
Anche nel campo della biblioteconomia, al volgere del millennio, ci si è interrogati sui valori da conservare nel XXI secolo. Nella riflessione biblioteconomica sono emerse diverse voci che hanno contribuito al dibattito sulla ridefinizione del posizionamento e della mission della biblioteca, soprattutto in relazione ai mutati scenari tecnologici e sociali, poiché la biblioteca, oggi, si trova ad operare in un ecosistema del web, nel quale non ha più la funzione esclusiva di depositaria del sapere e dei contenuti della conoscenza.
In questo mutato contesto assistiamo da un lato a profonde modifiche che stanno investendo la produzione, gestione, circolazione, fruizione della conoscenza, e dall’altro a nuove forme di apprendimento (basti pensare alla massa critica delle ‘conversazioni’, di cui diremo in dettaglio più avanti) che avvengono in molteplici luoghi, non solo istituzionali. Queste nuove modalità sono calate in un contesto sociale nel quale le persone hanno bisogno di un apprendimento continuo, ed è per questo che si parla di lifelong learning society (‘società dell’apprendimento permanente’), per esercitare i fondamentali diritti di cittadini e per non restare esclusi dai flussi di conoscenza.
La presenza di diversi attori, che in qualche modo contendono alla biblioteca le sue tradizionali prerogative e funzioni, ha una diretta conseguenza sia sull’aspetto teorico che su quello pratico: la biblioteconomia si trova, infatti, a misurarsi con altre discipline, che si occupano a diverso titolo e per differenti aspetti dei contenuti della conoscenza sul web. Accade così che, accanto alle voci di natura prettamente biblioteconomica, emerga anche il punto di vista di altri studiosi non esattamente ascrivibili all’ambiente biblioteconomico, ma ad ambienti contigui, che portano il loro contributo teorico alle speculazioni di cui si parlava prima. A cavallo del nuovo millennio, David Weinberger, considerato uno dei filosofi più autorevoli di Internet, è stato autore insieme a Rick Levine, Cristopher Locke, Doc Searls, del Cluetrain Manifesto: the end of business as usual, un insieme di 95 tesi organizzato e presentato come manifesto riformatore, che ridefinisce la natura e i processi tipici dei mercati nell’era del web in termini di comunicazioni tra persone. Il Cluetrain Manifesto, però, può essere applicato in vari contesti e si rivolge anche a soggetti non commerciali, che operano all’interno della rete globale di Internet, con l’obiettivo di verificare da un lato l’impatto di Internet su tali organizzazioni e sulle persone, e dall’altro di suggerire agli attori in campo i cambiamenti richiesti dal mutato contesto.
Le tesi possono essere ascritte a sei macro-aree tematiche:
- la possibilità data dal nuovo mezzo digitale di entrare in un mercato virtuale, all’interno del quale tutti possono accedere e comunicare con altri. La prima tesi enuncia infatti «markets are conversations» (tesi 1-6);
- la potenzialità del collegamento risiede nella possibilità di mettere in contatto le persone all’interno delle organizzazioni stesse e nella rete globale ma anche nella capacità di connettere informazioni al di fuori della gerarchia formale esistente in una struttura organizzativa. Questa rete di relazioni, attraverso le conversazioni in atto, contribuisce a creare consumatori più consapevoli e informati (tesi 7-13);
- l’assoluta necessità che queste organizzazioni partecipino alle conversazioni, pena il rischio di diventare invisibili (tesi 14-25);
- l’invito a ripensare nuovi modi e nuovi approcci attraverso cui poter entrare nel nuovo mercato (tesi 26-40);
- lo sviluppo di una struttura organizzativa non più basata su un organigramma formale, ma su una struttura ipertestuale (tesi 41-71);
- un cambiamento all’interno del nuovo mercato e conseguente riposizionamento delle organizzazioni (tesi 72-95).
Nello stesso anno Michael Gorman, una delle voci più autorevoli del panorama bibliotecario internazionale, con Our enduring values: librarianship in 21st century, propone un tentativo, dal punto di vista biblioteconomico, di operare una riflessione intorno ai valori duraturi nei quali le biblioteche e la comunità dei bibliotecari avrebbero dovuto riconoscersi soprattutto in relazione al rapporto con il mondo della rete. Il lavoro di Gorman, fortemente ispirato al pensiero di Shiyali Ramamrita Ranganathan, è diviso in capitoli, ciascuno dei quali è dedicato ai valori che l’autore identifica come fondamentali: ‘capacità di gestione’, identificata con la capacità dei bibliotecari di giocare un ruolo chiave nel trasferimento delle competenze ai futuri professionisti dell’informazione; ‘servizio’, inteso come senso etico, che dovrebbe permeare tutte le politiche e le pratiche delle biblioteche; ‘libertà intellettuale’, ovvero la necessità di garantire la libera espressione del pensiero; ‘razionalismo’, partendo dalla constatazione che la biblioteconomia è una disciplina altamente razionale, incoraggiarne l’organizzazione logica e la classificazione; ‘istruzione e apprendimento’, qui intesa non soltanto come la capacità di leggere, scrivere o navigare in rete, ma anche come la capacità di sviluppare un pensiero critico; ‘equità nell’accesso alla conoscenza e alle informazioni’: la biblioteca ha il dovere di provare a colmare il divario derivante dal cosiddetto digital divide, attraverso i suoi servizi, al fine di consentire pari possibilità di accesso alla conoscenza; ‘democrazia’, principio fortemente contiguo al precedente e in qualche modo conseguenza diretta: soltanto garantendo pari possibilità di accesso alla conoscenza, i cittadini potranno essere realmente parte di un sistema democratico e svolgere un ruolo attivo; ‘privacy’, ovvero la garanzia dell’accesso a qualsiasi materiale desiderato da un utente, senza l’interferenza di soggetti terzi.
Nel 2011 un contributo alla riflessione su questi temi è stato portato da David Lankes con The atlas of new librarianship, a sottolineare già nel titolo (dove non a caso si fa riferimento a una ‘mappatura’ della librarianship, termine che pone al centro dell’attenzione il bibliotecario e le sue competenze più che la biblioteca e la sua gestione) l’intenzione di rifondare su nuove basi la teoria biblioteconomica. La tesi principale del libro verte sull’idea che la mission dei bibliotecari consista nel migliorare la società «facilitando la creazione della conoscenza nelle loro comunità di riferimento»: è dunque necessario un profondo ripensamento sul posizionamento delle biblioteche e dei bibliotecari rispetto alle dinamiche di produzione e comunicazione del sapere. Secondo Lankes, sono le comunità ad essere la vera collezione che i bibliotecari devono sviluppare, incrementare e favorire attraverso il ruolo di facilitatori del processo di creazione della conoscenza. Come si vede, Lankes tenta di attuare un vero e proprio cambio di paradigma, sovvertendo i tradizionali punti di riferimento della disciplina, facendo propria la ‘teoria della conversazione’ (riferibile all’area delle teorie dell’apprendimento) attraverso cui si realizza la conoscenza (intesa come processo che può avvenire sia nella testa del singolo individuo, che «mette in relazione quanto legge, vede, acquisisce con quanto già conosce», sia tra diversi individui o comunità che si confrontano tra loro). Alcune idee sono particolarmente interessanti e utili alle caratteristiche che devono avere le biblioteche digitali:
- il concetto di embedded librarian, vale a dire un bibliotecario che persegue le sue finalità non necessariamente agganciato a una biblioteca, ma all’interno dei contesti dove si svolgono le ‘conversazioni’, diventando così parte dei flussi informativi (col Semantic Web si tenta la stessa operazione sul versante degli oggetti digitali e delle informazioni, e cioè trovare dei modi affinché le informazioni e la conoscenza siano parte dei flussi di informazioni e siano realmente visibili nei luoghi da cui parte la ricerca di informazioni da parte degli utenti, e cioè nei motori di ricerca generalisti);
- il dovere delle biblioteche di porsi come ‘apparato circolatorio’, e in qualche modo ‘disperdersi’ nel web.
Questi ultimi due punti sono importanti perché mettono in evidenza quanto il rapporto delle biblioteche e dei bibliotecari con i flussi di lavoro debbano essere bidirezionali. L’ambiente del Semantic Web favorisce questa nuova modalità bidirezionale di stare nell’ecosistema digitale.
Sedici anni dopo il Cluetrain Manifesto, nel gennaio 2015, Doc Searls e David Weinberger pubblicano 121 nuove tesi per il futuro della Rete, ribattezzate New Clues. Le New Clues raccontano uno scenario profondamente mutato, rispetto al precedente manifesto. Weinberger e Searls richiamano l’attenzione sulla necessità di tornare ai valori fondativi della Rete, a quelli che il suo fondatore, Tim Berners-Lee, ha enunciato in diverse occasioni («la rete nasce come ambiente libero e per connettere persone»). Anche qui troviamo alcune macroaree concettuali o ‘valori’ da presidiare. Più specificamente gli autori mettono in guardia da alcune dinamiche e rischi che possono compromettere e mettere in discussione le migliori e originarie caratteristiche di Internet e individuano alcuni punti da cui partire per garantire la neutralità della Rete, la sua struttura aperta e la privacy:
- l’aumento del potere che le aziende (i grandi colossi del web) esercitano sulla nostra vita di cittadini digitali, la quantità di dati che acquisiscono su di noi e che spesso noi stessi inseriamo nei loro server (tesi 1-7);
- la messa in discussione della neutralità della rete, uno dei valori cardine che ha permesso alla Rete stessa di crescere e prosperare; si ribadisce che la rete è libera, aperta, non ha alcuno scopo (viene messo in pericolo cioè il concetto di rete come bene comune) (tesi 8-15);
- la rete è fatta di utenti connessi da una struttura completamente aperta che può essere utilizzata, modificata e incrementata ogni giorno (tesi 16-24);
- stare in guardia affinché nuove enclosures non prendano il sopravvento; Internet come spazio libero da difendere contro il pericolo della recinzione e dalle logiche di mercato (tesi 25-83);
- la necessità di garantire la privacy (tesi 84-103);
- la forza della rete e della ‘conversazione’ (tesi 104-120).
In sostanza in questo nuovo manifesto gli autori mettono in guardia da una serie di rischi che corre la Rete, nella quale logiche di mercato rischiano di soffocare le caratteristiche cui essa è avocata, quelle caratteristiche individuabili nell’ambito dell’apertura, della neutralità, della privacy ecc. Il rischio è quello di confondere le strategie di mercato con il libero scambio di idee. David Weinberger ha ripreso alcune di queste questioni ne La stanza intelligente: la conoscenza come proprietà della rete e ha indicato una modalità per incrementare e migliorare l’infrastruttura della conoscenza creando altra informazione (secondo alcuni di quei valori precedentemente enunciati, ‘apertura’, ‘condivisione’, ‘collegamento’, ‘neutralità’), attraverso lo sviluppo di una rete ricca di metadati, sulla cui codifica deve esserci un accordo comune, che consentirebbe di condividere informazioni molto più complesse e provenienti da molteplici siti, così da poter esprimere ulteriore conoscenza (più di quanto ne sia stata immessa). Gli strumenti del Semantic Web (come le ontologie, in grado di esprimere più grandi e complesse rappresentazioni logiche di domini nel mondo) e i più immediati Linked Data (in grado di collegare elementi secondo standard definiti) sono indicati come la strada da seguire per fornire ‘ganci’ alla conoscenza.
Lorcan Dempsey in The network reshapes the library: Lorcan Dempsey on libraries, services, and networks ha parlato di una Rete nella quale le biblioteche restano indietro rispetto a quelle che sono le aspettative contemporanee di accesso alla conoscenza, e soffrono la concorrenza degli ‘hub gravitazionali’, luoghi nei quali accanto alla messa a disposizione di una mole di risorse sempre più ampia, gli strumenti per il recupero delle stesse si fa sempre più preciso e pertinente di pari passo alla garanzia di un accesso sempre più semplice (solitamente un unico punto di accesso). Dempsey indica nell’approccio inside out, da affiancare al tradizionale outside in, la via che le biblioteche possono (e devono) provare a intraprendere: vale a dire non solo acquisire risorse dall’esterno, ma anche rendere disponibili le proprie risorse all’esterno, dove si trovano gli utenti.
Nel panorama italiano Anna Galluzzi in un articolo apparso lo scorso anno su questa stessa rivista ha illustrato quattro caratteristiche (o ‘valori’) da ritenere essenziali in una concezione innovativa della biblioteca contemporanea: ‘semplicità’, ‘visibilità’, ‘partecipazione’ e ‘inclusività’, declinando ciascun valore alla biblioteca digitale nella sua dimensione globale:
- la ‘semplicità’ individuabile nella «scelta cooperativa ‒ anche di tipo interistituzionale ‒ è dunque ormai un percorso non negoziabile per le biblioteche, in quanto costituisce la via maestra verso semplicità e uniformità, nonché verso un’offerta di risorse e servizi che possa risultare attrattiva per utenti potenziali ormai abituati ad avere rapidamente a portata di click una straordinaria ampiezza di informazioni e possibilità», ma anche nell’opera di ‘ricucitura’ ad una scala più elevata dei punti di accesso ai contenuti (oltre che un miglioramento delle interfacce) attraverso l’immissione dei «propri dati, metadati e contenuti digitali dentro le principali piattaforme e strumenti di ricerca della rete, in modo da rendersi ricercabili all’interno dei normali percorsi di ricerca degli utenti sul web»;
- la ‘visibilità’ è una diretta conseguenza della ‘semplicità’. A livello di rete globale, la sfida principale consiste nel rendere la propria presenza in rete più integrata e trasparente. «In un mondo nel quale gli utenti si aspettano che siano i contenuti ad aggregarsi dinamicamente intorno alle proprie esigenze di ricerca e non viceversa, l’offerta informativa è sempre meno catalizzata attorno al soggetto che la mette a disposizione e sempre più strutturata in modo da essere scomponibile e ricomponibile all’occorrenza nei diversi ambienti fisici e digitali. Tale strategia consiste dunque nel rinunciare ‒ almeno parzialmente ‒ alla naturale configurazione della biblioteca come pacchetto di dati e servizi concepito unitariamente e offerto monoliticamente ai propri potenziali fruitori. Di fronte al timore di una parziale perdita di identità istituzionale, è opportuno sottolineare che rendere dati e servizi disponibili in maniera atomizzata lì dove coerentemente si integrano con altri contenuti e servizi di diversa provenienza è oggi la strategia migliore per una loro reale valorizzazione e un ritorno di immagine ancora maggiore ‒ seppure indiretto ‒ per la biblioteca»;
- la ‘partecipazione’, che richiama la funzione lanke- siana di ‘apparato circolatorio’ dell’ecosistema della conoscenza, ossia quella partecipativa. Il rapporto tra biblioteca e utenti assume un carattere bidirezionale, laddove anche il tempo e le competenze degli utenti diventano risorse per arricchire l’offerta della biblioteca. In questo modo la biblioteca si propone come piattaforma che lascia spazio alla creatività e alla sperimentazione delle persone, mettendo a loro disposizione ambienti e strumenti sulla base dei quali gli utenti potranno inventare usi, possibilità, modalità di espressione e di interazione non sempre prevedibili;
- la ‘inclusività’, che contribuisce attivamente ad accrescere il livello di alfabetizzazione informativa e digitale (information and digital literacy), nonché a rimuovere o ridurre il digital divide a livello sia infrastrutturale sia funzionale. «Quando ci si sposta a livello di rete i “tutti” potenziali ai quali ci si rivolge sono difficilmente conoscibili nei termini in cui è possibile conoscere la propria comunità di riferimento e sono sostanzialmente identificabili con tutti coloro ‒ ovunque collocati geograficamente purché connessi alla rete ‒ che in un qualche momento del loro percorso (di studio, di apprendimento, di curiosità ecc.) possono aver bisogno delle risorse informative di cui una certa biblioteca dispone». ‘Inclusività’ vuol dire anche scegliere la massima apertura (tecnologica, giuridica, concettuale) dei propri dati, risorse e sistemi (praticando la via dell’Open Data); attraverso la promozione dell’accesso aperto a tutti i contenuti che siano prodotti dalle istituzioni o da quelle di loro riferimento; e ancora rendendo disponibili con le più liberali tra le licenze Creative Commons tutti i contenuti riversati sulla rete, e nelle scelte tecnologiche privilegiare sistemi aperti e soluzioni standard che accrescano la scoperta e la visibilità delle risorse e consentano il riutilizzo dei dati. «Non esiste altro modo a livello di rete globale per dare testimonianza del fatto che il patrimonio delle biblioteche appartiene a tutti e che l’opera di raccolta, organizzazione e conservazione della conoscenza registrata, realizzata nei secoli dalle biblioteche, ha rappresentato e rappresenta un investimento di grandissimo valore per l’umanità».
Come si evince da questo breve excursus, le biblioteche hanno necessità di ripensare profondamente il loro ruolo e il loro posizionamento in un contesto come quello del web, dove cambiano le esigenze degli utenti, cambia la modalità in cui questi ultimi si approcciano alle ricerche, cambia perfino il concetto stesso di conoscenza.
La Rete è nello stesso tempo un mezzo e un luogo di comunicazione. «Internet mette le persone in contatto con un’agorà pubblica, per dare voce alle loro preoccupazioni e condividere le speranze» dice Manuel Castells in Galassia Internet, ma è anche un’infrastruttura su cui poggia la forma organizzativa caratterizzante la società contemporanea: i network. I media digitali consentono potenzialmente una totale simmetria informativa. «Infatti nel sistema di comunicazione “netcast”, caratterizzato da una struttura “molti-molti” tutti sono oltre che consumatori, potenziali produttori di informazioni». La cosa nuova e potenzialmente interessante è che in essa le organizzazioni formali, permanenti e strutturate (come le biblioteche e le istituzioni universitarie) vengono affiancate e a volte sostituite da coalizioni libere e da movimenti grassroots: è il caso delle comunità LODLAM (Linked Open Data in Libraries Archives and Museums) e LinkedUp (Linking Web data for Education) o della comunità di Wikipedia. L’obiettivo cui tendere è proprio quello di una maggiore integrazione tra questi universi diversi, portando ciascuno il suo bagaglio e la sua forza (individuabili, ad esempio, nel caso di istituzioni strutturate, nella qualità e nella selezione e in generale in un lavoro solido e accurato, benché gerarchico di lunga durata e tradizione, che possa compenetrarsi con la freschezza e le caratteristiche dei movimenti grassroots).
È importante accanto a questa visione ottimistica della rete non dimenticare l’altra faccia della medaglia, vale a dire le contraddizioni che si determinano nella nuova agorà elettronica, prime fra tutti il cosiddetto digital divide che esclude chi non è connesso dalle potenzialità partecipative che i nuovi media offrono. Questo discorso va inteso in senso più ampio, laddove il divario digitale non riguarda solo la possibilità di essere connessi o meno, ma anche quella di avere accesso a determinate risorse o meno (oltre che alle possibilità di comprensione di tali risorse).
Insomma Internet è «il terreno conteso dove si combatte la nuova e fondamentale battaglia per la libertà nell’età dell’informazione» e, per riprendere un’immagine cara a Manuel Castells, della nuova agorà pubblica; potremmo dire che il controllo di massa dell’agorà pubblica è una delle questioni cruciali sollevate dallo sviluppo di Internet.
Capire in che modo la rete e la scienza e le istituzioni culturali che la veicolano (università, biblioteche) si compenetrano e capire in che modo si possa sfruttare al meglio le potenzialità dell’una in favore dell’altra è l’obiettivo di questo contributo. La scienza (o se vogliamo i risultati della ricerca prodotti nelle università) è un bene comune, un common, che esce dalle aule universitarie per raggiungere, attraverso la divulgazione dei suoi risultati, non solo i tradizionali fruitori (gli studenti e i ricercatori stessi), ma anche altri destinatari (è in questo senso che si parla di ‘terza missione’ dell’università): imprese, cittadini ecc. Insomma la scienza ha una potente ricaduta sul contesto sociale: diventa cruciale capire come favorire la circolazione, l’uso e il riuso dei risultati della ricerca e in che modo le biblioteche possono avvantaggiarsi dei nuovi strumenti digitali per riuscire a ‘portare con sé’ e nella dimensione della Rete quei valori di cui abbiamo discusso.
Come cambia la comunicazione scientifica al tempo della Rete
Internet non costituisce solo un mezzo e un luogo di comunicazione ma modifica anche la struttura delle relazioni tra i soggetti, siano essi strutture organizzate istituzionali (università, centri di ricerca ecc.) e non (le piattaforme costruite dai cosiddetti movimenti grassroots o ‘dal basso’), o singoli individui, scienziati e amatori che, come vedremo, nel nuovo ambiente digitale (e in particolare con l’avvento del cosiddetto web 2.0 o web sociale) sono sia soggetti attivi che fruitori o utenti.
È importante capire in che modo cambia la comunicazione sul web, se il nuovo mezzo digitale è in grado di favorire l’idea di una ‘scienza aperta’, di una scienza intesa come bene comune e quali possibilità possono essere esplorate in tal senso, ovvero se la rete consente il libero esercizio dell’‘uso pubblico della ragione’ e entro quali limiti.
Francesca Di Donato in La scienza e la rete: l’uso pubblico della ragione nell’età del web affronta la questione da un punto di vista prettamente filosofico, portando a sostegno della necessità di una scienza libera la tesi di Kant nella «Risposta alla domanda: che cos’è l’illuminismo?» del 1784, scritto alla vigilia della Rivoluzione Francese: «L’uso pubblico della ragione, l’uso cioè che uno fa del logos “in quanto studioso”, davanti all’intero pubblico dei “lettori” [A 485], dev’essere libero, perché solo così può attecchire l’abitudine al pensare da sé. Esercitare l’uso pubblico della ragione, se è difficile per il singolo individuo, è possibile per il pubblico. Il rischiaramento può avvenire collettivamente, come fenomeno storico-culturale, una volta che al singolo sia lasciata la libertà di ragionare pubblicamente su scienza, religione e politica; anzi, aggiunge Kant, che ciò accada è “persino inevitabile”. Affinché i singoli possano pensare autonomamente, dev’essere possibile discutere pubblicamente di scienza. Solo così può germogliare la vocazione al libero pensiero, il quale “allora agisce a sua volta gradualmente sul modo di sentire del popolo (attraverso la qual cosa questo diventerà più e più capace della “libertà di agire”), e alla fine addirittura sui princìpi del ‘governo’ [A 493- 4]”. La risposta di Kant è che la libertà della scienza è condizione della libertà politica». Di conseguenza, potremmo affermare che la libertà della ricerca è un prerequisito di una società democratica. La seconda questione riguarda il rapporto tra la scienza e il modo in cui è prodotta e veicolata. Si tratta di un tema legato alla stessa nascita del pensiero filosofico occidentale, sorto in un’epoca di rivoluzione mediatica che ha visto il passaggio dall’oralità alla scrittura. Anche qui Di Donato fa leva sul pensiero di un altro filosofo, Platone, che nel Fedro, un dialogo che ha al centro la comunicazione scientifica, afferma che i contesti in cui si determina il modo in cui si usano le tecnologie di comunicazione condizionano i gradi di libertà della scienza. Platone dunque afferma che il mezzo non è neutro, presenta limiti e possibilità. Ma l’effetto che produce dipende da come lo si usa, all’interno di questi limiti. Platone distingue tra hypòmnesis, il bagaglio di nozioni che si possiedono, e anàmnesis, la loro interconnessione sistematica, secondo un senso unitario e coerente. La componente nozionistica può diventare conoscenza scientifica solo se elaborata criticamente e in modo interattivo. Mettendo al centro il logos filosofico, il filosofo critica la politica culturale dei sofisti, da una parte, e della cultura tradizionale (orale) dall’altra. Il logos filosofico può dunque esplicarsi attraverso diversi mezzi, l’importante è che tali mezzi siano usati con scienza, poiché il modo in cui si fa scienza e la si comunica è una questione politica. Un tema, questo, che sarà ripreso più volte nella storia del pensiero occidentale. Spostandoci a un periodo più recente, all’inizio del Novecento, Marshall McLuhan ha studiato gli effetti prodotti dalla comunicazione sia sulla società nel suo complesso, sia sui comportamenti dei singoli. La sua riflessione ruota intorno all’ipotesi secondo cui il mezzo tecnologico che determina i caratteri strutturali della comunicazione produce effetti pervasivi sull’immaginario collettivo, indipendentemente dai contenuti dell’informazione di volta in volta veicolata. In Galassia Gütenberg, McLuhan sottolinea per la prima volta l’importanza dei mass media nella storia umana; in particolare, discute dell’influenza della stampa a caratteri mobili sulla storia della cultura occidentale e illustra come con l’avvento della stampa a caratteri mobili (1455) si compia definitivamente il passaggio dalla cultura orale alla cultura alfabetica.
Nel lavoro Gli strumenti del comunicare, McLuhan afferma che è importante studiare i media non tanto attraverso i contenuti che essi veicolano, ma in base ai criteri strutturali con cui organizzano la comunicazione. La celebre espressione «il medium è il messaggio», di cui McLuhan è autore, si riferisce proprio alla necessità di studiare ogni medium in base ai criteri strutturali secondo i quali organizza la comunicazione; è proprio la particolare struttura comunicativa di ogni medium che lo rende non neutrale, perché essa suscita negli utenti-fruitori determinati comportamenti e modi di pensare e porta alla formazione di una certa forma mentis. La non neutralità del mezzo di comunicazione è prerequisito ai processi successivi, vale a dire i modi in cui i contenuti, le informazioni vengono in qualche modo presentate e il modo in cui vengono elaborate. Spostandoci all’ambito della sociologia della scienza Peter Burke, riprendendo i termini di crudo e cotto introdotti da Claude Lévi-Strauss per rappresentare la contrapposizione tra natura e cultura, «ha assimilato il termine informazione a quanto è immediato, pratico e specifico, e quindi “crudo”, mentre la “conoscenza” denoterà ciò che è stato “cotto”, elaborato, sistematizzato dal pensiero».
Paul Allan David descrive la libera ricerca scientifica come un processo sociale anziché individuale, fondato sul principio della divulgazione integrale delle scoperte e dei metodi, sui sistemi di peer review e su processi di verifica orientati alla costruzione di una ‘conoscenza attendibile’. Gli elementi che hanno caratterizzato il sistema tradizionale di comunicazione in campo scientifico, un sistema che è rimasto per lo più inalterato fino all’ultimo quarto del secolo scorso, si definirono in Europa, e in particolare in Inghilterra, tra la fine del XVII secolo e i primi decenni del successivo. Se l’idea dell’universalità della scienza è senz’altro il risultato di un lungo processo di transizione, è in Inghilterra, grazie soprattutto alla diffusione che la stampa ebbe in quel preciso contesto storico, culturale e politico, che tale processo raggiunse una forma definita e pressoché definitiva: a Londra, presso la Royal Society, nacque la prima rivista scientifica e si delinearono le pratiche di accreditamento scientifico tutt’oggi in vigore, in particolare il processo di peer reviewing. Da più parti viene sottolineato il nesso strettissimo esistente tra la diffusione della stampa e l’evoluzione del discorso scientifico, sia nella costruzione di una ‘verità’ del sapere, sia attraverso un discorso sui mezzi di comunicazione.
Le pubblicazioni, e in particolare i periodici che sono cresciuti in maniera esponenziale in concomitanza con la specializzazione disciplinare, sono da sempre legate al problema della valutazione, che diventa sempre più un momento fondamentale sia per le università, i centri di ricerca e i singoli ricercatori, sia per gli investitori pubblici e privati oltre che per le ricadute che questi processi e le linee di sviluppo e di tendenza hanno nella società.
Nel 1962 Thomas Kuhn pubblicò la Struttura delle rivoluzioni scientifiche, che rivoluzionò il tradizionale concetto di scienza. Kuhn sostenne che la scienza non è semplicemente un susseguirsi di scoperte che si aggiungono alle precedenti, facendoci avvicinare sempre più alla verità. Le domande sollevate dalla scienza, i fatti che considera attinenti e le spiegazioni che fornisce si inseriscono tutti all’interno di un paradigma scientifico complessivo.
Il sistema di comunicazione scientifico sostanzialmente legato alla carta stampata è stato sconvolto dall’avvento della Rete: il nuovo medium ha reso evidenti alcuni limiti del sistema tradizionale e nello stesso tempo ha aperto la strada e favorito nuove modalità di diffusione della conoscenza. In un lavoro recente, Whitworth e Friedman hanno definito il sistema tradizionale di pubblicazione in campo scientifico come un sistema feudale perché esclusivo, datato, restio ai cambiamenti e all’innovazione, e i cui contenuti sono poco letti o discussi e spesso inaccessibili e molto specialistici.
È evidente che l’innovazione tecnologica rappresentata da Internet costituisce un mutamento strutturale di importanza analoga alla diffusione della stampa nel modo in cui i progressi scientifici sono comunicati e possono diventare oggetti di collaborazione. Internet si è trasformato (anche se Internet nasce già con una precisa filosofia fondata sulla collaborazione) in un sistema utile a studiosi di tutte le discipline. Ci troviamo oggi in una fase di riorganizzazione, nella quale gli enti ai quali è tradizionalmente delegata la gestione dell’informazione scientifica (per esempio le biblioteche o le case editrici) stanno sviluppando nuovi modelli e missioni organizzative.
Luciano Gallino in Tecnologia e democrazia spiega in che modo gli studiosi fanno ricerca nella Rete:
La ricerca scientifica è stata completamente trasformata dalla disponibilità della rete; in questo caso si intende ovviamente la grande tela intessuta da Internet e dal web attorno al mondo. Il ricercatore scientifico che pone mano a un nuovo progetto non compie quasi più alcuno degli atti che sino a poco tempo addietro costituivano la norma di questo genere di attività: recarsi in biblioteca, consultare libri, scorrere riviste, aprire decine di classificatori repleti di schede compilate a mano. Nella maggior parte dei casi il ricercatore non entra nemmeno negli archivi del proprio computer. Va direttamente in rete, nella quale sa di trovare in abbondanza i documenti, gli articoli, i dati, i risultati di altri esperimenti, le notizie circa le attività di altri laboratori che lo interessano. Dopo qualche tempo passato a scandagliare accuratamente la rete, il ricercatore si metterà in contatto con altri colleghi sparsi nel mondo, al fine di ottenere da essi suggerimenti e commenti ‒ nei limiti, ovviamente, consentiti dalla competizione internazionale tra i ricercatori. Allorché avrà prodotto qualche primo risultato, lo trasmetterà attraverso la rete a qualche collega di cui si fida; e quando considererà sufficientemente maturi i risultati della ricerca li diffonderà in qualche minuto, attraverso la rete, a tutte le riviste specializzate, i media, i laboratori alleati e concorrenti.
Il dibattito scientifico pubblico si configura come una rete in progressiva espansione che, attraverso continue citazioni reciproche (che si esprimono in recensioni, note, riassunti, bibliografie e indici, discussioni, lettere aperte ecc.), costruisce un discorso comune. La scienza è un common, un bene che può essere goduto da una moltitudine di persone. A differenza però dei beni comuni tout-court (come le strade, o i prati comuni degli inglesi prima delle recinzioni) non è soggetta al meccanismo di depauperamento descritto da Garret Harding in The Tragedy of Commons: se sfrutto al massimo un pascolo, perché è gratis, lo esaurisco, a danno di tutti gli altri. Ecco la tragedia dei commons: i beni comuni, in quanto vengono usati in comune, tendono a venir sfruttati fino all’esaurimento. Tendono, cioè, se rimangono comuni, a cessare di essere beni.
Ma la scienza è un common che sfugge alla sua tragedia, cioè al fatto che, essendo sfruttata da tutti, sia soggetta a esaurirsi. Una teoria scientifica (così come la conoscenza in generale) è un common non competitivo, perché chiunque può apprenderla senza che nessun altro sia deprivato nel suo patrimonio di conoscenze. Le idee, a differenza dei beni comuni competitivi, crescono se vengono condivise, e il loro valore aumenta, perché la condivisione dà loro la possibilità di svilupparsi e di migliorarsi.
Negli ultimi anni sono stati pubblicati moltissimi studi sull’idea di conoscenza come ‘bene comune’, e in Italia Stefano Rodotà è tornato a più riprese su questi temi (anche nel dibattito biblioteconomico si è parlato di conoscenza come bene comune, di scienza come bene comune).
Nel suo già citato volume, David Weinberger ha dedicato un intero capitolo al modo in cui la rete trasforma le modalità di fare scienza e sta producendo una ridefinizione della conoscenza scientifica. Egli sostiene che la conoscenza scientifica stia assumendo le proprietà del nuovo medium attribuendole alcune caratteristiche: «vasta, meno gerarchica, più ininterrottamente pubblica, meno filtrata a livello centrale, più aperta alle differenze, collegata da link». Egli pone l’attenzione su una questione assai dibattuta e delicata, ovvero sulla differenza tra scienziati professionisti e amatori. Internet non ha eliminato il bisogno di scienziati qualificati, né ha cancellato completamente la linea di demarcazione tra professionisti e amatori. Tuttavia ha reso indistinte le linee: nell’agorà elettronica esistono più collaboratori, più rapporti confusi, relazioni più numerose e disordinate. Laddove un tempo c’era un divario tra lo scienziato professionista e l’amatore dilettante - un divario definito e mantenuto dal processo di accreditamento - la rete prova a colmare e in certi casi ad annullare tale distanza. I dilettanti, in questa visione, possono gestire in crowdsourcing l’elaborazione di grandi volumi di dati, donare il tempo libero dei loro computer, eseguire compiti semplici che richiedono scarsa abilità o formazione scientifica. Questo tipo di integrazione tra diversi soggetti, che a vario titolo e secondo le diverse competenze possono lavorare a vari livelli nella Rete, non elimina di certo il tradizionale ciclo attraverso cui passa la comunicazione scientifica: la maggior parte della ricerca scientifica deve ancora superare varchi stretti prima di essere pubblicata.
Mendeley è, per contro, un modello di network alternativo nel quale prevale un altro genere di autorevolezza: il comportamento e i consigli delle persone all’interno della rete sociale di un utente contano più dei suggerimenti del programma su ciò che potrebbe interessarlo. Altro caso è rappresentato da Academia. edu, un sito web per ricercatori dedicato alla condivisione delle pubblicazioni scientifiche. È stato lanciato nel settembre 2008 e conta oltre ventisei milioni di utenti registrati. La piattaforma può essere utilizzata per condividere articoli, monitorare il proprio impact factor, seguire studiosi su tematiche specifiche. Academia.edu è stata fondata da Richard Price e partecipa al movimento Open Science, con l’obiettivo di diffondere la necessità di una distribuzione immediata della ricerca e di un sistema di peer review.
È spesso così con Internet: quando rimuove i muri, abbraccia la natura disordinata che li circonda […] l’oggi continuo della scienza significa che a volte sarà più difficile sapere con esattezza chi ha trovato cosa, perché la scoperta potrebbe essere il risultato di una collaborazione pubblica di cui magari i collaboratori non sono nemmeno al corrente. Ai singoli scienziati potrebbe non piacere la perdita di questo riconoscimento di autorevolezza, ma per la scienza sarebbe senza dubbio un vantaggio.
E ancora:
La scienza non sarà in grado di riaffermare la sua vecchia autorità perché ha perso il medium che le permetteva di prosperare: un canale unidirezionale dove c’era chi parlava e chi ascoltava. Il nuovo medium unifica a tal punto le informazioni, le comunicazioni e la socialità che è quasi impossibile tenere separati i fili di questa tripla elica. Anche il sapere scientifico vive in una ragnatela intricata di esseri umani dove si prendono decisioni non solo sulla base delle informazioni e della conoscenza, ma anche all’interno di un contesto fatto di lotte sociali, interessi personali, speranze condivise, emozioni motivanti e stimoli a malapena percepiti. È sempre stato così col vecchio medium, conferendo più autorità a istituzioni accreditate, promuoveva l’illusione di un assenso quasi uniforme.
La natura dell’editoria ha segnato anche la natura della scienza, non soltanto per il fatto che il modello editoriale tradizionale consentiva una chiara attribuzione delle idee a un singolo scienziato, ma anche per la ‘finitezza’ del mezzo a stampa. Nella Rete questo meccanismo viene spezzato: il prodotto finale della scienza in rete non è un sapere racchiuso in pubblicazioni autosufficienti. In realtà, il prodotto finale della scienza non è né finale né un prodotto. Weinberger sostiene che sia
la rete stessa: la connessione senza soluzione di continuità tra scienziati, dati, metodologie, ipotesi, teorie, fatti, speculazioni, strumenti, letture, ambizioni, controversie, scuole di pensiero, libri di testo, docenti, collaborazioni e divergenze che un tempo si faceva ogni sforzo per stampare in un numero relativamente piccolo di articoli, su di un numero relativamente piccolo di riviste.
Steven Pinker ha esplicitato ulteriormente il concetto focalizzando l’attenzione sulla straordinaria disponibilità di informazioni e dati, sulla potenza di calcolo delle macchine, sull’efficacia degli strumenti collaborativi che permettono agli scienziati di lavorare insieme al di là di ogni frontiera.
Fino ad ora abbiamo esplorato le potenzialità della Rete, un ecosistema in grado di superare le barriere tecnologiche, fisiche ecc., tuttavia il lato ‘oscuro’ è dato dal fatto che in un sistema così concepito sono totalmente saltati i meccanismi di ‘filtro’.
Il 10 giugno 2015 Umberto Eco, in occasione del conferimento della laurea honoris causa in Comunicazione e cultura dei media presso l’Università di Torino, ha avviato una discussione che ha generato nei giorni successivi un certo clamore in Rete, soprattutto sui social network. Le questioni sollevate da Eco in estrema sintesi sono relative a due aspetti. Il primo riguarda la qualità delle informazioni che circolano su Internet - a seconda del punto di vista potremmo anche dire la quantità di bufale presenti sul web - e l’incapacità degli ‘intermediari dell’informazione’ (giornalisti, insegnanti ecc.) di individuare/insegnare seri meccanismi di filtraggio delle informazioni. Il secondo aspetto, connesso al primo, riguarda il fatto che sullo spazio del web tutti abbiamo lo stesso diritto di parola, tanto «un imbecille quanto un premio Nobel». Anche questo aspetto è connesso al tema del riconoscimento e della qualità della fonte. Generando questa polemica, Eco ha riportato l’attenzione su una tematica di vecchia data eppure ancora attuale, contestualizzandola rispetto alle caratteristiche del web e degli ‘oggetti’ che lo popolano: le informazioni che vi circolano e le comunità che in varia misura lo frequentano. In entrambi i casi, il concetto di qualità diventa pregnante. Declinando questo discorso al campo della comunicazione scientifica, risulta evidente che i meccanismi messi in campo dall’editoria agivano da filtro affinché fossero pubblicati solo i lavori che superavano certi standard.
La scienza in rete è fondamentalmente diversa: è enorme e in perenne disaccordo, è pragmatica, coordina le differenze attraverso i namespace ed è sempre incerta. Cioè, la scienza in rete assomiglia molto più all’idea di scienza degli scienziati rispetto a quella che ne hanno i media.
Gli hacker del sapere: i beni comuni della conoscenza e il mondo open
Con un’immagine efficace si parla degli hacker, che sono in ciò molto simili ai filosofi antichi, tanto che potremmo anche usare questa visione per creare un’accademia della Rete generalizzata, nella quale tutti i materiali di studio siano liberi di essere usati, criticati e sviluppati da tutti. Migliorando i materiali esistenti in nuove direzioni, il network produrrebbe continuamente migliori risorse per lo studio degli argomenti che di volta in volta si presentano. I membri del network sarebbero guidati dalle loro passioni per i vari temi e dal riconoscimento dei pari per i loro contributi.
Negli ultimi vent’anni si è assistito a un progresso significativo delle campagne in favore del libero accesso all’informazione, per il quale sono stati determinanti lo sviluppo e la diffusione dei nuovi media digitali.
Il World Wide Web è nato grazie all’intuizione di Tim Berners-Lee, padre del web e teorico delle successive versioni varianti del Semantic Web e ideatore dei principi Linked data, proprio per consentire ai ricercatori che lavoravano al CERN di Ginevra (dove anch’egli lavorava) di condividere i documenti, i set di dati e di comunicare tra loro.
Un elemento chiave della crescita di Internet è stato l’accesso libero e aperto alla documentazione di base, e in special modo alle specifiche dei protocolli. Francesca Di Donato specifica che questi primi informatici sono mossi dai medesimi principi che animano il dibattito sulla Repubblica delle Lettere:
Se infatti il concetto di “humanitas” per gli umanisti è strettamente legato alla comunicazione, intesa come un atto di generosità verso gli altri che non si realizza in mera erudizione, comunicazione e comunicare sono termini che vengono usati per indicare il dovere di trasmettere il sapere ai posteri; dunque un atto non di mera liberalità, ma di giustizia.
Internet, concepito in prima istanza come strumento per la condivisione dell’informazione e delle risorse di calcolo, ha gradualmente rivoluzionato l’attività della ricerca stessa, arricchendola di nuovi strumenti da un lato, e facendo passare, dall’altro, l’idea della libera circolazione del sapere scientifico e della collaborazione tra scienziati come momenti fondamentali nel processo di lavoro. I suoi principi sono stati formalizzati e rafforzati grazie alla sinergia col movimento per il software libero. Richard Stallman, fondatore del movimento, ha coniato la definizione di free software, espressione con la quale si intende la libertà di eseguire, copiare, distribuire, studiare e modificare un programma. Queste azioni sono possibili solo se, assieme al codice eseguibile di un software, viene fornito anche il codice sorgente, cioè se è possibile accedere al ‘testo’ di un programma scritto da chi l’ha creato. Stallman ha inoltre introdotto il concetto di copyleft (il termine, che letteralmente significa ‘permesso di copia’, si basa su un gioco di parole che sfrutta la contrapposizione right/left, destra e sinistra) che consente di sottoporre il software a licenze libere, tramite le quali l’autore cede al pubblico parte dei suoi diritti economici sull’opera indicando ai suoi fruitori le condizioni alle quali può essere usata.
Torvalds, creatore del primo sistema operativo libero Linux, e l’ampia comunità di programmatori che hanno collaborato al suo sviluppo hanno mostrato la fattibilità del modello pensato da Stallman.
La comunità dei programmatori e l’architettura stessa dell’informazione nascono per mettere in contatto i ricercatori che lavoravano con diversi strumenti e software, giovandosi di un’architettura aperta, modulare e flessibile.
Si osservi che nel contesto in cui il software libero è nato e si è sviluppato, l’etica rappresenta il collante e stabilisce lo standard di un comportamento accettato da chi sente di far parte di questo gruppo in cui la capacità, la conoscenza, l’interesse per il calcolatore sono gli elementi primari della comunicazione e la ragione dello stare insieme, e sono alla base di una organizzazione non gerarchica ma reticolare, basata sullo scambio e sull’interazione [...]. Si diffonde cioè quella che viene definita etica hacker, un atteggiamento di cui il mondo accademico può essere considerato il predecessore più antico. Hacker è un termine tecnico, la cui definizione è stata spesso travisata e confusa col sabotatore di sistemi informatici (che si definisce, propriamente, cracker).
Dall’ambito ristretto del software, il concetto di copyleft ha in seguito interessato il campo dei contenuti (testi, brani musicali, video ecc.) grazie a Lawrence Lessig, professore di Diritto pubblico a Stanford e alla Harvard Law School e fondatore nel 2001 del progetto Creative Commons, per investire, in tempi più recenti, il campo della ricerca scientifica, della pubblica amministrazione ecc. attraverso i vari movimenti open.
Il movimento Open Access, nato nel 2004, ha concentrato l’attenzione sulla letteratura scientifica, considerando la Rete non soltanto come un canale per disseminare l’informazione a basso costo, ma anche come un luogo e un mezzo in grado di trasformare il modo di fare scienza e di trasmettere il sapere. Come primo passo in questa direzione, l’Europa ha intrapreso iniziative importanti al fine di stimolare e promuovere il modello Open Access. Nel 2008, la Commissione Europea ha lanciato il progetto pilota del VII Programma Quadro, che sanciva che il 20% della ricerca finanziata dalla Commissione dovesse essere pubblicata ad accesso aperto dopo un embargo di 6-12 mesi, seguita dallo European Research Council (ERC), che ha adottato una policy che imponeva la pubblicazione ad accesso aperto dopo un limite massimo di 6 mesi. Il mondo dell’accademia ha tardato a fare propri gli strumenti di comunicazione e, soprattutto, di pubblicazione che Internet e il web hanno reso disponibili e accessibili: tra i ricercatori ha prevalso un atteggiamento contraddittorio tale per cui, da un lato, il ricercatore usa attivamente la rete per fare ricerca, sfruttandone mezzi e strumenti quando è alla ricerca di fonti per scrivere i suoi testi; dall’altro continua a pubblicare con i mezzi tradizionali e ad accettare gli strumenti di valutazione nati e sviluppatisi nel vecchio sistema di comunicazione della scienza.
Il movimento per l’accesso aperto alla letteratura scientifica nasce nella comunità accademica avviando una campagna in favore della condivisione dell’informazione e della conoscenza, intese come beni comuni, e come soluzione al problema delle biblioteche noto come ‘crisi del prezzo dei periodici’, vale a dire l’aumento vertiginoso del costo degli abbonamenti alle riviste scientifiche. Su tale base, l’Open Access viene a trovarsi al centro di un ampio dibattito tra ricercatori, bibliotecari, amministratori di università e centri di ricerca, agenzie di finanziamento, editori e studenti.
Il collegamento tra la filosofia del movimento per il software libero di cui abbiamo discusso poco sopra e le premesse che hanno portato all’invenzione di Internet e del web, che i sostenitori dell’accesso aperto estendono ai contenuti scientifici, è evidente. Il web è refrattario all’uso di sistemi di filtro precedenti alla pubblicazione, che è invece una caratteristica dell’accademia come istituzione (attualmente una riflessione sui criteri di valutazione è al centro del dibattito tra ricercatori, amministratori, finanziatori delle università, e tra questi e i governi).
Per favorire l’affermarsi dell’accesso aperto, una tappa fondamentale è però demandata alle policy istituzionali, cioè ai regolamenti emanati dagli enti di ricerca che obblighino o incentivino i ricercatori che pubblicano i propri risultati con i fondi di una data istituzione pubblica a depositare i prodotti della ricerca nell’archivio della stessa istituzione, o che stabiliscano criteri per incentivare la pubblicazione su riviste Open Access.
Dal 2006 in poi abbiamo assistito ad una crescita progressiva del movimento: da un lato la sperimentazione da parte di alcuni editori di politiche Open Access, dall’altro la sottoscrizione di oltre cinquanta policy in favore dell’accesso aperto. Nell’anno successivo nascono molti progetti di digitalizzazione, pubblicazione, archiviazione e numerosi servizi finanziati con fondi pubblici. Le policy sottoscritte dalle principali istituzioni pubbliche, associazioni scientifiche e università del mondo in favore dell’accesso aperto ammontano a circa ottanta, mentre i mandati arrivano a venti.
Un passaggio ulteriore è costituito dalle norme inserite nei sistemi di valutazione della ricerca britannico e australiano, le quali vincolano il processo di valutazione dei prodotti della ricerca al loro deposito in archivi aperti. Collegando gli archivi aperti alle anagrafi della ricerca si stabilisce che il deposito in archivi Open Access è una precondizione necessaria o un incentivo per accedere ai finanziamenti pubblici alla ricerca.
Il movimento Open Data, analogamente, promuove iniziative volte a eliminare le barriere economiche, sociali e culturali per la libera condivisione dei dati.
Open Data (una filosofia che è al tempo stesso una pratica) implica che alcune tipologie di dati siano accessibili senza restrizioni di copyright, brevetti o altre forme di controllo che ne limitino il libero accesso e la riproduzione. In particolare è importante che siano resi pubblici e aperti i dati di interesse ambientale, economico-sociale, medico e genetico, che si costituiscono attraverso la ricerca finanziata con denaro pubblico e devono dunque essere fruiti dalla collettività che li ha finanziati. Le radici dell’Open Data possono essere individuate anche entro il contesto dell’Open Science (movimento che sostiene la condivisione delle scoperte e il riuso dei dati) e del contiguo movimento dell’Open Access (che persegue la via dell’accesso aperto dei risultati delle ricerche accademiche, finanziate anch’esse con denaro pubblico). Altri studiosi fanno risalire le origini dell’Open Data al movimento dell’Open Government, un orientamento che prevede l’apertura dei governi e delle pubbliche amministrazioni verso nuove forme di trasparenza, partecipazione e collaborazione dei cittadini alla cosa pubblica, al fine di favorire azioni efficaci e garantire un controllo pubblico sul loro operato. L’Open Government è oggi considerato come il pilastro più importante di una democrazia ben funzionante, perché in grado di conciliare due elementi: e-democracy (uso innovativo dei nuovi media per migliorare il governo democratico mediante la partecipazione diretta dei cittadini nell’assunzione delle decisioni politiche); l’e-government (uso delle tecnologie dell’informazione e della comunicazione nelle istituzioni di governo).
Numerose iniziative di progetti di pubblicazione di Open Data nascono da parte di amministrazioni pubbliche, che rilasciano sempre più spesso dataset aperti, con l’obiettivo di aumentare la consapevolezza della necessità dell’accesso aperto per i dati prodotti nell’ambito scientifico e della pubblica amministrazione. Sempre più spesso si fa strada la definizione di Linked Open Data (LOD) in riferimento a dati tra loro correlati, interoperabili e aperti, vale a dire non condizionati da licenze commerciali o restrizioni d’uso. L’esposizione dei dati nella forma di Linked Open Data consente la scoperta, l’accesso, l’uso e l’integrazione dei dati offrendo un potente strumento per condividere e riutilizzare i dati su scala mondiale e consentendo un aumento del valore grazie al riuso.
Antonella De Robbio in Forme e gradi di apertura dei dati: i nuovi alfabeti dell’Open Biblio tra scienza e società parla di Open Bibliographic Data o Open Biblio, come un terzo luogo tra i due territori della scienza e dell’ambiente sociale, relativi ai movimenti Open Science e Open Government. Open Bibliographic Data viene definito come un territorio che collega i due precedenti e riguarda la meta-informazione, ossia i cataloghi delle biblioteche, i database bibliografici, i tesauri, gli schemi di classificazione, ma anche gli archivi aperti e gli archivi di materiale didattico elearning. Diventa cruciale costruire buoni metadati, compatibili con i Principi Panton, il cui focus è sulla diffusione degli Open data nel panorama e-science, come ha dichiarato John Wilbanks, uno degli autori dei Principi. Nello stesso solco si inserisce la Dichiarazione di Gent, messa a punto dai promotori del progetto OpenAIRE, che intende favorire iniziative che mirano alla creazione e utilizzo di dati, software e risorse educative aperte. L’obiettivo è la creazione di una rete sociale europea della conoscenza che, tenendo come punto di riferimento la filosofia dell’accesso aperto alla ricerca e alla conoscenza, possa cominciare a creare collegamenti tra documenti e nuovi legami di collaborazione tra individui, istituzioni ecc., con un notevole risparmio sui costi di gestione. «La biblioteca tramite l’Open Biblio può creare un ponte d’oro tra le istituzioni e il cittadino se biblioteca pubblica, tra scienza e società se biblioteca accademica o di ricerca». In quest’ottica, l’Open Biblio si pone al centro di uno schema che abbraccia i campi di pertinenza delle biblioteche universitarie, tra Open Access, Open Library, che si riferisce allo sviluppo di progetti che mirano a creare pagine web per ogni libro pubblicato, permettendone l’accesso libero, la condivisione e la diffusione (l’Open Library Project nasce all’interno di Internet Archive), Open Data e l’intero universo della didattica a distanza e aperta, l’Open Learning, che va dall’utilizzo di piattaforme come Moodle, alla nascita dell’Open Courseware, che utilizza le Open Educational Resources (OER) - risorse didattiche aperte le cui caratteristiche sono individuabili nella disponibilità del codice sorgente aperto e nell’uso di licenze appropriate che favoriscano il riuso - ai più recenti Massive Open Online Courses (MOOC), corsi di grandi dimensioni ad accesso massivo.
Conclusioni
Ricostruendo il dibattito e presentando le diverse posizioni in campo, abbiamo cercato di indagare il contributo che la teoria biblioteconomica può portare nell’elaborazione di un nuovo ruolo e un nuovo riposizionamento delle biblioteche digitali nel web, ambiente che ha completamente stravolto il modo in cui la conoscenza viene costruita, gestita e distribuita. Gli altri attori di questi processi sono gli scienziati, gli intellettuali e i cittadini comuni che pure si trovano a confrontarsi con processi della comunicazione scientifica molto diversi rispetto ai meccanismi consueti. In Rete i filtri tradizionali non funzionano più ed è pertanto necessario lavorare alla costruzione di nuovi meccanismi di filtro, e in questo il Semantic Web gioca un ruolo fortissimo; la scienza va avanti svincolata dal concetto di autorità e per accumulazione progressiva (per contro la questione della ‘qualità’ diventa cruciale).
Inoltre si fa strada un movimento sempre più forte che, partito dai pionieri della Rete, concepita come un sistema in cui le persone possono liberamente condividere le informazioni, ha poi investito in maniera progressiva la comunità scientifica e i cittadini comuni (i cosiddetti movimenti ‘dal basso’), chiedendo l’accesso aperto alla letteratura scientifica, ai dataset della ricerca (ma anche ai dati amministrativi, sanitari ecc.), insomma a tutto quello che viene prodotto e finanziato con i soldi pubblici e che deve ritornare alla comunità e a tutto quello che è frutto della libera collaborazione dei cittadini. Le istituzioni culturali come le università e le biblioteche partecipano di questi processi e possono dare il loro contributo nella costruzione della visione della conoscenza e della scienza come commons, come beni comuni, sfruttando gli strumenti del Semantic Web per garantire l’interoperabilità tra vari silos, la cooperazione tra diverse comunità, la portabilità e il riuso, la qualità di dati e metadati prodotti, l’apertura dei dati (si pensi ai dataset della ricerca), dei metadati e dei documenti (repository della ricerca, riviste ad accesso aperto, open monographs).
Ci sono due punti chiave su cui è bene soffermarsi: il primo è relativo alla selezione del sapere secondo criteri di qualità.
Abbiamo evidenziato che il nuovo mezzo digitale può far crescere la scienza per accumulazione di saperi in maniera più ‘democratica’. Lo stesso concetto viene ribadito da Tim Berners-Lee: «è noto che una raccolta di testi, come un insieme di report tecnici o una biblioteca, include soltanto quegli articoli che raggiungano un certo livello di qualità» e «alcuni ritengono l’assenza di simili sistemi un limite del web». Tuttavia,
la scienza va avanti svincolata dal concetto di autorità e per accumulazione progressiva. È importante che il web in sé non tenti di promuovere una singola nozione di qualità, ma continui a raccogliere ogni informazione, vera o falsa che sia. È questa una caratteristica che può certamente rappresentare un limite. Tuttavia, un’autorità centrale che eserciti un controllo sulla qualità sarebbe assai più dannosa degli svantaggi che l’apertura del sistema può comportare; e se è vero che nessuno può essere in alcun modo obbligato a leggere letteratura di bassa qualità, è altresì vero che, come mostra la storia della scienza, appunti che oggi sono considerati marginali potrebbero, un domani, essere a fondamento di nuove idee dalla portata rivoluzionaria.
Un’opinione, questa, non molto diversa da quella di Weinberger, ma alla quale Tim Berners-Lee fornisce anche la chiave tecnologica e applicativa per ovviare alla necessità di mantenere alta la qualità delle informazioni e al contempo mantenere il web aperto anche a persone i cui criteri di giudizio sono diversi. I nuovi filtri dovranno sfruttare l’organizzazione semantica dell’informazione, che darà la possibilità ai ricercatori e agli utenti di condividere e creare percorsi diversi, mantenendo comunque la Rete svincolata da un’autorità centralizzata.
Frank van Harmelen, uno dei ricercatori più impegnati a livello internazionale nello sviluppo del Semantic Web, scrive:
Il Semantic Web sarà un successo soprattutto se rimarrà invisibile. Tutta la tecnologia di cui abbiamo parlato fino ad ora è davvero ‘sotto la superficie’. La sola cosa che si noterà navigando sul web è che la qualità dei risultati che vengono restituiti dai motori di ricerca sarà molto migliore rispetto al passato.
Il secondo punto riguarda la convergenza tra la concezione del web e della biblioteca come spazio di documentazione.
Giovanni Solimine, a proposito del pensiero di Shiyali Ramamrita Ranganathan, della prima legge ha sottolineato la centralità del servizio, diretta conseguenza del fatto che il fine ultimo della produzione di documenti è la loro utilizzazione, e che il fine ultimo delle biblioteche è l’uso (libraries are for use), e che tutta la vita delle biblioteche dovrebbe essere orientata alla produzione di servizi per l’utenza. Declinando questo aspetto al nostro discorso possiamo dire che è compito delle biblioteche e dei bibliotecari promuovere l’accesso alla conoscenza e la disseminazione dei suoi prodotti. La seconda e terza legge traducono l’idea di servizio:
La biblioteca ha il compito di stabilire una comunicazione biunivoca tra documenti e utenti, costruendo raccolte che siano coerenti con i fini istituzionali e con i bisogni informativi degli utenti, allestendo strumenti di mediazione catalografica accessibili per gli utenti, ed assistendo questi ultimi nella loro attività di ricerca, in modo da favorire l’incontro tra libri e lettori.
Altro aspetto è che chiunque acceda a una biblioteca deve poter usufruire di tutti i libri in essa contenuti (e in questo senso la riflessione sull’accesso aperto può risultare importante). Compito del bibliotecario è facilitare questo incontro. La quarta legge si riferisce all’efficienza del servizio, sia per i lettori che per la biblioteca. L’ultima legge racchiude infine tutte le altre: il concetto di crescita non va letto solo come crescita quantitativa delle collezioni documentarie, «ma va riferito anche al potenziale informativo che una biblioteca è capace di mettere in campo per fronteggiare le richieste dei suoi utenti». Si stabilisce così un’analogia tra la biblioteca e l’individuo, e anche una relazione con le evoluzioni tecnologiche che possono determinare una trasformazione della biblioteca stessa.
Nel 2004, Alireza Noruzi ha proposto un’applicazione delle cinque leggi di Ranganathan al web: il lettore viene sostituito con la parola ‘utente’ che fa riferimento sia agli uomini sia alle macchine ad ulteriore testimonianza della compresenza di più attori di diverso tipo nell’ambiente digitale.
Nell’interpretazione dell’autore la prima legge presuppone che la rete possa essere usata come strumento per l’apprendimento:
Il web è stato progettato per soddisfare il bisogno degli uomini di condividere risorse informative, conoscenza e esperienze. I webmaster vogliono che le persone interagiscano con i loro siti e pagine web, clicchino, leggano, stampino se ne hanno bisogno, e si divertano. Quindi i siti web non sono statue o templi che gli utenti ammirano da lontano. Questa legge implica che il web è per l’uso, per l’apprendimento e l’informazione ed è lì per essere utilizzato. Questa legge è molto importante perché le informazioni non servono se non vengono utilizzate e non sono disponibili per le persone che vogliono imparare. Il ruolo del web è quello di servire l’individuo, la comunità e il servizio, e per massimizzare l’utilità sociale nel processo di comunicazione.
[...]
Il web è fondamentale per la libertà intellettuale, sociale e politica. Una società veramente libera, senza il web gratuitamente a disposizione di tutti è un ossimoro. Una società che ha censurato il web è una società aperta alla tirannia. Per questo motivo il web deve contenere e conservare tutti i record di tutte le società, le comunità e le lingue e questa documentazione deve essere a disposizione di tutti. Dovremmo mettere l’accento sul libero accesso alle informazioni.
Anche la mancanza di filtri centralizzati (caratteristica che, come abbiamo visto, deve rimanere come proprietà della rete) aderisce alla prima legge. La seconda legge si riferisce alla ricerca di un equilibro tra la creazione di risorse e il diritto di avere pari opportunità di accesso alle risorse in qualsiasi parte del mondo.
Un sito web deve formulare politiche di accesso che assicurino che la raccolta costruita e mantenuta sia adeguata e sufficiente a soddisfare le aspettative della sua comunità di utenti. In altre parole, la raccolta deve essere adeguata alla mission del sito web. Un sito web deve contenere le risorse adeguate per le esigenze di tutti i suoi utenti. Qualsiasi sito web che limita l’accesso deve garantire che questa restrizione non impedisca un accesso adeguato alla raccolta da parte degli utenti per cui il servizio è stato creato. I criteri di accesso hanno anche implicazioni per i motori di ricerca.
Al centro vi è la questione delle politiche di accesso, diffusione e disseminazione della conoscenza (da parte di essere umani e macchine-motori di ricerca). La terza legge afferma che una risorsa sul web esiste per ogni utente, ed è pertanto necessario sfruttare gli strumenti che il web mette a disposizione per facilitare la navigazione e il reperimento delle informazioni:
Questa terza legge è la più ragionevole, ed è costantemente infranta dalla maggior parte dei webmaster e da coloro che scrivono sul web. Questa legge stabilisce che esiste una risorsa web per ogni utente, e che la risorsa deve essere ben descritta e indicizzata nei motori di ricerca, visualizzati in maniera accattivante sul sito, e resa prontamente disponibile per gli utenti. Questa legge porta naturalmente a pratiche come l’accesso aperto, a una struttura del sito coerente, a una mappa adeguata, e a un motore di ricerca per ogni sito. “Dovrebbe essere facile per gli utenti cercare informazioni da qualsiasi pagina di un sito. Ogni pagina dovrebbe includere una casella di ricerca, o almeno un link ad una pagina di ricerca” (Google 2003).
La quarta legge è direttamente collegata alla terza e costituisce la sfida per ogni sviluppatore, progettista e mediatore dell’informazione:
Questa legge ha sia una componente di front-end (assicurarsi che le persone trovino rapidamente ciò che stanno cercando) che una componente di backend (assicurarsi che i nostri dati siano strutturati in modo tale che le informazioni possono essere recuperate in fretta). È inoltre indispensabile capire quali obiettivi i nostri utenti stanno cercando di raggiungere attraverso il nostro sito.
È fondamentale mettere in condizione l’utente di trovare rapidamente l’informazione che cerca, attraverso una buona progettazione del servizio.
Al fine di risparmiare il tempo degli utenti, i siti web hanno bisogno di sistemi che permetteranno loro di trovare ciò che stanno cercando in modo rapido e preciso, oltre che per esplorare la grande quantità di raccolta di informazioni disponibili che potrebbero essere potenzialmente utili. Questa quarta legge sottolinea l’efficienza del servizio per gli utenti, il che implica un buon design e una mappa/indice del sito facile da capire.
Infine, l’ultima legge si riferisce ad una caratteristica intrinseca della rete, un organismo in continua crescita ed evoluzione (cambiano e crescono le collezioni, gli strumenti tecnologici ecc.) e alla necessità di progettare e governare questa crescita in maniera sistematica.
La quinta legge ci racconta l’ultima caratteristica fondamentale del web e sottolinea la necessità di un costante adeguamento della nostra prospettiva nei rapporti con esso. Il web cresce e cambia e lo farà sempre. Trasformazione e crescita vanno di pari passo, e richiedono flessibilità nella gestione della raccolta web, nell’uso del cyberspazio, nella conservazione e nella distribuzione di utenti, e nel carattere dei programmi. Le collezioni cambiano e aumentano, le tecnologie dell’informazione cambiano, e le persone cambieranno. Quindi questa quinta legge riconosce che la crescita sarà senza dubbio verificata e dovrà essere pianificata sistematicamente […] Il web presenta un dilemma interessante per i bibliotecari. Infatti, mentre solo circa cinquantamila libri sono pubblicati ogni anno negli Stati Uniti, il World Wide Web contiene una riserva sempre crescente e mutevole di circa trecentoventi milioni di pagine web. Quando viene pubblicato un libro, esso è stato valutato dai redattori e gli editori, e si spera che abbia un certo valore. Quando una pagina web viene pubblicata, si trova semplicemente su un server da qualche parte. Non ci sono linee guida per il web. Chiunque può pubblicare e lo fa. I bibliotecari possono svolgere un ruolo importante nel districarsi in questa mole di risorse e stabilire elenchi annotati di link sicuri che l’utente può usare. Le abilità del bibliotecario nell’ambito di settori quali indicizzazione, catalogazione e tecniche di ricerca saranno sempre più utili; ci sarà un aumento della domanda per questo tipo di competenze poiché gli utenti attribuiscono più valore alla ricerche che conducono.