Intelligenza artificiale e web semantico: nessi reciproci, ambiguità e definizioni
Dipartimento di studi umanistici, Università Ca’ Foscari, Venezia; ridi@unive.it
Questo articolo approfondisce e amplia le riflessioni proposte in occasione del seminario “Luci e ombre del semantic web”, organizzato dal Gruppo di studio Catalogazione, indicizzazione, linked open data e web semantico dell’AIB con la collaborazione del Sistema bibliotecario di Sapienza Università di Roma e tenutosi online il 21 gennaio 2022. Il video e le diapositive del mio intervento sono disponibili a http://virgo.unive.it/ridi/2022aib-cilw.htm. Ringrazio Juliana Mazzocchi per la revisione. Le traduzioni in italiano non diversamente attribuite sono mie. Per tutti i siti web l’ultima consultazione è stata effettuata il 2 marzo 2023.
Abstract
Intelligenza artificiale e web semantico sono due concetti strettamente connessi fra loro, entrambi assai controversi e piuttosto sfuggenti, anche perché soggetti a definizioni tanto numerose quanto discordanti. Cercando di fare ordine fra tali definizioni si potrebbero individuare, per ciascuno dei due concetti esaminati, una concezione più debole, una più forte e una intermedia. L’intelligenza artificiale forte si prefigge di costruire macchine dotate di autonomia, coscienza e comprensione paragonabili a quelle di un essere umano; quella debole si accontenta di produrre meccanismi automatici di acquisizione, elaborazione e applicazione di dati; quella intermedia potenzia tali meccanismi, consentendo loro di produrre sofisticate previsioni su base statistica. Il web semantico forte mira a un unico ambiente informativo universale, provvisto di dati sempre corretti, completi e aggiornati che siano comprensibili da parte di software capaci di svolgere autonomamente ricerche, confronti e scelte finora riservati agli umani; quel-lo debole si limita a incrementare la quantità e a migliorare la qualità dei dati disponibili online; quello intermedio utilizza specifici protocolli per aumentare, in particolare, l’accessibilità, l’interoperabilità e l’usabilità automatica dei dati. Le due concezioni forti rinviano a progetti probabilmente utopici, sicuramente controversi e per alcuni persino pericolosi. Le due concezioni deboli si riferiscono a realizzazioni tecnologiche già oggi molto diffuse e, in linea di massima, non particolarmente problematiche. Le due concezioni intermedie sono quelle attualmente più ‘di frontiera’ dal punto di vista tecnologico e più ri-levanti dal punto di vista bibliotecario.
English abstract
Artificial intelligence and semantic web are two closely related concepts, both highly controversial and rather elusive, also because they are subject to definitions that are as numerous as conflicting. Trying to put these definitions in order, one could identify, for each of the two concepts examined, a weaker conception, a stronger one and an intermediate one. Strong artificial intelligence aims to build machines with autonomy, consciousness and understanding comparable to those of a human being; the weak one is satisfied with developing automatic mechanisms for acquiring, processing and applying data; the intermediate one enhances these mechanisms, allowing them to produce sophisticated forecasts on a statistical basis. The strong semantic web aims at a single universal information environment, provided with always correct, complete and updated data that can be understood by applications capable of managing independently searches, comparisons and choices hitherto reserved for humans; the weak one simply increases the quantity and improves the quality of the data available online; the intermediate one uses specific protocols to strengthen, in particular, data accessibility, interoperability and automatic usability. The two strong conceptions refer to projects that are probably utopian, certainly controversial and – for someone – even dangerous. The two weak conceptions refer to technological achievements that are already widespread today and, in general, not particularly problematic. The two intermediate con-cepts are currently more 'cutting edge' from a technological point of view and more relevant from a library point of view.