Papa Francesco ha accolto l’invito a partecipare al G7 che si svolgerà dal 13 al 15 giugno in Puglia, a Borgo Egnazia, nel corso della prevista sessione dedicata all’intelligenza artificiale. L’invito scaturisce dalla considerazione del contributo dato dalla Chiesa sul tema dell’intelligenza artificiale, in particolare riguardo al concetto di algoretica sviluppato in ambito teologico con il quale si vuole assicurare un’etica agli algoritmi.
Nei mesi scorsi, sempre in considerazione di tale contributo, il francescano Paolo Benanti veniva nominato presidente della Commissione sull’intelligenza artificiale per l’informazione – “Commissione algoritmi” – istituita presso la Presidenza del Consiglio dei Ministri.
Papa Francesco ha spesso sostenuto che siamo di fronte a un cambiamento d’epoca. Indubbiamente l’IA, l’intelligenza artificiale, è uno dei principali segni di questo cambiamento epocale.
Come spesso ricorda padre Paolo Benanti, la realizzazione della lente convessa portò nel XVI secolo a un diverso approccio degli uomini verso la realtà. Con quella invenzione, infatti, la mano dell’uomo ha prodotto due rivoluzionari strumenti: il telescopio per soddisfare la necessità di indagare l’universo, cioè l’infinitamente grande, e il microscopio per osservare l’infinitamente piccolo. La lente convessa consentiva tutto ciò e da allora nulla è stato più come prima.
L’uomo di oggi si trova di fronte a qualcosa di molto simile. Non si tratta dell’infinitamente piccolo o dell’infinitamente grande. Ma dell’infinitamente complesso, della necessità cioè di indagare un’immensa quantità di dati con cui l’uomo deve oggi costantemente confrontarsi. Come con la lente convessa, l’informatica ha consentito all’uomo contemporaneo una vera rivoluzione; ha consentito di immagazzinare, di archiviare un’enorme quantità di dati che però la memoria dell’uomo non ha la capacità di consultare, di indagare nella sua totalità.
A questo proposito, padre Benanti riporta l’esempio dell’elefante. Il pachiderma ha una straordinaria capacità di memoria. Questo manca invece all’uomo che, per non perdere qualcosa che egli ritiene degno di essere conservato nella memoria, ha sempre dovuto raccogliere degli appunti. Tale attività di memorizzazione si è poi dilatata smisuratamente con l’avvento delle tecnologie legate all’informatica. Ma, nel suo dilatarsi, ha reso problematico alla mente umana appropriarsi della totalità delle risorse contenute in tali imponenti archivi.
«Questo è tempo» dice padre Benanti, «di computer che macina i dati». L’attività di questo computer “che macina i dati” dà luogo al macroscopio, che, come era avvenuto per il microscopio e il telescopio, mette in grado l’uomo di accedere all’enormità delle informazioni che altrimenti sfuggirebbero alla comprensione, una realtà che si dilata costantemente in maniera esponenziale. Basti pensare che, secondo uno studio condotto da IBM, di tutta la mole di dati prodotti e conservati dall’uomo a partire dall’inizio della sua esistenza sulla terra fino ad oggi, il 90% è stato prodotto soltanto negli ultimi due anni.
Come si può comprendere, tutto ciò pone un problema etico non indifferente. Perché per l’uomo si tratta di delegare a una macchina, come è l’intelligenza artificiale, il compito di selezionare le informazioni e, conseguentemente, di prendere decisioni. Ci sono per esempio laboratori, fa osservare padre Benanti, che applicano queste procedure alla selezione degli embrioni da utilizzare nella riproduzione umana. Come si può consentire a una macchina di prendere decisioni in un campo che nemmeno all’uomo è consentito manipolare?
Padre Paolo Benanti, francescano del Terzo Ordine Regolare, si occupa di etica, bioetica ed etica delle tecnologie. In particolare, nei suoi studi affronta temi relativi alla gestione dell’innovazione: internet e l’impatto del Digital Age, biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie.
Nel campo di questi studi, il curriculum del sacerdote francescano è davvero vasto. Per fare una battuta in tema, si potrebbe dire che si dovrebbe applicare l’intelligenza artificiale anche per passare in rassegna tutto lo sterminato curriculum di padre Benanti. Qui possiamo limitarci soltanto a dire che è uno dei quaranta esperti che compongono il Comitato sull’intelligenza artificiale che opera presso le Nazioni Unite.
Perché tanto interesse da parte della teologia cattolica e della Chiesa intera riguardo allo sviluppo dell’intelligenza artificiale? I motivi sono tanti. Il primo è indubbiamente legato agli evidenti problemi di natura etica che l’IA pone. Un altro motivo è, come si è detto, il cambiamento d’epoca che tutto questo determina. Ma, probabilmente, nella Chiesa c’è anche una preoccupazione tutt’altro che secondaria. Nel XVI secolo l’invenzione della lente convessa cambiò totalmente la concezione del mondo e la collocazione dell’uomo all’interno di esso, imprimendo una poderosa spinta verso il progresso. Ma, assieme a questo, portò con sé anche il “caso Galilei”, rispetto al quale la riflessione teologica dell’epoca mostrò una totale chiusura. Padre Paolo Benanti ricorda oggi che non sono i singoli artefatti, o la scienza in genere, a indurre l’uomo a comportamenti contrari all’etica ma la stessa libertà dell’uomo che può indirizzare il progresso umano verso il bene o verso il male. La riflessione teologica di padre Benanti porta nella Chiesa un vaccino che la rende immune da pregiudizi verso la scienza.
Si dice che papa Francesco sia il papa dei grandi gesti. Il gesto di essere presente al G7 reca in sé questo significato; è un gesto che, di fronte all’irrompere della potenza dell’intelligenza artificiale, vuole con determinazione impedire una pericolosa chiusura di cui già si intravedono molteplici rischi, vuole prevenire cioè un nuovo “caso Galilei”. E di fatto, grazie al “vaccino Benanti”, la Chiesa oggi evita che ciò possa di nuovo accadere.
[…] Board on Artificial Intelligence, asserted this connection in a recent interview with the Italian Logos. Such practices are unethical, as humans should not make these decisions, and it is even more […]
[…] Board on Artificial Intelligence, asserted this connection in a recent interview with the Italian Logos. Such practices are unethical, as humans should not make these decisions, and it is even more […]
[…] naroda za umjetnu inteligenciju, ustvrdio je ovu vezu u nedavnom intervjuu za Talijanski Logotipi. Takve su prakse neetične jer ljudi ne bi trebali donositi te odluke, a još je više […]