Quando (anche) le religioni discutono sull'Intelligenza Artificiale | Culture
Top

Quando (anche) le religioni discutono sull'Intelligenza Artificiale

Il documento della "Rome Call for AI Ethics", che norma come implementare eticamente le tecnologie AI, è stato sottoscritto anche dalle altre religioni abramitiche. Sono tanti i principi condivisibili, ma non mancano osservazioni critiche.

Quando (anche) le religioni discutono sull'Intelligenza Artificiale
Preroll

redazione Modifica articolo

5 Febbraio 2024 - 19.36


ATF

Di Agostino Forgione

Che ormai il tema dell’intelligenza artificiale sia al centro dell’interesse dell’opinione pubblica è noto a tutti. Dalla politica alla società civile, passando per la religione, tutti sembrano essersi accorti dell’impatto che le AI hanno già da ora sulle nostre vite. Una rivoluzione che va oltre il ristretto ambito informatico e ne tocca altri, primo tra tutti quello etico. L’opacità degli algoritmi e la discriminazione che possono operare sono all’ordine del giorno e nessuno sembra intenzionato a eludere il confronto sulla loro regolamentazione. Proprio la Chiesa Cattolica – contrariamente a chi ritiene conservatrice e poco interessata ai mutamenti sociali in corso – è stata tra i primi attori a interessarsi all’aspetto etico, interrogandosi su come implementare eticamente le tecnologie che fanno ricorso a modelli di intelligenza artificiale.

Tali sforzi sono sfociati nella “Rome Call for AI Ethics”, un documento che delinea quali principi dovrebbero adottare le aziende e le istituzioni nello sviluppo e nell’implementazione delle AI. Inizialmente promosso nel 2020, dall’Accademia Pontificia per la Vita e sottoscritto da Microsoft, IBM, FAO e il Ministero dell’Innovazione, oggi garante del documento è la “RenAIssance Foundation”, un organo nato in seno alla sopracitata Accademia. Attualmente sono più di 400 gli enti aderenti e di recente, inoltre, il documento è stato sottoscritto anche dai leader islamici e musulmani. 

Nel documento si esplicano tre aree: quella dell’etica, dell’educazione e del diritto. In relazione al primo aspetto viene sottolineato come sia fondamentale che gli algoritmi non operino in modo discriminatorio sulla base di caratteristiche personali quali, ad esempio, etnia, sesso, lingua e religione. È risaputo, infatti, che spesso lo sviluppo di quest’ultimi riverberi i bias e gli atteggiamenti discriminatori di chi li ha sviluppati, atteggiamenti che poi vanno a consolidarsi grazie alla reiterazione di tali modelli. Oltre a ciò, è chiesto che sia sempre esplicito quando s’interagisce con una AI: aspetto di non poco conto, soprattutto considerando la rapida evoluzione dei modelli linguistici. Infine, tali tecnologie non dovrebbero essere utilizzate per fini malevoli, in particolar modo nei riguardi dei gruppi sociali più deboli.

Per quanto riguarda l’educazione, l’assunto di base è che le generazioni future e la loro istruzione debbano   essere centrali importanza nel processo di ricerca e sviluppo di tali tecnologie. A tal proposito è necessario implementare adeguatamente le AI nei vari ambiti di studio, in modo da garantire che operino coerentemente con i principi su cui si fondano le varie materie.  L’accesso alle AI deve inoltre essere garantito a tutti, anche ad anziani e disabili. A oggi, infatti, la questione del “digital-divide” tra le varie fasce sociali è uno degli aspetti che avvantaggia determinate fasce della popolazione a scapito di altre. Quanto detto, in conclusione, è riassumibile nell’assunto per cui l’uso e lo sviluppo delle tecnologie di Intelligenza Artificiale deve seguire criteri socialmente orientati, creativi e in grado di garantire un impatto positivo sia individuale che collettivo.

L’area del diritto, infine, delinea quali sono i principali aspetti che dovrebbero essere tutelati. Ricalcando le recenti aperture della Chiesa in materia, la “Rome Call for AI Ethics” sancisce l’importanza di tutelare, oltre alle persone, anche l’ambiente. È ben noto quanto le grandi aziende del tech siano energivore e sia il loro impatto ambientale sia non trascurabile. Importanza viene data anche all’aspetto riguardante la tutela della privacy e della sicurezza degli individui, che dovrebbe essere uno degli aspetti preminenti. A proposito è necessario siano chiari a tutti i criteri e i meccanismi attraverso cui le AI operano, oltre ai fini che perseguono.

I principi normativi devono muoversi, dunque, lungo la direttiva della trasparenza, in particolar modo per quanto riguarda le tecnologie più delicate come quella del riconoscimento facciale. È infatti risaputo, per fare un esempio, come queste operino differentemente a seconda dell’etnia dei soggetti, comportandosi più efficientemente con alcune. Ciò è dovuto al fatto che i dataset su cui sono fondate contengono per lo più fisionomie caucasiche.

Il documento dà quindi forma a sei principi generali che ogni ente, pubblico o privato, dovrebbe adottare nello sviluppo e nell’implementazione di tecnologie che fanno ricorso a modelli di intelligenza artificiale. Sono: trasparenza, inclusione, affidabilità, responsabilità, imparzialità e privacy.

Tale codice di condotta, tuttavia, non è esente da critiche. Qual è la più ricorrente? Quella secondo la quale il documento manchi di una maggiore e necessaria tecnicità. Sebbene gli obiettivi promossi siano moralmente condivisibili e auspicabili, si limitano a essere presentati in modo generico e senza fornire alcun dettaglio su come possano essere implementati concretamente. La natura stessa delle AI, infatti, dà luogo a criticità che difficilmente possono essere eliminate. Quella più grande riguarda l’imparzialità dei modelli di intelligenza artificiale. Essendo allenate su specifici “dataset”, queste tecnologie offrono risposte necessariamente limitate alle fonti su cui hanno avuto modo di formarsi. Per tale ragione un certo grado di “parzialità” è ineludibile. Viene da chiedersi, tenendo conto della partecipazione di grandi aziende informatiche quali la Microsoft e l’IBM quali promotori iniziali, perché quest’ultime non abbiano contribuito a stilare dei contenuti più organici in cui si delineasse come raggiungere gli obiettivi illustrati.

In conclusione, la “Rome Call for AI Ethics” è un documento importante, che sancisce come anche la Chiesa e le altre religioni abramitiche, non siano estranee alle tematiche che ruotano attorno l’intelligenza artificiale. Ciononostante, va riconosciuta una certa ingenuità, non tanto nei propositi del documento quanto nel come attuarli.

Native

Articoli correlati