“Né apocalisse né salvezza?” Mario De Caro ospite del Santa Chiara Lab per discutere del presente e del futuro dell’IA | Culture
Top

“Né apocalisse né salvezza?” Mario De Caro ospite del Santa Chiara Lab per discutere del presente e del futuro dell’IA

L’evento ha visto la nutrita partecipazione di professori, studenti e comuni cittadini i quali si sono interrogati su cosa è oggi l’IA e su quali sono gli auspici per i suoi sviluppi futuri.

“Né apocalisse né salvezza?” Mario De Caro ospite del Santa Chiara Lab per discutere del presente e del futuro dell’IA
Preroll

Agostino Forgione Modifica articolo

10 Dicembre 2025 - 20.07


ATF

Si è tenuto ieri, presso l’Auditorium Santa Chiara Lab a Siena, il dibattito “Né apocalisse né salvezza? Etica e politica dell’intelligenza artificiale”. Un evento facente parte del ciclo di conferenze “Idee in movimento” promosso dall’associazione “Epistème” che rientra tra le iniziative della Terza Missione dell’Ateneo. Hanno partecipato Mario De Caro, ordinario di Filosofia morale all’Università Roma Tre nonché visiting professor alla Tufts University di Boston, Irene Bosco, dottoranda presso la University of Southern California di Los Angeles, Pietro Pianigiani, studente dell’Università di Siena e presidente di SAINET, e un gruppo di studenti della classe 5L del liceo Galileo Galilei di Siena. A introdurre e moderare l’incontro Sandro Nannini, ordinario di filosofia teoretica e filosofia della mente presso l’Ateneo senese, mentre la direzione della diretta streaming è stata affidata a Gregorio Galli, divulgatore scientifico.

Il dibattito si è aperto con una domanda lasciata aperta da Bosco, la quale si è chiesta se a oggi sia più appropriato concepire l’IA, in particolar modo quella più avanzata, come uno strumento o come un “collega”. Ha poi sottolineato come gli algoritmi alla base di tali sistemi spesso riflettano i valori di chi li ha progettati, soffrendo degli stessi bias di cui soffrono i programmatori. Un fenomeno ampiamente documentato che rimarca quanto sia importante decidere scientemente quali valori implementare per evitare di incorrere in discriminazioni algoritmiche. Ha infine toccato un altro tema cruciale: visto che gli LLM si allenano su testi e materiali prodotti collettivamente da tutto il genere umano è giusto che i loro profitti vengano concentrati nelle mani di pochi miliardari?

Pianigiani, presidente del neonato collettivo SAINET e laureando in Artificial Intelligence and Automation Engineering, ha messo in luce come la nascita degli agenti artificiali, capaci ad esempio di scrivere email e compiere altri task in modo completamente autonomo, stia radicalmente cambiando il nostro modo di lavorare. Ha poi discusso di come nel giro di pochissimi anni la complessità dei modelli linguistici sia enormemente cresciuta, avvicinandosi sempre più al numero di connessioni cerebrali presenti nel nostro cervello. Quest’ultime risultano ancora molto più numerose ma dai 175 miliardi di parametri di GPT-3, presentato nel 2020, siamo arrivati ai 10mila miliardi del recentissimo Gemini 3 Pro. Citando poi il famoso caso del “Soul document” di Anthropic si è chiesto se a breve ci troveremo davanti modelli capaci di introspezione, ammesso non lo siano già oggi.

L’intervento principale è stato a cura di Mario De Caro. In prima battuta questi ha sottolineato come scienziati del calibro di Stephen Hawking, Geoffrey Hinton e Demis Hassabis abbiano avvertito dei potenziali rischi catastrofici legati a uno sviluppo improprio dell’IA. Se non ben regolamentata l’intelligenza artificiale generale potrebbe sfuggire dal nostro controllo e, nel più catastrofico degli scenari, essere l’ultima invenzione dell’umanità.

La sua relazione si è concentrata poi sui temi dell’intelligenza, della coscienza e della comprensione. De Caro sostiene che a oggi gli LLM non abbiano una vera e propria coscienza di sé ma ciononostante non sappiamo se in futuro potranno averla, dunque la prospettiva non è da escludere. Conseguentemente ha confutato la tesi secondo cui le IA non siano altro che “pappagalli stocastici”, ovvero enti incapaci di produzioni linguistiche proprie che si limitano unicamente a “imitare” i testi con cui sono state addestrate. Ciò valeva per la vecchia IA simbolica, ma oggi i modelli linguistici sono capaci anche di produzioni originali. Infine, portando gli esempi di AlphaZero e AlphaGO, due modelli specializzati rispettivamente nel gioco degli scacchi e del Go, ha sottolineato come tali modelli abbiano giocato mosse “mai pensate prima”. Ciò porta a un’inevitabile conclusione: anche l’IA possiede capacità creativa.

L’ultima parte dell’incontro ha riguardato il tema dell’etica e di come questa possa e debba essere necessariamente implementata. De Caro ha sottolineato la necessita di adottare un principio di precauzione per evitare la possibilità di perdere il controllo sull’IA. Secondo il filosofo implementare forme di etica generaliste o utilitariste è controproducente, in quanto troppo rigide e soggette a controesempi. Anche un imperativo come quello di non mentire mai, ad esempio, talvolta può risultare controproducente. Ha dunque proposto di implementare un’etica delle virtù di matrice aristotelica, capace dunque di stabilire cosa sia giusto fare o meno esclusivamente in riferimento a un contesto specifico. Tale approccio si sposa perfettamente con il funzionamento delle reti neurali, che imparano per mezzo di esempi ed esperienze reiterate.

Il proficuo dibattito con il pubblico, infine, ha fatto emergere una necessita non più alienabile: quello di un accordo comune, che coinvolga tutti gli enti globali attivi nel campo dell’intelligenza artificiale, atto a stabilire un nucleo di valori morali trasversali e unanimemente condivisi. Porre dei rigidi paletti e dei vincoli universali è un imperativo da cui non possiamo più fuggire. È possibile trovare la registrazione dell’evento sulla pagina YouTube di EPISTÈME Idee in Movimento.

Native

Articoli correlati