“Parental control” è la nuova misura adottata da OpenAI in ChatGPT, una settimana dopo la morte di un adolescente e la conseguente denuncia dei genitori, sostenendo che il sistema avrebbe influenzato il figlio a mettere fine alla sua vita.
L’azienda in un post ha dichiarato: “Dal prossimo mese i genitori potranno collegare il proprio account a quello del figlio adolescente e controllare come l’intelligenza artificiale risponde, con regole di comportamento adeguate all’età”. E ha aggiunto che i genitori saranno avvisati da ChatGPT “quando il sistema rileva che l’adolescente si trova in un momento di forte angoscia”.
Si tratta di una denuncia presentata da Matthew e Maria Raine al tribunale della California, sostenendo l’ipotesi di una relazione intima tra Chat GPT e il figlio Adam tra il 2024 e il 2025, prima della sua morte.
Nella denuncia troviamo che l’ultima conversazione risale all’11 aprile 2025, quando Chat GPT avrebbe suggerito ad Adam di sottrarre vodka ai genitori e fornito suggerimenti su un nodo scorsoio che “potenzialmente si poteva usare per impiccare un essere umano”. Poche ore dopo, Adam è stato trovato morto utilizzando questi metodi.
Melodi Dincer, avvocata del Technology Justice Project, che ha lavorato per questa causa, ha dichiarato: “Quando una persona utilizza ChatGPT ha realmente la sensazione di parlare con qualcuno che sta dall’altra parte”. E ha aggiunto: “Sono queste stesse caratteristiche che possono portare qualcuno come Adam, col tempo, a condividere sempre di più sulla propria vita personale e, in ultima analisi, a cercare consigli e orientamento da un prodotto che sembra avere tutte le risposte”.
L’avvocata non è d’accordo con la nuova decisione di OpenAI, la “parental control”, perché ancora non garantisce piena sicurezza. Ha detto: “È davvero il minimo, e suggerisce chiaramente che esistevano molte misure di sicurezza semplici che si sarebbero potute implementare”. E ha aggiunto: “Resta da vedere se faranno davvero quanto promesso e quanto sarà efficace nel complesso”.
Siamo di fronte ad un caso che si aggiunge a molti altri dove i chatbot di IA hanno sollecitato pensieri negativi e talvolta estremi. OpenAI ha annunciato: “Continuiamo a migliorare nel modo in cui i nostri modelli riconoscono e rispondono ai segnali di disagio mentale ed emotivo”