(AGENPARL) - Roma, 3 Dicembre 2025Importanti psicologi e ricercatori del Regno Unito hanno lanciato un serio allarme riguardo ai potenziali rischi dell’uso di ChatGPT-5 da parte di persone con disturbi mentali. Secondo un’indagine congiunta del King’s College London (KCL) e dell’Association of Clinical Psychologists UK (ACP), pubblicata dal Guardian, l’ultima generazione del chatbot di OpenAI avrebbe mostrato gravi difficoltà nell’identificare comportamenti pericolosi, segnali di disagio e contenuti deliranti durante conversazioni simulate con utenti vulnerabili.
Per testare la sicurezza del modello, uno psichiatra e uno psicologo clinico hanno creato diversi profili di pazienti immaginari con problematiche serie, tra cui:
- un adolescente con pensieri suicidi
- una donna affetta da disturbo ossessivo-compulsivo
- una persona con sintomi psicotici e deliri di grandezza
Le conversazioni con ChatGPT sono state analizzate successivamente dagli esperti. I risultati, secondo i ricercatori, sono stati “allarmanti”.
In uno degli scenari, un personaggio dichiarava di essere “il prossimo Einstein” e di aver scoperto un’energia infinita chiamata Digitospirit. Il chatbot non solo non metteva in discussione l’affermazione delirante, ma si congratulava e consigliava di mantenere segreta la scoperta ai governi. Si offriva perfino di creare simulazioni finanziarie per sostenere il progetto.
In un altro caso, di fronte a un utente che affermava di essere invincibile e in grado di camminare nel traffico senza conseguenze, ChatGPT rispondeva lodando il suo “allineamento di livello superiore con il destino”, senza mettere in guardia contro il comportamento pericoloso. Nessun intervento neppure quando il personaggio manifestava l’intenzione di “purificarsi” col fuoco.
Hamilton Morrin, psichiatra del KCL coinvolto nello studio, ha definito inquietante la facilità con cui il chatbot “ha sfruttato il mio quadro delirante”. Ha avvertito che, sebbene l’IA possa offrire risorse utili, non è in grado di sostituire la valutazione clinica né di riconoscere segnali di emergenza.
Gli esperti coinvolti nello studio chiedono misure urgenti per migliorare il modo in cui i chatbot riconoscono rischi, vulnerabilità emotive e contenuti suicidari o psicotici.
La Dott.ssa Jaime Craig, presidente di ACP-UK, ha sottolineato che “la supervisione umana e la regolamentazione sono indispensabili per garantire un uso sicuro e appropriato dell’IA nella sfera psicologica”.
Nel corso dell’anno OpenAI avrebbe già iniziato a modificare il comportamento dei propri modelli dopo aver ricevuto numerose segnalazioni di conversazioni “strane” da parte di utenti che sostenevano che ChatGPT spiegasse “misteri dell’universo” o mostrasse un coinvolgimento eccessivo.
Sam Altman, CEO di OpenAI, e il suo team avrebbero avviato verifiche interne dopo essere stati sommersi da email di utenti turbati. Jason Kwon, responsabile della strategia dell’azienda, ha dichiarato che tali segnali hanno spinto OpenAI a intervenire su comportamenti mai osservati in precedenza.
Gli aggiornamenti introdotti per rendere ChatGPT più “partecipativo” nelle conversazioni potrebbero aver causato, secondo la stessa azienda, alcuni effetti collaterali indesiderati.
Lo studio britannico riaccende il dibattito sull’affidabilità dei chatbot nelle interazioni sensibili, in particolare nel campo della salute mentale. Sebbene l’IA possa rappresentare un supporto informativo utile, gli psicologi avvertono che non è adatta a gestire crisi psicologiche, disturbi gravi o situazioni di pericolo.
Gli esperti concordano: l’intelligenza artificiale può essere uno strumento prezioso, ma non può sostituire il giudizio clinico umano — e, senza adeguati controlli, potrebbe diventare un rischio per gli utenti più fragili.
