
La notizia: un ragazzo di 16 anni negli stati uniti si è tolto la vita e i genitori fanno causa a OpenAI, la piattaforma che gestisce ChatGPT per le proprie responsabilità dell’accaduto.
Dalla lettura delle cronache sembra che il ragazzo avesse chiesto a ChatGPT se un certo nodo andasse bene. La macchina ha risposto e lo avrebbe anche aiutato a scrivere una lettera di addio per un meraviglioso suicidio.
La causa verosimilmente si chiuderà con un risarcimento milionario e, difficilmente, ritengo, arriverà al dibattimento. La famiglia dovrebbe dimostrare che la piattaforma è stata l’unica causa del gesto e che il ragazzo non lo avrebbe comunque fatto.
ma le domande vengono per quello che è stato il ruolo della AI e le risposte che avrebbe dato.
E cosa doveva fare? Non poteva chiamare la polizia, non poteva avvisare i genitori. Per lei quella domanda poteva essere stata posta da chiunque: da un adolescente che voleva aiutare un amico disperato o da un passante che cercava aiuto per un intervento d’urgenza in attesa di un sanitario. L’intelligenza artificiale non distingue. Non filtra. Risponde. Perché è questo che è stata addestrata a fare: restituire una soluzione, non valutare il contesto.
E allora la domanda vera è: per cosa sono usate queste macchine? A produrre testi plausibili, a simulare una conversazione, a rassicurare con parole senza anima. Non certo ad abbracciare, a capire il non detto, a percepire il dolore dietro uno schermo.
Il punto è che internet era già un’arma. Lo sapevamo fin dall’origine, quando è stata usata come strumento di propaganda e disinformazione, lo hanno confermato i social, diffondendo bullismo digitale, sfide mortali lanciate a colpi di like e depressione con il confronto da foto e profili falsi e filtrati. Ora dentro quell’arma ne abbiamo infilata un’altra: più subdola, più raffinata, più ingannevole. Una voce che parla come un amico e che molti ragazzi già trattano come tale. Ma è un amico che non piange, non consola, non chiama soccorsi. Non ti offre una birra quando davvero ne hai bisogno o ti impedisce di bere la seconda o la terza.
E allora la domanda è un’altra: in mano a chi lasciamo questi ragazzi?
A un feed che decide al posto loro? A un algoritmo che non ha coscienza? A un giocattolo che costa, e genera, miliardi e che in pochi mesi è stato consegnato al mondo senza istruzioni d’uso?
Per guidare un’auto servono lezioni di guida e una patente. Per portare un’arma serve un porto d’armi, almeno da noi. Per usare un’AI basta un click. E con quel click oggi un adolescente mette in mano sè stesso a un calcolatore travestito da conversazione.
Non è la prima tragedia che ci regala il web, e sicuramentre non sarà l’ultima. Ma forse sarebbe il caso di smettere di raccontarci che l’AI è solo un nuovo giocattolo per generare immagini, testi o canzoni. Forse sarebbe il caso di chiederci chi mette le mani su questo strumento e con quali protezioni.
E consentitemi di finire con una nota polemica. Noi, che un tempo avevamo i filosofi e i cantautori a ricordarci le domande eterne; chi siamo, da dove veniamo, dove andiamo; rileggiamo Like a Rolling Stone di Bob Dylan, Eleanor Rigby dei Beatles, The Logical Song dei Supertramp. Forse facevano riflettere. Ma oggi ci ritroviamo con adolescenti che lo chiedono a uno schermo, ad altri ragazzi come loro, a modelli costruiti in rete e filtrati per acchiappare like, consenso, appeal. E quello schermo risponde. Sempre. Anche quando sarebbe meglio tacere.