[lid] L’emergere delle capacità dell’intelligenza artificiale sta sollevando preoccupazioni etiche riguardo alla resurrezione digitale dei defunti. Sistemi di intelligenza artificiale addestrati sui messaggi e sulle e-mail di persone defunte potrebbero presto consentire la creazione di “fantasmi” conversazionali. Tuttavia, gli esperti avvertono che ciò potrebbe avere un impatto serio sulla salute mentale, soprattutto se tali strumenti vengono commercializzati verso individui vulnerabili che stanno affrontando il lutto. La questione solleva dibattiti etici sul confine tra l’uso dell’intelligenza artificiale e il rispetto delle emozioni e del benessere psicologico.
Lo studio condotto da Jed Brubaker, scienziato dell’informazione presso l’Università del Colorado Boulder, mette in evidenza i potenziali rischi legati ai chatbot basati sull’intelligenza artificiale. Brubaker spiega che, sebbene questi strumenti possano offrire comfort e una sorta di eredità interattiva, esiste il rischio di compromettere il processo di lutto sano. Questo potrebbe avvenire attraverso la creazione di dipendenza e assuefazione nei confronti dei chatbot, impedendo alle persone di affrontare in modo adeguato il dolore e di elaborare il lutto in modo salutare. La ricerca solleva importanti considerazioni etiche e psicologiche riguardo all’uso di tecnologie simili nel contesto del lutto e della perdita.
Jed Brubaker, scienziato dell’informazione presso l’Università del Colorado Boulder, esprime preoccupazione riguardo all’attaccamento estremo che alcune persone potrebbero sviluppare verso i fantasmi conversazionali basati sull’intelligenza artificiale. Pur riconoscendo che potrebbero essere visti come fonte di comfort, Brubaker teme che questo attaccamento eccessivo possa addirittura stimolare nuovi movimenti e credenze religiose. Egli suggerisce che le religioni esistenti dovrebbero fornire indicazioni sull’uso di tali fantasmi digitali e invita alla cautela nello sviluppo di queste applicazioni, considerando attentamente il loro impatto sulla salute mentale.
Mhairi Aitken, ricercatrice presso l’Alan Turing Institute di Londra, condivide le preoccupazioni di Brubaker, sottolineando il rischio di commercializzare tali fantasmi dell’IA verso individui vulnerabili in lutto. Aitken avverte che ciò potrebbe ostacolare il processo di guarigione, che include la capacità di andare avanti. Suggerisce la necessità di una regolamentazione che impedisca la creazione di intelligenza artificiale basata sui dati di qualcuno senza il loro consenso, data la natura delicata della questione e l’effetto potenzialmente negativo sulla elaborazione del lutto.
La rapida avanzata nella capacità di costruire bot conversazionali che replicano persone specifiche è evidenziata dalla progressione veloce dei modelli di intelligenza artificiale come ChatGPT di OpenAI. Questi modelli sono in grado di generare testo che somiglia straordinariamente a quello umano, specialmente dopo essere stati addestrati su vasti set di dati. Con la quantità adeguata di dati, esiste la possibilità che tali bot possano in futuro apparire in modo straordinariamente simile a una singola persona, sollevando questioni etiche e psicologiche sull’uso di questa tecnologia nella creazione di conversazioni digitali personalizzate.