
[lid] Secondo quanto riferito, il negozio GPT appena lanciato da OpenAI è già inondato di robot di fidanzate IA, sollevando interrogativi sull’applicazione delle politiche di utilizzo e sulle implicazioni sociali di così tanti uomini che si rivolgono ai robot IA per compagnia.
Quartz riferisce che, appena due giorni dopo il lancio del negozio GPT di OpenAI, è emersa una tendenza che desta preoccupazione: l’afflusso di robot fidanzate IA. Questo nuovo sviluppo nello store, che offre versioni personalizzate del popolare chatbot ChatGPT, non sembra essere ciò che OpenAI aveva inizialmente pianificato durante lo sviluppo del mercato dei bot.
Una ricerca per “fidanzata” nel negozio fa apparire rapidamente almeno otto chatbot IA con temi romantici, inclusi nomi come “Fidanzata coreana”, “Tesoro virtuale” e “La tua ragazza AI Tsu”. Questi chatbot pongono agli utenti domande come “Che aspetto ha la ragazza dei tuoi sogni?” e “Condividi con me il tuo segreto più oscuro”, spingendo i confini dell’interazione con l’intelligenza artificiale verso regni più personali e intimi.
C’è stato un forte aumento nell’uso di robot fidanzati basati sull’intelligenza artificiale, violando la politica di utilizzo di OpenAI. La politica vieta la creazione di GPT che possono portare ad azioni tra cui “avvisi, restrizioni di condivisione o inidoneità per l’inclusione nello store GPT o la monetizzazione”. Secondo quanto riferito, OpenAI è a conoscenza del problema della fidanzata AI e intende agire, ma i dettagli dei loro piani devono ancora essere rivelati.
Questa tendenza dei chatbot AI progettati per le relazioni non è un incidente isolato, altri chatbot simili sono diventati sempre più popolari , come risulta evidente dalle loro tendenze di download sui principali app store. Nel 2023, le app di chatbot AI relative ad amici, fidanzate o compagni AI erano tra le prime 30 app scaricate negli Stati Uniti. Questa tendenza è preoccupante poiché è correlata ai crescenti tassi di solitudine e isolamento nella società americana. Gli studi dimostrano che circa il 50% degli adulti negli Stati Uniti sperimenta la solitudine.
OpenAI utilizza sistemi automatizzati, revisione umana e segnalazioni degli utenti per identificare e valutare i GPT che potenzialmente violano le sue politiche. A seconda della gravità della violazione, la risposta di OpenAI può variare da avvisi e restrizioni di condivisione alla completa inidoneità all’inclusione nello store GPT o alle opportunità di monetizzazione. Resta da vedere se le ragazze AI verranno rimosse con successo dal negozio GPT.