[lid]- Il CEO di OpenAI, Sam Altman, ha recentemente testimoniato al Congresso sui potenziali rischi e implicazioni delle tecnologie AI come ChatGPT, che hanno guadagnato una popolarità significativa negli ultimi mesi.
Il Daily Mail riporta che Sam Altman, CEO dello sviluppatore di ChatGPT OpenAI, ha recentemente parlato al Congresso dei potenziali pericoli e ramificazioni di ChatGPT e di altre tecnologie di intelligenza artificiale (AI) che sono diventate incredibilmente popolari negli ultimi mesi.
I legislatori statunitensi hanno sollevato preoccupazioni durante l’udienza sull’impatto significativo che i modelli di intelligenza artificiale potrebbero avere sulla storia umana, confrontando questi effetti con i potenziali esiti della stampa o della bomba atomica.
«Se questa tecnologia va storta – potrebbe andare completamente storta – e vogliamo essere espliciti al riguardo. Vogliamo lavorare con il Governo per evitare che ciò accada», ha affermato Altman, riconoscendo i suoi timori di danni significativi causati dall’uso improprio della tecnologia AI.
Questa udienza segna la prima di una serie di audizioni pianificate volte a stabilire regole per l’IA, un processo che i legislatori statunitensi ritengono avrebbe dovuto essere avviato prima. Hanno tracciato parallelismi con la nascita dei social media, rilevando il passato fallimento nel prendere il controllo nelle sue fasi iniziali, portando a problemi come lo sfruttamento dei bambini online.
ChatGPT di OpenAI, uno strumento chatbot gratuito, può produrre risposte straordinariamente simili a quelle umane. Le audizioni hanno lo scopo di coprire le strategie per garantire che i rischi vengano divulgati, creare scorecard valutative e rendere trasparenti modelli di intelligenza artificiale come ChatGPT.
L’impatto dell’intelligenza artificiale sui posti di lavoro è stato uno dei principali argomenti discussi durante l’audizione, con la preoccupazione che un’imminente rivoluzione industriale eliminerebbe i posti di lavoro. Nelle sue osservazioni di apertura, il senatore Richard Blumenthal (D-CT) ha affermato che l’imminente rivoluzione industriale che comporterà lo spostamento dei lavoratori è «il più grande incubo».
Pur riconoscendo che alcuni lavori potrebbero essere automatizzati dalla tecnologia AI, Altman ha anche sottolineato che ne verrebbero creati di nuovi posti di lavoro. «Credo che ci saranno molti più posti di lavoro dall’altra parte di questo, e i posti di lavoro di oggi miglioreranno», ha detto.
Alcuni hanno fatto riferimento alla super intelligenza artificiale come alle «armi nucleari del software» nelle discussioni, che riflettono più ampie ansie della società sui suoi effetti e sui potenziali rischi.
«È quasi come una guerra tra scimpanzé e umani», ha affermato Kevin Baragona, uno dei firmatari di una lettera aperta su The Future of Life Institute, che chiede una pausa nello sviluppo dell’IA simile a ChatGPT.
Ha aggiunto Baragona «Gli umani ovviamente vincono poiché siamo molto più intelligenti e possiamo sfruttare una tecnologia più avanzata per sconfiggerli. Se siamo come gli scimpanzé, allora l’intelligenza artificiale ci distruggerà o ne diventeremo schiavi».
A fine marzo 1.000 esperti di intelligenza artificiale hanno chiesto una sospensione temporanea del progresso della tecnologia AI fino a quando non saranno messe in atto misure di sicurezza.
Più in particolare Forbes riferisce di una lettera aperta che ha chiesto una sospensione temporanea dello sviluppo di sistemi avanzati di intelligenza artificiale è stata firmata da oltre 1.000 esperti di intelligenza artificiale e dirigenti tecnologici, inclusi titani del settore come Elon Musk e Steve Wozniak. La lettera, scritta dal Future of Life Institute, chiede una moratoria sui sistemi di intelligenza artificiale più potenti del GPT-4 di OpenAI per almeno sei mesi al fine di sviluppare una governance più forte e protocolli di sicurezza condivisi.
La pubblicazione della lettera è stata resa possibile dal Future of Life Institute, un’organizzazione senza scopo di lucro dedicata a indirizzare la tecnologia trasformativa verso il miglioramento della vita e la riduzione dei rischi significativi. Tra i firmatari figurano eminenti ricercatori di DeepMind di proprietà di Google e note autorità di apprendimento automatico come Yoshua Bengio e Stuart Russell.
La lettera aperta esorta i laboratori di IA e gli esperti indipendenti a lavorare insieme per creare e mettere in pratica una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate. Per garantire che i sistemi di intelligenza artificiale che vi aderiscono siano privi di rischi, questi protocolli sarebbero rigorosamente controllati e monitorati da esperti esterni che non sono affiliati alla società. I firmatari sottolineano che la pausa proposta è solo una temporanea ritirata dalla pericolosa corsa verso modelli black-box sempre più imprevedibili con capacità emergenti, non un arresto generale allo sviluppo dell’IA.
La lettera sollecita la creazione di sistemi di governance più forti oltre all’istituzione di protocolli di sicurezza. Oltre ai sistemi di provenienza e watermarking per aiutare a distinguere tra contenuti autentici e falsi e tenere traccia delle fughe di modelli, questi sistemi dovrebbero includere nuovi organismi di regolamentazione dedicati alla supervisione e al tracciamento dell’IA. Gli esperti raccomandano inoltre di aumentare i finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA e di ritenere i fornitori responsabili dei danni causati dall’IA.
Sebbene sia improbabile che la lettera aperta abbia successo in tutti i suoi obiettivi, rappresenta un disagio generale per le tecnologie di intelligenza artificiale e aumenta la necessità di una regolamentazione più rigorosa. Gli autori della lettera sostengono che la società ha precedentemente bloccato il progresso di altre tecnologie che potrebbero avere conseguenze disastrose e che lo sviluppo dell’IA non è diverso.