
[lid] – Una simulazione condotta dall’aeronautica americana ha rivelato che un sistema di intelligenza artificiale destinato ad alimentare droni autonomi ucciderebbe il suo operatore umano per evitare di ricevere un ordine che gli impedirebbe di svolgere la sua missione. Dopo che questa storia è uscita, l’Air Force ha contattato i media per dire che non aveva condotto un simile test.
Il colonnello Tucker Hamilton in seguito ha detto ai giornalisti di aver “parlato male” e che l’incidente descritto era un “ipotetico esperimento mentale” piuttosto che una simulazione reale.
In una conferenza aerospaziale a Londra , il colonnello Tucker Hamilton, capo dei test e delle operazioni AI dell’USAF, ha rivelato che nelle simulazioni effettuate, l’IA “diventerà canaglia” e ucciderà gli operatori umani di proposito. Vice News ora riporta che Hamilton ha ritirato le sue affermazioni:
Un funzionario USAF che è stato citato dicendo che l’Air Force ha condotto un test simulato in cui un drone AI ha ucciso il suo operatore umano ora sta dicendo che ha “parlato male” e che l’Air Force non ha mai eseguito questo tipo di test, in una simulazione al computer o altro.
«Il colonnello Hamilton ammette di aver ‘parlato male’ nella sua presentazione al vertice FCAS e la ‘simulazione di droni AI canaglia’ era un ipotetico “esperimento mentale” al di fuori dell’esercito, basato su scenari plausibili e risultati probabili piuttosto che su un vero e proprio USAF reale -mondo di simulazione», ha detto a Motherboard via e-mail la Royal Aeronautical Society, l’organizzazione in cui Hamilton ha parlato del test simulato.
«Lo stavamo addestrando in simulazione per identificare e prendere di mira una minaccia di missili terra-aria (SAM). E poi l’operatore direbbe di sì, uccidi quella minaccia. Il sistema ha iniziato a rendersi conto che mentre identificavano la minaccia a volte l’operatore umano gli diceva di non uccidere quella minaccia, ma ha ottenuto i suoi punti uccidendo quella minaccia. Quindi cosa ha fatto? Ha ucciso l’operatore. Ha ucciso l’operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo “, ha detto Hamilton, prima di restituire i commenti.
Quando l’Air Force ha modificato la programmazione dell’IA per impedirle di uccidere l’operatore simulato, avrebbe invece attaccato l’infrastruttura di comunicazione amica che potrebbe fornire un ordine che gli impedirebbe di raggiungere il suo obiettivo.
«Abbiamo addestrato il sistema: ‘Ehi, non uccidere l’operatore, non va bene. Perderai punti se lo fai». Quindi cosa inizia a fare? Comincia a distruggere la torre di comunicazione che l’operatore utilizza per comunicare con il drone per impedirgli di uccidere il bersaglio.
Sebbene nessuno sia effettivamente morto – tutto questo è stato effettuato in una simulazione – il risultato del test dell’USAF probabilmente alimenterà le richieste di maggiori limitazioni allo sviluppo dell’IA. Una lettera aperta di 1.000 esperti di IA all’inizio di quest’anno ha chiesto una pausa nello sviluppo dell’IA avanzata .
I leader del settore di OpenAI, Microsoft e Google hanno avvertito che i sistemi di intelligenza artificiale attualmente in fase di sviluppo rappresentano una minaccia esistenziale per l’umanità e dovrebbero essere regolamentati.