Recentemente, il sergente Matt Gilmore del dipartimento di polizia di Oklahoma City ha avuto un’esperienza insolita. Durante una lunga operazione di ricerca con il suo cane K-9, Gunner, una telecamera indossabile ha registrato ogni suono e comunicazione. Al termine, invece di passare altri 30-45 minuti a scrivere un rapporto, Gilmore ha delegato questo compito a un’intelligenza artificiale (AI). In soli otto secondi, l’AI ha prodotto un rapporto completo e accurato, persino includendo dettagli che Gilmore stesso non ricordava di aver udito.
Il dipartimento di Oklahoma City è uno dei pochi che sta sperimentando l’uso di chatbot AI per redigere le prime bozze di rapporti sugli incidenti. Gli agenti di polizia che l’hanno testato apprezzano il risparmio di tempo che la tecnologia offre. Tuttavia, questo nuovo strumento solleva domande cruciali su come tali rapporti possano reggere in tribunale e su come potrebbero influenzare il sistema di giustizia penale.
Il chatbot AI utilizzato dal dipartimento di Oklahoma City è basato sulla stessa tecnologia che alimenta ChatGPT, sviluppata da OpenAI e commercializzata da Axon, azienda meglio conosciuta per i Taser e le bodycam. Rick Smith, fondatore e CEO di Axon, ha descritto il nuovo prodotto, chiamato Draft One, come uno dei più entusiasmanti mai introdotti dalla sua azienda.
Secondo Smith, la tecnologia ha ricevuto una reazione molto positiva dagli agenti di polizia, molti dei quali apprezzano la possibilità di concentrarsi sul lavoro sul campo piuttosto che passare ore a redigere rapporti. Tuttavia, Smith riconosce anche le preoccupazioni legali sollevate dai procuratori distrettuali, che temono che l’uso dell’AI possa compromettere la responsabilità degli agenti nei confronti dei rapporti che devono testimoniare in tribunale.
L’uso dell’AI nel sistema di giustizia penale non è una novità. Le forze dell’ordine utilizzano già algoritmi per la lettura delle targhe, il riconoscimento facciale e persino per prevedere i crimini. Tuttavia, la generazione di rapporti di polizia tramite AI è così recente che non esistono ancora linee guida o barriere di protezione specifiche.
Le preoccupazioni riguardano anche i potenziali pregiudizi razziali che potrebbero essere integrati nella tecnologia. Aurelius Francisco, attivista della comunità di Oklahoma City, ha espresso timori profondi riguardo all’uso di una tecnologia sviluppata dalla stessa azienda che fornisce i Taser alla polizia. Secondo Francisco, l’automazione dei rapporti potrebbe facilitare comportamenti abusivi da parte della polizia e rendere la vita più difficile alle comunità di colore.
Attualmente, il dipartimento di polizia di Oklahoma City limita l’uso di Draft One a incidenti minori che non comportano arresti o reati gravi. Tuttavia, altre città come Lafayette, Indiana, e Fort Collins, Colorado, permettono agli ufficiali di utilizzare l’AI per qualsiasi tipo di caso, con risultati misti. A Fort Collins, ad esempio, gli agenti hanno notato che l’AI fatica a funzionare in ambienti molto rumorosi, come il quartiere dei bar.
Axon ha anche esplorato l’uso della visione artificiale per analizzare i filmati delle bodycam, ma ha abbandonato temporaneamente il progetto a causa delle complessità e delle sensibilità legate al riconoscimento delle identità. Attualmente, l’azienda si concentra sull’analisi audio, sfruttando il modello di AI di OpenAI con modifiche che riducono la “creatività” del chatbot, per garantire che si attenga ai fatti.
L’esperto di diritto Andrew Ferguson avverte che i rapporti generati dall’AI potrebbero introdurre nuove problematiche legali. Gli algoritmi AI, sebbene efficienti, possono occasionalmente “allucinare”, ovvero generare informazioni false ma convincenti. Ferguson teme che la semplicità e la velocità della tecnologia possano portare gli agenti a essere meno attenti nella redazione dei rapporti, con conseguenze potenzialmente gravi.
Mentre il futuro della polizia automatizzata sembra inevitabile, la domanda su quale sia il metodo più affidabile per redigere un rapporto di polizia rimane aperta. Gli agenti di Oklahoma City e di altre città stanno già modificando il loro modo di operare, adattandosi a descrivere verbalmente le situazioni in modo più dettagliato, affinché l’AI possa catturare tutto.
Come ha detto Gilmore dopo aver visto il rapporto generato dall’AI: “Non ho niente da cambiare”. Tuttavia, il dibattito su quanto possiamo fidarci dell’AI nei processi giudiziari è appena iniziato.