(AGENPARL) - Roma, 11 Marzo 2024(AGENPARL) – lun 11 marzo 2024 (ACON) Trieste, 11 mar – Fare un uso consapevole e ragionato
dell’intelligenza artificiale, cogliendone le opportunit?, ma
allo stesso tempo non dimenticare i rischi e i limiti connessi al
suo utilizzo. ? stato questo il filo conduttore alla base di
alcune delle riflessioni emerse durante il convegno, tenutosi
oggi nell’aula del Consiglio regionale a Trieste e avente come
focus l’Ia.
Diversi esperti in materia, intervenuti nel dibattito, hanno
cercato di far luce su alcuni quesiti, in primis come poter
utilizzare l’intelligenza artificiale nella Pubblica
amministrazione.
E tre, in particolar modo, sarebbero i possibili casi di impiego
dell’Ia secondo l’avvocato Ernesto Belisario. “Per migliorare la
produttivit? e la trasparenza delle attivit? di documentazione di
alcuni uffici, per supportare l’attivit? dei parlamentari
attraverso l’individuazione dei punti da abrogare per la modifica
delle normative e, infine, l’uso di chatbot ad hoc per agevolare
ai cittadini la comprensione di emendamenti o provvedimenti
amministrativi”, ha spiegato l’esperto legale di Ia che ha
illustrato il report “Utilizzare l’intelligenza artificiale a
supporto dei parlamentari” realizzato dal Comitato di vigilanza
della Camera dei deputati.
“Non si deve pensare di sostituire il lavoro dei legislatori con
dei bot – ha tenuto a sottolineare Belisario – ma semplicemente
supportarli nelle loro attivit? dopo un’adeguata formazione e
competenza”.
Di governance dell’intelligenza artificiale ha parlato anche Luca
Tangi, esperto dell’Ia observatory della Commissione Ue, che ha
portato alcuni esempi di utilizzo di intelligenza artificiale in
ambito pubblico, gi? sperimentata in altre nazioni: ad esempio la
chatbot utilizzata dal Registro delle imprese della Lettonia per
supportare i cittadini nelle presentazione della documentazione
inoltrata agli uffici di competenza, cos? come l’algoritmo
Verypol utilizzato dalla polizia spagnola per distinguere le
false denunce da quelle vere.
Tangi ha anche spiegato che nell’ambito della “Procurement of Ai
community” della Commissione europea sono state pubblicate alcune
clausole standard per l’acquisto da parte delle organizzazioni
pubbliche di sistemi di intelligenza artificiale. “Abbiamo
raccolto migliaia di esempi di utilizzo dell’Ia – ha concluso il
project officer della Ue -. Sta a noi capire come utilizzarla per
migliorare il servizio pubblico offerto ai cittadini”.
Molteplici le opportunit?, dunque, ma diverse anche le insidie
che si nascondono dietro l’Ia. “Sistemi di intelligenza
artificiale come chat Gpt – ha spiegato Luca Bortolussi, docente
dell’Universit? di Trieste – sono addestrati per funzionare su
una grandissima quantit? di dati in base a un singolo task. La
sfida, per?, ? quella di rendere spiegabili, a livello umano, le
decisioni basate su una rete neurale di 1800 miliardi di
parametri. Un sistema questo – ha evidenziato Bortolussi – che
mostra ancora molti limiti e non ? esente dal commettere errori”.
Errori che possono assumere un peso rilevante anche a livello
giuridico – come ? emerso dal dibattito – e che rende necessaria
un governance pi? specifica sul tema anche per i giuristi. “L’uso
dell’Ia – hanno evidenziato Federica Giovanella e Federico
Costantini, docenti dell’Universit? di Udine, illustrando l’Ai
Act che sar? approvato definitivamente a fine marzo dal
Parlamento europeo – potrebbe creare dei problemi o delle
allucinazioni legali causate dalla risposta non pertinente o non
corrispondente alla realt? data dagli applicativi di Ia”.
Infine, ma non meno importante, da non dimenticare l’impatto
etico che l’intelligenza artificiale pu? avere sulla vita delle
persone. “Gli algoritmi di machine learning – ha spiegato Teresa
Scantamburlo, docente dell’Universit? Ca’ Foscari di Venezia –
prendono decisioni sulla base di un processo di ottimizzazione
che ? molto diverso da quello decisionale umano e che, quindi,
pu? essere utilizzato per fare delle classificazioni, anche sulle
persone, in modo eticamente errato”.
La sfida, dunque, ? quella di far fronte ai rischi legati all’uso
dell’intelligenza artificiale attraverso – come hanno rilevato in
conclusione gli esperti – un coordinamento a livello regionale,
nazionale e europeo, con un approccio interdiscplinare al fine di
garantire una maggiore formazione e consapevolezza.
ACON/SM-fc
111652 MAR 24
