(AGENPARL) - Roma, 29 Ottobre 2025(AGENPARL) – Wed 29 October 2025 https://www.aduc.it/articolo/legge+intelligenza+artificiale+linee+guida+sviluppo_40066.php
——————————-
Legge Intelligenza Artificiale: linee guida per lo sviluppo, il controllo e gli investimenti
Con la Legge 132/2025 il Governo Italiano ha promulgato le: “disposizioni e deleghe in materia di intelligenza artificiale”.
Nei miei precedenti due articoli dal titolo: “Intelligenza Artificiale. Riflessioni sui principi generali della legge e sul significato dell’ispirazione antropocentrica” e “Intelligenza artificiale. Pacchetto ‘lavoro’ e professioni intellettuali nella legge italiana” mi sono occupato di alcuni aspetti. Un primo avente carattere più generale e introduttivo, un secondo inerente alle possibili evoluzioni pratiche nell’importante settore del lavoro con particolare interesse per l’attività degli Avvocati e Magistrati.
Ora cercherò di approfondire alcuni passaggi che guardano alla produttività e alle imprese. A titolo personale giudico positivamente questa legge. Alcune scelte espositive mi sembrano di particolare interesse, sembrano indicare la strada nell’ambito degli investimenti per lo sviluppo dell’Ai e della sicurezza per il miglior controllo / gestione.
Cominciamo con una prima lettura del contenuto dell’art. 16 rubricato nel Capo II (disposizioni di settore): “Delega al Governo in materia di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale” a mente del quale il comma 1 prevede che: “Il Governo è delegato ad adottare, entro dodici mesi dalla data di entrata in vigore della presente legge, uno o più decreti legislativi per definire una disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale senza obblighi ulteriori, negli ambiti soggetti al regolamento (UE) 2024/1689, rispetto a quanto già ivi stabilito”.
Il richiamo al regolamento europeo lascia intendere che i metodi di addestramento che vengono in considerazione, datosi il riferimento ai dati, agli algoritmi e ai metodi matematici, siano quelli che riguardano prevalentemente la formazione, accesso e utilizzo di dataset.
Volendo adottare la pur superata separazione in tre parti, cioè l’addestramento supervisionato, non supervisionato e rafforzato, sono tecniche che si basano su selezione dei dati, creazione del modello, addestramento dello stesso, più un secondo pacchetto, a seguire, con la valutazione e l’implementazione.
La norma italiana orienta questa fase dell’addestramento verso i metodi più innovativi ma anche più difficili da conoscere perché di fatto segreti, attualmente in uso/studio in circa una dozzina di società nel Mondo. Tali metodologie si possono ricondurre a un sistema che molti hanno definito innovativo ma che in realtà era già stato studiato e testato fin dagli anni 60/70 nello Xerox Park di Palo Alto. Si tratta del c.d. reasoning LLM (un modello linguistico orientato al ragionamento) il quale, se dotato di una sufficiente potenza di calcolo (che in questo momento in Italia potrebbe non esserci) comporta il ragionamento multi modale, il deep think (termine ad alto impatto dove in realtà ciascuno tende a ricondurre spiegazioni diverse, a volte anche difficili da orientare) e il ragionamento esteso che sembra essere il più interessante guardando ai dati disponibili da parte di alcune grandi imprese americane. Significa, in parte, ideare più soluzioni parallele, anche se tra
loro divergenti, per poi scegliere in rapida successione (in quello che secondo alcuni sarebbe un endurance cognitivo), quella che sembra più logica e coerente. Tale ipotesi è alla base di numerosi studi sulle smart city.
E’ possibile che nuovi chipset e una maggiore capacità/potenza di calcolo computazionale apra a metodi di apprendimento multilivello e auto-apprendimento cognitivo organizzato. Tuttavia risulta difficoltoso rinchiudere in una norma le previsioni di sviluppo di una tecnologia che oltre ad essere in rapida accelerazione, si orienta verso scenari difficili da prevedere, obbligando, a volte, gli interpreti a lavorare su delle supposizioni. Secondo un criterio di fantasia/pareidolia. Cercando cioè di ricondurre il possibile futuro prossimo a un’idea già nota, in tutto o in parte, alla mente umana contemporanea.
Il comma 3 sempre dell’art.16 ha cura di precisare che: “Nell’esercizio della delega di cui al comma 1, il Governo si attiene ai seguenti principi e criteri direttivi:
a) individuare ipotesi per le quali appare necessario dettare il regime giuridico dell’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale, nonché i diritti e gli obblighi gravanti sulla parte che intenda procedere al suddetto utilizzo;
b) prevedere strumenti di tutela, di carattere risarcitorio o inibitorio, e individuare un apparato sanzionatorio per il caso di violazione delle disposizioni introdotte ai sensi della lettera a)”;
Ad una prima lettura sembra interessante, soprattutto nella logica delle deleghe istitutive e attributive agli enti per il controllo e il perfezionamento dello sviluppo di queste tecnologie, il coordinamento con alcuni specifici ed individuati “regimi giuridici” (lett a). Avrebbe il potenziale pregio di importare il notevole compendio di quegli strumenti di tutela più classici e ben conosciuti dal nostro diritto quali possono essere per esempio quelli di natura inibitoria e risarcitoria. Sul punto in diritto, su questa nuova tecnologia, non c’è molta giurisprudenza (salvo alcune pronunce riferibili ad alcuni aspetti del metaverso) quantunque la casistica sembra destinata ad essere potenzialmente ampia e variegata. Si tratta anzitutto di individuare la corretta chiave interpretativa e in questo ambito il riferimento sembrerebbe a ispirazione della proprietà industriale che in Italia vanta ottime chiavi interpretative. Non a caso il terzo punto (dopo le lett. a) e b) è:
c) attribuire alle sezioni specializzate in materia di impresa le controversie relative alla disciplina introdotta ai sensi delle lettere a) e b) .
E’ utile sottolineare che una gran parte degli strilloni che da anni si affrettano a chiedere controlli esasperanti in ogni dove, indagini, approfondimenti e metodologie varie di blocco simili al copione di una sceneggiatura di una serie tv, non si sono mai soffermati su questo aspetto. Ha senso introdurre dei sistemi di protezione e difesa che si avvalgono del diritto considerando anzitutto la sapienza del diritto. La scienza del diritto infatti, a differenza di quello che pensano i frustrati del pericolo imminente, non è un pulsante che si attiva o che si spegne a piacimento: è una materia che si è sviluppata attorno al concetto di certezza. Affinché un provvedimento sia efficace, quest’ultimo deve trovare nel diritto e non solo nel potere d’imperio, una legittimazione che rappresenta anche il fondamentale perimetro dissuasivo alla sua violazione. Non è sufficiente scrivere una norma: gli si deve poi infondere quel tratto di diritto vivente.
In questo consiste la nostra capacità, come sistema evoluto della scienza del diritto, di individuare, attivare e dare seguito a una legge. Non è solo come viene scritta ma è anche il contesto. Purtroppo un po’ di persone che non hanno studiato giurisprudenza pretendono di decidere in questo ambito come si dovrebbe procedere senza nemmeno sapere la differenza tra il diritto della proprietà industriale e quello commerciale, come pure senza aver mai messo piede in una sezione di un Tribunale specializzata, per esempio, in materia di impresa. Per questi personaggi che impazzano sul web in siti anche ben concepiti, basta tradurre le parole quindi si prende il testo della legge di qualche nazione che ha fatto bene, a detta loro, si fa taglia e incolla e il gioco è fatto. La realtà di alcuni teorici del supercontrollo e dell’Ai che distruggerà (non si sa perché) il Mondo è abbastanza lacunosa. E mette più paura dell’Ai.
Il Governo Italiano ha invece fatto una scelta opportuna, strategica e pratica.
L’art. 18, denominato: “Uso dell’intelligenza artificiale per il rafforzamento della cybersicurezza nazionale” al comma primo prevede: “All’articolo 7, comma 1, del decreto-legge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109, dopo la lettera m -ter ) è inserita la seguente: «m -quater ) promuove e sviluppa ogni iniziativa, anche attraverso la conclusione di accordi di collaborazione con i privati, comunque denominati, nonché di partenariato pubblico-privato, volta a valorizzare l’intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza nazionale”.
Si tratta di una precisazione importante e un’aggiunta essenziale perché l’Italia deve colmare un gap che è andato aumentando nell’ultimo decennio a proposito della cybersicurezza. Questo ambito non solo rappresenta una frontiera all’avanguardia in una serie di scontri e incursioni frequentemente in essere da parte di collettivi sotto il controllo di stati avversari, ma è anche l’ultima evoluzione del più contemporaneo scenario di eventuali conflitti su larga scala. Bisogna entrare nell’ottica di idee che non esiste una guerra fisica che non sia anticipata o influenzata da uno scenario “cyber”. Nella cybersicurezza gli attacchi, se efficaci, hanno ripercussioni certe e debilitanti avuto riguardo a tutte le forze di sicurezza fisiche: del mare, di terra e dell’aria. Nonché a un insieme di aspetti logistici che possono mandare in tilt la società contemporanea attraverso le sue infrastrutture, dalle reti elettriche ai sistemi di pagamento.
L’Ai in questo campo è essenziale e irrinunciabile datosi il vantaggio strategico delle altre nazioni e alleanze che stanno investendo in questo settore. Pur con tutte le necessarie cautele in questo ambito è una tecnologia così trasformativa che non essere all’avanguardia crea un rischio esistenziale. Tutti conoscono la funzione deterrente dell’arma atomica, per quanto limitante è basata sul concetto: se la usi, potresti poi riceverla per ritorsione. Un gioco a somma zero che dovrebbe evitare la distruzione totale. Lo stesso può dirsi per la cybersicurezza.
Volendo quindi proseguire, e dando a questo punto per sinteticamente individuata l’attività in oggetto relativamente all’Ai, quest’ultima viene poi affrontata nel capo III, “strategia nazionale, autorità nazionali e azioni di promozione” che si apre con l’art. 19: “La strategia nazionale per l’intelligenza artificiale è predisposta e aggiornata dalla struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale”.
Tutto questo d’intesa con le Autorità nazionali per l’intelligenza artificiale di cui all’articolo 20, sentiti:
1) il Ministro delle imprese e del made in Italy per i profili di politica industriale e di incentivazione;
2) il Ministro dell’università e della ricerca per i profili relativi alla formazione superiore e alla ricerca;
3) il Ministro della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale;
Conclude poi l’articolo in questione: “ed è approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione digitale (CITD) di cui all’articolo 8, comma 2, del decreto-legge 1° marzo 2021, n. 22, convertito, con modificazioni, dalla legge 22 aprile 2021, n. 55”.
Sembra quindi che ci troviamo in presenza di tre direzioni. Sempre supervisionate, e autorizzate. Una prima, come peraltro avevamo già visto in precedenza, ci porta verso lo sviluppo e l’innovazione che passa attraverso le imprese. Il noto ruolo di creativo che viene riconosciuto all’imprenditore da cui promana una serie di iniziative che riguardano l’economia e il commercio con evidenti implicazioni anche nel mercato del lavoro. La seconda è l’attività di ricerca e sviluppo. Tradizionalmente organizzata attraverso i poli universitari che dovranno vincere la sfida di formazione, innovazione ma anche di valorizzazione dei c.d. cervelli. Di coloro cioè che decideranno di impegnarsi successivamente proprio in questo settore in Italia o quantomeno in Europa.
Il terzo invece è la difesa dove c’è peraltro un richiamo ai sistemi duali tramite una terminologia particolare: “impiegabili in chiave duale”. Qui si dovrebbe aprire una parentesi in quanto la preminenza della difesa in chiave di sicurezza nazionale dovrebbe dargli la possibilità di intervenire ovunque quindi anche altrove per esigenze di sicurezza nazionale.
Il riferimento solo ai c.d. sistemi duali sembra una lacuna. Il termine deriva dall’inglese dove ha una diversa declinazione a seconda del settore. E’ possibile che la norma voglia riferirsi al concetto di “dual use”. E’ importante capire che alcune terminologie, specialmente di importazione USA assumono una vita propria. Una loro evoluzione, nel significato che le definisce all’interno del microcosmo degli ambienti di studio, laboratori e ricerca scientifica. Si pensi alla teoria dell’evoluzione linguistica tra città basata sui cerchi di influenza delle popolazioni che si toccano e si influenzano a vicenda provocando l’evoluzione di un termine a seconda della zona in cui viene utilizzata e delle genti che lo impiegano. Allo stesso modo è difficile individuare il significato attuale di sistemi duali se la matrice è quella inglese. Può essere a scopi didattici, filosofici e in linea di massima per svolgere considerazioni su ricerca e sviluppo utile ma può rivelarsi anche
ondivago. Corre infatti il rischio che occorra prima dimostrare che lo sia, che siamo cioè in presenza di un sistema duale. Originando un confronto complesso. Potenzialmente quindi è una terminologia problematica in una legge che abbia degli scopi prefissati come questa.
Ne suggerisco il cambio con il termine dual technology di più facile interpretazione dal punto di vista in diritto. Il termine dual technology è considerato meno corretto se riferito a beni e servizi che meglio sono identificabili tramite le loro funzioni in chiave “dual use”. E’ spesso preferito, nella contrattualistica commerciale, perché di fatto le dual technology non sono una categoria chiusa. Anzi rappresentano una potenziale sfida nella loro individuazione. Usualmente vengono rivelate dopo un attività di ricerca che ne identifica la finalità principale. E si passa quindi al più semplice termine “dual use”. Molto di recente possiamo trovare un valido esempio. Un efficace utilizzo di un agente Ai ha portato alla scoperta di innumerevoli potenziali nuovi antibiotici che potrebbero risolvere per esempio il drammatico problema, molto attuale, dei c.d. batteri resistenti. Un grande successo per la scienza e un notevole passo avanti per la cura del malato. Tuttavia il medesimo
procedimento seguito è probabilmente in grado di sintetizzare ed elaborare anche dei virus. Se usato per studiare una cura come può essere un antibiotico nulla toglie all’ipotesi che venga impiegato anche per elaborare un virus che potrebbe diventare una potenziale arma biologica. Magari incrociato con alcuni altri patogeni a noi già noti. E letali. Guardando all’Ai in chiave complessiva e anticipando i risultati che nei vari campi possono portare potremmo essere in presenza di un applicazione pratica di una tecnologia che in questa fase è più gestibile, dal punto di vista in diritto con il termine dual technology. Perché consentirebbe una potenziale semplificazione per la sicurezza nazionale: tutto ciò che porta a quel risultato può essere considerato tale. Semplice e efficace.
Lo scopo della norma è quello di consentire l’utilizzo “pro” e vietare (o inibire) in ogni caso controllare l’eventuale utilizzo “contro”. Dobbiamo cioè poter prendere ciò che ci serve evitando di aprire una porta che potrebbe far entrare anche quello che ci condanna.
Per questa ragione occorrerebbe a mio avviso una preminenza del Ministero della difesa. Più facile da realizzare attraverso il concetto di dual technology.
Suggerisco inoltre a mezzo delle successive deleghe di introdurre un protocollo di congelamento di certune ricerche, in modo tale da fermarle e spostarle a una divisione ad hoc dove possano essere rivalutate. Una procedura di congelamento non significa rinunciare ma procedere con uno sviluppo diverso e diversamente supervisionato. Si ribadisce che la sicurezza, sana e responsabile, è essenziale.