
(AGENPARL) – mar 30 maggio 2023 Quaderni giuridici
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
F. Consulich, M. Maugeri, C. Milia, T.N. Poli, G. Trovatore
maggio 2023
L’attività di ricerca e analisi della Consob intende promuovere la riflessione e stimolare il
dibattito su temi relativi all’economia e alla regolamentazione del sistema finanziario.
I Quaderni di finanza accolgono lavori di ricerca volti a contribuire al dibattito accademico
su questioni di economia e finanza. Le opinioni espresse nei lavori sono attribuibili esclusivamente agli autori e non rappresentano posizioni ufficiali della Consob, né impegnano in
alcun modo la responsabilità dell’Istituto. Nel citare i lavori della collana, non è pertanto
corretto attribuire le argomentazioni ivi espresse alla Consob o ai suoi Vertici.
I Discussion papers ospitano analisi di carattere generale sulle dinamiche del sistema finanziario rilevanti per l’attività istituzionale.
I Quaderni giuridici accolgono lavori di ricerca volti a contribuire al dibattito accademico
su questioni di diritto. Le opinioni espresse nei lavori sono attribuibili esclusivamente agli
autori e non rappresentano posizioni ufficiali della Consob, né impegnano in alcun modo la
responsabilità dell’Istituto. Nel citare i lavori della collana, non è pertanto corretto attribuire
le argomentazioni ivi espresse alla Consob o ai suoi Vertici.
I Position papers, curati dalla Consob anche in collaborazione con altre istituzioni,
illustrano ipotesi di modifiche del quadro regolamentare o degli approcci di vigilanza e
ricognizioni di aspetti applicativi della normativa vigente.
Comitato di Redazione
Concetta Brescia Morra, Nadia Linciano, Rossella Locatelli, Caterina Lucarelli, Marco
Maugeri, Francesco Nucci, Francesco Saita, Umberto Tombari, Gianfranco Trovatore, Marco
Ventoruzzo
Segreteria di Redazione
Eugenia Della Libera, Paola Maione
Progetto Grafico
Studio Ruggieri Poggi
Stampa e allestimento
Marchesi Grafiche Editoriali Spa (Roma)
http://www.marchesigrafiche.it
Consob
00198 Roma – Via G.B. Martini, 3
t 06.8477.1
ISSN 2281-5236 (online)
ISSN 2281-5228 (stampa)
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
F. Consulich, M. Maugeri, C. Milia, T.N. Poli, G. Trovatore*
Abstract
Il testo affronta la distinzione tra sistemi di AI deboli e forti nel contesto del mercato finanziario.
I sistemi di AI deboli dipendono dalle istruzioni prestabilite di produttori, programmatori o utenti, mentre i
sistemi di AI forti sono dotati di capacità di auto-apprendimento e producono output autonomi e imprevedibili rispetto agli input iniziali. La diffusione di queste tecnologie nel mercato finanziario pone interrogativi
sulla tenuta del quadro normativo e sull’imputazione degli illeciti finanziari compiuti con l’aiuto di questi
sistemi, in particolare per i sistemi di AI forti, che richiedono criteri di imputazione della responsabilità
innovativi. Inoltre, i sistemi di AI forti sembrano incrinare l’applicazione del principio di neutralità tecnologica nella regolamentazione del settore finanziario. Il testo propone tre possibili soluzioni per reprimere le
condotte dannose dei sistemi di AI autonomi, ma ciascuna presenta criticità specifiche a seconda dei settori
dell’ordinamento coinvolti??.
Keywords: sistemi di AI, AI deboli, AI forti, insider trading, manipolazione del mercato.
(*) Federico Consulich – Università degli Studi di Torino;
Marco Maugeri – Università Europea di Roma;
Carlo Milia – CONSOB, Ufficio Abusi di Mercato;
Tommaso Nicola Poli – CONSOB, Ufficio Studi Giuridici;
Gianfranco Trovatore – CONSOB, Ufficio Studi Giuridici.
Si ringraziano Francesca Medda e Filippo Annunziata per i commenti ricevuti. Le opinioni espresse nel presente Quaderno sono attribuibili esclusivamente agli autori e non rappresentano posizioni ufficiali della Consob, né impegnano in alcun modo la responsabilità dell’Istituto. Nel citare i
contenuti del presente Quaderno, non è pertanto corretto attribuirli alla Consob o ai suoi Vertici. Errori e imprecisioni sono imputabili esclusivamente
agli autori.
(??) Testo redatto da un noto sistema online di chatbot, basato su un avanzato sistema di intelligenza artificiale, in risposta alla richiesta degli autori
(formulata alle ore 13:23 del 12 maggio 2023) di produrre un abstract del paragrafo “Conclusioni” del presente Quaderno.
Indice
INTRODUZIONE
CAPITOLO PRIMO
Sistemi di AI e abusi di mercato
1 Lo sviluppo dell’AI e il quadro normativo in materia di abusi di mercato
2 La distinzione tra AI “deboli” e AI “forti”
3 Machina delinquere non potest?
3.1 I sistemi di AI istruiti all’illecito
3.2 I sistemi di AI autori dell’illecito
4 Trading, abusi di mercato e AI: uno sguardo d’insieme
CAPITOLO SECONDO
L’adeguatezza della fattispecie normativa di abusi di mercato
1 Abuso di informazione privilegiata e AI
Quaderni giuridici
N. 29
maggio 2023
1.1 Criminal insider e AI
1.2 Insider di sé stesso e AI
1.3 Tipping, tuyautage e AI
2 Manipolazione di mercato e AI
2.1 L’approccio regolamentare europeo
2.2 La manipolazione operativa e l’AI
2.3 La manipolazione informativa e l’AI
3 Gli illeciti di abusi di mercato commessi da più AI collusi
4 La manipolazione informativa nei social network e l’AI
CAPITOLO TERZO
Profili penalistici
1 La delimitazione oggettiva degli illeciti di abuso di mercato e l’AI
2 Le aree di rilevanza penalistica dell’intelligenza artificiale
in ambito finanziario
3 Asimmetrie tecnologiche e informazione societaria
3.1 Il volto attuale dell’investitore ragionevole e la ‘trappola‘ della competenza:
alla ricerca dell’informazione finanziaria nei mercati contemporanei
3.2 La nascita dell’informazione price sensitive but non reasonable
4 Il ruolo del diritto penale nella regolazione dell’intelligenza artificiale
4.1 La prospettiva ‘evoluzionistica’: la responsabilità penale diretta
dell’agente artificiale
4.2 La prospettiva tradizionale. Variazione sul tema della responsabilità
della persona (fisica e/o giuridica): il modello ‘vicariale’
5 Segue: il ruolo del rischio nel controllo dei mercati, oggi
6 Possibili strategie punitive dell’individuo de lege ferenda
6.1 La posizione di garanzia sul ‘fatto’ dell’algoritmo
6.2 La responsabilità penale per il rischio illecito da intelligenza artificiale
7 Il problema del retribution gap in ottica comparata
7.1 Le riflessioni della dottrina angloamericana
7.2 Cenni alla giurisprudenza statunitense
7.3 Le iniziative tecniche e normative delle autorità di settore statunitensi
7.4 Lo scenario britannico
CONCLUSIONI
Bibliografia
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Introduzione
L’innovazione tecnologica ha visto in tempi recenti la diffusione di algoritmi
sempre più evoluti, capaci di sviluppare forme di autoapprendimento (self-learning) e
di reciproca interazione con tratti di “esperienza” e di “socialità” che evocano inevitabili
parallelismi con l’agire degli esseri umani. Al tempo stesso, cresce la consapevolezza
della novità dei problemi sollevati dall’utilizzo dell’intelligenza artificiale.
Si tratta, anzitutto, di problemi definitori. I sistemi di intelligenza artificiale
(di seguito verranno usate, indifferentemente, le espressioni AI, sistema di intelligenza
artificiale, agente artificiale, intelligenza artificiale) si sottraggono, infatti, a formulazioni linguistiche univoche in ragione della varietà delle configurazioni assunte. Sotto
questo profilo, pertanto, l’espressione «intelligenza artificiale» rappresenta al più un
concetto “riassuntivo”, la cui utilità risiede nell’aggregare sul piano lessicale programmi
che utilizzano differenti metodi ma che appaiono tutti accomunati dal medesimo elemento funzionale: la capacità di elaborare quantità enormi di dati in tempi estremamente ravvicinati, minimizzando i tempi di latenza e contribuendo così alla soluzione
efficiente di problemi che normalmente richiederebbero il concorso di diversi attori
umani muniti di competenze eterogenee [cfr. R. KONERTZ – R. SCHÖNHOF, Das technische
Phäneomen “Künstliche Intelligenz” im allgemeinen Zivilrecht, Baden-Baden, 2020, pp.
30 ss. e 135 (ove la qualificazione dell’AI come “Oberbegriff”)].
Si tratta però anche di affrontare complessi problemi tecnici perché qualsiasi
inquadramento concettuale di nuovi sviluppi della tecnologia, e a maggior ragione di
quella algoritmica, impone di considerarne le specifiche, e per molti versi uniche, caratteristiche, al fine di minimizzare il divario tra l’ambito teorico di una possibile regolamentazione e l’effettività concreta della sua applicazione. Sotto questo profilo, il legislatore si trova sempre ad affrontare un dilemma di ordine «cronologico» perché,
nell’inseguire le ragioni del mercato, rischia di intervenire o troppo “presto”, paralizzando l’innovazione senza averne compreso le potenzialità, o troppo “tardi”, lasciando
carta bianca agli “innovatori” senza averne compreso la pericolosità [A. KERKEMEYER,
Herausforderungen des Blockchain-Netzwerks für das Kapitalmarktrecht, in ZGR, 2020,
p. 673].
Ma più di tutto sono i problemi giuridici ad attrarre l’attenzione degli operatori (e quindi anche a legittimare uno studio quale quello versato nel Quaderno qui
prefato). L’affermazione dei sistemi di AI impone, infatti, una rinnovata comprensione
di categorie del diritto che si pensavano ormai consolidate.
Ciò è vero, in primo luogo, per la delicata questione se sia necessario (o anche
solo opportuno) ascrivere ai sistemi di AI una separata soggettività giuridica e, in caso
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
di risposta affermativa, se tale esito sia raggiungibile già in forza della disciplina esistente o non vi sia bisogno, piuttosto, di introdurre una nuova figura di personalità
(“elettronica”?): ponendosi allora, in questo secondo caso, il tema di verificare se la
personalità del sistema di AI vada concepita come “piena” (ossia equipollente a quella
delle persone fisiche o giuridiche) oppure limitata ai singoli aspetti di volta in volta
considerati rilevanti dall’ordinamento, senza bisogno di attribuire alla macchina la titolarità completa di diritti e obblighi [G. TEUBNER, Digitale Rechtssubjekte?, in AcP 218
(2018), pp. 155 ss.]. Si tratta, con ogni evidenza, di un problema nient’affatto marginale: si pensi alla possibilità di intestare al sistema algoritmico una autonoma capacità
negoziale ai fini del perfezionamento di contratti secondo la disciplina della rappresentanza volontaria. Si pensi, soprattutto, alla possibilità di imputare all’algoritmo
all’uopo personificato l’“intenzione” di porre in essere comportamenti dannosi e quindi
di fungere da centro di imputazione di fattispecie (antiche o nuove) di responsabilità
civile, amministrativa o penale.
Quest’ultimo è evidentemente un profilo di arduo inquadramento. Allo stato
attuale delle conoscenze e anche in ragione delle delicate implicazioni di ordine etico
che ne discenderebbero, appare a tutt’oggi difficile discorrere di un «libero arbitrio» o
di una «volontà» dell’algoritmo; e altrettanto difficile appare sul piano del fatto sia
delimitarne in concreto una eventuale “personalità”, in ragione della circostanza che
un algoritmo solitamente è costituito da catene o grappoli di altri algoritmi tra loro
dimostrare l’esistenza di un nesso di causalità tra il comportamento tenuto dall’algoritmo e il danno che ne sarebbe asseritamente derivato [A. AZZUTTI – W.G. RINGE- H.
SIEGFRIED STIEHL, Machine Learning, Market Manipulation, and Collusion on Capital Markets: Why the “Black Box” Matters, in 43 U. Pa. J. Int’l L. 80 (2021), pp. 120 s.]. Al fine
di evitare un “vuoto” di tutela il legislatore potrebbe certamente far transitare quella
responsabilità in capo alla figura umana più “vicina” al funzionamento della macchina:
si tratti poi del produttore, del programmatore o dell’utilizzatore (secondo un approccio
“umano-centrico” o “human-in-the-loop-approach”: v. ancora A. AZZUTTI-W.G. RINGEH. SIEGFRIED STIEHL, Machine Learning, cit., p. 128). Una soluzione, tuttavia, a sua volta
non priva di inconvenienti, almeno in tutte le ipotesi in cui il sistema di AI abbia raggiunto un tale grado di autonomia da rendere imprevedibili i propri comportamenti
[esponendo conseguentemente l’essere umano allo scenario di una responsabilità
“quasi-oggettiva”: v. T. BAUERMEISTER – T. GROBE, Personen im Recht – über Rechtssubjekte und ihre Rechtsfähigkeit, in ZGR, 2022, specie pp. 766 s.]. Il problema risiede, in
particolare, nella “mancanza di interpretabilità” dei modelli algoritmici, i quali non vengono programmati per «spiegare le correlazioni che hanno scoperto» e che normalmente sfuggono alla capacità cognitiva degli esseri umani [R. SEYFERT, Algorithms as
Regulatory Objects, cit., p. 14].
Vi sono poi gli specifici problemi giuridici sollevati dalla diffusione dell’intelligenza artificiale e che si prestano ad esser declinati (e risolti) in modo differente in
ragione del singolo settore dell’ordinamento di volta in volta considerato.
Quaderni giuridici
N. 29
maggio 2023
Così, gli Studiosi di diritto societario si interrogano sul ruolo che gli algoritmi
possono svolgere nel consentire agli amministratori di imprese organizzate in forma
azionaria di formulare un processo decisionale consapevole e informato ai fini dell’operatività della business judgment rule. E pur escludendosi la possibilità di nominare un
intero Roboboard o che i sistemi di AI si rendano destinatari di deleghe esecutive ai
sensi dell’art. 2381 c.c., non si manca di sottolineare la notevole incidenza che il ricorso
a quei sistemi può avere sia sulla conformazione degli obblighi degli amministratori
(principalmente nella prospettiva del dovere di agire in modo informato, di curare e
valutare l’adeguatezza degli assetti organizzativi, di motivare le decisioni di gestione),
sia, e conseguentemente, sui termini di una loro responsabilità ai sensi dell’art. 2392
c.c. (cfr. G.D. MOSCO, L’intelligenza artificiale nei consigli di amministrazione, in AGE, n.
1, 2019, pp. 247 ss.; N. ABRIANI, Prolegomeni a uno studio sull’impatto dell’intelligenza
artificiale sulla corporate governance, in Il nuovo diritto delle società, n. 3, 2020, pp.
261 ss.). Altrettanto percepito è però anche il rischio che l’utilizzo della tecnologia
acuisca i conflitti di agenzia immanenti al governo societario in quanto i sistemi di
intelligenza artificiale possono rendere più agevole per i manager che ne hanno il controllo diretto o indiretto attuare comportamenti opportunistici senza timore di essere
adeguatamente vigilati (cfr. L. ENRIQUES – D.A. ZETZSCHE, Corporate Technologies and the
Tech Nirvana Fallacy, ECGI Law Working Paper, March 2020).
Crescente attenzione viene inoltre riservata alle conseguenze dell’impiego di
algoritmi “intelligenti” per il diritto antitrust. In questo caso è la presenza di programmi
che coordinano i propri comportamenti in materia di fissazione dei prezzi (o l’utilizzo
della medesima piattaforma algoritmica da parte di più imprese) a evocare il tema della
collusione e quindi dell’intesa restrittiva della concorrenza [J. LÜBKE, Preisabstimmung
durch Algorithmen, in ZHR 185 (2021), pp. 723 ss.]. Si tratta di uno scenario che non
si può escludere, anche se esso sembra presupporre sistemi di AI particolarmente evoluti in quanto in grado di elaborare modalità sofisticate di interazione reciproca e di
applicare conseguentemente prezzi alterati che massimizzino il profitto congiunto
delle imprese utilizzatrici [U. SCHWALBE, Algorithms, Machine Learning, and Collusion,
June 2018, in http://www.ssrn.com, p. 24].
Ma è con riguardo al funzionamento del mercato dei capitali che il diffuso
impiego di nuove “entità” tecniche munite di intelligenza artificiale comporta le sfide
più delicate. Qui si tratta, infatti, di articolare una disciplina che protegga l’integrità
dei mercati e tuteli gli investitori senza ostacolare indebitamente lo sviluppo della finanza digitale. L’innovazione tecnologica può incrementare l’efficienza del mercato,
aumentandone la liquidità e riducendo al tempo stesso i costi transattivi e i tempi di
esecuzione degli ordini di acquisto e vendita. Ma l’innovazione può anche agevolare la
consumazione di figure manipolative del mercato tali da minare gravemente la fiducia
del pubblico, da disincentivare la partecipazione degli investitori più evoluti e da alterare irreparabilmente l’ordinato funzionamento del meccanismo di price discovery.
Il compito di chi intenda avvicinarsi a tali problemi non è certamente agevole.
Basti pensare, ad esempio, al rischio, da un lato, di una applicazione indiscriminata della disciplina degli abusi di mercato – ove si arresti l’analisi al piano dell’elemento oggettivo dell’illecito, attesa la capacità dei sistemi di AI di incidere in modo
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
significativo sul livello dei prezzi e allora anche di fissarli a un livello anomalo (come
dimostrato dal dibattito antitrust appena ricordato) – e, dall’altro, di una generalizzata
impunità per difetto dell’elemento soggettivo (in termini di dolo o comunque di consapevolezza della potenzialità dannosa della condotta), attesa la già menzionata difficoltà di “soggettivizzare” l’intelligenza artificiale e quindi anche di applicarle i consueti
parametri di imputazione della responsabilità.
Si pensi, altresì, all’eventualità che le nuove tecnologie mettano in crisi paradigmi consolidati della regolamentazione europea degli abusi di mercato: primo fra
tutti, quello dell’investitore “ragionevole” evocato dall’art. 7 MAR il quale dovrebbe
assumere le proprie decisioni sulla base di notizie oggettive, attendibili e soprattutto
idonee a segnalare un valore intrinseco («reale») del titolo diverso dal prezzo di mercato
ma che, ove assuma la veste di trader algoritmico, si trova a effettuare scelte di acquisto o vendita che poco hanno a che fare con il valore intrinseco degli strumenti finanziari negoziati, con conseguente emersione di informazioni “privilegiate” (perché idonee a influire in modo sensibile sui prezzi degli strumenti finanziari), ma non
ragionevoli (perché prive di correlazione con il valore fondamentale del titolo e con
l’andamento del mercato) [v. F. CONSULICH, Il nastro di Möbius. Intelligenza artificiale e
imputazione penale nelle nuove forme di abuso del mercato, in Banca, borsa, tit. cred.,
n. 1, 2018, pp. 207 ss.; con riferimento alle cripto-attività, M. MAUGERI, Cripto-attività
e abusi di mercato, in Oss. dir. civ. e comm., Speciale/2022, pp. 413 ss., specie § 5].
Il Quaderno si propone, appunto, lo scopo di verificare se le fattispecie tradizionali in materia di abusi di mercato scolpite da MAR siano tuttora idonee a governare
la complessità della negoziazione algoritmica o richiedano piuttosto di essere adattate
all’unicità dell’agente AI, se non addirittura di essere integralmente ripensate nei loro
archetipi concettuali fondativi. Al riguardo, diverse sono le alternative di policy astrattamente ipotizzabili. Una prima opzione attiene alla conformazione stessa della regolamentazione e alla possibilità di transitare da un approccio “casistico”, come quello
attuale, basato sulla tipizzazione delle modalità di abuso (“rules-based approach”) a
una impostazione articolata per principî generali (“principles-based governance regime”) [R. SADAF – O. MCCULLAGH – C. GREY- E. KING-B.SHEEHAN – M. CUNNEEN, Algorithmic
Trading, High-frequency Trading: Implications for MiFID II and Market Abuse Regulation
(MAR) in the EU, 2021, in http://www.ssrn.com, p. 4]. La scelta di predisporre in via normativa
una lista predeterminata di condotte manipolative comporta infatti, inevitabilmente,
l’esigenza di un costante aggiornamento alle condizioni indotte dall’operatività dei sistemi di AI: una “corsa” nella quale, tuttavia, la legge non riuscirebbe mai a raggiungere
l’algoritmo, data la capacità di apprendimento di quest’ultimo (in una sorta di riedizione tecnologica del paradosso di Zenone). Ciò tanto più se si considera che l’essenza
dei sistemi autonomi o “forti” di AI risiede nella capacità di individuare strategie di
negoziazione ulteriori rispetto a quelle ragionevolmente attuabili da un operatore
umano, con conseguente incapacità di quest’ultimo di seguire pienamente il processo
decisionale dell’algoritmo [v., segnalando questo aspetto come “black-box problem”, A.
AZZUTTI – W.G. RINGE – H. SIEGFRIED STIEHL, Machine Learning, cit., pp. 118 s.].
Vi è poi il problema, già segnalato, della imputabilità della responsabilità conseguente al comportamento manipolativo dell’intelligenza artificiale. Qui l’alternativa
Quaderni giuridici
N. 29
maggio 2023
si muove tra una disciplina che guardi unicamente agli effetti oggettivi della negoziazione algoritmica (“outcome-based approach”) contemplando una serie di esenzioni o
di cause di giustificazione (ad es., adeguando alla realtà dei sistemi di AI il riferimento
ai “legittimi motivi” contenuto nell’art. 12 di MAR); e una disciplina che ricolleghi la
responsabilità del soggetto umano alla violazione di predefiniti obblighi. Aderendo a
questa seconda linea di ragionamento si potrebbe immaginare l’obbligo del designer
algoritmico di innestare nel programma regole di protezione (“Schutznormen”) che vigilino sulla condotta del sistema e siano idonee, a una valutazione di ragionevolezza
ex ante, a neutralizzarne “decisioni” contrarie agli interessi protetti dall’ordinamento;
si potrebbe immaginare, inoltre, di statuire l’obbligo dell’impresa utilizzatrice di consentire all’Autorità di Vigilanza l’“accesso” all’algoritmo e di spiegarne le modalità di
funzionamento (cfr., con riguardo al problema dei comportamenti algoritmici collusivi,
v. J. LÜBKE, Preisabstimmung, cit., p. 731), se non addirittura l’obbligo dei partecipanti
al mercato di servirsi di algoritmi il cui comportamento corrisponda alle aspettative di
una “corretta” negoziazione di mercato (in questo senso e ragionando di un “behaviouralist approach”, R. SADAF – O. MCCULLAGH – C. GREY – E. KING – B. SHEEHAN – M. CUNNEEN,
Algorithmic Trading, cit., p. 18); e si potrebbe infine immaginare anche il passaggio da
un sistema che reprime sul piano penale la condotta di esseri umani che creano algoritmi con l’intento di consumare un abuso di mercato a un sistema che sanzioni in
futuro sul piano solo amministrativo la violazione del dovere di progettare/utilizzare
algoritmi che prevengano l’abuso.
Quest’ultima soluzione influenzerebbe, certo, una rimeditazione dell’assetto
domestico attuale imperniato sul “doppio binario” sanzionatorio (amministrativo e penale); un assetto il quale, tuttavia, da tempo assicura l’effettività della disciplina grazie
alla efficace applicazione delle sanzioni amministrative, ma che, con il larghissimo,
pressoché identico, perimetro associato alle fattispecie sanzionate penalmente, espone
al rischio di produrre sovrapposizioni difficili da trattare tanto sul piano sistematico
della costruzione dell’illecito manipolativo, quanto su quello pratico della sua repressione.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Sistemi di AI e abusi di mercato
1 Lo sviluppo dell’AI e il quadro normativo in materia di abusi
di mercato
La riflessione giuridica s’interroga di frequente sull’impatto delle trasformazioni tecnologiche e sociali nel quadro normativo1, giungendo talvolta a conclusioni
non univoche in merito alla tenuta di tale quadro e alla sua elasticità nel disciplinare
fenomeni radicalmente nuovi quali – ad esempio – l’attitudine all’illecito di agenti non
umani2.
Quaderni giuridici
N. 29
maggio 2023
Risale al 1998 il magistrale confronto tra Natalino Irti e Giorgio Oppo sulla vitalità delle disposizioni del Codice civile
in ambito contrattuale. Il primo (N. IRTI, Scambi senza accordo, in Riv. trim. dir. proc. civ., n. 2, 1998, pp. 347 ss.) ha
sostenuto che l’impoverimento della lingua nel contratto e nelle contrattazioni a seguito dell’applicazione della tecnologia nella stipulazione di negozi giuridici, con il passaggio dall’homo loquens all’homo videns. Al contrario, il secondo (G. OPPO, Disumanizzazione del contratto, in Riv. dir. civ., 1998, pp. 525 ss.) ha escluso nelle innovative manifestazioni del consenso e di conclusione del contratto, veicolate dalla tecnologia, la sussistenza di «scambi senza
accordo»: seppure tradizionalmente il contratto e le relative negoziazioni siano state plasmate, nell’immaginario degli
ideatori della disciplina civilistica, mediante lo scambio verbale di una proposta e di un’accettazione, «l’accordo non
presuppone una o altra lingua ma solo l’espressione di voleri concordanti»; in altri termini, secondo quest’ultimo autore
anche nelle moderne modalità di contrattazione è ravvisabile l’accordo poiché né la trattativa né il dialogo né l’espressione linguistica sono richieste dalla disciplina codicistica perché vi sia il contratto. Le più recente digitalizzazione delle
negoziazioni ha portato a rivedere però alcune di queste ultime conclusioni. Si rinvia a G. FINOCCHIARO, La conclusione
del contratto telematico mediante i software agents: un falso problema giuridico?, in Contr. impr., n. 2, 2002, pp. 500
ss., in particolare p. 505, la quale, riportando l’ipotesi di un individuo che si rivolge ad un software con l’indicazione di
comprare un determinato libro al prezzo più basso offerto sul mercato e comunque ad un prezzo non superiore all’importo di euro 15,00, affermava la riconducibilità della stipulazione all’individuo per la predeterminazione degli elementi
del contratto. Recentemente la medesima A., Il contratto nell’era dell’intelligenza artificiale, in Riv. trim. dir. proc. civ.,
n. 2, 2018, pp. 441 ss., giunge a conclusioni opposte per via dell’evoluzione della tecnologia che ha diffuso algoritmi
in grado di apprendere in modo autonomo e di prendere decisioni senza che le relazioni causa-effetto siano necessariamente comprese dall’uomo. Sulla capacità delle disposizioni civilistiche in materia di responsabilità di adeguarsi,
con innovazioni normative minime, nell’esperienza dell’Europa continentale, alle trasformazioni della società e alle
tecnologie produttive si rinvia a U. RUFFOLO, Intelligenza artificiale, machine learning, responsabilità da algoritmo, in
Giur. it., n. 1, 2019, pp. 1696-1697. Come si vedrà nel prosieguo, la questione dell’impatto dell’intelligenza artificiale
costituisce oggetto di un dibattito recente anche nella dottrina penalistica che valuta la validità dell’applicazione dei
tradizionali modelli di attribuzione della responsabilità penale in relazione ad eventi lesivi che derivano dall’agire di un
sistema di AI ovvero dall’interazione uomo e AI. Oltre ai contributi infra citati, si rinvia ex multis a C. PIERGALLINI, Intelligenza artificiale: da ‘mezzo’ ad ‘autore’ del reato, in Riv. it. dir. proc. pen., n. 4, 2020, pp. 1743 ss.; I. SALVADORI, Agenti
artificiali, opacità tecnologica e distribuzione della responsabilità penale, in Riv. it. dir. proc. pen., n. 1, 2021, pp. 83 ss.;
B. PANATTONI, Intelligenza artificiale: le sfide per il diritto penale nel passaggio dall’automazione tecnologica all’autonomia artificiale, in Dir. inf., n. 2, 2021, pp. 317 ss.; M.B. MAGRO, Biorobotica, robotica e diritto penale, in D. PROVOLO – S.
RIONDATO – F. YENISEY, Genetics, robotics, law punishment, Padova, 2014, pp. 499 ss. Più in generale, con riferimento
alle implicazioni derivanti dalle innovazioni tecnologiche sulla ricostruzione della responsabilità penale, si segnala il
contributo più risalente di G. MARINUCCI, Innovazioni tecnologiche e scoperte scientifiche: costi e tempi di adeguamento
delle regole di diligenza, in Riv. it. dir. proc. pen., n. 1, 2005, pp. 29 ss.
Sulle applicazioni di intelligenza artificiale in generale si rinvia a F. BASILE, Diritto penale e intelligenza artificiale, in
Giur. it., Suppl. 2019, pp. 67 ss. Con particolare riguardo all’utilizzazione dell’intelligenza artificiale nell’attività di giustizia (e polizia) predittiva si rinvia a M. LUCIANI, La decisione giudiziaria robotica, in Riv. AIC (rivistaaic.it), n. 3, 2018,
La multiforme prassi delle imprese che adottano ormai capillarmente e su
larga scala sistemi di intelligenza artificiale (cc.dd. sistemi di AI) fornisce al giurista
ulteriore materia di riflessione, sia nell’ermeneutica del diritto vigente sia nell’elaborazione di regole nuove in grado di contemperare l’esigenza di prevenire tali illeciti con
l’intento di non arrestare lo sviluppo tecnologico3. È vero, infatti, che alcune decisioni
– incluse quelle idonee a causare eventi pregiudizievoli – possono ormai essere assunte
sia dall’uomo sia dai sistemi di AI4. Ciò spiega l’interesse per una disciplina ad hoc
dell’intelligenza artificiale da parte delle istituzioni nazionali5 e delle istituzioni UE6,
872 ss.; F. DONATI, Intelligenza artificiale e giustizia, in Riv. AIC (rivistaaic.it), n. 1, 2020, pp. 415 ss.; G. CANZIO, Intelligenza artificiale e processo penale, in Cass. pen., n. 3, 2021, pp. 797 ss.; S. ARDUINI, La “scatola nera” della decisione
giudiziaria: tra giudizio umano e giudizio algoritmico, in BioLaw Journal – Rivista di BioDiritto (biodiritto.org), n. 2,
2021, pp. 453 ss.; L. ALGERI, Intelligenza artificiale e polizia predittiva, in Dir. pen. proc., n. 6, 2021, pp. 724 ss.; G. CONTISSA
– G. LASAGNI – G. SARTOR, Quando a decidere in materia penale sono (anche) algoritmi e IA: alla ricerca di un rimedio
effettivo, in Diritto di Internet, n. 4, 2019, pp. 619 ss. e, con riferimento anche alla decisione amministrativa automatizzata, ex multis C. NAPOLI, Algoritmi, intelligenza artificiale e formazione della volontà pubblica: la decisione amministrativa e quella giudiziaria, in Riv. AIC (rivistaaic.it), n. 3, 2020, pp. 318 ss., e S. SASSI, Gli algoritmi nelle decisioni
pubbliche tra trasparenza e responsabilità, Analisi giur. econ., n. 1, 2019, pp. 109 ss.
Amazon, Google, Facebook, Ibm, Microsoft e DeepMind hanno elaborato nel 2016 sette regole per contenere l’evoluzione tecnologica e riparare i danni cagionati dall’intelligenza artificiale: «1. Le tecnologie devono fornire benefici al
numero maggiore di persone possibile. 2. Informare gli utenti sui risultati delle ricerche e tener conto del loro feed
back. 3. Rendere trasparenti le ricerche e dialogare sulle implicazioni etiche, sociali ed economiche. 4. Rendere conto
dei risultati delle ricerche a un alto numero di portatori di interessi. 5. Coinvolgere la comunità del business per rispondere alle preoccupazioni e far capire le opportunità. 6. Proteggere la privacy e la sicurezza degli individui; fare in
modo che la comunità dell’IA sia socialmente responsabile; assicurare che la tecnologia sia sicura e affidabile; non
violare le convenzioni internazionali o i diritti umani. 7. Essere certi che i sistemi dotati di IA siano comprensibili alle
persone». Si veda P. BOTTAZZINI, Intelligenza artificiale. I sei big dettano le regole, in Pagina 99, 8 ottobre 2016, pp. 2021. Successivamente, a gennaio 2017, Elon Musk, Stephen Hawking e altri 2335 ricercatori ed esperti, sotto l’egida del
neocostituito Istituto Future of Life, hanno approvato un manifesto di 23 principi, i cc.dd. “Principi di Asilomar”, suddivisi in tre aree: Ricerca; Etica e valori; Problemi di scenario. Questi tentativi di normare l’intelligenza artificiale risale
ad Asimov che ha elaborato le tre leggi della robotica, in Circolo vizioso del 1942, aventi il seguente tenore letterale:
«1. Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un
essere umano riceva danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non
vadano in contrasto alla Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa
non contrasti con la Prima o con la Seconda Legge». Queste leggi sono state ritenute superate per la sopravvenienza
di nuovi principi etici e morali da parte di S. CRISCI, Intelligenza artificiale ed etica dell’algoritmo, in Foro amm., n. 10,
2018, p. 1793. Sull’esigenza di individuazione di un punto di equilibrio nel bilanciamento dei diritti fondamentali con
l’utilizzazione dell’intelligenza artificiale si veda C. BUCHARD, L’intelligenza artificiale come fine del diritto penale? Sulla
trasformazione algoritmica della società, in Riv. it. dir. proc. pen., n. 4, 2019, pp. 1909 ss., spec. pp. 1936-1937.
Sulla difficoltà dei sistemi di AI di garantire il medesimo standard qualitativo di ragionamento della mente umana si
veda E. BATTELLI, Necessità di un umanesimo tecnologico: sistemi di intelligenza artificiale e tutela della persona, in Dir.
fam. pers., n. 3, 2022, p. 1099. Si veda tuttavia il caso del sistema di AI di conversazione Lamda (acronimo di Linguage
Model for Dialogue Applications) che l’ingegnere di Google Black Lemoine ha dichiarato senziente, anche in contrasto
con i vertici della piattaforma digitale di comunicazione e per questo sospeso dal suo lavoro. Si rinvia a M. SIDERI,
«L’intelligenza artificiale» sta diventando cosciente. In Google scoppia un caso, in Corriere della Sera, 14 giugno 2022,
p. 33.
Si veda il Programma Strategico Intelligenza Artificiale 2022-2024 (https://innovazione.gov.it/notizie/articoli/intelligenza-artificiale-l-italia-lancia-la-strategia-nazionale/).
L’utilizzazione dell’intelligenza artificiale porta, infatti, con sé numerosi vantaggi. Alcuni di questi sono indicati nel
Libro bianco sull’intelligenza artificiale: per i cittadini una migliore assistenza sanitaria, un minor numero di guasti
degli elettrodomestici, sistemi di trasporto più sicuri e più puliti e servizi pubblici migliori; per le imprese sarà possibile
avvalersi di nuove generazioni di prodotti e servizi nei settori in cui l’Europa è particolarmente forte (macchinari,
trasporti, cibersicurezza, agricoltura, economia verde e circolare, assistenza sanitaria e settori ad alto valore aggiunto
come la moda e il turismo); per i servizi di interesse pubblico la riduzione dei costi di fornitura di servizi (trasporti,
istruzione, energia e gestione dei rifiuti), migliorando la sostenibilità dei prodotti e dotando le forze dell’ordine di
strumenti appropriati per garantire la sicurezza dei cittadini, con adeguate garanzie quanto al rispetto dei loro diritti
e delle loro libertà.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
che nei loro documenti ufficiali includono riferimenti fino a qualche tempo fa relegati
alla letteratura di fantascienza, quali le leggi della robotica di Asimov7.
Ad una concezione che non pone limiti al progresso e a forme d’ibridazione
tra la macchina e la persona umana, se ne contrappone un’altra che auspica limitazioni
e regole dettagliate facendo leva sul principio di precauzione8.
Tra questi due orientamenti si pone l’approccio della Commissione europea,
che nella proposta di Regolamento (UE) sull’intelligenza artificiale (legge sull’intelligenza artificiale) del 21 aprile 2021, COM(2021) 206 final, si prefigge di non inibire lo
sviluppo delle applicazioni di intelligenza artificiale, pur distinguendo i sistemi di AI a
seconda del rischio di compromissione per i diritti fondamentali dell’uomo (c.d. riskbased approach) e combinando diverse tecniche di protezione del rischio: il principio di
precauzione per i sistemi di AI a rischio inaccettabile e il principio di prevenzione per i
sistemi di AI a rischio alto9.
A questa proposta di regolamentazione si affianca, più recentemente, la proposta di Direttiva (UE) relativa all’adeguamento all’intelligenza artificiale delle norme
in materia di responsabilità extracontrattuale (direttiva sulla responsabilità da intelligenza artificiale) del 28 settembre 2022, COM(2022) 496 final. Queste regole di armonizzazione delineano una concezione antropocentrica dell’intelligenza artificiale nel
tentativo di collegare gli effetti prodotti sulla realtà esterna dai sistemi di AI all’uomo
e, in particolare, a fornitori e utenti10.
Si fa riferimento al Considerando T della Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL), ove si precisa «che le leggi
di Asimov devono essere considerate come rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot, compresi i
robot con capacità di autonomia e di autoapprendimento integrate, dal momento che tali leggi non possono essere
convertite in codice macchina».
T.E. FROSINI, L’orizzonte giuridico dell’intelligenza artificiale, in Dir. inf., n. 1, 2022, p. 12. Sull’applicazione allo sviluppo
generato dall’intelligenza artificiale del principio di precauzione, giustificato originalmente per la protezione dell’ambiente e della salute, si rinvia a G. PROIETTI, La responsabilità nell’intelligenza artificiale e nella robotica, Milano, 2020,
pp. 39 ss.
Sulla proposta di Regolamento (UE) sull’intelligenza artificiale (legge sull’intelligenza artificiale) del 21 aprile 2021,
COM(2021) 206 final, si rinvia ai commenti di G. FINOCCHIARO, La proposta di Regolamento sull’intelligenza artificiale: il
modello basato sulla gestione del rischio, in Dir. inf., n. 2, 2022, pp. 303 ss.; G. RESTA, Cosa c’è di ‘europeo’ nella proposta
di Regolamento UE sull’intelligenza artificiale, in ivi, pp. 323 ss.; C. SCHEPISI, Le “dimensioni” della regolazione dell’intelligenza artificiale nella proposta di regolamento della Commissione, in I Post di AISDUE (aisdue.eu), IV, 2022, Sezione
“Atti convegni AISDUE”, n. 16, 28 marzo 2022 Quaderni AISDUE, pp. 330 ss.; F. DONATI, Diritti fondamentali e algoritmi
nella proposta di regolamento sull’intelligenza artificiale, in Dir. Un. eur., nn. 3-4, 2021, pp. 453 ss.; G. ALPA, Quale
modello normativo europeo per l’intelligenza artificiale, in Contr. impr., n. 4, 2021, pp. 1003 ss.; G. CONTALDI, Intelligenza
artificiale e dati personali, in Ord. int. dir. um., n. 5, 2021, pp. 1193 ss.; C. CASONATO – B. MARCHETTI, Prime osservazioni
sulla proposta di regolamento della Commissione UE in materia di intelligenza artificiale, in BioLaw Journal – Rivista di
BioDiritto (biodiritto.org), n. 3, 2021, pp. 415 ss.; G. PROIETTI, Intelligenza artificiale: una prima analisi della proposta di
regolamento europeo, in dirittobancario.it, maggio 2021. Al testo iniziale ha fatto seguito l’orientamento generale del
Consiglio dell’Unione europea sulla proposta del 6 dicembre 2022, costituente tuttora la base dei preparativi per i
negoziati con il Parlamento europeo.
10 Si intende fare riferimento alla Proposta di Direttiva relativa all’adeguamento delle norme in materia di responsabilità
civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale) del 28 settembre 2022, COM(2022) 496 final. In questa proposta è elaborato un principio generale in forza del quale la responsabilità per i danni cagionati dai sistemi di AI dovrebbe ricadere sull’uomo, non soltanto nelle ipotesi in cui non siano
state date abbastanza informazioni agli utenti sul funzionamento del sistema di AI o in presenza di un difetto del
sistema di AI, ma altresì qualora l’algoritmo sia così complesso da non consentire al programmatore di comprendere i
motivi delle sue decisioni. In questo senso A. LONGO, Il robot che rompe paga. Stretta europea sui produttori, in la
Repubblica, 2 ottobre 2022, p. 28, e G. GHIDINI, Ma chi paga i danni. Se il robot combina guai?, in Corriere della Sera, 13
Quaderni giuridici
N. 29
maggio 2023
Anche la Risoluzione del Parlamento europeo del 16 febbraio 2017 recante
raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica
(2015/2103(INL)) e la Risoluzione del Parlamento europeo del 6 ottobre 2021 sull’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia
e giudiziarie in ambito penale (2020/2016(INI)) riconoscono la necessità di un quadro
normativo orientato ad affermare sempre la responsabilità umana11.
Con particolare riguardo al mercato finanziario, l’applicazione dei sistemi di
AI ha trasformato la prestazione di alcuni servizi12, quali la negoziazione algoritmica
ad alta frequenza (c.d. high frequency trading), la consulenza finanziaria automatizzata
(c.d. robo-advice) e la valutazione del merito creditizio (c.d. credit scoring)13.
febbraio 2023, p. 6. In particolare, la proposta elabora una presunzione relativa di nesso di causalità tra la colpa del
convenuto e l’output prodotto dal sistema di AI o la mancata produzione di output da parte di tale sistema anche
qualora l’attore abbia unicamente dimostrato che il danno proviene dal sistema di AI. In dottrina si veda il commento
di G. PROIETTI, Sistemi di Intelligenza Artificiale e Responsabilità: la proposta di AI Liability Directive, in dirittobancario.it,
6 ottobre 2022. In precedenza, vi sono state una serie di proposte: la Risoluzione del Parlamento UE del 16 febbraio
2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica ha proposto l’attribuzione di una soggettività giuridica piena almeno per i robot più sofisticati in modo tale da consentire l’applicazione
di meccanismi di riparazione per equivalente del danno cagionato dal funzionamento dei medesimi; il “Libro bianco
sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia” della Commissione europea, COM (2020)
65 final, 16 febbraio 2020, ha sostenuto la necessità di adeguare la normativa in materia di sicurezza e responsabilità
alle problematiche che i sistemi di AI sollevano; la “Relazione sulle implicazioni dell’intelligenza artificiale, dell’Internet
delle cose e della robotica in materia di sicurezza e responsabilità” della Commissione europea, COM (2020) 64 final,
16 febbraio 2020, ha enunciato expressis verbis l’esigenza che il livello di protezione della vittima di sistemi di AI non
sia inferiore a quello assicurato alla vittima di prodotti tradizionali, non compromettendo lo sviluppo dell’innovazione
tecnologica; infine, la Risoluzione del Parlamento UE del 20 ottobre 2020 recante raccomandazioni alla Commissione
su un regime di responsabilità civile per l’intelligenza artificiale, (2020/2014(INL)), ha distinto gli effetti in base ai
sistemi di AI, prevedendo una responsabilità oggettiva per i sistemi di AI ad alto rischio, con assicurazione obbligatoria,
e una responsabilità per colpa presunta per i sistemi di AI a rischio limitato. Sul dibattito in ambito UE, con particolare
riferimento alla posizione della Commissione, v. U. SALANITRO, Intelligenza artificiale e responsabilità: la strategia della
Commissione europea, in Riv. dir. civ., n. 6, 2020, pp. 1246 ss., spec. pp. 1249 ss.; A. FUSARO, Quale modello di responsabilità per la robotica avanzata? Riflessioni a margine del percorso europeo, in Nuova giur. civ. comm., n. 6, 2020, pp.
1344 ss. Sulla Risoluzione del Parlamento europeo del 20 ottobre 2020 si veda P. SERRAO D’AQUINO, La responsabilità
civile per l’uso di sistemi di intelligenza nella Risoluzione del Parlamento europeo del 20 ottobre 2020: “Raccomandazione alla Commissione sul regime di responsabilità civile e intelligenza artificiale”, in DPER online, n. 1, 2021, pp. 248
11 Si veda il Considerando Z della Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla
Commissione concernenti norme di diritto civile sulla robotica, (2015/2103(INL)), e il Considerando J e il punto 13 della
Risoluzione del Parlamento europeo del 6 ottobre 2021 sull’intelligenza artificiale nel diritto penale e il suo utilizzo da
parte delle autorità di polizia e giudiziarie in ambito penale (2020/2016(INI)). Su quest’ultima risoluzione si rinvia a G.
BARONE, Intelligenza artificiale e processo penale: la linea dura del Parlamento europeo. Considerazioni a margine della
Risoluzione del Parlamento europeo del 6 ottobre 2021, in Cass. pen., n. 3, 2022, pp. 1180 ss., e A. GIANNINI, Intelligenza
artificiale, human oversight e responsabilità penale: prove d’impatto a livello europeo, in disCrimen (discrimen.it), 21
novembre 2022, pp. 1, spec. p. 12.
12 Sulle implicazioni della rivoluzione digitale nel settore finanziario in dottrina si rinvia a G. ALPA, Fintech: un laboratorio
per i giuristi, in Contr. impr., n. 2, 2019, pp. 377 ss., e nella dottrina straniera R.P. BUCKLEY – D.W. ARNER – D.A. ZETZSCHE
– E. SELGA, The Dark Side of Digital Financial Transformation: The new Risks of FinTech and the Rise of RegTech, in EBI
(European Banking Institute), Working Paper Series, n. 54, 2019, pp. 1 ss., T.C.W. LIN, Artificial intelligence, finance, and
the law, in Fordham Law Rev., Vol. 88, Issue 2, pp. 531 ss. Sull’erogazione di servizi finanziari digitalizzati G. RUTA, I.A.
nei reati economici e finanziari, in AA.VV., Intelligenza artificiale e giurisdizione penale, Atti del Workshop della Fondazione Vittorio Occorsio, Università Mercatorum, Roma, 19 novembre 2021, pp. 58 ss.
13 Indica espressamente i servizi indicati quali campi di applicazione dell’AI nel settore finanziario M. RABITTI, Intelligenza
artificiale e finanza. La responsabilità civile tra rischio e colpa, in Riv. trim. dir. econ. (fondazionecapriglione.luiss.it),
Suppl. n. 2 al n. 3/2021, p. 300. Più in generale si rinvia a A. PERRONE, Intelligenza artificiale e servizi di investimento, in
C. COSTA – A. MIRONE – R. PENNISI – P.M. SANFILIPPO – R. VIGO (a cura di), Studi di diritto commerciale per Vincenzo Di
Cataldo, Vol. II, Torino, 2021, pp. 711 ss., e E. MOSTACCI, L’intelligenza artificiale in ambito economico e finanziario, in
DPCE online (dpceonline.it), n. 1, 2022, pp. 361 ss. In un momento iniziale la proposta di Regolamento UE in materia
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Come ha notato una parte della dottrina, l’adozione dell’intelligenza artificiale nel settore finanziario può assicurare benefici per gli investitori: ad esempio, può
portare i soggetti abilitati a formulare raccomandazioni di investimento o valutazioni
creditizie oggettivamente più affidabili. Non mancano altrettanti rischi: per la negoziazione algoritmica ad alta frequenza, episodi di repentina e alta volatilità delle quotazioni dei titoli nei mercati finanziari (i cc.dd. flash crash)14; per la consulenza finanziaria automatizzata, la tendenza di uniformità di comportamenti degli investitori, in
luogo della valutazione appropriata e adeguata al profilo di ognuno (c.d. effetto herding)15; per la valutazione del merito creditizio, la possibile esclusione dall’accesso al
credito di determinati gruppi sociali16.
È in tale contesto che occorre valutare la tenuta dell’apparato normativo in
materia di market abuse a fronte alla digitalizzazione della finanza e dell’operatività
nei mercati di agenti non umani. L’esigenza di effettuare tale valutazione è particolarmente urgente con riferimento all’attività di trading, là dove l’utilizzo di sistemi di AI
è già ampiamente diffuso, ma la dottrina più attenta non manca di rilevare che analoga
esigenza si pone con riferimento anche al rapporto tra MAR e gestione delle informazioni privilegiate17.
Sugli abusi di mercato l’ordinamento eurounitario e quello nazionale hanno
predisposto un doppio binario sanzionatorio, sviluppatosi con una tendenziale sovrapposizione di illeciti penali e amministrativi, nell’intento di assicurare il corretto ed ordinato svolgimento delle transazioni18. Il divieto di insider trading salvaguarda la parità
di intelligenza artificiale, avanzata dalla Commissione europea nell’aprile 2021 ha classificato soltanto i sistemi di
credit scoring quali i sistemi di AI “ad alto rischio” (All. III, punto 5, lett. b) in quanto insistono su servizi privati essenziali
e possono perpetuare discriminazioni fondate su origini razziali o etniche, disabilità, età o orientamento sessuale. Il
successivo testo di compromesso ha aggiunto nell’ambito del settore n. 5 di accesso a prestazioni e servizi pubblici e
a servizi privati essenziali e fruizione degli stessi, alla lett. b), i sistemi di AI destinati ad essere utilizzati a fini assicurativi, ovvero i sistemi per la determinazione dei premi, la sottoscrizione e la valutazione dei sinistri. Tuttavia, considerato il carattere flessibile della proposta, è presumibile ed auspicabile che il perimetro di applicazione dell’intelligenza
artificiale ai servizi finanziari possa essere esteso a: a) portfolio construction and rebalancing, b) roboadvice e altre
forme di AI nella consulenza, c) trading, d) credit rating and risk management, e) ESG (rating provision, analyses by
third-party providers to the benefits of ESG funds, …) f) Shareholders voting process.
14 A. LUPOI, La negoziazione algoritmica ad alta frequenza e la struttura dei mercati: due casi negli Stati Uniti, in Riv. dir.
comm. e dir. gen. obbl., n. 1, 2019, pp. 1 ss.
15 Sul tema R. GHETTI, Robo-advice: automazione e determinismo nei servizi di investimento ad alto valore aggiunto, in
Banca borsa tit. cred., n. 4, 2020, pp. 540 ss.; M.T. PARACAMPO, Robo-advisor, consulenza finanziaria e profili regolamentari: quale soluzione per un fenomeno in fieri?, in Riv. trim. dir. econ. (fondazionecapriglione.luiss.it), n. 4, Suppl. 1,
2016, pp. 256 ss.; F. SARTORI, La consulenza finanziaria automatizzata: problematiche e prospettive, in Riv. trim. dir.
econ. (fondazionecapriglione.luiss.it), n. 3, 2018, pp. 253 ss.
16 Sui rischi attinenti all’applicazione di sistemi algoritmici di credit scoring si rinvia a F. MATTASSOGLIO, La valutazione
“innovativa” del merito creditizio del consumatore e le sfide per il regolatore, in Dir. banca, n. 2, 2020, pp. 187 ss., e G.L.
Greco, Credit scoring 5.0 tra Artificial Intelligence Act e Testo Unico Bancario, in Riv. trim. dir. econ. (fondazionecapriglione.luiss.it), Suppl. n. 3, 2021, pp. 74 ss., in part. pp. 93-95. Per uno studio sull’esperienza maturata dagli intermediari
italiani nell’adozione dei modelli di credit scoring si veda AA.VV., Intelligenza artificiale nel credit scoring. Analisi di
alcune esperienze nel sistema finanziario italiano, in Questioni di Economia e Finanza (Occasional Papers), Banca d’Italia (bancaditalia.it), n. 721, ottobre 2022.
17 Si veda F. ANNUNZIATA, Artificial intelligence and market abuse legislation. A European perspective, Edward Elgar, 2023
(dattiloscritto, in corso di pubblicazione, consultato per gentile concessione dell’Autore).
18 Il legislatore italiano, con la L. 18 aprile 2005, n. 62, in attuazione della Direttiva CE/6/2003 (Market Abuse Directive,
c.d. MAD) ha introdotto un doppio binario cumulativo di illeciti penali (artt. 184 e 185 TUF) e di illeciti amministrativi
(artt. 187-bis e 187-ter TUF).
Quaderni giuridici
N. 29
maggio 2023
di accesso alle informazioni sensibili e contrasta lo sfruttamento illegittimo di informazioni privilegiate19; il divieto di manipolazione del mercato protegge l’andamento
degli scambi dalla diffusione di informazioni false, da comportamenti simulati o altri
artifici da parte di coloro che sono in grado di influire sul processo di formazione dei
prezzi degli strumenti finanziari. Le fattispecie incriminatrici (artt. 184 e 185 TUF) dal
canto loro intendono prevenire e reprimere le condotte abusive più gravi, unicamente
a carattere doloso, laddove le fattispecie d’illecito amministrativo (artt. 187-bis e 187ter TUF) contemplano anche le condotte abusive meno gravi, anche a titolo di colpa,
che trovano la propria risposta sanzionatoria in misure pecuniarie ed interdittive20.
La disciplina penale sull’illecito di abuso di informazioni privilegiate, che è
sanzionato con pene detentive e pecuniarie, riguarda anzitutto gli “insider primari”,
ovvero chiunque, essendo in possesso delle stesse in ragione della sua qualità di membro di organi di amministrazione, direzione o controllo dell’emittente, della partecipazione al capitale dell’emittente ovvero dell’esercizio di un’attività lavorativa, di una
professione o di una funzione, anche pubblica, o di un ufficio, o per il fatto di essere
coinvolto in attività criminali:
«a) acquista, vende o compie altre operazioni, direttamente o indirettamente, per
conto proprio o per conto di terzi, su strumenti finanziari utilizzando le informazioni medesime;
19 La normativa ruota intorno a due principali obblighi: uno di disclosure in quanto impone alle società quotate di comunicare immediatamente al mercato tutte le informazioni privilegiate di cui vengono a conoscenza e che le riguardano; un divieto di operare e anche di rivelare in modo selettivo ad alcuni soggetti queste informazioni privilegiate o
dare consigli di investimento. In base all’art. 7 del Regolamento (UE) MAR, l’informazione è privilegiata quando ricorrono quattro elementi: a) l’informazione riguarda uno o più emittenti (c.d. corporate information) o uno o più strumenti finanziari (c.d. market information), b) l’informazione non è pubblica, ovvero un’informazione non disponibile
alla generalità degli investitori sul mercato, c) l’informazione ha carattere “preciso”, d) l’informazione è price sensitivity,
ossia è un’informazione che, se resa pubblica, “potrebbe avere un effetto significativo sui prezzi di tali strumenti finanziari”. In particolare, l’informazione ha carattere preciso se i) “fa riferimento a una serie di circostanze esistenti o
che si può ragionevolmente ritenere che vengano a prodursi o a un evento che si è verificato o del quale si può
ragionevolmente ritenere che si verificherà” e se ii) “è sufficientemente specifica da permettere di trarre conclusioni
sul possibile effetto di detto complesso di circostanze o di detto evento sui prezzi degli strumenti finanziari”. Inoltre,
nel caso di un “processo prolungato che è inteso a concretizzare, o che determina, una particolare circostanza o un
particolare evento, tale futura circostanza o futuro evento, nonché le tappe intermedie di detto processo che sono
collegate alla concretizzazione o alla determinazione della circostanza o dell’evento futuri, possono essere considerati
come informazioni aventi carattere preciso”. E ancora, è chiarito nello stesso articolo che una “tappa intermedia in un
processo prolungato” può costituire, a sua volta, un’informazione privilegiata. Riguardo alla price sensitivity, per “informazione che, se comunicata al pubblico, avrebbe probabilmente un effetto significativo sui prezzi degli strumenti
finanziari (…) s’intende un’informazione che un investitore ragionevole probabilmente utilizzerebbe come uno degli
elementi su cui basare le proprie decisioni di investimento”. L’accertamento della consumazione dell’abuso di informazione privilegiata è di difficile individuazione ed è necessario il ricorso a presunzioni che consentano di risalire al
fatto ignoto (factum probandum) desumendolo da fatti noti gravi, precisi e concordanti (indizi o fonti della presunzione) alla stregua di canoni di ragionevole probabilità e secondo regole di esperienza. Sull’evoluzione della nozione di
informazione privilegiata, sia in ambito normativo sia in quello giurisprudenziale, si veda S. SEMINARA, L’informazione
privilegiata, in M. CERA – G. PRESTI (a cura di), Il testo unico finanziario, cit., pp. 2124 ss.
20 La fattispecie di manipolazione del mercato può essere realizzata mediante più condotte differenti: le condotte di c.d.
“manipolazione informativa” per la diffusione di notizie false e le condotte di c.d. “manipolazione operativa” tramite il
conferimento di ordini o l’esecuzione di operazioni secondo una varietà di strategie, alcuni delle quali esemplificativamente indicate. Si tratta di comportamenti che possono alterano la trasparenza e la correttezza delle negoziazioni
in ambito finanziario. L’eventuale realizzazione di due o più delle condotte darà sempre luogo a una sola sanzione
penalmente rilevante e non a un concorso di illeciti.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
comunica tali informazioni ad altri, al di fuori del normale esercizio del lavoro,
della professione, della funzione o dell’ufficio o di un sondaggio di mercato effettuato ai sensi dell’articolo 11 del regolamento (UE) n. 596/2014 del Parlamento
europeo e del Consiglio, del 16 aprile 2014;
raccomanda o induce altri, sulla base di tali informazioni, al compimento di taluna
delle operazioni indicate nella lettera a)» (art. 184 TUF)».
L’illecito è esteso anche ai cosiddetti “insider secondari” cioè a coloro che entrano in possesso di informazioni privilegiate per altre circostanze sapendo, o comunque dovendo sapere, che si tratta di informazioni privilegiate.
La disciplina penale sulla manipolazione del mercato prevede per chiunque
diffonda notizie false o ponga in essere operazioni simulate o altri artifizi concretamente idonei a provocare una sensibile alterazione del prezzo di strumenti finanziari,
sanzioni detentive e pecuniarie (art. 185 TUF).
La Direttiva 89/592/CEE del 13 novembre 1989 (Coordinating Regulations on
insider trading) aveva previsto unicamente il divieto di insider trading. Soltanto con la
Direttiva CE/6/2003 (Market Abuse Directive, c.d. MAD I) è stata inclusa, nell’ambito
delle fattispecie di market abuse, quella di manipolazione del mercato, imponendo agli
Stati membri l’obbligo di adottare le sanzioni amministrative e lasciando libertà ai legislatori nazionali quanto all’introduzione delle sanzioni penali per entrambe le fattispecie. Successivamente, il legislatore eurounitario ha adottato due nuovi strumenti
normativi (il Regolamento (UE) 596/2014, Market Abuse Regulation, c.d. MAR, e la Direttiva 2014/57/UE, Criminal Sanctions Market Abuse Directive, c.d. CSMAD, o Market
Abuse Directive 2, c.d. MAD II). Con il Regolamento (UE) MAR, che si applica dal 2 luglio
2016, è stato perseguito l’obiettivo di massima e immediata armonizzazione delle fattispecie in analisi, è stato esteso l’ambito di applicazione e sono stati definiti nel dettaglio i limiti edittali e non delle sanzioni amministrative; con la Direttiva MAD II è
stato previsto l’obbligo (e non più la facoltà) degli Stati membri UE di introdurre sanzioni penali.
Gli illeciti amministrativi sono stati poi riqualificati dalla giurisprudenza della
Corte EDU con la nota sentenza Grande Stevens. I giudici di Strasburgo, infatti, hanno
ritenuto che le fattispecie amministrative di abuso di informazioni privilegiate (art.
187-bis TUF) e di manipolazione del mercato (art. 187-ter TUF) dovessero essere considerate sostanzialmente penali a causa del livello di severità delle sanzioni previste
(pecuniarie, interdittive e ablatorie)21, in coerenza con i criteri stabiliti dalla medesima
21 Corte EDU, 4 marzo 2014, ric. n. 18640/2010, Grande Stevens ed altri c. Italia). Su questa decisione si vedano ex multis
i commenti di G.M. FLICK – V. NAPOLEONI, Cumulo tra sanzioni penali e amministrative: doppio binario o binario morto?
“Materia penale”, giusto processo e ne bis in idem nella sentenza della Corte Edu, 4 marzo 2014, sul market abuse, in
Riv. AIC (rivistaaic.it), n. 3, 2014, 11 luglio 2014, nonché in Riv. soc., n. 5, 2014, pp. 953 ss.; F. VIGANÒ, Doppio binario
sanzionatorio e ne bis in idem: verso una diretta applicazione dell’art. 50 della Carta?, in Dir. pen. cont. (dirittopenalecontemporaneo.it), n. 3, 2014, pp. 219 ss.; P. MONTALENTI, Abusi di mercato e procedimento Consob: il caso Grande Stevens e la Sentenza CEDU, in Giur. comm., n. 3, 2015, pp. 478 ss.; A. GENOVESE, Il controllo del giudice sulla regolazione
finanziaria, in Banca borsa tit. cred., n. 1, 2017, pp. 49 ss.; M. VENTORUZZO, Abusi di mercato sanzioni Consob e diritti
umani: il caso Grande Stevens e altri c. Italia, in Riv. soc., n. 4, 2014, pp. 693 ss.
Quaderni giuridici
N. 29
maggio 2023
giurisprudenza con la sentenza Engel22.
Un siffatto carattere è stato condiviso successivamente dalla Corte di giustizia
UE23 e dalla Corte costituzionale, quest’ultima pronunciandosi recentemente sulla retroattività in mitius delle sanzioni amministrative24 e sul diritto al silenzio (c.d. nemo
tenetur se detegere)25 nei procedimenti di natura formalmente amministrativa in materia di abusi di mercato26.
22 Corte EDU, 8 giugno 1976, ric. n. 5100/71, Engel e altri c. Paesi Bassi, ha definito tre criteri per la qualificazione sostanzialmente penale delle sanzioni amministrative: la qualificazione giuridica dell’illecito nel diritto nazionale; la natura dell’illecito e la finalità repressiva della sanzione; la natura punitiva e il grado di severità della sanzione; il collegamento con una violazione penale. Dopo questa sentenza, la Corte EDU, 28 novembre 1999, Escobet c. Belgio, ha
sostenuto che «in ogni caso la nozione di pena contenuta nell’art. 7 della Convenzione come quella di accusa in materia
penale che figura nell’art. 6 hanno portata autonoma […] la Corte non è vincolata dalle qualificazioni del diritto interno,
che hanno valore relativo». Sui criteri sviluppati dalla vicenda Engel si è espressa in senso sostanzialmente conforme
alla Corte EDU la Corte di giustizia UE, sentenze del 5 giugno 2012, Bonda, C-489/10, EU:C:2012:319, punto 37, e del
26 febbraio 2013, Åkerberg Fransson, C-617/10, EU:C:2013:105, punto 35.
23 Rispettivamente con riferimento alla fattispecie di manipolazione del mercato, prevista dall’art. 187-ter TUF, e alla
fattispecie di abuso di informazione privilegiata, prevista dall’art. 187-bis TUF, la Corte di giustizia UE, sentenza del 20
marzo 2018, Garlsson Real Estate SA c. Consob, C-537/16, EU:C:2018:193, punto 33, e sentenza del 20 marzo 2018, Di
Puma c. Consob, C-596/16 e C-597/16, EU:C:2018:192, punto 35, qualifica le sanzioni sostanzialmente penali sulla
base della natura dell’illecito e della gravità della sanzione.
24 Corte cost., sentenza 21 marzo 2019, n. 63, sulla quale si rinvia al commento di E. BINDI – A. PISANESCHI, La retroattività
in mitius delle sanzioni amministrative Consob, in Giur. comm., n. 5, 2019, pp. 1015 ss.
25 Corte cost., ordinanza 10 maggio 2019, n. 117, sulla quale si rinvia ai commenti di A. LOGLI, Poteri istruttori della Consob
e nemo tenetur se detegere, in Giur. comm., n. 2, 2020, pp. 230 ss.; G. CANESCHI, Nemo tenetur se detegere anche nei
procedimenti amministrativi sanzionatori? La parola alla Corte di giustizia, in Cass. pen., n. 2, 2020, pp. 579 ss. In generale sul tema si rinvia a M. ALLENA – S. VACCARI, Diritto al silenzio e autorità di vigilanza dei mercati finanziari, in Riv.
dir. banc. (rivista.dirittobancario.it), n. 3, 2022, pp. 689 ss.
26 Prima di queste decisioni la natura sostanzialmente penale del procedimento e delle sanzioni in materia di abusi di
mercato era stata affermata dalla Corte costituzionale, sentenze 12 dicembre n. 223 e 12 aprile 2017 n. 68. Fuori da
questo ambito, la giurisprudenza della Corte di Cassazione (Cass., Sez. II, 26 settembre 2019, n. 24081 e n. 24082;
Cass., Sez. II, 6 agosto 2019, n. 21017; Cass., Sez. II, 5 aprile 2017 n. 8855; Cass., Sez. I, 2 marzo 2016, n. 4114; Cass.,
Sez. I, 30 giugno 2016, n. 13433) e delle Corti d’Appello non riconoscono la natura sostanzialmente penale delle sanzioni amministrative di Consob, sulla base della circostanza che la sentenza Grande Stevens riguardava unicamente
gli abusi di mercato, seppure la stessa Corte costituzionale (sentenza 21 marzo 2019, n. 63) abbia espressamente
rilevato che «è da respingere l’idea che l’interprete non possa applicare la CEDU, se non con riferimento ai casi che
siano già stati oggetto di puntuali pronunce da parte della Corte di Strasburgo». Analogamente la giurisprudenza della
Corte di Cassazione (Cass. civ., Sez. II, 3 gennaio 2019, n. 4 e Cass. civ., Sez. II, 28 settembre 2016, n. 19219; Cass. civ,
Sez. II, 18 aprile 2018, n. 9517; Cass. civ., Sez. II, 11 gennaio 2017, n. 463; Cass. civ., Sez. II, 4 agosto 2016, n. 16313;
Cass. civ., Sez. II, 10 marzo 2016, n. 4725; Cass. civ., Sez. II, 14 dicembre 2015, n. 25141; Cass. civ, Sez. II; 3 dicembre
2013, n. 27038; Cass. civ., Sez. Un., 30 settembre 2009, n. 20935 e 20939; Cass. civ., Sez. II, 24 febbraio 2016, n. 3656)
si è pronunciata con riguardo a tutti gli illeciti e i procedimenti di competenza di Banca d’Italia. Il Consiglio di Stato,
rimasto competente per le sanzioni amministrative comminate dall’IVASS, ha invece qualificato tali sanzioni sostanzialmente penali in ragione del loro carattere afflittivo sulla base dei criteri Engel (Cons. Stato, Sez. VI, 28 marzo 2019,
nn. 2042 e 2043). Questa diversa ricostruzione è la conseguenza del riconoscimento della competenza in capo a differenti organi giurisdizionali per i provvedimenti sanzionatori adottati dalle autorità indipendenti a seguito degli interventi della Corte costituzionale, sentenze 20 giugno 2012, n. 162, e 4 aprile 2012, n. 94, che hanno riattribuito al
giudice ordinario, ovvero alla Corte d’Appello, la giurisdizione sulle sanzioni di Banca d’Italia e Consob per un difetto
di delega nel codice del processo amministrativo che aveva trasferito tutte le sanzioni delle autorità di regolazione dei
mercati alla giurisdizione esclusiva del giudice amministrativo. Si rinvia per una ricostruzione della giurisprudenza
sulla qualificazione delle sanzioni di Banca d’Italia e Consob a E. BINDI – P. LUCCARELLI – A. PISANESCHI, Le sanzioni della
Banca d’Italia e della Consob, in Giur. comm., n. 3, 2021, pp. 553 ss., spec. pp. 555-559, e A. PISANESCHI, Le sanzioni
amministrative della Consob e della Banca d’Italia: gli indirizzi delle giurisdizioni sovranazionali e le problematiche applicative interne, in Riv trim. dir. econ., n. 2, 2020, Suppl., pp. 81 ss., spec. pp. 83-86. In dottrina si esprime a favore di
un’estensione dell’ambito della materia sostanzialmente penale per le sanzioni irrogate dalla Consob e da Banca d’Italia
oltre il perimetro degli abusi di mercati I. SFORZA, Il nemo tenetur se detegere nelle audizioni Consob e Banca d’Italia:
uno statuto ancora da costruire, in Sistema penale (sistemapenale.it), n. 2, 2022, pp. 83, spec. p. 95.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
A causa di questa riqualificazione sono state sollevate una serie di questioni
sulla presunta violazione dell’art. 6 CEDU, riguardante il diritto ad un processo equo,
dell’art. 4 del Protocollo 7 CEDU, concernente la violazione del principio del ne bis in
idem, dell’art. 7 CEDU che consacra il principio del favor rei e della retroattività della
lex mitior, nonché degli artt. 47 e 48 della Carta dei diritti fondamentali UE per la
violazione del diritto al silenzio27.
La già citata sentenza Grande Stevens, pur evidenziando la violazione del
principio del giusto processo nel procedimento sanzionatorio Consob in materia di market abuse28, ha rilevato però che le garanzie previste dall’art. 6 CEDU sono comunque
salvaguardate dalla previsione del giudizio di opposizione davanti alla Corte d’Appello,
per motivi anche di merito, e dal giudizio di legittimità dinnanzi alla Corte di Cassazione, per soli motivi di legittimità, contro i medesimi provvedimenti sanzionatori
dell’autorità di vigilanza. Secondo la Corte EDU, infatti, lo Stato è libero di scegliere
dove collocare le garanzie dell’equo processo, nella fase amministrativa o nella fase
giurisdizionale, in quanto trattasi di decisione rimessa all’apprezzamento delle autorità
nazionali29.
Sulla presunta violazione del ne bis in idem (o double jeopardy), i giudici di
Strasburgo, con un brusco revirement, nella decisione A/B c. Norvegia, hanno ammesso
la compatibilità convenzionale di una duplice risposta sanzionatoria sostanzialmente
penale e di una pluralità di procedimenti riguardanti il medesimo fatto qualora vi sia
una «connessione sostanziale e temporale sufficientemente stretta», ravvisabile in presenza di alcuni determinati criteri30.
27 Su tutte queste questioni si veda per tutti C. DEODATO, Sanzioni formalmente amministrative e sostanzialmente penali:
i problemi procedurali connessi all’applicazione delle sanzioni Consob in materia di materia di market abuse (e alcune
soluzioni), in federalismi.it, n. 23, 2019, pp. 1 ss.
28 La predetta violazione si riferiva al previgente Regolamento sul procedimento sanzionatorio Consob 19 dicembre 2013,
n. 18750, nella misura in cui il procedimento non garantiva il rispetto di un contraddittorio adeguato, non prevedeva
un’udienza pubblica e non assicurava l’imparzialità dell’organo giudicante. In particolare, il procedimento, così come
era articolato, era in contrasto con il principio di parità delle armi di accusa e difesa in quanto non consentiva all’interessato un’interlocuzione sulla Relazione conclusiva prima della determinazione finale della Commissione.
29 Dopo la sentenza Grande Stevens della Corte EDU il Consiglio di Stato (sentenze 26 marzo 2016, n. 1595 e n. 1596) ha
ravvisato l’incompatibilità del procedimento sanzionatorio Consob con il principio del contraddittorio sancito dall’art.
195 TUF poiché la Relazione conclusiva dell’Ufficio Sanzioni Amministrative «non è oggetto di comunicazione (o di
altre forme di conoscenza) e rispetto ad esso non vi è alcuna possibilità di controdeduzione». Tuttavia, queste pronunce
non hanno ravvisato alcun contrasto con la CEDU ma unicamente i principi del contraddittorio “rinforzato” sanciti
dall’art. 187-septies TUF. Oltre a queste pronunce della giustizia amministrativa, anche decisione della giustizia ordinaria hanno pronunciato la legittimità del procedimento sanzionatorio della Consob (Corte d’Appello di Roma, decreto
30 maggio 2014; Corte d’Appello di Roma, sentenza 1° luglio 2014; Corte d’Appello di Bologna, sentenza 3 marzo
2015, n. 199). La Consob ha comunque modificato il Regolamento sul Procedimento Sanzionatorio, con delibera n.
19521 del 24 febbraio 2016, introducendo il diritto dei destinatari della lettera di contestazione degli addebiti, che
abbiano presentato deduzioni scritte o abbiano partecipato all’audizione, di ricevere la relazione finale e di presentare
le proprie controdeduzioni rispetto alle conclusioni raggiunte dall’ufficio entro trenta dalla ricezione della stessa.
30 Corte EDU, sentenza 15 novembre 2016, ric. nn. 24130/11 e 29758/11, A. e B. c. Norvegia, ha elaborato alcuni criteri
per individuare una siffatta connessione dal punto di vista sostanziale e temporale. Con riferimento ai primi la connessione sussiste «– whether the different proceedings pursue complementary purposes and thus address, not only in
abstracto but also in concreto, different aspects of the social misconduct involved; – whether the duality of proceedings
concerned is a foreseeable consequence, both in law and in practice, of the same impugned conduct (“in idem”); –
whether the relevant sets of proceedings are conducted in such a manner as to avoid as far as possible any duplication
in the collection and in the assessment of the evidence, notably through adequate interaction between the various
competent authorities to ensure that the establishment of the facts in one set of proceedings is replicated in the other;
– and, above all, whether the sanction imposed in the proceedings which become final first is taken into account in
Quaderni giuridici
N. 29
maggio 2023
La legittimità del doppio binario sanzionatorio, penale e amministrativo, è
stata ribadita altresì dalla giurisprudenza eurounitaria in quanto è stata riconosciuta
agli Stati membri UE «libertà di scelta delle sanzioni applicabili che possono assumere
la forma di sanzioni amministrative, di sanzioni penali o di una combinazione di entrambe»31 purché la duplicazione sanzionatoria complessivamente irrogata rispetti il
principio di proporzionalità32. In tale senso depone altresì il disposto dell’art. 187-terdecies TUF che, in applicazione di detto principio, stabilisce che l’autorità, giudiziaria o
amministrativa, che si pronuncia per seconda sullo stesso fatto, debba tenere conto, al
momento dell’irrogazione delle sanzioni di proprio competenza, delle misure già irrogate. Questo controllo di proporzionalità può condurre, come affermato dalla giurisprudenza di legittimità, a disapplicare, totalmente o parzialmente, la sanzione che
debba essere applicata per ultima qualora la prima sia commisurata al disvalore del
fatto o comunque a modulare la seconda tenendo conto della prima33.
those which become final last, so as to prevent the situation where the individual concerned is in the end made to bear
an excessive burden, this latter risk being least likely to be present where there is in place an offsetting mechanism designed to ensure that the overall quantum of any penalties imposed is proportionate». Con riguardo alla connessione
temporale «the two sets of proceedings have to be conducted simultaneously from beginning to end. […] the connection
in time must be sufficiently close to protect the individual from being subjected to uncertainty and delay and from proceedings becoming protracted over time». Per alcuni commenti sulla sentenza si rinvia a F. VIGANÒ, La Grande Camera
della Corte di Strasburgo su ne bis in idem e doppio binario sanzionatorio, in Dir. pen. cont. (dirittopenalecontemporaneo.it), 18 novembre 2016, e a A.F. TRIPODI, Corte europea dei diritti dell’uomo e sistemi sanzionatori in materia di abusi
di mercato e di violazioni tributarie: la quiete dopo la tempesta, in Soc., n. 1, 2018, pp. 80 ss.
31 Corte di giustizia UE, sentenza 20 marzo 2018, C-524/15, Menci, par. 47; Corte di giustizia UE, sentenza 20 marzo
2018, C-537/16, Garlsson Real Estate SA e altri, punto 49; Corte di giustizia UE, sentenza 20 marzo 2018, C-596/16 e
C-597/16, Di Puma c. Consob, punto 26. Su queste tre decisioni si rinvia a F. CONSULICH, Il prisma del ne bis in idem nelle
mani del Giudice eurounitario, in Dir. pen. proc., n. 7, 2018, pp. 949 ss.
32 Corte di giustizia UE, sentenza 20 marzo 2018, C-537/16, Garlsson Real Estate SA e altri, punto 60, aveva manifestato
perplessità sull’efficacia del principio di proporzionalità, considerato il tenore previgente dell’art. 187-terdecies TUF
che sembrava fare riferimento soltanto al cumulo di pene pecuniarie e non anche al cumulo di una sanzione amministrativa pecuniaria di natura penale e di una pena della reclusione.
33 Corte di Cassazione penale, Sez. V, sentenza 15 aprile 2019, n. 3999. Si veda C. PAGELLA, L’inafferrabile concetto di
“connessione sostanziale e temporale sufficientemente stretta”: la Cassazione ancora sul ne bis in idem e insider trading, in Sistema penale (sistemapenale.it), 9 gennaio 2020. Si è avuta applicazione dell’art. 187-terdecies TUF da parte
della Corte d’Appello di Milano, Sez. II, sentenza 15 gennaio 2019 (dep. 15 aprile 2019), n. 284, sulla quale si rinvia al
commento di C. PAGELLA, Riflessi applicativi del principio di proporzione del trattamento sanzionatorio complessivamente irrogato per i fatti di market abuse e punibilità dell’insider di sé stesso: la Corte di Appello di Milano sul caso
Cremonini, in Dir. pen. cont. (dirittopenalecontemporaneo.it), 20 giugno 2019. Un siffatto scrutinio di proporzionalità
della complessiva risposta sanzionatoria, tuttavia, potrebbe non essere sufficiente dopo la sentenza della Corte EDU,
6 giugno 2019, ric. n. 47342/14, Nodet c. Francia, che – pur esplicitamente estendendo i criteri di A/B c. Norvegia agli
abusi di mercato – aderisce ad una interpretazione restrittiva dei criteri, che riguarderebbe non solo il piano sanzionatorio ma il diritto a non essere sottoposto a due procedimenti per il medesimo fatto, con conseguente valutazione
di tutti i parametri della c.d. «close connection» per escludere la violazione del ne bis in idem. Sulla sentenza si veda la
nota di M. SCODETTA, Il ne bis in idem “preso sul serio”: la Corte EDU sulla illegittimità del doppio binario francese in
materia di abusi di mercato (e i possibili riflessi nell’ordinamento italiano), in Dir. pen. cont. (dirittopenalecontemporaneo.it), 17 giugno 2019. Sul doppio binario sanzionatorio è intervenuta da ultimo la Corte costituzionale, sentenza 16
giugno 2022, n. 149, in materia di violazione dei diritti d’autore. La Corte ha reputato fondata la questione di illegittimità costituzionale dell’art. 649 c.p.p. nella parte in cui non prevede che il giudice pronunci il proscioglimento o il non
luogo a procedere nei confronti di un imputato per un delitto in materia di diritto d’autore che, in relazione allo stesso
fatto, sia già stato sottoposto a un procedimento sanzionatorio, ormai concluso. In questa circostanza i giudici hanno
altresì rivolto un monito al legislatore per superare la disarmonia e rimeditare complessivamente i sistemi di doppio
binario sanzionatorio ancora vigenti. Si veda il commento di M. SCOLETTA, Uno più uno anche a Roma può fare due: la
illegittimità costituzionale del doppio binario sanzionatorio del doppio binario punitivo in materia di diritto d’autore, in
Sistema penale (sistemapenale.it), 23 giugno 2022.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Questo processo di estensione delle garanzie convenzionali ha riguardato il
principio del favor rei e della retroattività della lex mitior34. Sulle sanzioni amministrative in materia di abusi di mercato tali principi sono stati consacrati dalla Corte costituzionale, con la sentenza n. 63 del 2019, che ha dichiarato incostituzionale l’art. 6,
comma 2, del d.lgs. n. 72 del 2015 nella parte in cui escludeva l’applicazione retroattiva
della legge successiva più favorevole. In tale circostanza, i giudici costituzionali hanno
affermato l’applicazione dei principi elaborati in materia penale qualora il fatto non sia
più considerato illecito o sia mutato l’apprezzamento della gravità di esso da parte
dell’ordinamento, salvo che vi siano ragioni di tutela di interessi di rango costituzionale
tali da resistere al medesimo vaglio di ragionevolezza35.
L’ultimo approdo concerne l’applicazione del diritto di non cooperare alla propria incriminazione (c.d. nemo tenetur se detegere) e del diritto al silenzio da parte
dell’incolpato nei procedimenti amministrativi in materia di market abuse davanti alla
Consob. La questione è stata oggetto di un dialogo giurisprudenziale tra Corte costituzionale36 e Corte di giustizia UE37, a seguito di un incidente di costituzionalità sollevato
dalla Corte di Cassazione38. In particolare, i giudici di Lussemburgo, partendo dalla
considerazione che il diritto al silenzio è garantito dagli artt. 47 e 48 della Carta dei
diritti fondamentali UE, escludono che una persona possa essere sanzionata in siffatte
circostanze. Condividendo questo assunto iniziale – e tenuto conto della natura punitiva delle sanzioni amministrative in materia di abusi di mercato – la Corte costituzionale ha dichiarato l’illegittimità dell’art. 187-quinquesdecies TUF, nella parte in cui
sanziona chi si sia rifiutato di rispondere alle domande di Banca d’Italia e Consob
nell’esercizio del diritto al silenzio. Questo principio, tuttavia, non viene considerato
assoluto in quanto la decisione precisa che «il diritto al silenzio non giustifica comportamenti ostruzionistici che cagionino indebiti ritardi allo svolgimento dell’attività di
vigilanza della CONSOB, come il rifiuto di presentarsi ad un’audizione prevista da tali
autorità, ovvero manovre dilatorie miranti a rinviare lo svolgimento dell’audizione
34 Il fondamento del principio di retroattività in mitius ha ricevuto un fondamento costituzionale nell’art. 3 Cost.: il
principio di eguaglianza «impone, in linea di massima, di equiparare il trattamento sanzionatorio dei medesimi fatti, a
prescindere dalla circostanza che siano stati commessi prima o dopo l’entrata in vigora della norma che ha disposto
l’abolitio criminis o la modifica mitigatrice» (Corte costituzionale, sentenza 27 luglio 2011, n. 236). Invero, tale principio
è entrato a fare parte dell’ordinamento nazionale con la pronuncia della Corte EDU (sentenza 17 settembre 2009, ric.
n. 10249/03, Scoppola c. Italia) che, per il tramite della norma di apertura all’ordinamento convenzionale dell’art. 117
Cost., ha ricevuto un nuovo fondamento con l’interposizione dell’art. 7 CEDU, salvo disconoscere la sua natura assoluta
qualora il legislatore individui deroghe o limitazioni sorrette da una valida giustificazione.
35 Corte cost., sentenza 21 marzo 2019, n. 63. Sul punto si rinvia ai commenti di P. PROVENZANO, Illecito amministrativo e
retroattività “in bonam partem”: da eccezione alla regola a regola generale, in Banca borsa tit. cred., n. 1, 2020, pp. 52
ss., e V. TIGANÒ, L’estensione del principio costituzionale della retroattività favorevole in materia penale alle sanzioni
amministrative punitive contro gli abusi di mercato, in ivi, pp. 62 ss.
36 Corte cost., ordinanza 10 maggio 2019, n. 117. Su questa ordinanza si rinvia al commento di G. FARES, Diritto al silenzio,
soluzioni interpretative e controlimiti: la Corte costituzionale chiama in causa la Corte di giustizia, in dirittifondamentali.it, n. 1, 2020, pp. 57 ss.
37 Corte di giustizia UE, sentenza del 2 febbraio 2021, DB c. Consob, C-481/19, EU:C:2021:84. Si veda il commento di D.
CODUTI, Il diritto al silenzio nell’intreccio tra diritto nazionale, sovranazionale e internazionale: il caso D.B. c. Consob, in
federalismi.it, n. 22, 2021, pp. 121 ss.
38 Corte di Cassazione civile, Sez. II, ordinanza 16 febbraio 2018, n. 3831, con nota di G.L. GATTA, “Nemo tenetur se detegere” e procedimento amministrativo davanti alla Consob per l’accertamento dell’abuso di informazioni privilegiate: la
Cassazione solleva questione di legittimità costituzionale dell’art. 187-quinquiesdecies T.U.F., in Dir. pen. cont. (dirittopenalecontemporaneo.it), 27 aprile 2018.
Quaderni giuridici
N. 29
maggio 2023
stessa. Né il diritto al silenzio potrebbe legittimare l’omessa consegna di dati, documenti, registrazioni preesistenti alla richiesta della CONSOB»39.
Il quadro normativo in materia, a seguito degli interventi eurounitari del Regolamento (UE) MAR e della Direttiva (UE) MAD II, è quindi articolato sulla possibilità
di configurazione di un doppio binario sanzionatorio di illeciti penali e illeciti amministrativi, in quanto lascia agli Stati membri la facoltà di punire le violazioni di market
abuse, oltre che con sanzioni penali per le condotte ritenute più gravi, anche con sanzioni amministrative. Ciò non solo delinea discipline nazionali non armonizzate ma,
com’è stato notato, possibili difficoltà di coordinamento tra i procedimenti dell’autorità
di vigilanza e i processi dell’autorità giurisdizionale e il rischio di violazione del principio eurounitario (art. 50 Carta dei diritti fondamentali UE) e convenzionale (art. 7
CEDU) del ne bis in idem. Su quest’ultima questione la legislazione europea incarica gli
Stati membri di garantire che l’irrogazione di sanzioni penali per i reati ai sensi della
Direttiva (UE) MAD II e di sanzioni amministrative ai sensi del Regolamento (UE) MAR
non violino il divieto del doppio processo per l’idem factum (considerando n. 23 della
Direttiva MAD II), questione poi che è stata amplificata dalla natura sostanzialmente
penale delle sanzioni amministrative e dalla relativa estensione dei principi del processo
equo al procedimento40.
2 La distinzione tra AI “deboli” e AI “forti”
Nel quadro normativo così sinteticamente delineato, hanno da tempo fatto il
proprio ingresso, da protagonisti, i sistemi di intelligenza artificiale, ponendo plurimi
interrogativi a regolatori e interpreti del diritto dei mercati finanziari.
Per un corretto approccio metodologico al tema, occorre procedere con una
identificazione del fenomeno.
I sistemi di AI si distinguono in base alla loro differente capacità d’interazione
con l’uomo41. Rispetto ai sistemi primordiali di AI (cc.dd. sistemi di AI “deboli”), i cui
39 Corte cost., sentenza 30 aprile 2021, n. 84. M. MICHETTI, Diritto al silenzio e insider trading: il confronto tra Roma e
Lussemburgo prosegue sulla via del dialogo (Corte costituzionale, sentenza n. 84/2021), in Consulta online (giurcost.org), n. 3, 2021, pp. 758 ss., e S. CATALANO, La vicenda decisa dalla sentenza n. 84 del 2021 della Corte costituzionale:
un esempio di “buon dialogo” fra Corti, in Forum di Quad. cost. (forumcostituzionale.it), n. 4, 2021, pp. 295 ss.
40 Su alcune proposte di soluzione, a legislazione vigente e de iure condendo, v. C. DEODATO, op. cit., pp. 28 ss.
41 N. ABRIANI – G. SCHNEIDER, Diritto delle imprese e intelligenza artificiale, Bologna, 2021, pp. 21 ss., distinguono i sistemi
di intelligenza artificiale sulla base di due differenti approcci. Secondo un primo approccio i differenti sistemi di intelligenza artificiale sono suddivisi in ragione dei differenti modelli statistico-matematici di elaborazione delle informazioni e di apprendimento automatico (machine learning, supervised learning, reinforcement learning, unsupervised
learning e deep learning). Secondo un altro approccio, i sistemi di intelligenza artificiale sono identificati sulla base
della loro capacità di interazione con l’intelligenza umana, per cui sono distinti sistemi di intelligenza assistita, sistemi
di intelligenza aumentata, sistemi di intelligenza amplificata e sistemi di intelligenza autonoma. La proposta di regolamento UE definisce «sistema di intelligenza artificiale» (sistema di AI): «un software sviluppato con una o più delle
tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo,
generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono». Nell’Allegato I sono indicati i seguenti approcci: a) approcci di apprendimento automatico, compresi l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo, con utilizzo di
un’ampia gamma di metodi, tra cui l’apprendimento profondo (deep learning); b) approcci basati sulla logica e approcci
basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi
di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti; c) approcci statistici,
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
outputs dipendono dalle istruzioni prestabilite da produttori, programmatori o utenti, i
sistemi di AI più evoluti (cc.dd. sistemi di AI “forti”) sono dotati di capacità di autoapprendimento e producono, quindi, outputs autonomi e imprevedibili rispetto agli inputs iniziali di produttore, programmatore o utente42. Dal momento che l’iter logicodecisionale seguito da questo secondo tipo di AI non è di per sé trasparente e immediatamente decifrabile, si è solito anche designarlo come “black box”43.
Per i sistemi di AI “forti” diviene centrale, pertanto, la questione del controllo
umano sul loro funzionamento e sul risultato dell’elaborazione dei dati immessi nel
sistema.
La proposta di Regolamento (UE) sull’intelligenza artificiale definisce il c.d.
duty of human oversight (art. 14)44 ma non copre tutta la catena di produzione dell’output: l’art. 14, infatti, riguarda unicamente il momento della raccolta dei dati e non è
esteso alla loro successiva elaborazione, proprio a cagione della difficoltà di comprendere appieno il funzionamento e i meccanismi che governano gli algoritmi di autoapprendimento45.
stima bayesiana, metodi di ricerca e ottimizzazione. Sulla distinzione tra “augmented intelligence” e “artificial intelligence” v., da ultimo, F. ANNUNZIATA, Artificial intelligence and market abuse legislation. A European perspective, cit., pp.
133-141.
42 La distinzione tra sistemi di AI forti e sistemi di AI deboli è ormai diffusa sia nella dottrina civilistica sia in quella
penalistica ma si veda per una prima esemplificazione a P. SPERA, voce Intelligenza artificiale, in G. ZACCARI – P. PERRI (a
cura di), Dizionario Legal Tech, Milano, 2020, pp. 535 ss., e a F. MAGGINO – G. CICERCHIA, Algoritmi, etica e diritto, in Dir.
inf., n. 6, 2019, p. 1165, ma anche più diffusamente si veda anche G. PASCERI, Intelligenza artificiale, algoritmo e machine learning, Milano, 2021, pp. 18- 24.
43 Questa espressione è stata coniata da F. PASQUALE, The black-box society: The secret algorithms that control money and
information, Cambridge-London, 2015. In senso critico si rinvia a E. PELLECCHIA, Profilazione e decisioni automatizzate
al tempo della black box society: qualità dei dati e leggibilità dell’algoritmo nella cornice della responsible research and
innovation, in Nuove leg. civ. comm., n. 5, 2018, pp. 1210 ss.
44 L’art. 14 della proposta di Regolamento (UE) sull’intelligenza artificiale disciplina la sorveglianza umana, stabilendo
che «1. (i) sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina
adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il
sistema di IA è in uso. 2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza
o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla
sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi
persistono nonostante l’applicazione di altri requisiti di cui al presente capo. 3. La sorveglianza umana è garantita
mediante almeno una delle seguenti misure: a) misure individuate e integrate nel sistema di IA ad alto rischio dal
fornitore prima della sua immissione sul mercato o messa in servizio, ove tecnicamente possibile; b) misure individuate
dal fornitore prima dell’immissione sul mercato o della messa in servizio del sistema di IA ad alto rischio, adatte ad
essere attuate dall’utente. 4. Le misure di cui al paragrafo 3 consentono le seguenti azioni, a seconda delle circostanze,
alle persone alle quali è affidata la sorveglianza umana: a) comprendere appieno le capacità e i limiti del sistema di IA
ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, in modo che i segnali di anomalie,
disfunzioni e prestazioni inattese possano essere individuati e affrontati quanto prima; b) restare consapevole della
possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull’output prodotto da un
sistema di IA ad alto rischio (“distorsione dell’automazione”), in particolare per i sistemi di IA ad alto rischio utilizzati
per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche; c) essere in
grado di interpretare correttamente l’output del sistema di IA ad alto rischio, tenendo conto in particolare delle caratteristiche del sistema e degli strumenti e dei metodi di interpretazione disponibili; d) essere in grado di decidere, in
qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare
l’output del sistema di IA ad alto rischio; e) essere in grado di intervenire sul funzionamento del sistema di IA ad alto
rischio o di interrompere il sistema mediante un pulsante di “arresto” o una procedura analoga. 5. Per i sistemi di IA
ad alto rischio di cui all’allegato III, punto 1, lettera a), le misure di cui al paragrafo 3 sono tali da garantire che, inoltre,
l’utente non compia azioni o adotti decisioni sulla base dell’identificazione risultante dal sistema, a meno che essa non
sia stata verificata e confermata da almeno due persone fisiche.
45 O. POLLICINO – G. DE GREGORIO – F. PAOLUCCI, La proposta di Regolamento sull’intelligenza artificiale: verso una nuova
governance europea, in Privacy & Data Protection Technology Cybersecurity, n. 3, 2021.
Quaderni giuridici
N. 29
maggio 2023
La medesima proposta di Regolamento, inoltre, non prevede meccanismi di
tutela che consentano alle vittime di outputs “errati” di ripristinare le posizioni giuridiche lese46. È vero, d’altronde, che la proposta di Regolamento stabilisce una serie di
obblighi di trasparenza che potrebbero attenuare l’opacità dei processi di produzione
degli outputs degli algoritmi47, ma resta pur sempre evidente la difficoltà, anche sul
piano normativo, di utilizzare per i sistemi di AI forti i consolidati principi generali di
imputabilità, quali la causalità e la colpevolezza.
Sul piano pratico, l’autonomia dei sistemi di AI forti48 complica notevolmente
l’individuazione di un nesso causale tra la condotta, commissiva o omissiva, di un
agente umano e l’evento produttivo di illecito, a causa della opacità degli algoritmi che
guidano il funzionamento dei sistemi di AI e degli ostacoli ad una loro disclosure effettiva e generalizzata. E anche qualora si riesca a conoscere il procedimento che ha
portato ad un determinato output e ad escludere qualsiasi disegno operativo da parte
di un agente umano, l’illecito quale conseguenza unica del funzionamento del sistema
di AI potrebbe essere qualificato come fattore causale sopravvenuto interruttivo del
nesso causale (art. 41, comma 2, c.p.)49. Sul piano teoretico, l’imprevedibilità dei sistemi
di AI forti rende difficoltosa l’imputazione della responsabilità del danno a produttori,
programmatori o utenti, financo a titolo colposo50.
46 Si veda European Data Protection Board (EDPD) – European Data Protection Supervisory (EDPS), Parere congiunto
5/2021 sulla proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale), 18 giugno 2021, p. 22.
47 In particolare, la trasparenza costituisce uno dei valori fondamentali promossi dall’UE per lo sviluppo, la diffusione e
l’uso dei sistemi di AI. Dall’inizio del processo politico per la regolamentazione dell’AI, tutti i documenti ufficiali delle
istituzioni dell’Unione europea hanno promosso la trasparenza quale principio guida nella disciplina dell’utilizzazione
dei sistemi di AI. La proposta sottopone i sistemi di AI a rischio alto e limitato rispettivamente a regole in tema di
trasparenza generalizzata e selettiva. Con riferimento ai sistemi a rischio alto prevede che i fornitori debbano garantire
un livello “adeguato” di trasparenza ma non è precisato cosa debba intendersi per “adeguato” (art. 13) e debbano
predisporre una disciplina relativa alla governance e alla gestione dei dati per i sistemi di AI che usano banche dati di
informazione, con l’elencazione delle pratiche da seguire per l’addestramento, la convalida e la prova dei set di dati
(art. 10, par. 2) e l’indicazione di criteri di pertinenza, rappresentatività, completezza e correttezza dei dati (art. 10, par.
3). È stabilito altresì che i sistemi di AI debbano contenere le informazioni tecniche prima che siano immessi nel mercato: le informazioni devono essere indicate in modo tale che il sistema sia conforme al regolamento (art. 11) e consenta la registrazione automatica di tutti gli eventi una volta entrato in funzione (art. 12). Allo stesso tempo, questi
sistemi devono essere previamente approvati e registrati da parte dell’autorità di vigilanza prima dell’immissione sul
mercato e devono essere progettati e sviluppati in modo tale da garantire la supervisione e il monitoraggio umano
durante la sua utilizzazione (art. 14). I fornitori devono registrare i sistemi di AI in una banca dati prima di immetterli
sul mercato (art. 60). Le informazioni elaborate nella banca dati relativamente al sistema di AI (fornitore, scopo del
sistema, tipo e data di scadenza del certificato di conformità, indicazione degli Stati in cui è stato immesso sul mercato,
messo in servizio o reso disponibile). La predisposizione di tutti questi meccanismi potrebbe facilitare l’accertamento
probatorio del collegamento causale tra il comportamento dell’agente artificiale e l’uomo che normalmente incontra
numerosi ostacoli a causa della difficoltà di decifrare la scatola nera e i codici crittografici. Si veda in questo senso U.
SALANITRO, Intelligenza artificiale e responsabilità: la strategia della Commissione europea, cit., p. 1247.
48 B. PANATTONI, op. cit., p. 323, ritiene preferibile fare riferimento al concetto di comportamento emergente piuttosto che
di autonomia, per evitare di riconoscere ai sistemi di AI un’autonomia decisionale assimilabile all’intenzionalità. In
senso analogo A. AMIDEI, Intelligenza artificiale e product liability: sviluppi del diritto dell’Unione Europea, in Giur. it., n.
7, 2019, p. 1717.
49 C. PIERGALLINI, Intelligenza artificiale: da ‘mezzo’ a ‘autore’ del reato?, cit., p. 1758.
50 Imprevedibilità non solo soggettiva ma anche oggettiva secondo B. PANATTONI, op. cit., p. 344, e M.B. MAGRO, Decisione
umana e decisione robotica. Un’ipotesi di responsabilità da procreazione robotica, in Leg. pen. (legislazionepenale.eu),
10 maggio 2020, pp. 5-6. Sulla difficoltà di muovere un rimprovero all’uomo in questi casi si veda altresì M. BASSINI –
L- LIGUORI – O. POLLICINO, Sistemi di Intelligenza Artificiale, responsabilità e accountability. Verso nuovi paradigmi?, in F.
PIZZETTI (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Torino, 2018, pp. 333 ss. Nella
dottrina straniera su questo fenomeno di agenti artificiali “irreducible”, ovvero non riconducibili all’uomo, si rinvia a
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Questa prospettiva dischiude scenari insoluti di irresponsabilità, con relativo
pregiudizio anche di interessi di natura pubblicistica, specialmente in ambito penalistico. Il diritto civile, infatti, conosce modelli imputativi della responsabilità più flessibili e quindi consente di collegare l’evento lesivo verificatosi in concreto mediante
l’adattamento di forme di imputazione di carattere oggettivo51; il diritto penale, viceversa, non prevede analoghi criteri di imputazione oggettiva, sicché è elevato il rischio
che si venga a creare un’area di illeciti non punibili52 (c.d. “responsibility gap”53).
R. ABBOTT – A. SARCH, Punishing Artificial Intelligence: Legal Fiction or Science Fiction, in UC Davis Law Rev., Vol. 53, 2019,
pp. 323 ss., spec. pp. 330 ss., che individuano le caratteristiche (unpredictably, unexplainably, autonomously) e i motivi
(enforcement problems, practical irreducibility, legal irreducibility) per i quali un reato commesso da un sistema di AI
non possa essere attribuito ad un uomo.
in caso di sistema di AI debole che presenti un difetto, con attribuzione della responsabilità al produttore del sistema
indipendentemente dalla sussistenza dell’elemento soggettivo del dolo o della colpa. Detta disciplina non sembra applicabile nel caso di sistemi di AI forti, ossia autonomi e capaci di assumere decisioni indipendenti rispetto alla programmazione originaria, per i quali è stata elaborata la nozione del c.d. «rischio da sviluppo» che consentirebbe l’applicazione del regime della responsabilità oggettiva previsto dall’art. 2050 c.c. in materia di danno cagionato da attività
pericolosa, incentivando produttori e programmatori a destinare risorse idonee per minimizzarne la pericolosità. Si
veda altresì U. RUFFOLO, Intelligenza artificiale, machine learning, responsabilità da algoritmo, cit., p. 1700, per il quale
è possibile individuare l’applicazione di un’altra fattispecie di responsabilità oggettiva (art. 2051 c.c., danno cagionato
da cose in custodia) a carico di colui che comunica ulteriori dati e “allena” il sistema di AI, oltre a quella similare dell’art.
2052 c.c. che disciplina il danno cagionato da animali, anche qualora siano smarriti o fuggiti. Di più difficile adeguamento è l’applicazione della disciplina consumeristica in materia di responsabilità da prodotti difettosi, che recepisce
la direttiva 85/374/CEE, per i sistemi di AI forti qualora il danno sia stato cagionato da un comportamento né prevedibile né evitabile. Al riguardo, appare dirimente l’art. 120, comma 2, cod. cons. che esclude infatti la responsabilità del
produttore quando il difetto non esisteva al momento in cui il prodotto è stato messo in circolazione. Evidenziano
questa questione M. RATTI, Riflessioni in materia di responsabilità civile e danno cagionato da dispositivo intelligente
alla luce dell’attuale scenario normativo, in Contr. impr., n. 3, 2020, pp. 1190-1191, e A. AMIDEI, Intelligenza artificiale
e product liability: sviluppi del diritto dell’Unione Europea, cit., pp. 1715 ss., spec. pp. 1719 ss. Quest’ultimo propone in
queste ipotesi la configurazione di una responsabilità oggettiva a carico del produttore del sistema di AI, ritenendo
che la previsione o meno del difetto possa costituire unicamente elemento per la valutazione della sussistenza dell’elemento psicologico della colpa. Suggerisce altresì di estendere l’imputazione della responsabilità al programmatore in
quanto ideatore dell’algoritmo che guida e compone il sistema di AI, con conseguente riduzione della responsabilità
del produttore. Da ultimo, rileva che un ruolo decisivo nel funzionamento è svolta anche dal trainee che fornisce i dati
perché il sistema di AI possa formare il proprio processo di apprendimento e di evoluzione. Quest’attività è però difficilmente riconducibile nella nozione di “prodotto” ma più esattamente di prestazione di servizi, con l’effetto di precludere l’applicazione della normativa di origine UE e la facoltà da parte del danneggiato di rivolgersi a quest’ultimo
soggetto per ottenere un risarcimento dei danni. A queste posizioni si aggiunge quella di G. FINOCCHIARO, Intelligenza
artificiale e responsabilità, in Contr. impr., n. 2, 2020, p. 731, che propone la costruzione di «un modello di responsabilità che sia un sistema puro di allocazione del rischio, prescindendo dalla ricerca dell’errore e ripartendo i costi sui
soggetti che sono parte dell’operazione economica, in modo collettivo, eventualmente prospettando la costituzione di
un fondo ovvero la formulazione di meccanismi di assicurazione in capo ai soggetti che potrebbero essere chiamati a
risarcire il danno». In senso conforme ID., Intelligenza artificiale e protezione dei dati personali, in Giur. it., n. 7, 2019,
p. 1676.
52 Sul punto B. PANATTONI, op. cit., p. 325, che sottolinea due criticità derivanti dall’eventuale attribuzione di personalità
giuridica agli agenti artificiali. In primo luogo, questa prospettiva condurrebbe ad un «crescente “antropomorfismo”»
nei confronti degli agenti artificiali; in secondo luogo, alimenta il rischio di una deresponsabilizzazione degli operatori.
In senso conforme C. PIERGALLINI, Intelligenza artificiale: da ‘mezzo’ a ‘autore’ del reato?, cit., p. 1753.
53 In questo senso A. MATTHIAS, The responsibility gap: Ascribing responsibility for the actions of learning automata, in
Ethics Inf. Tech., n. 6, 2004, pp. 175 ss.
Quaderni giuridici
N. 29
maggio 2023
3 Machina delinquere non potest?
I sistemi di AI – siano essi deboli o forti – possono essere coinvolti nella commissione di un reato, quali strumenti della sua commissione o quali autori della condotta materiale: basti pensare alle self driving cars, alla chirurgia robotica e alle fakenews tramite chatbot54.
Nei fatti, la circolazione in via sperimentale di driving cars semiautonome55
ha già comportato incidenti stradali56 dovuti al malfunzionamento degli algoritmi che
pilotano tali autovetture57. Situazioni analoghe si sono verificate in ambito sanitario,
ove i sistemi di AI sono già ampiamente utilizzati, sia nella diagnosi sia nella chirurgia,
per velocizzare decisioni e operazioni di precisione58.
54 Sulla capacità dell’intelligenza artificiale di concepire e sviluppare il fatto tipico concernente “nuovi reati” si vedano le
considerazioni di M. PAPA, Future crimes: intelligenza artificiale e rinnovamento del diritto penale, in disCrimen (discrimen.it). 4 marzo 2020, pp. 9 ss.
55 Si rinvia per alcune riflessioni in ambito civile a A. DAVOLA – R. PARDOLESI, In viaggio col robot: verso nuovi orizzonti della
r.c. auto (“driverless”)?, in Danno resp., n. 5, 2017, pp. 616 ss.; U. RUFFOLO – E. AL MUREDEN, Autonomous vehicles e
responsabilità nel nostro sistema ed in quello statunitense, in Giur. it., n. 7, 2019, pp. 1704 ss.; R. LOBIANCO, Veicoli a
guida autonoma e responsabilità civile: regime attuale e prospettive di riforma, in Resp. civ. prev., n. 3, 2020, pp. 724
ss. (Parte I), e n. 4, 2020, pp. 1080 ss. (Parte II); e in ambito penale a A. CAPPELLINI, Profili penalistici delle self-driving
cars, in Dir. pen. cont. (archiviodpc.dirittopenaleuomo.org), n. 2, 2019, pp. 325 ss.
56 È il caso dell’episodio raccontato da R. BARLAAM, Incidente mortale, Uber sospende test su guida autonoma, in Il Sole 24
ore, 20 marzo 2018, p. 34. Si tratta cronologicamente del terzo sinistro, avvenuto a Tempe in Arizona (USA) il 18 marzo
2018, nel quale ha perso la vita non il conducente ma un pedone. Il primo incidente risale al 20 gennaio 2016 ad
Handan (Cina) provocando la morte del conducente; il secondo a Williston in Arizona (USA) il 7 maggio 2016, quando
una vettura Tesla modello S si è infilata sotto ad un camion bianco, non riuscendo a distinguerlo dal cielo luminoso,
provocando la distruzione dell’automobile e la morte del conducente. Un ultimo incidente è avvenuto a Mountain
View in California (USA) cagionando la morte del conducente.
57 Secondo una parte della dottrina la circolazione delle self driving cars evoca scenari utopici (e forse distopici), i quali
sono prefigurati da G. COMANDÉ, Intelligenza artificiale e responsabilità tra liability e accountability. Il carattere trasformativo dell’IA e il problema della responsabilità, in Analisi giur. econ., n. 1, 2019, p. 177, e solleva altresì questioni di
natura puramente etica, incisivamente descritti con l’espressione del c.d. “trolley problem”, da parte di Y. HU, Robot
Criminals, in Univ. Mich. Journal of Law Reform, Vol. 52, n. 2, 2019, p. 496, con riferimento alle self driving cars, interrogandosi sulla seguente questione: «where an autonomous vehicle must crash into either person(s) A or person(s) B.
Into whom should it crash? A child or an old lady? A cyclist with helmet or one without helmet?». Verosimilmente però
queste situazioni accomunano sia le self driving cars sia l’uomo in quanto la concitazione della guida non sembra
consentire di esprimere sempre la decisione “giusta” (o meno censurabile moralmente) sia da parte del conducente più
esperto sia da parte della autonomous car più addestrata possibile. In tale senso S. NYHOLM – J. SMIDS, The Ethics of
Accident-Algorithms for Self-Driving Cars: an Applied Trolley Problem?, in Ethical Theory and Moral Practice, n. 19,
2016, pp. 1287-1288.
58 Si veda U. RUFFOLO, L’intelligenza artificiale in sanità: dispositivi medici, responsabilità e “potenziamento”, in Giur. it., n.
2, 2021, pp. 502 ss., spec. pp. 502, 507, secondo il quale uno dei primi settori nei quali l’attività umana sarà presto
soppiantata dai sistemi di AI è quello della radiologia, ormai più precisa dell’uomo nell’esaminare una grande quantità
di informazioni e nell’elaborare una diagnosi, non necessariamente corretta in quanto l’algoritmo (oltre che opaco,
poco trasparente e quindi non immediatamente verificabile), sviluppa outputs basati su mere correlazioni statistiche
e non per inferenza logica. L’A. comunque ipotizza una responsabilità a carico del programmatore del sistema per non
avere previsto meccanismi interni volti ad inibire ogni evoluzione comportante eventi lesivi. Sulle applicazioni e sull’individuazione di alcuni limiti dell’intelligenza artificiale in ambito sanitario si rinvia a G. PASCERI, Intelligenza artificiale,
algoritmo e machine learning, cit., pp. 45-50, e Z. OBERMEYER – B. POWERS – C. VOGELI – S. MULLAINATHAN, Dissecting racial
bias in an algorithm used to menage the health of populations, in Science Magazine, 25 octuber 2019, Vol. 366, Issue
6464, pp. 447 ss., ove si riporta il caso dell’utilizzazione di un algoritmo (sistema Optum della United Health Group)
per individuare i pazienti con esigenze sanitarie complesse che produce effetti discriminatori sulla base del colore della
pelle con conseguente sovrastima dei costi della parte di popolazione pregiudicata.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Altri recenti casi hanno dimostrato la pericolosità degli assistenti vocali basati
sull’AI59: questi meccanismi (cc.dd. social bot), infatti, talvolta acquisiscono informazioni on line e selezionano le risposte agli utenti sulla base di criteri di natura computazionale, ripetendo eventualmente errori e pregiudizi diffusi nello spazio sociale60.
Come detto, il differente grado di autonomia del sistema di AI ha riflessi sul
tema dell’imputazione della responsabilità. Mentre per i sistemi di AI deboli possono
essere adattate le regole giuridiche in vigore con imputazione della responsabilità
all’uomo, per i sistemi di AI forti risulta più difficile imputare e poi distribuire la responsabilità in capo al produttore, al programmatore o all’utente.
3.1 I sistemi di AI istruiti all’illecito
È pacifico che il reato è imputabile direttamente all’uomo quando l’intelligenza artificiale è utilizzata come strumento per la sua consumazione mediante una
serie di istruzioni61 da colui che, impartendole, l’abbia determinato a commettere materialmente l’illecito62: si pensi alle truffe finanziarie di c.d. phishing di mail o di messaggi telefonici, effettuati mediante software agent che riproducono in maniera massiva tentativi di estorcere ai clienti password di accesso alle pagine personali, incluse
quelle dell’internet banking.
Si può aggiungere che, in presenza di un input umano alla commissione di un
illecito, il compimento di un evento diverso (ma pur sempre illecito) da quello ideato
per una deviazione imprevedibile dell’agente artificiale non recide il collegamento causale e l’imputazione all’uomo ma si risolve, tutt’al più, in una mera aberratio causae
che non fa venire meno l’imputabilità dell’evento all’agente umano63. Ugualmente,
59 Si può ricordare il caso dell’applicazione di Amazon, Alexa, che, in risposta alla richiesta di una challenge, ha invitato
una bambina di dieci anni a inserire un caricabatterie del telefono a metà in una presa di corrente e toccare i poli
opposti con una moneta. Dopo l’incidente Amazon ha aggiornato il software per evitare la ripetizione di analoghe
sfide pericolose. Si veda Amazon nei guai, la sfida di Alexa alla bimba. «Inserisci una moneta nella presa elettrica», in il
Giornale, 29 dicembre 2021, p. 15. Un altro caso riguarda la chatbot TAY (Thinking About You) che, dopo solo un giorno
dalla sua attivazione, è stata bloccata per avere diffuso sulle piattaforme digitali di comunicazione messaggi razzisti,
sessisti e xenofobi, amplificando gli effetti delle informazioni che l’applicazione aveva acquisito sulla rete. Su questo
episodio L. BENFATTO, Microsoft blocca il software Tay: era diventato razzista e xenofobo, in Il Sole 24 ore Tecnologia, 25
marzo 2016.
60 In questo senso l’articolo L’intelligence artificielle reproduit nos préjugés, in Le Monde, 18 aprile 2017, pp. 1, 28, ma
anche in dottrina A. CARCATERRA, Macchine autonome e decisione robotica, in A. CARLEO (a cura di), Decisione robotica,
Bologna, 2019, pp. 38 ss., il quale ricorda che tale effetto è stato definito dai data scientist come ‘GIGO’, ovvero “garbage in garbage out”.
61 Si rinvia a F. BASILE, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Dir. pen. uomo (dirittopenaleuomo.org), n. 10, 2019, in part. pp. 24 ss., il quale cita quali casi esemplificativi di utilizzazione dei sistemi
di intelligenza artificiale per la commissione di reati il c.d. bagarinaggio on line e le condotte di manipolazione abusiva
del mercato.
62 Si veda A. CAPPELLINI, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, in
disCrimen (discrimen.it), 27 marzo 2019, pp. 7-8.
63 A. CAPPELLINI, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, cit., p. 8.
Tuttavia, F. CONSULICH, Il nastro di Mobius. Intelligenza artificiale e imputazione penale nelle nuove forme di abuso del
mercato, in Banca borsa tit. cred., n. 2, 2018, pp. 218-219, con riguardo alle negoziazioni algoritmiche in ambito finanziario, ha rilevato in situazioni analoghe un difetto del dolo in quanto non vi è una completa e perfetta sovrapposizione delle modalità concrete di manifestazione del fatto compiuto dall’algoritmo.
Quaderni giuridici
N. 29
maggio 2023
qualora la deviazione imprevedibile dell’algoritmo non conduca alla commissione di un
illecito non potrà escludersi una imputazione all’uomo del tentativo64.
Algoritmi istruiti a delinquere potrebbero essere utilizzati anche in ambito
finanziario da parte di traders che sfruttano il vantaggio competitivo della velocità di
computazione, rispetto alle strategie di trading basate su sole cognizioni umane che,
per quanto sofisticate, non potranno mai colmare il gap tecnologico e, quindi, informativo di coloro che si servono di sistemi di AI65.
3.2 I sistemi di AI autori dell’illecito
La consumazione del reato può non provenire da un proposito umano ma essere conseguenza di comportamenti autonomi ed imprevedibili dell’agente artificiale
(il riferimento è ovviamente ai sistemi di AI forti) quando non sono stati predisposti
meccanismi inibitori che identifichino soglie di comportamento non valicabili66.
64 A. CAPPELLINI, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, cit., p. 8.
65 Si rinvia a G. RUTA, I.A. nei reati economici e finanziari, cit. pp. 67-70, che fornisce una casistica di tre casi nella giurisdizione inglese e americana. Oltre al caso Coscia su cui infra, ricorda il caso Da Vinci Invest Limited e Paul Axel Walter,
i quali costituiscono – secondo l’Autore – una rappresentazione esemplificativa di realizzazione di fattispecie di market
abuse mediante l’interazione di uomo e macchina, consistente nell’adozione del meccanismo massivo di ordini, tipico
dell’high frequency trading.
66 Non rientrano in questo ambito gli illeciti causati da un errore di fabbricazione, programmazione, addestramento o
sorveglianza o, più specificatamente, da un deficit informativo o da un inadeguato addestramento. Su questa distinzione da C. PIERGALLINI, Intelligenza artificiale: da ‘mezzo’ ad ‘autore’ del reato, cit., p. 1752, che distingue i «difetti di
costruzione», i «difetti di progettazione», i «difetti di informazione» e i «difetti da rischio di sviluppo». A ciascuno di
questi difetti corrisponde un preciso rischio ma, salvo quello da sviluppo su cui infra, come puntualizza B. PANATTONI,
Intelligenza artificiale: le sfide per il diritto penale nel passaggio dall’automazione tecnologica all’autonomia artificiale,
cit., p. 334, non si tratta di un rischio insito nell’autonomo funzionamento dei sistemi di AI ma «di un rischio creato,
attualizzato e gestito da quei soggetti che programmano, commercializzano o impiegano il sistema intelligente». Sulla
necessità di un dataset informato si veda C. DA ROLD, Quando gli algoritmi sbagliano spesso sono solo disinformati, in
Il Sole 24 ore, 18 settembre 2022, p. 14. In queste situazioni non dovrebbero condurre a ripensare le categorie giuridiche
vigenti ma piuttosto a promuovere un certo adattamento di quelle esistenti per i nuovi “prodotti” dotati di una maggiore libertà di azione rispetto al passato. In particolare, nelle fattispecie descritte l’evento del sistema di AI potrebbe
essere ascrivibile a titolo colposo a produttore, programmatore, trainer o utente. Ovviamente, la giustificazione del
rimprovero dovrebbe essere diversamente declinata: presumibilmente in caso di algoritmi male informati o male addestrati, come qualora vi sia stato un difetto di produzione o di programmazione, potrebbe essere stato violato un
obbligo di perizia; in caso di sistemi di AI non controllati potrebbe essere stato violato un obbligo di sorveglianza e,
quindi, di diligenza. Si tratta di ipotesi nelle quali sarebbe possibile ricostruire il rimprovero in termini di mancato
impedimento colposo dell’evento da parte dell’operatore (i.e. produttore, programmatore, trainer o utente), previa
definizione di un criterio di perizia o diligenza esigibile, commisurata al rischio secondo una normazione settoriale.
Così P. TRONCONE, Il sistema dell’intelligenza artificiale nella trama grammaticale del diritto penale. Dalla responsabilità
umana alla responsabilità delle macchine pensanti: un inatteso return trip effect, in Cass. pen., n. 9, 2022, pp. 3287 ss.,
spec. pp. 3301-3304, secondo il quale l’attribuzione del fatto illecito potrebbe trovare una giustificazione nella disposizione dell’art. 40, comma 2, c.p. Assumeranno, di conseguenza, maggiore rilevanza gli addebiti di natura omissiva in
quanto l’agente umano sarà coinvolto solo indirettamente nel processo decisionale. Il tutto determinerà un maggiore
coinvolgimento e una responsabilizzazione degli agenti umani in tutte le fasi di vita del sistema di AI, come già prefigura la proposta di Regolamento (UE) sull’intelligenza artificiale. Con riferimento ai sistemi di AI ad alto rischio, il Capo
II del Titolo III della proposta di Regolamento (UE) sull’intelligenza artificiale stabilisce che, prima di essere immessi sul
mercato, devono osservare le seguenti condizioni: istituire e realizzare un sistema di gestione dei rischi; predisporre
una governance e gestione dei dati per i sistemi di AI che prevedono l’uso di dati; redigere la documentazione tecnica
prima dell’immissione sul mercato o della messa in servizio; progettare e sviluppare i sistemi mediante registrazione
automatica degli eventi durante il loro funzionamento; progettare e sviluppare i sistemi in modo da assicurare adeguata trasparenza, consentendo agli utenti di interpretare gli output e di ricevere istruzioni per l’uso; garantire la
supervisione e il monitoraggio durante l’utilizzazione in modo tale da prevenire e ridurre rischi per salute, sicurezza e
diritti fondamentali; garantire accuratezza, robustezza e cybersicurezza dei sistemi in modo da evitare errori, guasti o
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Una parte della dottrina ha proposto di attribuire (o riconoscere) uno status
giuridico a questi sistemi di AI, onde poterne configurare una responsabilità per gli
illeciti da loro materialmente commessi67, in uno con l’individuazione degli elementi
(actus reus e mens rea)68 e delle ragioni69 di tale imputabilità.
Financo i più risalenti interventi delle istituzioni UE (finora limitati a fonti di
soft law), come la Risoluzione del Parlamento europeo del 16 febbraio 2017 recante
raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica
(2015/2103(INL)), avevano implicitamente prospettato l’istituzione di una soggettività
giuridica piena per i sistemi di AI forti, con la specifica finalità di consentire la creazione
di un centro di imputazione di responsabilità dei danni cagionati dai medesimi70, ma
incongruenze. Si tratta di obblighi a carico del fornitore del sistema di AI, ai quali si sommano i seguenti: istituire un
sistema di gestione della qualità che garantisca la conformità al Regolamento; sottoporre il sistema alla procedura di
valutazione di conformità, prevista dall’ art. 43 prima dell’immissione sul mercato o messa in servizio; redigere una
dichiarazione di conformità se il sistema è conforme e apporre la marcatura CE; conservare i log generati automaticamente; registrare il sistema nella banca dati UE prima dell’immissione sul mercato. Altrettanti obblighi sono previsti
per gli utenti: utilizzare e monitorare il sistema conformemente alle istruzioni per l’uso elaborate dal fornitore; organizzare risorse e attività per attuare le misure di sorveglianza umana indicate dal fornitore; informare il fornitore o il
distributore qualora abbiano individuato un incidente grave o un malfunzionamento e interrompere l’uso del sistema;
assicurare il rispetto degli obblighi normativi esistenti se rilevanti (ad esempio, direttiva CRD4 per gli enti creditizi,
Regolamento GDPR in caso di informazioni fornite ex art. 13).
67 In questo senso G. TEUBNER, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi (trad. it.
a cura di P. Femia), Napoli, 2019, pp. 55-60, 70-78, e G.P. CIRILLO, I soggetti giuridici digitali, in Contr. impr., n. 2, 2020,
pp. 580-581, i quali postulano il riconoscimento di una capacità giuridica parziale, ovvero la capacità di essere rappresentante, in quanto assumono decisioni autonome e per ciò stesso possono causare conseguenze in punto di responsabilità. A favore del riconoscimento di una personalità giuridica elettronica nella letteratura italiana U. RUFFOLO,
La “personalità elettronica”, in U. RUFFOLO (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020, pp.
213 ss., e nella letteratura di common law L.B. SOLUM, Legal Personood for Artificial Intelligences, in North Carolina L.
Rev., Vol. 70, n. 4, 1994, pp. 1231 ss.
delle persone incapaci (i.e. minori di età), alla quale non può essere imputata la commissione di illeciti penali. In queste
ipotesi, pur potendo essere integrato l’elemento materiale del reato (actus reus) da parte di un sistema di AI, manca
comunque l’elemento soggettivo (mens rea) per l’attribuzione della responsabilità all’intelligenza artificiale che viene
qualificata come «mere instrument, even though it is a sophisticated instrument, and the originating actor (the perpetrator-by-another) is the real perpetrator as a principal of the first degree. That perpetrator-by-another is liable for the
conduct of the innocent agent, and the perpetrator liability is determined on the basis of that conduct and the perpetrator-by-another own mental state». Nello stesso senso del medesimo A., The Criminal Liability of Artificial Intelligence
Entities – from Science Fiction to Legal Social Control, in Akron Intellectual Property Journal, Vol. 4, Issue 2, 2010, pp.
170 ss. In altre due ipotesi l’A. prefigura la possibilità di individuare una responsabilità del sistema di AI: nella prima
individua una responsabilità solidale di uomo e AI qualora al programmatore o all’utilizzatore sia imputabile un addebito colposo; nella seconda una responsabilità esclusiva dell’AI qualora sia reciso il collegamento con il programmatore
o l’utilizzatore. Per alcune obiezioni a questo orientamento si veda R. BORSARI, Intelligenza artificiale e responsabilità
penale: prime considerazioni, in Rivista di diritto dei media (medialaws.eu), n. 3, 2019, pp. 267-268.
69 Y. HU, Robot Criminals, cit., passim, individua un triplice ordine di ragioni per considerare i sistemi di AI responsabili
penalmente: in primo luogo, l’algoritmo alla base del sistema di AI sia dotato di algoritmi in grado di assumere decisioni
moralmente rilevanti; in secondo luogo, l’algoritmo sia capace di comunicare le sue decisioni agli uomini; infine, l’algoritmo sia autorizzato ad agire senza la supervisione umana.
70 Si veda il § 59, lett. f), della Risoluzione del Parlamento UE del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, cit., ove tra le soluzioni giuridiche possibili da adottare nel
futuro, si valuta «l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i
robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi
danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono
decisioni autonome o che interagiscono in modo indipendente con terzi».
Quaderni giuridici
N. 29
maggio 2023
lasciando irrisolta una doppia questione: (i) la difficoltà di muovere un giudizio di rimproverabilità nei confronti delle “macchine”71, (ii) la definizione delle modalità di riparazione e punizione dei pregiudizi causati dai comportamenti degli agenti artificiali72.
Ed invero, la prospettiva di considerare l’AI un autonomo centro d’imputazione giuridica
è stata criticata ampiamente, non soltanto dalla migliore dottrina73, ma anche dalle
stesse istituzioni dell’UE. Il Comitato economico e sociale europeo, nel parere su «L’intelligenza artificiale — Le ricadute dell’intelligenza artificiale sul mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società», (2017/C 288/01),
del 22 settembre 2016, ha dichiarato che attribuire personalità giuridica ai robot «comporterebbe un rischio inaccettabile di azzardo morale» in quanto eliminerebbe la funzione di prevenzione propria del regime della responsabilità74. Il Gruppo di esperti
sull’intelligenza artificiale istituito dalla Commissione europea nel giugno 2018, nel
Report on Liability for Artificial Intelligence and other emerging digital technologies, ha
ribadito che «there is currently no need to give a legal personality to emerging digital
technologies. Harm caused by even fully autonomous technologies is generally reducible
to risks attributable to natural persons or existing categories of legal persons, and where
this is not the case, new laws directed at individuals are a better response than creating
71 Su questo punto si rinvia alle notazioni critiche di M.B. MAGRO, Decisione umana e decisione robotica. Un’ipotesi di
responsabilità da procreazione robotica, cit., pp. 9-10, ove si sottolinea la difficoltà di individuare il requisito della
colpevolezza in quanto l’AI non è in grado di percepire e comprendere l’antigiuridicità della condotta. Nel medesimo
senso I. SALVADORI, Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale, cit., pp. 98-99; C.
PIERGALLINI, Intelligenza artificiale: da ‘mezzo’ a ‘autore’ del reato?, cit., pp. 1745 ss.; A. CAPPELLINI, Machina delinquere
non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, cit., pp 14-15, e P. SEVERINO, Intelligenza
artificiale e diritto penale, in U. RUFFOLO (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, cit., p. 535. Nella
letteratura anglosassone si veda P.M. ASARO, A Body to Kick, but Still No Soul to Damn: Legal Perspectives on Robotics,
in P. LIN – K. ABNEY – G. BEKEY (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, 2012, pp.
169 ss., spec. p. 181, che esclude l’applicazione della responsabilità penale in quanto gli agenti artificiali non sono
dotati di capacità morale.
personalità giuridica.
73 In dottrina si ritiene che l’evoluzione tecnologica non abbia raggiunto uno stadio tale da accordare uno status giuridico
ai sistemi di AI. In questo senso E. PALMERINI, Soggettività e agenti artificiali: una soluzione in cerca di un problema, in
Oss. dir. civ. comm., n. 2, 2020, pp. 445 ss. In senso sostanzialmente conforme G. BEVIVINO, Situazioni giuridiche “soggettive” e forme di tutela delle intelligenze artificiali, in Nuova giur. civ. comm., n. 4, 2022, pp. 899 ss., spec. p. 907, ma
non esclude che in futuro vi sia l’esigenza di regolamentare forme di responsabilità diretta qualora i sistemi di AI
raggiungano meccanismi di funzionamento del tutto sovrapponibili a quelli dell’uomo. Contrario alla creazione di
sistemi di AI si veda S. RIONDATO, Robotica e diritto penale (robot, ibridi, chimere, “animali tecnologici”), in D. PROVOLO –
S. RIONDATO – F. YENISEY, Genetics, robotics, law punishment, Padova, 2014, pp. 605-606, il quale ritiene che nelle pieghe
dell’ordinamento possa rinvenirsi un divieto di creare sistemi di AI che abbiano anche capacità umana. Il dato normativo viene individuato nell’art. 13 della Legge n. 40 del 2004, che prevede un divieto generale di produrre ibridi e
chimere, ritenuto dall’A. in grado di comprendere anche “robot umanizzati”. Se si vuole estendere l’analisi poi sul piano
della responsabilità civile si veda in senso critico U. SALANITRO, Intelligenza artificiale e responsabilità: la strategia della
Commissione europea, cit., pp. 1250-1251, secondo il quale la prospettiva di una soggettività giuridica, collegata alla
creazione di un patrimonio o di un fondo assicurativo, costituirebbe soltanto un espediente per imputare la responsabilità a una pluralità di imprenditori e utenti. Si veda altresì E. BOCCHINI, Contro la “soggettivizzazione” dell’intelligenza artificiale, in Il Nuovo Dir. Soc., n. 2, 2023, pp. 195 ss.
74 PARERE DEL COMITATO ECONOMICO E SOCIALE EUROPEO su «L’intelligenza artificiale — Le ricadute dell’intelligenza artificiale sul
mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società», (2017/C 288/01), 22 settembre 2016. In questi termini L. COPPINI, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Pol. dir., n.
4, 2018, p. 730.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
a new category of legal person»75. Anche il Parlamento europeo, in una successiva Risoluzione del 20 ottobre 2020, ha reputato non necessario conferire personalità giuridica ai sistemi di AI poiché in tutte le attività vi è comunque un apporto umano76. A
ciò si aggiunge che una sanzione penale nei confronti dei sistemi di AI non sarebbe in
grado di svolgere alcuna delle funzioni riconosciute alla pena, ovvero quella retributiva,
rieducativa e preventiva. In primo luogo, la sanzione non potrebbe svolgere alcuna funzione retributiva in quanto ai sistemi di AI non è possibile muovere alcun rimprovero:
l’intelligenza artificiale è sprovvista del libero arbitrio77. In secondo luogo, la finalità
rieducativa non potrebbe essere perseguita: l’ipotetica previsione della distruzione o
della disattivazione del sistema di AI finirebbe per ricadere sempre sul proprietario o
sull’utente78, senza contare che entrambe queste “pene” potrebbero essere comunque
scongiurate da una riprogrammazione della “macchina”79. Infine, la sanzione non sarebbe idonea a comunicare il disvalore sociale del comportamento antigiuridico agli
altri sistemi di AI in quanto insensibili ai precetti penali perché artificiali e, come tali,
correggibili mediante una mera riprogrammazione80.
Un altro orientamento dottrinale, all’opposto, suggerisce di imputare l’illecito
pur sempre all’uomo, marginalizzando la dimensione soggettiva della colpa ed estendendo i confini della prevedibilità e della evitabilità dell’evento sino a configurare un
modello di responsabilità quasi “oggettivo”, ricostruito sulla base di una prevedibilità
astratta, coincidente con l’assunzione di un rischio, pur in mancanza della violazione
di regole di condotta di uno qualsiasi degli operatori coinvolti nel processo di produzione e programmazione, ovvero solo per avere volutamente messo in funzione un sistema di AI dal comportamento imprevedibile81. Non vi è dubbio che quest’ultima ricostruzione contrasta col consolidato principio di imputazione personale della
75 EXPERT GROUP ON LIABILITY AND NEW TECHNOLOGIES, Report on Liability for Artificial Intelligence and other emerging digital
technologies, European Commission, 2019, p. 38.
76 Si veda il § 7 della Risoluzione del Parlamento UE del 20 ottobre 2020 recante raccomandazioni alla Commissione su
un regime di responsabilità civile per l’intelligenza artificiale, cit.
77 In questo senso A. CAPPELLINI, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità
penale, cit., pp. 15-16, e C. PIERGALLINI, Intelligenza artificiale: da ‘mezzo’ a ‘autore’ del reato?, cit., pp. 1767-1768. Sulla
capacità degli algoritmi di condizionare le decisioni dell’uomo si veda M. ABRIANI, Gli algoritmi minacciano il libero
arbitrio?, in MichePost, 16 maggio 2020, mentre sulla necessità di una predisposizione etica degli algoritmi si vedano
A. CELOTTO, Come regolare gli algoritmi. Il difficile bilanciamento fra scienza, etica e diritto, in Analisi giur. econ., n. 1,
2019, p. 59, e R. TREZZA, Intelligenza artificiale e persona umana: la multiforme natura degli algoritmi e la necessità di
un “vaglio di meritevolezza” per i sistemi intelligenti, in Ratio Iuris (ratioiuris.it), 19 maggio 2022.
78 In questo senso M.B. MAGRO, Decisione umana e decisione robotica. Un’ipotesi di responsabilità da procreazione robotica, cit., p. 8, e B. PANATTONI, Intelligenza artificiale: le sfide per il diritto penale nel passaggio dall’automazione tecnologica all’autonomia artificiale, cit., p. 348.
79 Si veda V.C. TALAMO, Sistemi di intelligenza artificiale: quali scenari in sede di accertamento della responsabilità penale?,
in ilPenalista, 3 luglio 2020, pp. 5-6, che esclude la possibilità di configurare una responsabilità penale degli agenti
artificiale non soltanto per la mancanza del requisito della colpevolezza ma altresì per l’impossibilità di alcuna funzione
rieducativa e risocializzante della pena. Possibilista sul raggiungimento delle funzioni della pena F. BASILE, Diritto penale
e intelligenza artificiale, cit., pp. 73-74, limitatamente a quella retributiva e special-preventiva, mentre manifesta perplessità di un effetto general-preventivo nei confronti delle “entità” artificiali.
80 A. CAPPELLINI, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, cit., pp.
15-16, e C. PIERGALLINI, Intelligenza artificiale: da ‘mezzo’ a ‘autore’ del reato?, cit., pp. 1767-1768.
81 M.B. MAGRO, Decisione umana e decisione robotica. Un’ipotesi di responsabilità da procreazione robotica, cit., pp. 1920.
Quaderni giuridici
N. 29
maggio 2023
responsabilità penale; vero è d’altronde che essa ha il pregio di incentivare un atteggiamento di cautela da parte di produttori, programmatori e utilizzatori, forse a discapito dell’illimitata evoluzione tecnologica dell’AI.
Vi è infine un terzo scenario, non meno problematico dei due precedenti: l’accettazione di un rischio “normale” nell’utilizzazione dei sistemi di AI equiparabile al
rischio ambientale oppure al caso fortuito e alla forza maggiore (artt. 45-46 c.p.), come
tale imponderabile ma distribuito e condiviso su tutta la collettività82. A ben vedere, si
tratta della consapevole accettazione dell’accennato responsibility gap, nell’ottica di
una valutazione comparativa di benefici e costi che considera prioritario lo sviluppo
tecnologico e recessive le esigenze di tutela dell’individuo ma fatti salvi alcuni limitati
divieti per le ipotesi di rischio del tutto inaccettabile83.
4 Trading, abusi di mercato e AI: uno sguardo d’insieme
I sistemi di AI consentono di acquisire e processare una gran mole di informazioni e di elaborare nuove strategie di mercato in pochi millesimi di secondo. Ciò è
dovuto a due caratteristiche principali del funzionamento di alcuni degli algoritmi di
negoziazione algoritmica: l’arbitraggio statistico e l’arbitraggio di latenza. L’analisi
economica ha evidenziato come gli arbitraggi siano centrali per il funzionamento dei
mercati: essi consentono, da un lato, guadagni a rischio (quasi) nullo per gli operatori
che li sanno implementare e, di converso, offrono benefici per la collettività degli investitori, che si può giovare, così, di prezzi che rimangono coerenti con l’insieme delle
informazioni pubblicamente disponibili.
Tutte le modalità di trading algoritmico, compresa la negoziazione algoritmica
(c.d. algorithmic trading) e la negoziazione algoritmica ad alta frequenza (c.d. high
frequency trading), dischiudono nuove vulnerabilità e scenari inediti di consumazione
degli illeciti di abuso di mercato84. Il pericolo diffuso acquisisce un’evidente consistenza se si ha riguardo ai beni che l’ordinamento intende salvaguardare con la predisposizione di un organico apparato normativo sanzionatorio, che dovrebbe necessariamente essere aggiornato con misure proporzionate a queste forme di negoziazione.
82 Prospetta questo scenario in ambito penale M.B. MAGRO, Robot, cyborg e intelligenze artificiali, in A. CADOPPI – S. CANESTRARI – A. MANNA – M. PAPA, Cybercrime, Torino, 2019, pp. 1180 ss., spec. p. 1211, ma apre le porte a ipotesi di responsabilità civile di natura oggettiva qualora non vi fosse alcuna colpa di operatore, programmatore o venditore.
83 In questo senso la proposta di Regolamento (UE) sull’intelligenza artificiale già individua alcune pratiche inaccettabili
di intelligenza artificiale. In particolare, l’art. 5, par. 1, della proposta di Regolamento (UE) sull’intelligenza artificiale
vieta le seguenti pratiche di intelligenza artificiale: i sistemi di AI che utilizzano tecniche subliminali (lett. a); i sistemi
di AI che sfruttano la vulnerabilità di alcuni soggetti (lett. b); i sistemi di AI utilizzati per valutare l’affidabilità delle
persone (lett. c); i sistemi di AI di identificazione biometrica in tempo reale in spazi aperti al pubblico (lett. d). L’art. 71
annuo dell’esercizio precedente. Le medesime sanzioni sono previste anche per la violazione delle regole in tema di
dati e governance dei dati dei sistemi di AI ad alto rischio.
84 In questo senso M. DE FELICE, Decisione robotica negoziale. Nuovi «punti di presa» sul futuro, in A. CARLEO, Decisione
robotica, Bologna, 2019, p. 192, e C. MOTTURA, Decisione robotica negoziale e mercati finanziari, in ivi, pp. 265 ss., spec.
pp. 265 e 271.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Le molteplici teorie che giustificano l’introduzione di divieti di abuso di mercato sono accomunate dalla finalità di assicurare il corretto ed ordinato funzionamento
degli scambi inerenti a strumenti finanziari. Mediante la proibizione di abusi di informazioni privilegiate (o insider trading), infatti, l’ordinamento giuridico intende evitare
che il rischio che la controparte esegua un contratto sulla base di informazioni non
pubbliche disincentivi i market maker dal ridurre, nella loro competizione reciproca il
bid ask spread, ovvero i costi di transazione per la generalità degli investitori85, e dissuada gli investitori istituzionali dal prendere posizioni contrarie ai trend in atto che
85 Nell’analisi economica tradizionale i market maker assumono un ruolo cruciale per il funzionamento dei mercati in
quanto sono gli intermediari che offrono liquidità agli altri partecipanti al mercato grazie alle proposte di acquisto
(bid) e di vendita (ask) che espongono in via continuativa su un dato strumento finanziario. Tipicamente, i profitti
attesi dei market maker crescono al crescere della frequenza degli scambi, che quindi consente a ciascuno di ridurre
la differenza tra la migliore proposta offerta in acquisto e la migliore proposta offerta in vendita. La competizione tra
market maker su un medesimo strumento finanziario porta, a parità di altre condizioni, ad una riduzione della migliore
proposta in acquisto offerta nel complesso da tutti i market maker (bid-ask spread). Ciò va a vantaggio degli altri
partecipanti al mercato che, invece, vedono il bid-ask spread come il costo di transazione che devono sostenere per
effettuare i loro investimenti. Pertanto, l’analisi economica presta molta attenzione alle scelte di policy e alle regole di
funzionamento dei mercati che favoriscono la riduzione del bid-ask spread da parte dei market maker. In particolare,
è esaminato il ruolo svolto dai market maker nel processo di formazione dei prezzi ovvero nel processo di price discovery, che consente ai prezzi di incorporare e riflettere le informazioni che i partecipanti al mercato forniscono implicitamente a tutti gli altri partecipanti al mercato con i loro ordini di acquisto e di vendita. Alla domanda se sia bene
introdurre un divieto di insider trading gli economisti hanno fornito risposte contrastanti sulla base di diverse teorie.
La più importante teoria che è contraria all’introduzione del divieto fa leva sull’efficienza informativa dei mercati,
ovvero sulla misura in cui i prezzi sono in grado di rappresentare il valore sottostante del bene cioè il suo valore
intrinseco o fondamentale. In particolare, la classica ripartizione proposta dal premio Nobel Eugene Fama è tra efficienza informativa debole, semi-forte e forte a seconda che i prezzi riescano ad incorporare ed esprimere le informazioni che sarebbe in alternativa possibile ricavare dalla conoscenza, rispettivamente, dei prezzi passati, di tutte le informazioni già pubblicate e di tutte le informazioni non pubblicate (cioè private). È quindi evidente che se in un mercato
è proibito agli insider di operare, in quanto dispongono per definizione di informazioni private, allora in tale mercato
i prezzi non potrebbero mai raggiungere una efficienza forte, ma, al più, semi-forte. Si aggiunge che l’efficienza informativa dei mercati è a sua volta funzionale all’efficienza allocativa delle risorse. Quanto più, infatti, i prezzi riescono
ad esprimere i valori fondamentali degli strumenti finanziari e tanto più facile sarà per la “mano invisibile” teorizzata
da Adam Smith di portare fisiologicamente le risorse di una economia verso gli investimenti che più sono meritevoli
delle stesse. Di contro, varie teorie sulla microstruttura dei mercati hanno dimostrato come i market maker sono significativamente danneggiati dall’eventuale presenza di insider sul mercato. Se infatti il market maker offre liquidità
ad un insider che è a conoscenza di una informazione privilegiata che sta per essere pubblicata, allora il market maker
che non riesca a chiudere prima della pubblicazione dell’informazione la posizione che ha aperto per offrire liquidità
all’insider subirà, al momento della pubblicazione, una perdita pari alla differenza tra il nuovo prezzo di mercato e
quello al quale aveva offerto liquidità all’insider. Essendo consapevoli di tale rischio, allora i market maker allargano il
bid-ask spread, cioè impongono agli altri partecipanti al mercato un più alto costo di transazione, in modo da compensare le perdite derivanti da tale possibile evenienza sfavorevole. Peraltro, poiché i market maker non riescono a
riconoscere gli strumenti finanziari e i periodi in cui gli insider possono presentarsi come controparti, allora essi allargano i via sistematica il bid-ask spread. A cascata, occorre anche tenere presente che più ampi bid-ask spread allontanano dal mercato quei partecipanti che, al margine, non riescono a sostenere tale costo di transazione e questo, a
sua volta, riduce la frequenza degli scambi e quindi sia i profitti attesi dai market maker sia l’efficienza informativa dei
prezzi, che non possono più incorporare le informazioni che tali partecipanti apportano con i loro ordini sul mercato.
Sull’efficienza informativa dei mercati: E. FAMA, Efficient Capital Markets: A Review of Theory and Empirical Work, in
Journal of Finance, 1970; S. GROSSMAN – J. STIGLITZ, Information and competitive price system, in American Economic
Review, 1976; AS. KYLE, Continuous auctions and insider trading, in Econometrica, 1985; AS. KYLE, Informed speculation
with imperfect competition, in Review of Economic Studies, 1989. Sui principali modelli che esaminano l’influenza
dell’operatività degli insider sul processo di formazione dei prezzi si vedano: F. DE JONG – B. RINDI, The microstructure
of financial markets, Cambridge University Press, 2009; T. FOUCALT – M. PAGANO – A. RÖELL, Market liquidity: theory,
evidence, and policy, Oxford University Press, USA, 2013. Su altre teorie favorevoli o contrarie all’introduzione di un
divieto di insider trading: U. BHATTACHARYA, Insider trading controversies: A literature review, in Annu. Rev. Financ. Econ.
Vol. 6, n. 1, 2014, pp. 385-403; S.M. BAINBRIDGE, An overview of insider trading law and policy: An introduction to the
insider trading research handbook, in Research Handbook on Insider Trading, Stephen Bainbridge, Edward Elgar Publishing Ltd, 2013, pp. 12-15; HG. MANNE, Insider trading and the stock market. New York Free Press, 1966; HG. MANNE,
Insider trading, virtual markets, and the dog that did not bark, in J. Corp. Law, 2005; M. KING – A. ROELL – J. KAY – C.
WYPLOSZ, Insider trading, in Econ. Pol., 1988. Sulle evidenze empiriche: U. BHATTACHARYA – D. HAZEM, The world price of
Quaderni giuridici
N. 29
maggio 2023
non risultino coerenti con l’insieme delle informazioni pubblicamente disponibili86.
È questo un approccio che si oppone alla visione di una parte della dottrina
secondo la quale l’indiscriminato utilizzo di informazioni privilegiate consentirebbe ai
prezzi che si formano nei mercati di convergere più rapidamente verso i fundamentals.
Il rallentamento del processo di price discovery introdotto dal divieto di abuso è quindi
accompagnato nei vari ordinamenti dall’introduzione di obblighi informativi per gli
emittenti. Emblematicamente, nella UE gli obblighi per gli emittenti partono proprio
dal momento in cui le informazioni assumono natura privilegiata, cioè dal momento in
cui sono pronte per essere sfruttate con profitto dagli insiders (art. 17, par. 1, Regolamento (UE) MAR).
Mediante il divieto di manipolazione del mercato, d’altronde, l’ordinamento
giuridico intende parimenti scongiurare che informazioni false o fuorvianti non solo
rallentino il processo di convergenza verso i fundamentals ma addirittura lo impediscano87. È, pertanto, sanzionata la diffusione di informazioni false da parte di quanti
abbiano capacità con le proprie affermazioni o omissioni di influire sui prezzi di mercato. E poiché questi ultimi non sono soltanto il risultato dell’interazione tra domanda
e offerta ma costituiscono, a loro volta, informazioni – lette, esaminate e valutate dalle
varie tipologie di operatori – è parimenti sanzionato il conferimento di ordini o l’esecuzione di operazioni che alterino il processo di formazione dei prezzi e li allontani dai
fundamentals, creando quindi prezzi artificiali, ovvero un quadro informativo distorto.
insider trading, in The journal of Finance, Vol. 57, n. 1, 2002, pp. 75-108; H.B. CHRISTENSEN – H. LUZI – L. CHRISTIAN, Capitalmarket effects of securities regulation: Prior conditions, implementation, and enforcement, in The Review of Financial
and Economics, Vol. 60, n. 4, 2017, pp. 749-800.
86 Se, infatti, gli insider spostano in anticipo I prezzi dal loro valore coerente con l’insieme delle informazioni pubblicamente disponibili, come rilevabile dagli studi prodotti da agenzie di rating e analisti finanziari, allora gli investitori
istituzionali (fondi pensione, fondi speculativi, ecc.) potrebbero essere indotti a prendere importanti posizioni che puntino sul riallineamento dei prezzi correnti verso quelli coerenti con l’insieme delle informazioni pubblicamente disponibili. Quando tuttavia l’informazione privilegiata è resa pubblica, tali investitori rimangono sorpresi e subiscono perdite che altrimenti non avrebbero subito. Anticipando, tale scenario avverso, gli investitori istituzionali non sarebbero
incentivati a domandare agli analisti finanziari ricerche sofisticate sul valore dei prezzi coerente con l’insieme delle
informazioni pubblicamente disponibili. A cascata, la riduzione della domanda porta a una minore produzione di ricerche e quindi ad una maggiore erraticità dei prezzi, che quindi risulterebbero meno efficienti: M.J. FISHMAN – K.M.
HAGERTY, Insider Trading and the Efficiency of Stock Prices, in The Rand Journal of Economics, Vol. 23, No. 1, Spring1992,
pp. 106-122.
87 Il pericolo immanente alle negoziazioni ad alta frequenza è stato condiviso dal legislatore UE. Il Considerando 38 del
Regolamento (UE) n. 596/2014 (c.d. MAR, acronimo di Market Abuse Regulation), precisa, infatti, che «per rispecchiare
il fatto che la negoziazione di strumenti finanziari è sempre più automatizzata, è auspicabile che la definizione di
manipolazione del mercato fornisca esempi di strategie abusive specifiche che possono essere effettuate con qualsiasi
strumento disponibile di negoziazione, incluse le negoziazioni algoritmiche e quelle ad alta frequenza. Gli esempi
forniti non sono da considerare esaustivi e non tendono a suggerire che le stesse strategie attuate con altri mezzi non
siano abusive». Per una descrizione delle pratiche più diffuse di abusivisimo a seguito della diffusione dell’high frequency trading si rinvia a V. CAIVANO – S. CICCARELLI – G. DI STEFANO – M. FRATINI – G. GASPARRI – M. GILIBERTI – N. LINCIANO
– I. TAROLA, Il Trading ad alta frequenza, in Discussion papers CONSOB (consob.it), n. 5, 2012; A. PUORRO, High Frequency
Trading: una panoramica, in Questioni di economia e Finanza (Occasional Paper), Banca d’Italia (bancaditalia.it), n. 198,
settembre 2013.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
In effetti, con l’utilizzazione dei sistemi di AI nella negoziazione finanziaria
l’attività di vigilanza è stata resa più complessa per la difficoltà non soltanto di individuare il software88, che ha determinato una certa dinamica di mercato, ma anche di
valutare l’operato del medesimo in termini di individuazione delle relative motivazioni
sottostanti e, quindi, di liceità o illiceità e attribuire le conseguenti responsabilità89.
Ciò accade in quanto le soluzioni veicolate dall’intelligenza artificiale favoriscono
l’ideazione di nuove condotte incidenti sull’incontro tra domanda ed offerta e sul valore
degli strumenti finanziari.
L’intelligenza artificiale, applicata alle transazioni finanziarie, ha quindi una
portata “disruptive”90, à la Schumpeter, ed è oggetto di questo studio capire in quale
misura le attuali fattispecie di insider trading e di manipolazione siano in grado di
contenere le nuove e differenti declinazioni abusive del fenomeno91. Il rischio di un
ritardo è, come spesso succede, legato alla difficoltà dell’ordine “giuridico” del mercato92 di rimanere progressivamente allineato all’evoluzione “economica” di quest’ultimo, con la predisposizione di più innovative regole “proibitive”, “attributive” e “conformative” in ossequio ai principi costituzionali in materia economica93, senza le quali
aumentano i rischi di stabilità e di integrità dei mercati finanziari94.
Invero, la diffusione di sistemi di AI è avvertita con maggiore evidenza nel
trading piuttosto che nella formazione e circolazione delle informazioni privilegiate.
Innanzitutto, in dottrina, come nella letteratura economico-finanziaria, è dibattuto l’effetto dei traders algoritmici sulle grandezze che esprimono la qualità del
88 Sull’opportunità di utilizzare meccanismi di intelligenza artificiale per individuare la diffusione al mercato delle informazioni privilegiate da parte degli emittenti quotati v. F. ANNUNZIATA, Intelligenza artificiale e comunicazione al mercato
di informazioni privilegiate, in L. BOGGIO (a cura di), Intelligenza artificiale e diritto dell’impresa, Giur. it., n. 8-9, 2022,
pp. 2031 ss., spec. p. 2033, che individua nella nuova disposizione di diritto comune dell’art. 2086 c.c. il proprio radicamento, ove si utilizza una formulazione ampia ed elastica di «assetto organizzativo, amministrativo e contabile adeguato alla natura e alle dimensioni dell’impresa».
89 In questo senso F. DI CIOMMO, Smart contract e (non-) diritto. Il caso dei mercati finanziari, in Nuovo diritto civile, n. 1,
2019, pp. 283-284.
90 In linea generale sugli effetti dell’intelligenza artificiale sulla regolamentazione giuridica si v. G. MOBILIO, L’intelligenza
artificiale e i rischi di una “disruption” della regolamentazione giuridica, in BioLaw Journal – Rivista di BioDiritto (biodiritto.org), n. 2, 2020, pp. 401 ss.
91 Per una descrizione delle nuove modalità commissive di manipolazioni di mercato mediante algoritmi (in particolare
algorithmic trading e high frequency trading) v. infra. In dottrina delinea i principali schemi manipolativi di spoofing,
pinging e mass-information T.C.W. LIN, The new market manipulation, in Emory Law Journal, Vol. 66, Issue 6, pp. 1252
92 Su questa espressione si rinvia a N. IRTI, L’ordine giuridico del mercato, Roma-Bari, 2003, passim, spec. pp. 51-54, che
analizza la funzione conformatrice del diritto mediante norme “proibitive”, ovvero le norme che stabiliscono divieti,
norme “attributive”, ovvero le norme che conferiscono posizioni a soggetti ed a beni, e norme “conformative”, ovvero
le norme che disciplinano i negozi dando una propria fisionomia al mercato.
93 Un discorso analogo è stato già fatto da P. LUCANTONI, Mercato dei capitali, pandemia e informazione al mercato: il
dibattito sull’evoluzione della disciplina degli abusi di mercato, in Banca borsa tit. cred., n. 4, 2022, pp. 549 ss., a causa
dei risvolti sulla razionalità giuridica del mercato derivanti dalla pandemia e dalle scelte di investimento riconducibili
al fenomeno della c.d. “gamification”.
94 In tale senso A. AZZUTTI – W.G. RING – H. S. STIEHL, The Regulation of AI trading from an AI Life Cycle Perspective, in EBI
Working Paper Series (ebi-europa.eu), n. 130, 2022, passim.
Quaderni giuridici
N. 29
maggio 2023
mercato95. Non vi è dubbio che ciascuna operazione algoritmica costituisca un’informazione al pari di ogni altra transazione di mercato; ma si dibatte in dottrina se esse
favoriscano o meno una migliore comprensione degli scambi complessivamente considerati96. Dal dibattito, sembra, in breve, che l’effetto sia positivo sulla liquidità e sull’efficienza informativa e rimanga dubbio, invece, sulla volatilità e sulla resilienza nelle
fasi di stress o crash97.
Nella UE, i primi tentativi di regolamentazione, sul lato della prevenzione, riguardano quegli algoritmi che sfruttano la velocità di latenza per limitare la commissione di condotte abusive. In particolare, l’art. 17 della Direttiva 2014/65/UE (Markets
in financial instruments directive, c.d. MiFID II) stabilisce che le imprese di investimento
esercitino «controlli dei sistemi e del rischio efficaci e idonei» e «impediscano l’invio di
ordini erronei o comunque un funzionamento dei sistemi tale da creare un mercato
disordinato o contribuirvi»; l’art. 48 della MiFID II prevede l’introduzione nei mercati
dei cc.dd. circuit breakers, meccanismi presso le sedi di negoziazione per arrestare temporaneamente o vincolare le negoziazioni se si verificano all’improvviso movimenti di
prezzo inattesi98. Inoltre, sul lato della repressione, sono state ulteriormente definite le
pratiche di manipolazione con l’intento di assicurare una più incisiva tutela alla formazione dei prezzi degli strumenti finanziari (v. Cap. II, par. 2).
L’applicazione dei sistemi di AI alle negoziazioni determina in via tendenziale
la rottura del collegamento tra operazione finanziaria e persona fisica99, acuita dalla
velocità di esecuzione degli ordini che rendono impraticabile una correzione sugli algoritmi utilizzati100. Ma anche una volta individuato il nesso causale tra input umano
e output algoritmico gli illeciti di abuso di mercato richiedono, sul piano della responsabilità penale, quale elemento soggettivo indefettibile una componente intenzionale
ravvisabile unicamente quando l’algoritmo sia usato come strumento per la commissione del reato101. È il caso di quanto accaduto negli Stati Uniti d’America, là dove
95 Su questa disputa M. BERTANI, Trading algoritmico ad alta frequenza e tutela dello slow trader, cit., pp. 274-275, il quale
aggiunge che, dall’utilizzazione di questi meccanismi che sfruttano il vantaggio di latenza, venga depauperata anche
la capacità del mercato di informare gli operatori sul grado di liquidità di uno strumento finanziario a causa della
presumibile riduzione dell’effetto in tempi infinitesimali.
96 A. PUORRO, High Frequency Trading: una panoramica, cit., pp. 22-23. Cfr. A. AZZUTTI – W.G. RING – H. S. STIEHL, Machine
learning, market manipulation and collusion on capital markets: why the “black box” matters, in EBI Working Paper
Series (ebi-europa.eu), n. 84, 2021, p. 28, per i quali l’imperscrutabilità dei meccanismi di funzionamento dei sistemi
di AI rende incomprensibile il come e il perché di una singola operazione algoritmica.
97 Si vedano B. BIAIS – T. FOUCAULT, HFT and market quality, in Bankers, Markets & Investors, Vol. 128, n. 1, 2014, pp. 5-19;
A. KIRILENKO – A.S. KYLE – M. SAMADI – T. TUZUN, The flash crash: High?frequency trading in an electronic market, in The
Journal of Finance, Vol. 72, n. 3, 2017, pp. 967-998; V. CAIVANO, The impact of high-frequency trading on volatility.
Evidence from the Italian market, in Quaderni di finanza CONSOB (consob.it), n. 80, marzo 2015.
98 Si veda G. STRAMPELLI, L’informazione societaria a quindici anni dal T.U.F.: profili evolutivi e problemi, in Riv. soc., n. 5,
2014, p. 1005.
99 Si rinvia a F. CONSULICH, Il nastro di Mobius. Intelligenza artificiale e imputazione penale nelle nuove forme di abuso del
mercato, cit., pp. 195 ss., spec. pp. 207, 218, e M. PALMISANO, L’abuso di mercato nell’era delle nuove tecnologie, in Dir.
pen. cont., n. 2, 2019, pp. 129 ss., spec. p. 133.
in materia di mandatory disclosure in quanto le condotte operative dei primi sono effetto non dell’abuso di informazioni privilegiata ma del vantaggio tecnologico garantiti dalle infrastrutture utilizzate.
101 F. CONSULICH, Il nastro di Mobius. Intelligenza artificiale e imputazione penale nelle nuove forme di abuso del mercato,
cit., p. 209.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Michael Coscia è stato condannato con l’accusa di avere programmato un algoritmo
per eseguire un’operazione di «pump and dump», consistente nell’inviare simultaneamente ordini piccoli e grandi di acquisto e di vendita per creare illusione della domanda
e manipolare la rappresentazione degli scambi in capo agli altri operatori102.
Qualora non sia possibile individuare una componente soggettiva dolosa in
capo al programmatore o all’utilizzatore dell’algoritmo di negoziazione, ciò potrebbe
comportare la delimitazione di un’area impunita di illeciti in ambito penale103. In tali
casi, l’ordine giuridico del mercato sarebbe salvaguardato unicamente dalla responsabilità amministrativa, purché sia comunque possibile muovere un rimprovero colposo
alla persona fisica per difetti di fabbricazione e di progettazione o per omessa vigilanza104.
102 A. LUPOI, La negoziazione algoritmica ad alta frequenza e la struttura dei mercati: due casi negli Stati Uniti, cit., pp. 4-8.
103 Ritengono si assista al «failure of existing liability rules» A. AZZUTTI – W.G. RING – H. S. STIEHL, Machine learning, market
manipulation and collusion on capital markets: why the “black box” matters, cit., pp. 29-31
104 A questo riguardo D.W. SLEMMER, Artificial Intelligence & Artificial Prices: Safeguarding Securities Markets from Manipulation by Non-Human Actors, in Brook. J. Corp. Fin. & Com. L., Vol. 14, Issue 1, 2019, pp. 149 ss., propone alle autorità
di regolamentazione del settore di richiedere agli utenti di sistemi di IA di fornire un feedback significativo per rilevare
potenziali manipolazioni e per creare registrazioni probatorie nel caso in cui vi siano comportamenti di manipolazione
dell’agente artificiale.
Quaderni giuridici
N. 29
maggio 2023
L’adeguatezza della fattispecie normativa II
di abusi di mercato
1 Abuso di informazioni privilegiate e AI
Per quanto sopra espresso sono ormai evidenti i motivi per cui gli ordinamenti
hanno risposto ai rischi di abusi di mercato ponendo una pluralità di argini che incidono
sia sui soggetti che gestiscono i mercati e le relative piattaforme di negoziazione sia
sugli operatori che accedono direttamente agli stessi, in primo luogo gli intermediari,
ma anche gli emittenti strumenti finanziari, gli investitori professionali o meno, e financo i soggetti il cui comportamento incide comunque sulla formazione dei prezzi: si
pensi ai media in ambito economico-finanziario, alle istituzioni che diffondono statistiche, agli analisti che producono ricerche, agli accademici che intervengono sulla
stampa e a coloro che, in qualche modo, si porgono sui social come “esperti” in materia
di investimenti. Infine, diverse disposizioni riguardano gli stessi regolatori.
Se infatti l’obiettivo è tutelare la fiducia nel buon funzionamento del mercato
finanziario ovvero la credibilità dello stesso105, non è soltanto l’azione repressiva degli
abusi a poter ridurre significativamente i rischi sopra illustrati106.
Ogni fattispecie punitiva fa perno sulla delimitazione dell’ambito di applicazione, sulla definizione delle informazioni (privilegiate) che possono essere oggetto di
105 S. SEMINARA, Il diritto penale del mercato mobiliare, Torino, 2022, pp. 8 ss.
106 L’art. 16, par. 1, del Regolamento (UE) MAR richiede alle società di gestione dei mercati di istituire e mantenere dispositivi, sistemi e procedure volti a prevenire e individuare abusi di mercato. I riferimenti impliciti sono molti, quali, ad
esempio, circuit breakers che bloccano automaticamente le negoziazioni in caso di variazioni eccessive dei prezzi, la
chiusura random delle fasi di negoziazione ad asta, ecc. Inoltre, tali società, al pari degli intermediari e di chiunque
operi in modo professionale sui mercati, devono segnalare all’autorità nazionale competente le eventuali operazioni
sospette (“STOR”) che individuano con appositi sistemi e procedure. Gli artt. 17, 18 e 19 del Regolamento (UE) MAR
prevedono obblighi per gli emittenti con riguardo alla pubblicazione di informazioni privilegiate, procedure per la
gestione della riservatezza, comunicazione al pubblico delle operazioni effettuate dai manager sugli strumenti finanziari emessi. L’art. 20, par. 1, del Regolamento (UE) MAR richiede agli analisti finanziari di adeguarsi ad una serie di
misure che assicurano la correttezza delle loro valutazioni e di rendere pubblici i conflitti di interessi. L’art. 20, par. 2,
del Regolamento MAR indica alle istituzioni che diffondono al pubblico statistiche o previsioni che possono avere un
impatto significativo sui mercati di pubblicarle in modo corretto e trasparente, quindi non selettivo. L’art. 21 del Regolamento (UE) MAR si rivolge anche ai giornalisti e ai media esplicitando che le loro condotte sono valutate, rispetto
a ipotesi di manipolazione informativa del mercato o di comunicazione illecita di informazioni privilegiate o di diffusione di raccomandazioni di investimento, tenendo conto delle norme della professione. Diverse norme si applicano
anche alle autorità nazionali competenti, specie nel caso, disciplinato dall’art. 13 del Regolamento (UE) MAR, in cui
intendano autorizzare a livello nazionale una prassi di mercato che possa valere come difesa rispetto ad una manipolazione di tipo informativo.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
abuso, sulle condotte poste in essere da soggetti che, naturalmente, sono assai variegati per tipologia e qualità107.
A tale ultimo riguardo, nel corso dei decenni di sviluppo e applicazione della
disciplina sono andate sfumando alcune differenze relative alla qualità dei soggetti: se
persone fisiche o giuridiche, se in possesso dell’informazione a motivo dello svolgimento di un’occupazione, una professione, una funzione (insiders primari) o, invece, a
motivo di altro ancora (insiders secondari), se investitori professionali o retail, se soggetti vigilati o meno, se società emittenti o persone fisiche. Come sopra illustrato, è
invece oggetto di recente analisi, anche di questa ricerca, se norme specifiche debbano
essere previste per i sistemi di AI.
1.1 Criminal insider e AI
Uno degli scenari più preoccupanti nel contrasto agli abusi di mercato riguarda il caso in cui organizzazioni terroristiche o criminali intervengano sui mercati
finanziari sfruttando, eventualmente anche con modalità sofisticate, informazioni attinenti ad attività criminali in corso di preparazione e, tra l’altro, capaci di incidere sui
prezzi degli strumenti finanziari. All’indomani degli efferati attentati alle torri gemelle
di New York dell’11 settembre 2001, stante le repentine e persistenti riduzioni dei
prezzi di molti strumenti finanziari potenzialmente sfruttabili dalle stesse organizzazioni terroristiche che avevano sferrato l’attacco, il Consiglio dell’Unione europea e il
Parlamento UE intervennero sulla proposta iniziale della Commissione europea riguardante la MAD I (Direttiva 2003/6/CE del 28 gennaio 2003), per estendere esplicitamente
il divieto di abuso non soltanto ai manager delle società quotate, ma anche alle organizzazioni criminali. La Direttiva MAD I (art. 2, par. 2, lett. d) ha infatti ampliato il
perimetro degli insiders primari a chi possieda informazioni privilegiate “in virtù delle
proprie attività criminali”. Il Regolamento (UE) MAR ha confermato l’impostazione indicando tra gli insiders primari chi possieda informazioni privilegiate “per il fatto che è
coinvolto in attività criminali”108.
107 Si rinvia per una descrizione dettagliata dell’evoluzione normativa delle differenti fattispecie di abusi di mercato a F.
D’ALESSANDRO, Market Abuse, in M. CERA – G. PRESTI (a cura di), Il testo unico finanziario, Vol. II, Bologna, 2020, pp. 2166
ss., e a M. BENCINI – V. TODINI, Gli abusi di mercato, in M. BENCINI – L. FANFANI – S. PELIZZARI – V. TODINI, Profili penali della
tutela del risparmio. Truffa, abusi di mercato e gestione patrimoniale, Milano, 2021, pp. 153 ss.
108 In particolare, si vedano i Considerando nn. 14 e 17 della MAD I che espressamente riconoscevano che «(l)a presente
direttiva dà riscontro alle preoccupazioni espresse dagli Stati membri in seguito agli attacchi terroristici dell’11 settembre 2001 per quanto riguarda la lotta al finanziamento delle attività terroristiche» e precisavano che dovrebbe
tenersi conto «dei casi in cui la fonte dell’informazione privilegiata non è legata a una professione o a una funzione,
ma allo svolgimento di attività criminali». A seguito dell’estensione del perimetro del divieto di utilizzazione di informazione privilegiata a chiunque possiede tali informazioni «in virtù delle proprie attività criminali», il legislatore italiano
ampliò il divieto nei confronti di chiunque fosse in possesso di informazioni privilegiate «a motivo della preparazione
o esecuzione di attività delittuose» (art. 184, comma 2, TUF). Per un approfondimento si rinvia a M.I. STEINBERG, The Sec
and the Securities Industry Respond to September 11, in International Lawyer, Vol. 36, n. 1, 2002, pp. 131 ss. Successivamente con la MAD II, l’art. 3, par. 3, lett. d), ha esteso il divieto a chiunque possieda l’informazione privilegiata «in
ragione del suo coinvolgimento in attività delittuose». In tale modo, la qualifica di insider criminale ed il possesso
dell’informazione privilegiata non derivano più unicamente dal compimento di un’attività delittuosa ma, altresì,
dall’ipotesi in cui l’insider concorra nel reato commesso da altri.
Quaderni giuridici
N. 29
maggio 2023
Il dato letterale mostra che la persona ricade tra gli insiders primari anche se
l’informazione di cui entra in possesso non è quella oggetto della propria attività criminale, come sarebbe stato nel menzionato caso di terrorismo, ma quella prodotta da
altri soggetti, eventualmente dall’emittente stesso. Per esempio, chi ruba un documento in cui è riportato un evento societario importante che è prossimo alla pubblicazione assume lo status di soggetto attivo del reato sebbene egli non abbia preso parte
alla formazione di quell’accadimento o comunque non ne sia stato informato
“nell’esercizio di un’occupazione, una professione o una funzione”.
La sostanziale equiparazione operata già dalla Direttiva MAD I (e, in Italia, più
recentemente, sul versante penale dalla L. 23 dicembre 2021, n. 238, che ha novellato
l’art. 184 del D.Lgs. n. 58/1998, c.d. TUF) tra insider primario e insider secondario fa sì
che tale distinzione soggettiva rilevi soltanto nella definizione della pena, che, a parità
di altre condizioni, dovrebbe essere più elevata per i primari, data la funzione o attività
che svolgono109. L’insider criminale che non dovesse rientrare nella figura dell’insider
primario è ben probabile che riceva una pena comunque molto elevata, dato il forte
disvalore della sua condotta.
I sistemi di AI potrebbero costituire strumenti istruiti a delinquere nell’ambito
di più ampi disegni criminosi attuati dagli stessi o da altri sistemi che agiscono in vario
modo sotto il controllo del medesimo soggetto o di più soggetti collusi.
Si pensi, ad esempio, ad attacchi cyber che mettano in difficoltà i più importanti operatori, intermediari o investitori istituzionali, che magari costringano gli stessi
a procedere a ingenti vendite di strumenti finanziari per evitare che l’attacco produca
problemi ulteriori (ad esempio di stabilità prudenziale) o, addirittura, che creino difficoltà alla piattaforma di contrattazione, per cui sia ex ante prevedibile un impatto sui
prezzi o un blocco delle negoziazioni. Tali informazioni potrebbero facilmente assumere
natura privilegiata ed essere opportunamente sfruttate da un sistema di AI grazie ad
ordini immessi sul mercato calibrati a ridosso dell’attacco prima che l’attacco venga
reso pubblico dagli stessi soggetti coinvolti o dai media.
In simili situazioni rientreremmo nella sopra illustrata casistica dei sistemi di
AI istruiti a delinquere (v. sopra par. 3). Ma lo stesso è a dirsi, a maggior ragione, qualora
l’informazione privilegiata sia parte dell’attività programmata dal medesimo sistema di
AI. Casi ormai classici sono rappresentanti dall’acquisizione delle credenziali di clienti
di un intermediario che consenta ai sistemi di AI di movimentare tali conti a beneficio
di altri o, ancora, di inserire ordini di acquisto o vendita che creino bolle nei prezzi di
109 La Direttiva 89/592/CEE (MAD I), che ha introdotto nel diritto comunitario una disciplina sull’abuso di informazioni
privilegiate, qualificava nell’art. 4 l’insider secondario come colui “che consapevolmente sia in possesso di un’informazione privilegiata, l’origine diretta o indiretta della quale potrebbe essere soltanto” un insider primario. Con la Direttiva
2003/6/CE, e successivamente anche con il Regolamento (UE) n. 596/2014 (MAR) e la Direttiva 2014/57/UE (MAD II),
la seconda condizione è caduta, per cui l’insider secondario è semplicemente colui “che sappia o che avrebbe potuto
sapere trattarsi di informazioni privilegiate”, superando così il legame tra l’insider secondario e l’insider primario. Come
è stato evidenziato: “This provision clearly demonstrates that the European prohibition of insider trading is based on an
equal access to information theory, and not on fiduciary duties” (M. VENTORUZZO, Comparing insider trading in the
United States and in the European Union: History and recent developments, in European Company and Financial Law
Review, Vol. 11, n. 4, 2015, pp 554-593).
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
predeterminati strumenti finanziari favorendo poi facili guadagni su conti di individui
collusi.
Una ulteriore strategia di abuso di sistemi di AI potrebbe consistere nel compimento di piccole, ma ripetute violazioni, di guisa che le vittime difficilmente riescano
a rendersi conto di essere state adescate o truffate; tale strategia appare tanto più
insidiosa quanto più l’algoritmo sia “intelligente” (recte: astuto) e riesca a dosare illeciti
in maniera tale da rendere irriconoscibile il progetto criminale complessivo.
1.2 Insider di sé stesso e AI
Largamente dibattuta nella dottrina e nella giurisprudenza l’ipotesi in cui il
soggetto abusa di un’informazione attinente ad un evento dallo stesso progettato/ideato.
Nel contesto dell’informazione privilegiata relativa alle offerte pubbliche di
acquisto, è stato a lungo esaminata la vicenda Cremonini, attinente a operazioni effettuate dal soggetto che controllava la società quotata prima di lanciare un’OPA che
avrebbe portato al delisting della stessa.
Ad avviso della Consob, se le operazioni di acquisto sul mercato da parte del
soggetto che controlla l’emittente sono state effettuate quando lo stesso ha già deciso
di lanciare un’OPA per il delisting, e non lo ha ancora comunicato al pubblico, allora
esse hanno violato la disciplina di settore, indipendentemente dalla circostanza che
l’informazione era stata ideata dallo stesso soggetto che ha effettuato le operazioni110.
Di diverso avviso una parte della dottrina, secondo la quale l’illiceità della
condotta richiede una “necessaria alterità nei confronti dell’informazione” poiché, anche semanticamente, “un determinato nucleo di conoscenze potrà essere qualificato
“informazione” solo ove sottenda il suddetto passaggio trasmissivo di due sfere di conoscenze”111.
In giurisprudenza, viceversa, ha prevalso l’orientamento secondo cui l’insider
di sé stesso è punibile sia sul lato penale sia su quello amministrativo112.
110 Delibera Consob n. 17777 dell’11 maggio 2011. La delibera Consob è stata oggetto di opposizione, ex art. 187-septies
TUF, dinanzi alla Corte di Appello di Bologna che l’ha poi rigettata; decisione poi convalidata anche dalla Corte di
cassazione civile, Sez. II, 13 aprile 2017, n. 24310, in Banca borsa tit. cred., n. 6, 2018, pp. 962 ss., con nota di A.
BARTALENA, O.p.a. per delisting e insider trading: brevi riflessioni sull’insider di sé stesso, in ivi, pp. 2617 ss., e di F. CADORIN,
OPA per il “delisting” fra “insider” di se stesso ed efficienza del mercato, in Giur. comm., n. 1, 2019, pp. 105 ss.; S. LOMBARDO, L’insider di se stesso alla luce della decisione della Corte di Cassazione (civile), in Giur. comm., n. 4, 2018, pp. 666
111 S. SEMINARA, Il diritto penale del mercato mobiliare, cit.; M. VENTORUZZO, Qualche nota su cosiddetto “insider di sé stesso”
alla luce del Regolamento UE sugli abusi di mercato, in Soc., n. 6, 2018, pp. 745 ss.; A.F. TRIPODI, Informazioni privilegiate
e statuto penale del mercato finanziario, Padova, 2012.
112 Si veda Corte di Cassazione penale, Sez. V, 15 aprile 2021, n. 31507, nella quale i giudici della Suprema Corte affermano
la rilevanza penale dell’insider di sé stesso. In particolare, la Corte delinea una nuova interpretazione del concetto di
«informazione» quale «insieme di dati descrittivi della realtà», che non indica necessariamente una componente “dinamica” di raccolta e trasmissione delle informazioni ma altresì una componente “statica”, ovvero «il dato di conoscenza,
ancorché quest’ultimo sia rappresentativo di una realtà prodotta dal medesimo soggetto obbligato». Sulla base di
queste considerazioni la Corte ha giudicato infondato il motivo di ricorso e chiarisce che l’art. 184, comma 1, TUF non
Quaderni giuridici
N. 29
maggio 2023
Come evidenziato113, nel contesto delle OPA obbligatorie, d’altronde, le esigenze regolamentari che spingono per una legittimità degli acquisti preventivi dell’offerente trovano comunque un limite difficilmente valicabile quando la definizione
dell’informazione privilegiata (decisione relativa al lancio dell’OPA) precede tali acquisti.
Il sistema di AI che sfrutti, con operazioni sul mercato, l’informazione attinente ad un evento da esso stesso progettato commetterebbe certamente un illecito114.
Un esempio concreto di informazione privilegiata che un operatore artificiale
è in grado di ideare o progettare consiste nei sistemi di AI che prevedono, in un primo
momento, l’acquisizione di informazioni elementari su ordini “curando” pendenti (ottenute magari dallo stesso intermediario che gestisce il sistema di AI nei suoi rapporti,
informatizzati o meno, con la clientela retail o istituzionale) e, in un secondo momento,
la definizione di una ottimale strategia di minimizzazione dinamica del price impact
dei medesimi ordini115. Ebbene, in tale contesto il sistema di AI potrebbe essere “esteso”
con la decisione di eseguire altri ordini per conti proprietari dell’intermediario in grado
di sfruttare l’impatto che la predefinita strategia di minimizzazione dinamica genererebbe sul mercato. Si è in sostanza nell’ambito di una sorta di schema di front running.
Analoghi esempi potrebbero riguardare le raccomandazioni di investimento
generate dai robo-advisor, laddove il sistema di AI dovesse sfruttare tali informazioni
anticipando i probabili ordini della clientela che riceve tali raccomandazioni, eventualmente in appositi documenti (c.d. studi o ricerche, su specifici settori industriali o titoli
o a commento delle notizie diffuse dai media o dei trend dei prezzi).
Più complesso è il tema dell’accertamento dell’insider di sé stesso connesso
ad un sistema di AI. Laddove, infatti, tale accertamento è sempre possibile se ad operare
siano sistemi di AI deboli116, in quanto il percorso logico-decisionale che li porta a
richiede la necessaria alterità tra creatore e utilizzatore dell’informazione, stabilendo che la disposizione de qua «non
punisce chi disponga di una mera posizione privilegiata derivante dalla possibilità di meglio leggere, valorizzare, interpretare informazioni, ivi incluse quelle di pubblico dominio, delle quali disponga, ma colui che, come nel caso di
specie, essendo a conoscenza, in ragione delle qualità soggettive indicate dal legislatore, di eventi price sensitive […],
sfrutti siffatta conoscenza per operare in condizioni di disparità con gli altri investitori, finendo per danneggiare un
valore (la fiducia nella trasparenza dei mercati), che mira ad incentivare e a non scoraggiare l’afflusso e la circolazione
dei capitali nell’interesse degli stessi imprenditori interessati al loro utilizzo per iniziative produttive». Su questa pronuncia si rinvia a D. FEDERICI, Insider di sé stesso e abuso di informazioni privilegiate: la Corte di Cassazione conferma la
punibilità anche del creatore della notizia, in Sistema Penale (sistemapenale.it), 13 ottobre 2021, e A. SANTANGELO, Una
soluzione “di favore” per l’insider di se stesso: la rule of lenity quale criterio di risoluzione di casi difficili, in Dir. pen.
proc., n. 10, 2022, pp. 1343 ss. In senso contrario a questa decisione si veda la precedente decisione Corte di Cassazione
civile, Sez. II; 12 maggio 2020, n. 8782, e il relativo commento di C. PASSI, Esiste il Self-insider, ma va scagionato!
Riflessioni intorno alla sua qualificazione giuridica, in Soc., n. 4, 2021, pp. 455 ss. La decisione della Suprema Corte
giunge all’esito di un iter giudiziario nel quale si erano pronunciati prima il Tribunale di Milano, Sez. III, 5 febbraio
2016, n. 12149, e poi la Corte d’Appello di Milano, Sez. II, 15 gennaio 2019, n. 284, ritenendo rilevante in sede penale
la condotta dell’insider di se stesso. Si veda F. RAFFAELE, Ritorno Futuro 3: l’”insider di se stesso” all’esame della Cassazione e il nuovo tentativo di ipostatizzare il market egalitarianism, in Giur. comm., n. 4, 2019, pp. 778 ss.
113 M. MAUGERI, Offerta pubblica di acquisto e informazioni privilegiate, in Riv. dir. comm., n. 2, 2018, pp. 267 ss.
114 M. VENTORUZZO, Qualche nota su cosiddetto “insider di sé stesso” alla luce del Regolamento UE sugli abusi di mercato,
115 Come noto, tali sistemi di AI sono utilizzati sia dagli intermediari sia dagli investitori istituzionali.
116 Come illustrato nella Sez. II par. 1, i sistemi di AI si distinguono in base alla loro differente capacità d’interazione con
l’uomo. Mentre i sistemi di AI deboli producono outputs che dipendono dalle istruzioni prestabilite da produttori,
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
immettere un ordine nel mercato è, per definizione, trasparente; viceversa, per i sistemi
di AI forti tale accertamento è reso difficoltoso dall’opacità (black box) di tale percorso
logico-decisionale.
1.3 Tipping, tuyautage e AI
Oltre alla conclusione di operazioni, le altre principali modalità di sfruttamento dell’informazione privilegiata tipicamente proibite dagli ordinamenti riguardano
la comunicazione a terzi senza “giustificato motivo” dell’informazione (c.d. tipping) e
la raccomandazione a terzi (c.d. tuyautage117), sulla base dell’informazione privilegiata,
di operare in una modalità conveniente. Ai destinatari della comunicazione illecita e
della raccomandazione sono posti analoghi divieti. Tali divieti sono necessari per evitare facili elusioni del divieto di insider trading, ma trovano anche una loro autonoma
ragion d’essere rispetto all’obiettivo di salvaguardare l’integrità dei mercati. Se non
fossero vietate l’ulteriore comunicazione o raccomandazione, si potrebbe arrivare a situazioni teoriche paradossali in cui l’insieme dei soggetti a conoscenza dell’informazione privilegiata sia più ampio di quello dei soggetti che non ne sono a conoscenza118.
Anche per le fattispecie di tipping e tuyautage è d’uopo individuare quali
siano le informazioni privilegiate di cui un sistema di AI potrebbe eventualmente abusare. Valgono al riguardo le analisi sopra esposte, in merito al caso del sistema che
tenga in considerazione informazioni attinenti all’attacco cyber, agli ordini pendenti
della clientela o alle raccomandazioni d’investimento alla clientela.
Con riferimento a queste ultime, si potrebbe esaminare il caso in cui le raccomandazioni di investimento riguardino proprio quell’insieme di informazioni che
porta il sistema di AI ad effettuare le operazioni di trading per le quali è stato programmato e che grazie alle notevoli capacità di immagazzinamento ed elaborazione
dei dati possono risultare profittevoli. Ad esempio, la miriade di micro-informazioni sui
movimenti che avvengono nella profondità dei book di negoziazione di strumenti finanziari negoziati in più sedi di negoziazione o di strumenti finanziari collegati o correlati agli stessi; siamo naturalmente nel campo dei big data. Ad esempio, le informazioni rilevate dai satelliti sulla dimensione del traffico su autostrada, che consentono
di prevedere con maggiore accuratezza i ricavi delle società autostradali; siamo nel
campo degli alternative data e della mosaic theory119. Ad esempio, ancora, l’immediata
rilevazione delle informazioni lanciate dalle agenzie di stampa.
programmatori o utenti, i più evoluti sistemi di AI forti, dotati di capacità di auto-apprendimento, producono outputs
autonomi e imprevedibili rispetto agli inputs iniziali di produttore, programmatore o utente.
117 Talora pure definiti, rispettivamente, illegal disclosure e tipping.
118 Per una ricostruzione delle condotte di tipping e tuyautage si veda V. CALANDRA BUONAURA, Sub art. 184, in Commentario
breve al Testo Unico della Finanza, Padova, 2020, pp. 1228 ss., spec. pp. 1236-1241.
119 D.E. POZEN, The Mosaic Theory, National Security, and the Freedom of Information Act, in The Yale Law Journal, 2005:
«The “mosaic theory” describes a basic precept of intelligence gathering: Disparate items of information, though individually of limited or no utility to their possessor, can take on added significance when combined with other items of
information. Combining the items illuminates their interrelationships and breeds analytic synergies, so that the resulting mosaic of information is worth more than the sum of its parts».
Quaderni giuridici
N. 29
maggio 2023
Appare pacifico che tali informazioni che i sistemi di AI utilizzano per elaborare le proprie strategie di speculazione, investimento, trading o arbitraggio e che se
rese pubbliche dal sistema potrebbero essere qualificate come privilegiate (si pensi per
esempio al caso in cui la strategia operativa venga rappresentata in un apposito studio
diffuso dall’intermediario alla propria clientela), oltre a poter essere utilizzate dal sistema di AI in qualità di insider di sé stesso, possano essere oggetto di lecita comunicazione a terzi o raccomandazione ad operare in una certa direzione. È questo il caso
del robo-advising120.
In generale, finché le informazioni elementari sulle quali tali strategie si basano sono pubbliche non può certamente ipotizzarsi un abuso.
Ciò nondimeno, si pone la questione se alcuni tipi di informazione, ad esempio
quelle contenute nelle rilevazioni fotografiche elaborate da satelliti orbitali, possano
essere considerate pubbliche, stante l’importante investimento necessario per acquisirle. Con specifico riferimento al campo finanziario, lo stesso potrebbe dirsi per gli
ingenti investimenti che servono per la rielaborazione delle informazioni relative ai
book di negoziazione o la raccolta di informazioni disaggregate.
Considerato che tali investimenti non sono alla portata di qualsiasi investitore, al punto che la difficoltà di accedere a tali informazioni ha portato a un dibattito
sui rischi per la competitività del mercato121, si potrebbe valutare se questa difficoltà
infici anche quella ratio della disciplina che giustifica l’introduzione del divieto di abuso
con l’egalitarismo, almeno potenziale, degli investitori che partecipano agli scambi.
Al riguardo, si deve però tenere presente che sono comunque davvero molti i
soggetti che investono in queste tecnologie (e, naturalmente, ancora di più quelli che
hanno la possibilità di farlo) e che l’expertise si muove facilmente, coinvolgendo peraltro in modo imprescindibile l’accademia, che porta con sé una spinta alla divulgazione
delle tecnologie e degli outputs122. Si rileva altresì che un incentivo alla divulgazione
è insito presso i data provider: si pensi a quelle funzioni offerte da Bloomberg o Refinitiv
Eikon alla rispettiva vasta clientela, professionale e non, che consentono di conoscere
in tempo reale l’andamento di variabili che la letteratura accademica ha qualificato
come “informative” perché, ad esempio, esprimono il sentiment del mercato, quali il
numero di volte che il nome di un titolo ricorre su Google o su Twitter123.
120 N. LINCIANO – V. CAIVANO – D. COSTA – P. SOCCORSO – T.N. POLI – G. TROVATORE, L’intelligenza artificiale nell’asset e nel wealth
management, Quaderni FinTech, CONSOB, n. 9, 2022.
121 D. DUFFEE – T. FOUCAULT – L. VELDKAMP – X. VIVES, Technology and Finance, CEPR, 2022.
122 Il tema sembra del tutto analogo a quello dell’accesso limitato a ricerche o studi diffusi a pagamento dagli analisti
finanziari e che poi detti media provider ribaltano alla rispettiva vastissima clientela nelle loro linee essenziali (target
price, raccomandazioni, previsione dei risultati aziendali annuali). È proprio opera dei menzionati media provider la
definizione del c.d. consensus degli analisti, cioè la statistica di sintesi delle stime prodotte dagli analisti.
123 J. BOLLEN – H. MAO – X. ZENG, Twitter mood predicts the stock market, in Journal of computational science, Vol. 2, n. 1,
2011, pp. 1-8; J.W. GODELL – S. KUMAR – W.M. LIM – D. PATTNAIK, Artificial intelligence and machine learning in finance:
Identifying foundations, themes, and research clusters from bibliometric analysis, in Journal of Behavioral and Experimental Finance, Vol. 32, 2021, pp. 100577; A. YADAV – D.K. VISHWAKARMA, Sentiment analysis using deep learning architectures: a review. Artificial Intelligence Review, Vol. 53, n. 6, 2020, pp. 4335-4385; X. LI – W. PANGJING – W. WENPENG,
Incorporating stock prices and news sentiments for stock market prediction: A case of Hong Kong, in Information Processing & Management, Vol. 57, n. 5, 2020, pp. 102212; P.C. TETLOCK – M. SAAR – M. TSECHANSKY – S. MACKASSY, More
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
In conclusione, sembra valere ancora in questo nuovo ambito quella osservazione fatta rilevare in passato con riferimento all’accesso alle informazioni diffuse dai
quotidiani: sebbene questo accesso richieda il pagamento di un prezzo non indifferente
per molti investitori, ciò non mette in discussione la solidità della ratio della disciplina.
Se allora le informazioni privilegiate rilevate (più che create) dal sistema di AI
possono essere rappresentate in forma di studio, ricerca o raccomandazione d’investimento e diffuse dall’intermediario che gestisce il sistema di AI alla relativa clientela,
appare pacifico che la comunicazione di tali informazioni o le raccomandazioni operative basate sulle stesse siano considerate lecite.
Rimane ferma l’opportunità che, in conformità alla disciplina generale, prevista anche dal Regolamento (UE) MAR, tali studi, ricerche o raccomandazioni di investimento siano diffusi alla clientela con modalità e tempistiche fair che evitino abusi.
Il Regolamento (UE) MAR richiede, ad esempio, che tali studi indichino la data e l’orario
di prima diffusione alla clientela124. Pertanto, chi li dovesse ricevere prima di tale
istante dovrebbe astenersi dall’utilizzarli con operazioni sul mercato, trattandosi ancora di informazioni privilegiate, o dal comunicarli a terzi e chi li riceve tempo dopo
tale istante sa che l’informazione è stata verosimilmente già oggetto di operazioni da
parte di altri clienti.
2 Manipolazione del mercato e AI
Le criticità nell’impiego dell’intelligenza artificiale sono oggi tra le questioni
più dibattute e non soltanto nel mercato finanziario125. Con particolare riguardo alle
criticità dell’AI nella sfera delle operazioni finanziarie, i rischi per l’integrità dei mercati
derivanti dal comportamento dei sistemi di AI sono avvertiti in misura maggiore nel
trading piuttosto che nella formazione e circolazione delle informazioni privilegiate.
Essi sono stati oggetto di numerosi approfondimenti ed interventi regolamentari con
124 Si vedano gli artt. 7 e 8 del Regolamento Delegato (UE) 2016/958. In particolare, l’art. 7 stabilisce che «(l)a persona che
produce raccomandazioni che diffonde una sua raccomandazione vi include la data e l’ora della prima diffusione».
125 In una lettera pubblicata sul sito del Future of Life Institute il 22 marzo 2023 (https://futureoflife.org/open-letter/pause-giant-ai-experiments/), firmata tra gli altri da Elon Musk, Yuval Noah Harari, Steve Wozniak e Andrew Yang,
si evidenziano i rischi che l’intelligenza artificiale può comportare per la società e l’umanità. Gli estensori si chiedono
se sia il caso che sistemi di AI divengano competitivi come l’uomo, con il pericolo per quest’ultimo di perdere il controllo
della nostra civiltà, e chiudono la lettera con l’auspicio di arrivare preparati all’autunno dell’intelligenza artificiale dopo
una lunga estate di sviluppo dell’AI. Questa lettera è stata oggetto di attenzione da parte dei media; si veda ex multis
M. GAGGI, Perché l’intelligenza artificiale spaventa i re della tecnologia, in Corriere della Sera, 30 marzo 2023, pp. 1-22.
A questo appello si è unito, più di recente, il monito di Geoffrey Hinton, padre della tecnologia da cui è nata ChatGPT,
che ha definito «spaventose» le conseguenze dell’utilizzazione dell’intelligenza artificiale in quanto questa tecnologia
sarebbe capace di imparare separatamente e poi condividere la conoscenza istantaneamente a tutti gli altri sistemi. Si
veda P. PISA, Il ‘Nobel’ dell’informativa lascia Google. “L’intelligenza artificiale è pericolosa”, in La Repubblica, 3 maggio
2023, p. 14.
Quaderni giuridici
N. 29
maggio 2023
riguardo all’operatività ad alta frequenza (HFT) posta in essere, principalmente, da soggetti membri dei mercati sui quali operano126.
L’operatività di un sistema di AI debole non è in ultima analisi che una evoluzione molto sofisticata degli elementari ordini condizionati, quali gli iceberg orders o
gli stop-loss orders, che al presentarsi di certi livelli di prezzo immettono nel mercato
un certo quantitativo in acquisto o in vendita. Questi tipi di ordini comparvero all’indomani dell’introduzione dei sistemi di negoziazione telematici, negli anni Novanta del
secolo scorso, presentando diversi profili di criticità poi comunque largamente superati.
L’assetto regolamentare che ne è derivato per gestire l’operatività HFT sembra
oggi piuttosto adeguato ad affrontarne i rischi127. Del resto, alcuni casi di abuso sono
già stati sanzionati in diverse giurisdizioni, anche della UE128.
Naturalmente, rimangono importanti dubbi sul comportamento del singolo
sistema di AI debole o sul comportamento congiunto di più sistemi di AI, specie in
condizioni di elevata incertezza sui mercati o in situazioni di market disruption, collegati ai cc.dd. flash crash.
Per valutare le criticità associate all’utilizzo congiunto di più sistemi di AI si
consideri preliminarmente che non è inusuale riscontrare operatività acefala da parte
di intermediari, tipicamente quando operano nei mercati con più desk (anche antropici)
sul medesimo strumento finanziario ma ciascuno perseguendo finalità diverse: un desk
opera come market maker, uno per fare delta hedging129 per il portafoglio proprietario,
un altro per sfruttare trend nell’andamento dei prezzi di breve o brevissima durata (c.d.
trading direzionale). In tali casi, potrebbero emergere sospetti di manipolazione se una
delle due gambe con cui si muove un desk (quella in acquisto o quella in vendita) incrocia o interseca successivamente una gamba di un altro desk, dando luogo, nel primo
126 Sull’evoluzione del quadro normativo in materia di manipolazione del mercato si veda E. AMATI, Abusi di mercato e
sistema penale, Torino, 2012, pp. 171 ss., e più di recente, con riferimento all’illecito amministrativo, ID., L’illecito amministrativo di manipolazione del mercato e le persistenti criticità del doppio binario sanzionatorio, in Giur. comm., n.
2, 2021, pp. 263 ss., e, con riferimento all’illecito penale, a F. CONSULICH, Manipolazione dei mercati e diritto eurounitario,
in Soc., n. 2, 2016, pp. 203 ss.
127 Sulle prospettive di una rivisitazione della disciplina UE si veda ESMA “MIFID II Review Report”, 28 settembre 2021,
ESMA70-156-4572.
128 La casistica include (tra parentesi l’anno in cui è occorsa la manipolazione): negli Stati Uniti US SEC vs Athena Capital
Research LLC (2009); US SEC, CFTC e UK FCA vs Michael Coscia (2011); CFTC vs Jiongsheng Zhao (2012 -2017); CFTC vs
Morgan Stanley Capital Group Inc. (2013 – 2014); CFTC vs Krishna Mohan (2013); CFTC vs Propex Derivatives PTY Ltd
(2012 – 2017); CFTC e US SEC vs Navinder Singh Sarao (2019 – 2015); FINRA vs Trillium Brokerage Services, LLC (n.d.);
US SEC vs Hold Brothers On-Line Investment Services (2009 – 2011); AMF vs Virtu Financial Europe (2009); AMF vs Getco
Europe (2010 – 2012); AMF vs 3Red Trading LLC (2012 – 2013).
129 Il delta hedging consiste nelle operazioni di acquisto e/o vendita che sono effettuate giornalmente sul sottostante di
strumenti finanziari derivati per coprire il rischio delle variazioni dei prezzi del sottostante sulle posizioni precedentemente assunte su tali strumenti finanziari derivati (J. HULL, Opzioni futures e altri derivati, Pearson, 2022).
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
caso, ad operazioni apparentemente fittizie (matched orders)130 e, nel secondo caso, a
tipiche figure manipolative (ad esempio, trash & cash)131.
Ebbene, quando i desk sono gestiti da individui o da sistemi di AI deboli il
sospetto di manipolazione potrebbe essere alla fine escluso guardando il track record
della precedente operatività sui medesimi conti, riscontrando le condizioni esterne che
hanno motivato gli ordini, chiedendo spiegazioni ai traders o all’unità di compliance
dell’intermediario, ecc.
Inoltre, in via preventiva la società di gestione del mercato potrebbe contrastare i rischi associati a tali eventuali operazioni sospette (matched orders)132 cancellando automaticamente i contratti incrociati che produce il conto proprio di uno stesso
intermediario, sia pure per desk diversi.
Per valutare le criticità associate all’utilizzo di un singolo sistema di AI debole,
d’altronde, si consideri che è già prassi ordinaria di numerosi importanti investitori istituzionali quella di inserire i propri ingenti ordini secondo tempistiche determinate
130 Nell’Allegato II del Regolamento Delegato (UE) 2016/522 della Commissione che integra MAR (c.d. Livello 2) è individuata tra le prassi (manipolative) quella di “effettuare operazioni a seguito dell’inserimento di ordini di acquistare e
vendere che sono negoziati contemporaneamente o quasi contemporaneamente in quantità simili e a un prezzo simile
da uno stesso soggetto o da soggetti diversi ma in collusione tra loro — prassi generalmente nota come «improper matched orders». Questa prassi può essere illustrata anche dai seguenti indicatori aggiuntivi di manipolazioni del mercato:
i) operazioni o ordini di compravendita che hanno o è probabile che abbiano l’effetto di fissare un prezzo di mercato
quando la liquidità o lo spessore del book di negoziazione (order book) non è sufficiente per fissare un prezzo durante
la sessione; ii) gli indicatori di cui alla presente sezione, paragrafo 1, lettera a), punto i) [ovvero: insolita concentrazione
di operazioni e/o ordini di compravendita, in termini generali o da parte di una sola persona che utilizza uno o più conti
o da parte di un numero limitato di persone;], e paragrafo 3, lettera a), punti i) e ii) [ovvero: “aderire ad accordi per la
vendita o l’acquisto di uno strumento finanziario, un contratto a pronti su merci collegato o un prodotto oggetto d’asta
sulla base di quote di emissioni senza variazioni degli interessi beneficiari o del rischio di mercato o con il trasferimento
dell’interesse beneficiario o del rischio di mercato tra soggetti che agiscono di concerto o in collusione tra loro — prassi
generalmente nota come «wash trades». Questa prassi può essere illustrata anche dai seguenti indicatori aggiuntivi di
manipolazioni del mercato: i) ripetizione insolita di un’operazione tra un numero limitato di soggetti durante un determinato periodo di tempo; ii) operazioni o ordini di compravendita che modificano o è probabile che modifichino la valutazione di una posizione senza diminuirne/aumentarne le dimensioni”]. Esempi di manipolazione tramite “improper
atched orders” sono stati sanzionati dalla Consob con riferimento, tra l’altro, a incroci di ordini da parte di un asset
manager che curava l’operatività di due fondi favorendo la performance di un fondo a scapito di quella dell’altro, sul
quale percepiva minori commissioni. Nel dettaglio, l’asset manager inseriva prima un ordine di importanti dimensioni
per conto del fondo che intendeva favorire ad un prezzo che era molto distante dal bid-ask spread (e quindi non
influiva sul processo di formazione dei prezzi) e successivamente un ordine di dimensioni ancora più importanti per
conto dell’altro fondo ad un prezzo tale da incrociare sia tutti gli ordini a prezzi più convenienti del primo, così “scalando” il book di negoziazione fino ad arrivare a sia quello del fondo che intendeva favorire. Tale operatività “puliva” il
book con una serie di contratti generando una importante variazione istantanea del prezzo corrente, per poi tipicamente rimbalzare dopo pochi istanti grazie all’operatività degli arbitraggisti che riconoscevano un prezzo non coerente
con l’insieme delle informazioni pubblicamente disponibili. Per un’analisi C. MILIA, Essays in Market Manipulation and
Insider Trading”, PhD Thesis, Bocconi University, 2008.
131 Nel citato Allegato II del Regolamento Delegato (UE) 2016/522 della Commissione che integra MAR è individuata tra
le prassi (manipolative) quella di “assumere una posizione short (corta) in uno strumento finanziario, (…) e poi effettuare ulteriori attività di vendita (…) allo scopo di abbassarne il prezzo attirando altri venditori. Quando il prezzo è sceso,
la posizione detenuta viene chiusa – prassi generalmente nota come «trash and cash»”. In sostanza si tratta della prassi
inversa a quella del «pump and dump», cioè della “bolla manipolativa” dei prezzi.
132 Borsa Italiana S.p.A. prevede, come misura preventiva, la possibilità per gli intermediari membri di cancellare automaticamente gli ordini immessi dai conti proprietà, c.d. Self-Trade Prevention (“Guide to the Euronext Trading System”,
Version 1.2, March 2023).
Quaderni giuridici
N. 29
maggio 2023
dall’AI, ad esempio per minimizzare l’impatto dell’operatività sui prezzi (il price impact133). Gli ordini che tali investitori immettono sui mercati per gestire i relativi imponenti portafogli sono spesso molto elevati rispetto alla liquidità dei mercati e, quindi,
la loro esecuzione richiede tempo in modo tale da non generare un impatto sfavorevole
sui prezzi. Se infatti l’investitore intende assumere una posizione su uno strumento
finanziario azionario, quanto più i suoi ordini di acquisto generano aumenti dei prezzi
e tanto maggiore sarà il prezzo di carico della posizione che intende assumere e, quindi,
tanto minore sarà il profitto che potrà eventualmente conseguire quando il previsto
rialzo dei prezzi dovesse realizzarsi. È quindi solitamente preferibile inserire gli ordini
sul mercato in modo gentile, diradato nel tempo, “curando”134, come indicavano verbalmente gli investitori istituzionali italiani agli intermediari incaricati di eseguire tali
ingenti ordini.
Se, per un verso, la minimizzazione del price impact dovrebbe, altresì, ridurre
i rischi di generare un impatto significativo sul processo di formazione dei prezzi135, è,
per altro verso, anche vero che il sovrastante fine di minimizzare i costi potrebbe non
essere soggetto ad ulteriori condizioni. In uno scenario in cui l’investitore istituzionale
intenda ridurre la propria posizione su uno strumento finanziario, allora l’algoritmo che
dovesse pure prevedere una prossima riduzione dei prezzi dello strumento finanziario
troverebbe conveniente accelerare l’immissione di ordini in vendita sullo stesso strumento in modo da ridurre le perdite attese derivanti dal previsto peggioramento delle
condizioni di prezzo. L’immediatezza e la violenza dell’esecuzione con frequenti e ingenti ordini aggressivi di vendita sarebbero, dunque, pienamente coerenti con il suddetto obiettivo di ridurre il price impact degli ordini.
Si rammenta che il sistema di AI debole che innescò il noto flash crash del 6
maggio 2010 era utilizzato da un investitore istituzionale che intendeva coprire le proprie elevatissime posizioni su singoli strumenti finanziari azionari tramite la rapida e
progressiva vendita di futures sull’indice azionario. Quell’algoritmo inseriva ogni minuto ordini in vendita senza limite di prezzo alla condizione che fossero pari al 9% dei
quantitativi complessivi scambiati sul mercato nel minuto precedente, così progressivamente accentuando il trend decrescente dei prezzi136.
I dubbi e le criticità sollevati dai sopra descritti modelli di operatività assumono una nuova dimensione ove si consideri l’ipotesi che tali condotte siano effettuate
avvalendosi di sistemi di AI forti137, cioè quelli basati sulle reti neurali artificiali, sul
133 Ex pluribus, si veda Bouchaud, Jean-Philippe. “Price impact.” arXiv preprint arXiv:0903.2428 (2009).
134 L’ordine “curando” è un ordine nel quale il cliente si affida all’esperienza dell’intermediario per la scelta delle migliori
possibilità offerte dal mercato. Gli ordini non recano alcuna condizione riguardo al prezzo e devono essere assolti
dall’intermediario nei tempi e nei modi più opportuni per il committente.
135 Sulle applicazioni di AI alle attività di trading v. ESMA “Artificial Inteligence in EU Security Markets”, ESMA-164-6247,
3 February 2023.
136 A. KIRILENKO – A.S. KYLE – M. SAMADI – T. TUZUN, op. cit., pp. 967-998. CFTC SEC, Findings regarding the market events od
May 6, 2010 – Report to the Staffs of CFTC and SEC to the joint advisory committee on emerging regulatory issues, 30
September 2010.
137 Nei citati principi di Asilomar i sistemi di AI forti sono qualificati ora “advanced AI system” (principio n. 9) ora “(h)ighly
autonomous AI systems” (principio n. 10). I principi di Asilomar sono consultabili sulla pagina internet del Future of
Life Institute (https://futureoflife.org/open-letter/ai-principles/).
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
deep reinforcement learning, dove l’algoritmo è in grado da solo di riconoscere nuove
opportunità di profitto senza che lo stesso o i suoi programmatori o i suoi gestori siano
capaci di spiegare il percorso logico che ha portato proprio a quelle scelte operative
osservate138.
Infatti, quando le gambe sono mosse da un sistema di AI forte si perde la
possibilità, per l’intermediario, per la società di gestione del mercato – e financo per le
Autorità di vigilanza – di riconoscere ex post l’origine della strategia di trading perseguita: market making, delta hedging, trading direzionale139, ecc. In altri termini, si potrebbe rappresentare quello che ha fatto l’AI forte, si potrebbe dire perché dovrebbe
averlo fatto ma non si potrebbe dire perché lo ha fatto.
In aggiunta, si pensi anche al caso, realistico, in cui il sistema di AI, per quanto
forte sul piano del deep learning e dell’elaborazione autonoma di strategie operative,
al pari di un qualsiasi sistema di AI debole difetti, tuttavia, di autocoscienza, cioè non
sia in grado di riconoscere che alcuni degli ordini che egli stesso vede presenti nel book
di negoziazione siano stati, in realtà, immessi dallo stesso sistema; come se lo stesso
fosse una specie di piovra senza testa.
In una recente analisi prodotta dall’autorità olandese AFM emerge come più
intermediari non si avvalgono di sistemi di AI forti per la preoccupazione di non saper
gestire il rischio di turbative degli scambi, anche derivante dall’incapacità di saper
eventualmente fornire spiegazioni alle Autorità140.
Ciò nondimeno, evidenze sull’utilizzo di sistemi di AI forti esistono.
Non che la loro adozione porti necessariamente a comportamenti che costituiscano, di per sé, una manipolazione del mercato. Ma se lo stesso investitore istituzionale, magari tramite il medesimo conto e lo stesso sistema di AI forte, immettesse
ordini di segno opposto al seguire del trend innescato dai suddetti ordini di vendita,
allora rientreremmo pienamente in uno schema manipolativo trash & cash e nessuno
sarebbe probabilmente in condizione di fornire una spiegazione alternativa a questa. Il
sistema di AI forte, infatti, lasciato all’autoapprendimento e non “allenato” ad evitare
schemi manipolativi quali il trash & cash, troverebbe coerente con l’obiettivo di minimizzare il costo per l’investitore derivante dall’inserimento di ordini ingenti di vendita
quello di far seguire a questi anche ordini di acquisto capaci di mediare con profitto il
prezzo di carico degli ordini di vendita.
138 E. MARTÍNEZ-MIRANDA – P. MCBURNEY – M.J.W. HOWARD, Learning unfair trading: A market manipulation analysis from
the reinforcement learning perspective, 2016 IEEE Conference on Evolving and Adaptive Intelligent Systems (EAIS),
Natal, Brazil, 2016, pp. 103-109. Per rispondere alle esigenze di trasparenza ed aprire la “black box”, sono in corso
numerose analisi da parte della comunità scientifica nel ramo della c.d. Explainable AI (ovvero, XAI): P. BRACKE – A.
DATTA – C. JUNG – S. SEN, Machine Learning exlainability in finance: an application to default risk analusis, in Staff Working Paper, Bank of England, August 2019; P. GIUDICI – E. RAFFINETTI, Shapley-Lorenz eXplainable artificial intelligence.
Expert systems with applications, Vol. 167, 2021, pp. 114104.
139 Il trading direzionale consiste nell’operatività volta a prendere una direzione di acquisto o di vendita di strumenti
finanziari sulla base di previsioni sul prossimo andamento dei prezzi di mercato.
140 AFM, Machine Learning in Trading Algorithms – Application by Dutch Proprietary Trading Firms and Possible Risks,
March, 2023.
Quaderni giuridici
N. 29
maggio 2023
È quindi opportuno chiedersi se i sistemi di AI forti possano essere ammessi
al trading e a quali condizioni.
Nell’ipotesi in cui si ritenga, come oggi, che i sistemi di AI possano operare
sui mercati, risulta altresì doveroso chiedersi se le fattispecie previste dagli ordinamenti
siano adeguate a fronteggiare comportamenti manipolativi o che, comunque, mettano
a rischio eccessivo l’integrità dei mercati.
2.1 L’approccio regolamentare europeo
Per fronteggiare la complessità degli schemi di abuso e i rischi che le fattispecie colgano involontariamente condotte speculative in vero lecite o, ancora, la difficoltà per le Autorità di distinguere le violazioni dalle condotte conformi, la Direttiva
2003/6/CE introdusse un approccio molto ricco e articolato che contrastava con quello
olistico in vigore in Italia dal 1991 e che ancora, con alcune modifiche, sopravvive
nell’art. 185 TUF sia pure “limitatamente” al regime penale.
Mentre quest’ultima norma oggi sanziona “(c)hiunque diffonde notizie false
o pone in essere operazioni simulate o altri artifizi concretamente idonei a provocare
una sensibile alterazione del prezzo di strumenti finanziari”, il Regolamento (UE) MAR
– che deriva da quella direttiva e permea la corrispondente Direttiva 2014/17/UE che
individua le condotte sanzionabili penalmente – si basa su un approccio articolato su
quattro pilastri: le fattispecie, suddivise in quattro tipologie (nell’art. 12, par. 1), gli
esempi (nell’art. 12, par. 2) e gli “indicatori” delle stesse (nell’art. 12, par. 3, e nell’Allegato I) nonché le ulteriore “prassi” manipolative (che potremmo definire esempi o strategie manipolative) che specificano tali indicatori (all’art. 4 e nell’Allegato II del Regolamento delegato (UE) 2016/522); inoltre, l’art. 15 indica il divieto di manipolazione,
l’art. 5 prevede alcune esenzioni per l’acquisto di azioni proprie e la stabilizzazione se
effettuati secondo certe stringenti condizioni, e l’art. 13 stabilisce una disciplina per le
prassi di mercato eventualmente ammesse dalle Autorità di vigilanza nazionali141.
La ricchezza di questo approccio illustra bene come le difficoltà insite nella
definizione dell’illecito siano altrimenti considerate a rischio di interpretazioni soggettive: una pluralità di fattispecie, accompagnate da esempi e indicatori spesso (ma non
necessariamente) caratterizzanti lo schema manipolativo, dovrebbe infatti ridurre tale
rischio, che, secondo alcuni142, è talmente importante da rendere preferibile non introdurre alcun divieto di manipolazione e non offrire alcuna protezione al bene del “regolare funzionamento del mercato”, cioè del processo di formazione dei prezzi e, quindi,
dell’efficienza informativa e dell’efficienza allocativa delle risorse143.
141 Ad oggi è stata ammessa solo una prassi, relativa ai contratti di liquidità ed articolata in modalità diverse dalle autorità
di Francia, Spagna, Italia e Portogallo. Sempre sui contratti di liquidità una prassi di mercato è stata istituita in via
generale nel Regolamento (UE) 2019/2155 per tutte le PMI con azioni negoziate nei relativi mercati di crescita.
142 D. R. FISCHEL – D.J. ROSS, Should the Law Prohibit Manipulation in Financial Markets, in Harvard Law Review, 1991.
143 A differenza di quanto in precedenza illustrato con riguardo all’abuso di informazioni privilegiate, l’analisi economica
è sostanzialmente concorde nel ritenere che la manipolazione rechi un danno al mercato. Condotte che artificiosamente allontanano i prezzi di mercato dai valori fondamentali, o, comunque, da quelli che il mercato in un dato mo-
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Al di là del differente approccio eurounitario rispetto a quello nazionale, come
ancora oggi espresso sul lato penale dall’art. 185 TUF, sembra si possa concordare con
quanti concludano che “nonostante la diversità di formulazione, gli ambiti degli art.
185 e 187-ter (che rinvia al regolamento eurounitario, ndr) tendano a coincidere”144.
Del resto, a valle di una severa procedura di infrazione avviata dalla Commissione europea, la normativa nazionale è stata infine ritenuta coerente con la citata Direttiva
2014/17/UE che individua le condotte sanzionabili penalmente, che, a sua volta,
nell’art. 5 richiama perfettamente, con gli aggiustamenti dovuti al carattere penale
delle fattispecie, il ricco wording previsto dall’art. 12 del Regolamento (UE) MAR per le
fattispecie sanzionate in via amministrativa.
mento ritiene tali, alterano il processo di formazione dei prezzi, forniscono falsi segnali agli altri partecipanti al mercato, riducono l’efficienza informativa dei prezzi e, in ultima analisi, l’efficienza allocativa delle risorse (v. L. LOSS, Fundamentals of Securities Regulation, Boston MA, 1988). Inoltre, tipicamente ai guadagni del manipolatore corrispondono almeno pari perdite per gli altri partecipanti al mercato. Non si tratta necessariamente di un gioco a somma zero,
potendo i falsi segnali trasmessi dal manipolatore generare ulteriori perdite per quanti vengono ingannati da tali falsi
segnali. Inoltre, gli scandali associati alla manipolazione, sia di tipo informativo che operativo, conducono sistematicamente ad una perdita di fiducia nel funzionamento dei mercati e quindi ad un allontanamento di molti investitori
dai mercati, o quanto meno dai segmenti in cui gli scandali si verificano. Si pensi al mercato dei corporate bond dopo
gli scandali Parmalat e Cirio o al mercato dei mutui subprime dopo la crisi finanziaria del 2007. Tuttavia, diversi economisti hanno rappresentato come l’introduzione di un divieto di manipolazione del mercato possa risultare eccessivamente costoso per via del rischio che le autorità commettano errori valutativi nel qualificare una condotta come
manipolativa, sia con riguardo a quella informativa che a quella operativa (C.F. CAMERER, Can Asset Markets Be Manipulated? A field Experiment with Racetrack Betting, in Journal of Political Economy, 1988). Tantopiù se si considera
come non sia tecnicamente agevole riuscire a manipolare i mercati. Infatti, rispetto alla prima, è stato rappresentato
come chi diffonda informazioni false o fuorvianti non possa ripetere la condotta più volte senza danneggiare la propria
reputazione, e quindi non ci sia spazio nel lungo periodo per la manipolazione. Rispetto alla seconda, è stato evidenziato come l’elasticità dei prezzi (v. J.S. MILL, Principles of Political Economy, London: Longmans, Green and Co., 1921),
l’elevata liquidità dei mercati, le sempre più sofisticate misure di microstruttura degli stessi (si pensi ai circuit breakers
o alla chiusura random dell’asta elettronica) e l’importante trasparenza degli scambi (si pensi anche agli obblighi di
comunicazione delle vendite allo scoperto) non consentano di alterare significativamente i prezzi per un periodo prolungato (v. E. AVGOULEAS, The Mechanics and Regulation of Market Abuse, Oxford University Press, 2005). Altri studi
hanno di contro dimostrato come, con riferimento alla manipolazione informativa, qualora l’informazione falsa non
sia verificabile ex post o se il soggetto che la diffonde possa apparire aver agito in buona fede (come, ad esempio, nel
caso degli analisti finanziari che producono molte ricerche ogni mese), allora sussisterebbero importanti spazi per la
manipolazione anche nel lungo periodo (v. R. BENABOU – G. LAROQUE, Using Privileged Information to Manipulate Markets : Insiders, Gurus and Credibility, in Quarterly Journal of Economics, 1992). Con riferimento alla manipolazione
operativa è oggi di comune evidenza come l’elasticità dei prezzi dipenda dalle molte condizioni di quantità e di tempo
che caratterizzano gli ordini che li generano, mentre la liquidità, la microstruttura e la trasparenza, pur limitando gli
spazi delle possibili manipolazioni, non sono in grado di eliminarle del tutto. Se, quindi, sul lato empirico, alla fine del
secolo scorso la manipolazione del mercato sembrava confinata alla inadeguata struttura dei mercati dei secoli precedenti, con le spettacolari bolle dei prezzi dei tulipani (v. P.M. GARBER, Famous First Bubbles, The MIT Press, 2000), con
i giochi settecenteschi degli stock jobbers (v. F. ANNUNZIATA, Un Robinson Crusoe alla borsa di Londra, La Vita Felice,
2019) o nei primi decenni del secolo scorso con i corner sui mercati dei derivati sulle merci (F. ALLEN – L. LITOV – J. MEI,
Large Investors, Price Manipulation, and Limits to Arbitrage: An Anatomy of Market Corners, in Review of Finance, 2006)
e gli stock pools (G. JIANG – P.G. MAHONEY – J. MEI, Market Manipulation: A Comprehensive Study of Stock Pools, in
Journal of Financial Economics, 2005, p. 77), e, più recentemente, con i pump & dump schemes, ma soltanto in mercati
minori quali gli OTC bulletin pink sheet (v. R.K. AGGARWAL – G. WU, Stock Market Manipulations, in Journal of Business,
2006, Vol. 79, n. 4, pp. 1915 ss.), i più vicini scandali del nuovo millennio relativi alle IPO durante la tech-bubble, alla
manipolazione dei benchmark e del Libor, alla manipolazione del fixing dei mercati a pronti delle valute (v. P. HILLION –
M. SUOMINEN, The Manipulation of Closing Prices, in Journal of Financial Markets, 2004, p. 7), all’operatività ad alta
frequenza durante i flash crash e agli interrogativi connessi al caso Gamestop (v. US SEC, Staff Report on Equity and
Options Market Structure Conditions in Early 2021, 14 October 2021) hanno progressivamente ribaltato quell’orientamento ottimistico, portando anche la Commissione UE ha proporre la MAD II, prima direttiva attinente all’armonizzazione di sanzioni penali. Peraltro, la frammentazione degli scambi su più sedi di negoziazione ha ampliato il novero
delle correlazioni e delle interconnessioni degli scambi, apprendo nuovi o ulteriori spazi per strategie di manipolazione
cross-markets e cross-product.
144 S. SEMINARA, Il diritto penale del mercato mobiliare, cit., p. 121.
Quaderni giuridici
N. 29
maggio 2023
Nel prosieguo, si farà quindi riferimento alle definizioni del Regolamento (UE)
MAR, partendo dalla manipolazione operativa, principale terreno delle analisi in argomento.
2.2 La manipolazione operativa e l’AI
La trade-based manipulation è definita nell’art. 12, par. 1, del Regolamento
(UE) MAR, lett. a) e b)145.
Si rileva come la condotta di cui alla lettera a) sia, a sua volta, suddivisa in
due fattispecie entrambe sottoposte ad una medesima duplice condizione:
la conclusione di un’operazione, l’inoltro di un ordine di compravendita o qualsiasi
altra condotta che:
invii, o è probabile che invii, segnali falsi o fuorvianti in merito all’offerta, alla
domanda o al prezzo di uno strumento finanziario, di un contratto a pronti su
merci collegato o di un prodotto oggetto d’asta sulla base di quote di emissioni; oppure
fissi, o è probabile che fissi, il prezzo di mercato di uno o più strumenti finanziari, di un contratto a pronti su merci collegato o di un prodotto oggetto
d’asta sulla base di quote di emissioni a un livello anormale o artificiale;
a meno che la persona che conclude un’operazione, inoltra un ordine di compravendita o ha posto in essere qualsiasi altra condotta dimostri che tale operazione,
ordine o condotta sono giustificati da legittimi motivi e sono conformi a una prassi
di mercato ammessa, come stabilito a norma dell’articolo 13.
145 L’origine delle definizioni adottate dal legislatore può essere rilevata in un lavoro del FESCO “Market Abuse – FESCO’s
response to the call for views from the Securities Regulators under the EU’s Action Plan for Financial Services”, 29 June
2000: “Definition of Market Abuse. The objective of an European legislative framework to combat Market Abuse is to
defend the integrity of the market. Market Abuse is behaviour which involves the misuse of Material Information (…),
the dissemination of false or misleading information or behaviour which abnormally or artificially affects, or is likely to
affect, the formation of prices or volumes of Financial Instruments. Consequently, an European regime against Market
Abuse should cover: a) Misuse of Material Information in relation to Financial Instruments traded on a Regulated Market before that information has been disclosed to the public in accordance with existing disclosure requirements. Material Information can be misused: i) through trading, or ii) encouraging others to trade, or iii) through passing on the
information to any third party except if such disclosure is made during the normal course of the exercise of a person’s
employment, profession or duties and the recipient is made aware that the information is material and has not been
disclosed to the rest of the market. b) Dissemination of information which gives, or is likely to give, false or misleading
signals as to the supply, demand or price of Financial Instruments traded on a Regulated Market. It will include: i) the
dissemination of misleading rumours; ii) the dissemination of false or misleading news about companies; c) Trades, or
orders to trade in a Regulated Market, which either: i) give, or are likely to give, false or misleading signals as to the
supply, demand or price of Financial Instruments traded on a Regulated Market; or ii) Interfere with the interaction of
supply and demand and produce, or is likely to produce, an abnormal or artificial effect on prices or volumes of Financial
Instruments traded on Regulated Markets. (…) The definition in (…)(c) above is designed to prohibit, non exhaustively,
the following conduct: a) The creation of a false or misleading appearance of trading in a Financial Instrument; b) Trading by one or more persons in collaboration with each other which has the effect of securing the market price of a
Financial Instrument at an abnormal or artificial level; c) The employment of any fictitious transaction or devices or any
other form of deception or contrivance; (…)”.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
Si osserva come nella condotta sub i) il successo della strategia faccia leva
sulla reazione della condotta sugli altri partecipanti alle contrattazioni, i quali potrebbero essere ingannati dai “falsi o fuorvianti segnali” trasmessi dalla condotta del manipolatore, grazie a ordini immessi o grazie alle relative conseguenti operazioni; diversamente, nella condotta sub ii) il successo della condotta deriva direttamente
dall’azione di forza del manipolatore, il quale, indipendentemente dalla reazione degli
altri partecipanti al mercato, “fissa” il prezzo a “un livello anormale o artificiale” (in
quanto gli torna per qualche motivo conveniente).
Entrambe le condotte influiscono sul processo di formazione dei prezzi.
Orbene, è evidente che sono moltissimi gli ordini che quotidianamente influiscono (o, rectius, è probabile che influiscano) sul processo di formazione dei prezzi,
proprio perché questi ultimi si formano sul mercato a valle dell’interazione di una moltitudine di soggetti, i quali inserendo i propri ordini allineano la quotazione, almeno
approssimativamente, con le aspettative generali. Fermo restando che alcune frizioni
possono rallentare questo processo, esso ha natura dinamica: il prezzo che si è appena
formato è oggetto di nuova rielaborazione da parte degli operatori, i quali a loro volta
reagiscono con nuovi ordini che, quindi, concorrono alla formazione di un ulteriore
valore, consentendo, in via iterativa, la convergenza verso il fair value che esprime i
valori dei fundamentals dello strumento finanziario sottostante, in linea con l’insieme
delle informazioni pubblicamente disponibili. È così assicurata l’efficienza informativa
di tipo semi-forte del mercato e, pertanto, l’efficienza allocativa delle risorse, andando
queste più facilmente verso gli investimenti che più meritano di essere finanziati.
I potenziali effetti che scaturiscono dalla condotta illecita, cioè i “segnali falsi
o fuorvianti” o i prezzi a livelli “anormali o artificiali”, evidenziano l’importanza di una
valutazione controfattuale, incentrata sulla differenza tra quello che la condotta ha
provocato e quello che, invece, sarebbe successo in assenza della stessa.
Trattandosi di definizioni volutamente effect-based e non intent-based, disegnate in modo da sanzionare anche i comportamenti non dolosi, i richiami alla falsità,
alla fuorvianza e all’artificiosità non dovrebbero presupporre il riconoscimento di una
condotta malevola, quanto il mero potenziale impatto sul processo di formazione dei
prezzi.
Se così è, come sembra che sia, allora, come si diceva, sono moltissimi gli
ordini immessi sul mercato che quotidianamente incidono o potrebbero incidere su tale
processo fornendo segnali falsi o fuorvianti o che portano o potrebbero portare il prezzo
a valori anormali.
Si pensi a quanti ordini provocano forti variazioni dei prezzi, in una direzione
opposta a quella coerente con l’insieme delle informazioni pubblicamente disponibili e
che trovano, ad esempio, chiara giustificazione nella necessità di liquidità da parte di
uno degli investitori (liquidity trader).
Ecco allora che, per non cadere nell’assurdo di qualificare come manipolative
centinaia di manipolazioni ogni giorno, soccorre la prima delle due condizioni previste
dall’art. 12, par. 1, lett. a), “a meno che la persona che conclude un’operazione, inoltra
Quaderni giuridici
N. 29
maggio 2023
un ordine di compravendita o ha posto in essere qualsiasi altra condotta dimostri che
tale operazione, ordine o condotta sono giustificati da legittimi motivi (…)”146.
Diviene quindi cruciale la possibilità di riscontrare la sussistenza di legittimi
motivi, quali, tipicamente, quelli rientranti in strategie di arbitraggio, di investimento
o di speculazione.
La black box dei sistemi di AI forti inibisce però la possibilità di chiarire se la
condotta sia giustificata da legittimi motivi; di qui il rilievo del tema della ammissibilità
dell’operatività sui mercati finanziari tramite sistemi di AI forti e, in caso positivo, della
adeguatezza della definizione di manipolazione del mercato di tipo operativo fornita
dal Regolamento (UE) MAR.
Esiste invero un’altra disposizione in grado di ricomprendere le condotte manipolative realizzate attraverso l’utilizzo di sistemi di AI, siano essi deboli o forti: si
tratta della disposizione contenuta nell’art. 12, par. 1, lett. b), che considera manipolativa “la conclusione di un’operazione, l’inoltro di un ordine di compravendita o qualsiasi altra attività o condotta che incida, o sia probabile che incida, sul prezzo di uno o
più strumenti finanziari, di un contratto a pronti su merci collegato o di un prodotto
oggetto d’asta sulla base di quote di emissioni, utilizzando artifici o qualsiasi altra forma
di raggiro o espediente”.
Come evidenziato dalla dottrina, tuttavia, l’art. 12, par. 1, lett. b) “suscita così
problemi a causa della sua genericità, accresciuta dall’assenza di ogni riferimento ai potenziali effetti sul prezzo degli strumenti finanziari”147; il che porta a considerare questa
disposizione più che altro una norma di chiusura della fattispecie di manipolazione
operativa alla quale fare ricorso soltanto in via eccezionale.
È vero che strategie di layering & spoofing (perpetuate da sistemi di AI) sono
state oggetto di sanzione in altri ordinamenti anglosassoni facendo leva sui concetti di
artificiosità della condotta, ma è pur evidente che una tale soluzione non sarebbe coerente con il più ricco, trasparente e rigoroso approccio del Regolamento (UE) MAR, che
sin da questi primi anni di vita sembra aver dato buona prova di sé.
Occorre anche riconoscere che l’approccio del Regolamento (UE) MAR già fornisce un’altra strada per rispondere all’operatività dei sistemi di AI, che non passa per
la definizione della fattispecie ma per la diretta illustrazione dell’esempio manipolativo.
Questa strada è stata battuta per arginare le prime manifestazione di operatività di
sistemi di AI che lavorano ad alta frequenza, gli High Frequency Traders (HFT)148.
146 Sottolineatura aggiunta.
147 La norma non è accompagnata da indicatori nell’Allegato I del Regolamento (UE) MAR e nell’Allegato II del Regolamento delegato (UE) 2016/522.
148 Sulle caratteristiche della negoziazione algoritmica si rinvia a M. GARGANTINI – M. SIRI, Il “prezzo dei prezzi”. Una soluzione di mercato ai rischi dell’high frequency trading?, in Riv. soc., n. 5-6, 2019, pp. 1100 ss., e, con riferimento all’arbitraggio statistico e all’arbitraggio di latenza, a M. BERTANI, Trading algoritmico ad alta frequenza e tutela dello slow
trader, in Analisi giur. econ., n. 1, 2019, p. 268. La negoziazione algoritmica (c.d. algorithmic trading) e la negoziazione
algoritmica ad alta frequenza (c.d. high frequency trading) devono essere considerate espressamente legittime per il
riconoscimento ricevuto dalla normativa interna dall’art. 1, comma 6-quinquies e comma 6-septies, TUF, le cui nozioni
sono state introdotte nell’art. 4, nn. 39 e 40, della dir. 2014/65/UE (Markets in financial instruments directive, c.d. MiFID
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
L’art. 12, par. 2, lett. c) chiarisce con tre esempi che costituiscono una manipolazione rilevante: “l’inoltro di ordini in una sede di negoziazione, comprese le relative
cancellazioni o modifiche, con ogni mezzo disponibile di negoziazione, anche attraverso
mezzi elettronici, come le strategie di negoziazione algoritmiche e ad alta frequenza, e
che esercita uno degli effetti di cui al paragrafo 1, lettere a) o b), in quanto: i) interrompe
o ritarda, o è probabile che interrompa o ritardi, il funzionamento del sistema di negoziazione della sede di negoziazione; ii) rende più difficile per gli altri partecipanti al mercato individuare gli ordini autentici sul sistema di negoziazione della sede di negoziazione, o è probabile che lo faccia, anche inserendo ordini che risultino in un sovraccarico
o in una destabilizzazione del book di negoziazione (order book) degli ordini; oppure iii)
crea, o è probabile che crei, un segnale falso o fuorviante in merito all’offerta, alla domanda o al prezzo di uno strumento finanziario, in particolare inserendo ordini per avviare o intensificare una tendenza”149. In aggiunta l’Allegato II del Regolamento delegato (UE) 2016/522 fornisce specifici indicatori ed importanti esempi delle fattispecie
di cui sopra all’art. 12(1)(a) denominati “quote stuffing”, “momentum ignition”, “layering and spoofing” e “smocking”150.
Tuttavia, sono i considerando (5-9) del Regolamento delegato (UE) 2016/522
che, oltre a chiarire bene la portata indicativa e non esaustiva degli indicatori e degli
esempi di prassi manipolative e a chiarire bene che sussiste la finalità di tener conto
degli sviluppi tecnici sui mercati, precisano, tra l’altro, che: “Taluni esempi di prassi
riportati nel presente regolamento descrivono casi che sono compresi nella nozione di
manipolazioni del mercato o che, sotto alcuni aspetti, fanno riferimento a una condotta
di manipolazione. Dall’altro canto, alcuni esempi di prassi possono essere considerati
II), implementando le ESMA Guidelines on system and controls in an automated trading environment for trading platforms, investment firms and competent authorities, (ESMA/2012/122), 24 febbraio 2012. In particolare, per “negoziazione algoritmica” si intende «la negoziazione di strumenti finanziari in cui un algoritmo informatizzato determina
automaticamente i parametri individuali degli ordini, come ad esempio l’avvio dell’ordine, la relativa tempistica, il
prezzo, la quantità o le modalità di gestione dell’ordine dopo l’invio, con intervento umano minimo o assente, ad
esclusione dei sistemi utilizzati unicamente per trasmettere ordini a una o più sedi di negoziazione, per trattare ordini
che non comportano la determinazione di parametri di negoziazione, per confermare ordini o per eseguire il regolamento delle operazioni» (Art. 1, comma 6-quinquies, TUF). Per “tecnica di negoziazione algoritmica ad alta frequenza”
si intende «qualsiasi tecnica di negoziazione algoritmica caratterizzata da: a) infrastrutture volte a ridurre al minimo
le latenze di rete e di altro genere, compresa almeno una delle strutture per l’inserimento algoritmico dell’ordine: coubicazione, hosting di prossimità o accesso elettronico diretto a velocità elevata; b) determinazione da parte del sistema dell’inizializzazione, generazione, trasmissione o esecuzione dell’ordine senza intervento umano per il singolo
ordine o negoziazione, e c) elevato traffico infra-giornaliero di messaggi consistenti in ordini, quotazioni o cancellazioni» (Art. 1, comma 6-septies, TUF).
149 Sottolineatura aggiunta.
150 “Quote suffing”: “inserire quantitativi ingenti di ordini di compravendita e/o cancellazioni e/o aggiornamenti di tali
ordini per creare incertezze tra gli altri partecipanti, rallentare il loro processo e/o mascherare la propria strategia”.
“Momentum ignition”: “inserire ordini di compravendita o una serie di tali ordini o effettuare operazioni o serie di
operazioni che sono probabilmente in grado di avviare o accentuare un trend e di incoraggiare altri partecipanti ad
accelerare o ampliare tale trend per creare l’opportunità di chiudere o aprire una posizione a un prezzo favorevole”.
“Layering and spoofing”: “trasmettere ordini di negoziazione multipli o ingenti, spesso con parametri distanti da quelli
presenti su un lato del book di negoziazione, per effettuare una negoziazione sull’altro lato di detto book. Una volta
effettuata tale negoziazione, gli ordini non destinati a essere eseguiti sono rimossi”.“Smoking”: “inserire ordini di compravendita per attirare altri partecipanti al mercato che utilizzano tecniche di negoziazioni tradizionali («slow trader»),
e poi modificare rapidamente tali ordini rendendo le condizioni meno generose, nella speranza che la loro esecuzione
sia redditizia rispetto al flusso in arrivo degli ordini di compravendita degli slow trader”. Sulle nuove modalità commissive del reato di manipolazione del mercato si veda G. CAZZELLA, Tecnologia e intelligenza artificiale nei mercati
finanziari; le ricadute penali della “new market manipulation”, Tesi di Laurea, Università Cattolica del Sacro Cuore –
Milano, 2019/2020, pp. 80 ss.
Quaderni giuridici
N. 29
maggio 2023
legittimi se, ad esempio, una persona che compie operazioni o inoltra ordini di compravendita che possono configurarsi come una manipolazione del mercato è in grado di dimostrare che le motivazioni alla base di tali operazioni o tali ordini erano legittime, e
che le operazioni e gli ordini in questione erano conformi alle prassi ammesse sul mercato considerato”151.
Questi esempi, essendo mirati al contrasto dell’eventuale operatività manipolativa degli HFT, riescono sì a cogliere condotte dei sistemi di AI, ma, da un lato, non
risultano generali e, dall’altro lato, fanno riferimento a sistemi di AI deboli e non superano il problema centrale del rapporto tra il legittimo utilizzo dei sistemi di AI forti ed
i rischi connessi alla difficoltà di ricostruire il percorso logico-motivazionale alla base
dell’operatività di tali sistemi.
In definitiva, dall’analisi della disciplina della manipolazione operativa emerge
con evidenza che l’attuale quadro normativo – nel lodevole intento di contemperare la
tutela del regolare processo di formazione dei prezzi e la libertà di intermediari e investitori di assumere condotte e strategie giustificate da legittimi motivi – rischi (forse
in modo non voluto) di non supportare adeguatamente – ed anzi, di fatto, già finisca
per ostacolare – la diffusione e lo sviluppo dei sistemi di AI forti nei mercati finanziari,
così limitando altresì il progresso scientifico e tecnologico e i significativi benefici che
essi sono suscettibili di apportare alla crescita dei mercati stessi e dell’economia in
generale.
2.3 La manipolazione informativa e l’AI
I sistemi di AI forti producono un dirompente ampliamento delle possibili strategie di manipolazione informativa applicabili con successo da malintenzionati. Si considerino ad esempio il fenomeno delle app che producono fake news con il supporto di
immagini o voci umane, rendendo estremamente realistica la falsa informativa offerta
al pubblico.
Queste estensioni presentano naturalmente criticità che investono ambiti più
ampi di quelli che toccano i mercati finanziari e, nello specifico, la manipolazione del
mercato. Si è innanzi a problemi di carattere sociale e politico che riguardano la privacy, la formazione del consenso, la tutela delle fasce deboli della popolazione ma
anche di leader politici e di personaggi pubblici.
Nei casi di eventuali eclatanti abusi, tra i quali, ad esempio, quello del sistema
di AI forte che dovesse adottare tecniche di deepfake per trasmettere false informazioni
tramite “finte” immagini di persone che hanno capacità di influenzare le scelte degli
operatori o dell’opinione pubblica, diventerebbe importante, come per le altre fake
news, la velocità di reazione con cui i soggetti coinvolti, cioè in primo luogo le persone
lese, ma anche i giornalisti e i media, riescono a rivelare al pubblico l’errore così da
limitare la durata dell’impatto sui prezzi di mercati.
151 Sottolineatura aggiunta.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
In tali casi è tipicamente evidente la riconducibilità oggettiva della condotta
alle fattispecie proprie della manipolazione informativa, specie se la stessa è accompagnata da operazioni sul mercato atte a trarre vantaggio dall’effetto prodotto sui
prezzi (si rammenta che il Regolamento (UE) MAR non richiede che per incorrere nella
manipolazione informativa sia necessario effettuare operazioni sui mercati). La semplice idoneità delle dichiarazioni non veritiere a produrre effetti sui mercati rende le
stesse illecite e sanzionabili, indipendentemente dall’eventuale finalità ludica del
deepfake e, più in generale, dalla circostanza che gli autori del deepfake intendano o
meno manipolare il prezzo di uno o più strumenti finanziari.
Oltre ai casi eclatanti di chiara natura fraudolenta, sono di interesse anche i
casi più subdoli in cui l’utilizzo di sistemi di AI consente di indurre una pluralità di
soggetti (o anche pochi soggetti con potere di mercato) a comportarsi in modo coordinato, così da influenzare i prezzi dei titoli in una direzione conveniente al sistema di
AI forte. In tali casi potrebbe essere difficile riconoscere il carattere manipolativo delle
condotte e reagire prontamente per scongiurare che l’effetto sui prezzi si prolunghi
ulteriormente.
La fattispecie prevista dall’art. 12, par. 1, lett. c) del Regolamento (UE) MAR
sembra adeguata a contrastare la condotta ipotizzata, consentendo a che la condotta
manipolativa sia effettuata non solo “tramite i mezzi di informazione, compreso Internet” ma anche “tramite ogni altro mezzo (…) compresa la diffusione di voci”.
Tuttavia, la fattispecie richiede il soddisfacimento della condizione che “la
persona che ha proceduto alla diffusione sapeva, o avrebbe dovuto sapere, che le informazioni erano false o fuorvianti”. Si torna allora alle difficoltà già individuate per un
sistema di AI forte tali requisiti.
Anche sotto questo profilo, appare dunque, opportuno un intervento correttivo delle fattispecie previste dal Regolamento (UE) MAR.
Altre situazioni di manipolazione informativa possono scaturire “automaticamente” se il sistema di AI, per esempio, acquista sul mercato quantitativi che comportano la pubblicazione della partecipazione ai sensi dell’art. 120 TUF. Tali messaggi possono infatti trasmettere informazioni false o fuorvianti in quanto non rispondenti alla
“volontà” che ha generato la decisione di operare in quella direzione. Ancora una volta
il sistema di AI forte non sarebbe in grado di fornire risposte attendibili, non potendo
quella volontà essere ricostruita ex post e, financo, essere “ricordata”.
Infine, torna ancora il caso dei robo-advisor, che potrebbero generare raccomandazioni di investimento “errate o tendenziose o manifestamente influenzate da interessi determinanti”, così rientrando negli indicatori di manipolazione di cui all’art. 12,
par. 1, lett. b), se accompagnate da operazioni opportunisticamente effettuate immediatamente prima o dopo la diffusione delle stesse raccomandazioni.
Quaderni giuridici
N. 29
maggio 2023
3 Gli illeciti di abusi di mercato commessi da più AI collusi
L’ambito del trading diviene ancora più rilevante se si guarda alle interazioni
che il sistema di AI può avere sia con gli investitori umani sia con altri traders algoritmici.
Innanzitutto, alcuni sistemi di AI godono di un elemento competitivo più marcato rispetto a qualsiasi forma di negoziazione: la velocità di inserire una quantità
molto elevata e temporalmente ravvicinata di ordini di esecuzione, modifica o cancellazione di operazioni. Ciò evidenzia una marcata differenza di dotazioni tra queste negoziazioni algoritmiche e qualsiasi investitore umano sul mercato finanziario. Indubbiamente la capacità di gestire, a distanza di centesimi, millesimi o milionesimi di
secondo, la direzione degli investimenti mediante una pluralità di ordini e operazioni
con l’intento di sfruttare questo vantaggio competitivo e attirare l’attenzione degli altri
operatori, specie degli slow traders, in termini profittevoli, evoca una maggiore possibilità di condotte abusive152. Ma il potenziale competitivo non riguarda necessariamente transazioni “superveloci” in quanto può insinuarsi in dinamiche di scambio meno
veloci153, nei quali la c.d. black box algoritmica elabora decisioni di trading, fondate su
motivi, calcoli e strategie, più difficilmente comprensibili rispetto all’agire dell’uomo,
anche per il produttore, il programmatore o l’utente del sistema di AI154.
A ciò si aggiunge che attraverso l’utilizzo delle intelligenze artificiali è possibile che operatori umani elaborino una pluralità di innovativi meccanismi di intervento
nelle negoziazioni. In particolare, gli algoritmi possono essere utilizzati come strumento di attuazione, realizzazione o facilitazione di un accordo collusivo di alcuni operatori finanziari155. In queste ipotesi, i fenomeni collusivi sono agevolmente imputabili
agli operatori coinvolti.
Già l’approfondito esame del flash crash del 6 maggio 2010 sul E-Mini S&P
500 Futures aveva messo in luce come i vari HFTs avessero risposto in modo simile
(herding) e violento ad un ingente ordine di vendita disposto da un investitore istituzionale che si avvaleva di un algoritmo per coprirsi dal rischio legato alla crisi della
Grecia per le proprie posizioni sul mercato azionario statunitense. Ciò a prescindere
dalla presenza negli scambi di un manipolatore seriale, Navinder Sarao, che abitualmente, anche quel giorno, aveva messo in azione algoritmi che applicavano una strategia di layering & spoofing.
Posto che ormai sugli strumenti finanziari più liquidi gli ordini provenienti da
algoritmi raggiungono l’80% del totale degli scambi, l’interazione degli stessi fa parte
152 In questo senso M. BERTANI, Trading algoritmico ad alta frequenza e tutela dello slow trader, cit., passim, spec. p. 267,
che fa riferimento ad un’asimmetria informativa dello slow trader rispetto ai traders algoritmici. Ciò si rispecchia poi
in una riduzione del rischio per l’operatore algoritmico e un incremento per rischio per lo slow trader, ovvero per
l’investitore umano.
153 In questo senso A. AZZUTTI – W.G. RING – H. S. STIEHL, The Regulation of AI trading from an AI Life Cycle Perspective, cit.
p. 13.
154 Su questo rischio nei mercati finanziari V. CARLINI, I robot e le scelte oscure spesso inspiegabili per l’uomo, in Il Sole 24
ore, 21 febbraio 2018, pp. 1 e 25.
155 Si tratta del rischio della c.d. associazione «uomo-macchina», così definito da G. TEUBNER, op. cit., pp. 105-113.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
della ordinaria modalità di formazione dei prezzi. Pertanto, in una prospettiva di vigilanza, i flash crash e le operazioni di manipolazione appaiono come la parte visibile di
un fenomeno, quello dell’interazione degli algoritmi, che, invece, di norma, non sembra
generare problemi.
Tuttavia, come il citato caso di manipolazione di Navinder Sarao ha mostrato,
l’azione di vigilanza potrebbe non essere rapida nel rilevare abusi di mercato che avvengono ad alta velocità. È, cioè, ben possibile che, nell’ambito di una apparente calma
dei mercati, si celino, in realtà, una pluralità di micromanipolazioni a danno degli altri
partecipanti e con effetti significativi sulle grandezze che esprimono la qualità dei mercati.
Venendo poi a considerare i sistemi di AI più evoluti, basati sul c.d. “reinforcement learning”, la loro reciproca interazione può generare, in modo spontaneo e
senza programmazione iniziale, tacite condotte collusive156 non imputabili all’uomo157.
Come riportano le cronache, infatti, «si sono già avute istanze a Wall Street di sistemi
intelligenti che, davanti alle istruzioni dei loro creatori di «massimizzare il ritorno» sugli
investimenti che gestiscono, hanno autonomamente sviluppato meccanismi di collusione con altri computer […], comportamenti che sarebbero certamente illegali se fossero stati stabiliti tra esseri umani». Tutto ciò potrebbe cagionare fenomeni di sostanziale impunità in quanto le disposizioni in vigore sanzionano unicamente
comportamenti coscienti e volontari o, quantomeno, riconducibili ad eventuali forme
di negligenza di produttori e programmatori158.
Sul piano della repressione di queste dinamiche manipolative illecite (o più
latamente abusive), al pari delle condotte illecite concordate da due o più traders, la
dottrina, seppure con riferimento esclusivo all’high frequency trading, ha evidenziato
che le forme di collusione algoritmica tacita sfuggono di per sé al tradizionale modello
di regolamentazione e di vigilanza basato sull’uomo. In questi casi le implicazioni reciproche dei traders algoritmici, nonché quelle di questi con gli investitori tradizionali,
sono difficili da controllare in quanto l’interazione tra i traders «rischia di essere così
tanto correlata che se anche uno di questi sfugga ai controlli ex ante e di conformità,
156 Una definizione di “collusione tacita” derivante dall’impiego degli algoritmi si rinviene in ORGANISATION FOR ECONOMIC
CO-OPERATION AND DEVELOPMENT (OECD), Algorithms and collusion. Competition Policy in the Digital Age, 2017, p. 19, ove
si precisa che essa «refers to forms of anti-competitive co-ordination which can be achieved without any need for an
explicit agreement, but which competitors are able to maintain by recognising their mutual interdependence. In a tacitly
collusive context, the non-competitive outcome is achieved by each participant deciding its own profit-maximising
strategy independently of its competitors. This typically occurs in transparent markets with few market players, where
firms can benefit from their collective market power without entering in any explicit communication».
157 Questo rischio è stato individuato dapprima dagli studiosi di diritto della concorrenza. Si rinvia con riferimento alle
questioni di enforcement antitrust pertanto a M. FILIPPELLI, La collusione algoritmica, in Orizz. dir. comm. (orizzontideldirittocommerciale.it), fasc. speciale, 2021, pp. 375 ss.; P. MANZINI, Algoritmi collusivi e diritto antitrust europeo, in Mer.
Conc. Reg., n. 1, 2019, pp. 163 ss.; L. CALZOLARI, La collusione fra algoritmi nell’era dei big data: l’imputabilità alle imprese
delle “intese 4.0” ai sensi dell’art. 101 TFUE, in Rivista di diritto dei media (medialaws.eu), n. 3, 2018, pp. 21 ss.; G.
COLANGELO, Artificial Intelligence and Anticompetitive Collusion: From the ‘Meeting of Minds’ towards the ‘Meeting of
ALgorithms’, in Stanford-Vienna TTLF Working Paper, No. 74 (http://ttlf.standford.edu.). Sugli effetti della collusione
algoritmica nei mercati finanziari, con speciale riguardo alla stabilità dei mercati di capitale A. AZZUTTI – W.G. RING – H.
S. STIEHL, Machine learning, market manipulation and collusion on capital markets: why the “black box” matters, cit., i
quali individuano i fattori di mercato che possono facilitare la produzione della collusione algoritmica (market trasparency, a higher frequency of interactions, product homogeneity, market concentration, entry barrier and innovations).
158 Così J. HANSEN, Ci sono anche i pc delinquenti, in ItaliaOggi, 11 maggio 2019, pp. 1 e 11.
Quaderni giuridici
N. 29
maggio 2023
tutti i controlli effettuati sugli altri partecipanti sino a quel momento risulterebbero
essere stati vani»159; in particolare, anche nell’ipotesi in cui l’operatività di un trader
possa essere prevedibile «diviene automaticamente imprevedibile per l’impossibilità di
prevedere il comportamento (non per forza ragionevole) anche degli altri partecipanti
«robotici» che sarà possibile ritrovare nel mercato»160.
Queste preoccupazioni sono certamente estensibili ai sistemi di AI, i cui meccanismi di funzionamento, già imperscrutabili, possono sviluppare comportamenti collusivi non captabili sulla base di autonome dinamiche relazionali, indipendentemente
dalla velocità di negoziazione degli algoritmi. Un siffatto fenomeno potrebbe non soltanto integrare condotte illecite di manipolazione, non riconducibili all’uomo, ma produrre effetti sul funzionamento complessivo del settore finanziario.
4 La manipolazione informativa nei social network e l’AI
Il trading algoritmico va esaminato anche in relazione alle potenzialità dei
social media e dei social network161. I nuovi contenitori on line di notizie hanno radicalmente mutato le modalità diffusive delle informazioni, caratterizzate ormai da due
principali caratteristiche: la rapidità della circolazione e la decentralizzazione delle informazioni162.
I social network consentono a ciascun individuo di essere non solo fruitore di
notizie ma altresì produttore di notizie, veicolate in tempo reale in internet nei confronti di tutti gli utenti/individui connessi163. La combinazione delle nuove modalità di
comunicazione con i traders algoritmici può produrre effetti sistemici sulla stabilità del
159 P. LUCANTONI, L’high frequency trading nel prisma della vigilanza algoritmica del mercato, in Analisi giur. econ., n. 1,
2019, p. 311.
160 Ivi, pp. 310-311. Nel medesimo senso F. DI CIOMMO, La conclusione e l’esecuzione automatizzata dei contratti (smart
contract), in G. CASSANO – F. DI CIOMMO – M. RUBINO DE RITIS (a cura di), Banche, intermediari e FinTech, Milano, 2021, p.
106, per il quale il fenomeno non può considerarsi circoscritto all’high frequency trading ma all’utilizzazione di una
varietà di tecnologie dinamiche e aggressive che portano tutte al fenomeno della c.d. ghost liquidity. In particolare, è
possibile che i volumi scambiati si impennino a causa di due circostanze illustrate dall’A.: «1) gli automi, in un tale
contesto, per minimizzare i rischi possono decidere di porre in essere strategie di brevissimo periodo (compro e vendo
in pochi minuti); e 2) gli automi tra loro si condizionano inevitabilmente, sicché, se un automa decide di comprare in
modo massiccio un certo titolo, gli altri automi, che raccolgono in tempo reale l’informazione sul mercato e la relativa
oscillazione del prezzo, possono decidere di comprare anch’essi, quel titolo o altri titoli, e così può succedere che si
determini un momento positivo di borsa ed anche che un momento positivo si trasforma in momento di euforia. Ciò
genera la sensazione che nel mercato sia entrata nuova liquidità, quando invece tale liquidità non c’è, tanto che di lì
a poco, in ragione della strategia di breve periodo di cui si diceva, è probabile che gli automi comincino a vendere per
monetizzare il guadagno (e cioè l’aumento di prezzo del titolo) e che anche questa dinamica ribassista, per lo stesso
meccanismo di condizionamento appena cennato, si produca rapidamente».
161 È opportuno avvertire che il pericolo insito nei social network non è limitato alla potenza diffusiva dei traders algoritmici. Si può fare riferimento al caso Gamestop nel quale non è stata la potenza algoritmica a sovvertire la dinamica
speculativa dei fondi di investimento ma una massa di piccoli investitori, la cui alleanza è stata resa possibile dalla
appartenenza di costoro alla medesima digital community. In questo senso M. CUPELLA, I mercati finanziari a confronto
con nuove tecnologie e Social Media: le prospettive penalistiche dell’Affaire GameStop, in Bocconi Legal Papers, n. 16,
2021, pp. 145 ss.
162 Su queste caratteristiche si rinvia ampiamente a G. PITRUZZELLA, La libertà di informazione nell’era di Internet, in Rivista
di diritto dei media (medialaws.eu), n. 1, 2018, p. 22.
163 Ibidem. Si veda altresì F. DONATI, L’art. 21 della Costituzione settanta anni dopo, in Rivista di diritto dei media (medialaws.eu), n. 1, 2018, pp. 93 ss.
AI e abusi di mercato:
le leggi della robotica si applicano
alle operazioni finanziarie?
mercato finanziario. I traders algoritmici, mediante la loro capacità di acquisizione ed
elaborazione di tutte le fonti di comunicazione, comprese quelle derivanti dal canale
della mass information, possono produrre un effetto “rimbalzo” sul prezzo degli strumenti finanziari quotati. Una decisione di investimento di un trader algoritmico può
basarsi sul «numero delle volte in cui il nome dello strumento finanziario compare nei
circuiti di diffusione di informazioni e sulle piattaforme di comunicazione di cui usufruiscono gli operatori»164, senza essere in grado di individuare segnali di anomalia che
spingerebbero un trader umano a non negoziare165.
La dinamica di condizionamento del trading da parte dei social media e dei
social network può essere acuita da una manifestazione del fenomeno più invasiva,
ovvero quello della mass disinformation, consistente nella diffusione di informazioni
errate e fake news e qualificato da parte della dottrina come «the most damaging form
of market manipulation in terms of market value and investor confidence»166. Queste
informazioni, infatti, non sono sempre affidabili e riconducibili ad un soggetto facilmente individuabile167; esse potrebbero altresì sottintendere anche vere e proprie “raccomandazioni di investimento”, dalle quali derivano gli obblighi previsti dal Regolamento (UE) MAR168, qualora la pubblicizzazione attenga direttamente a prodotti
finanziari, soprattutto da parte di soggetti non abilitati, ovvero non sottoposti
all’adempimento delle regole specifiche in materia finanziaria per indirizzare le scelte
degli investitori in funzione delle loro conoscenze e della loro propensione al rischio169.
In effetti, la mass disinformation può configurare nuove modalità di commissione di manipolazione informativa, alterare il fisiologico incontro tra domanda ed offerta e incidere sul valore degli strumenti finanziari. I relativi effetti possono essere
vieppiù fuorvianti e dirompenti qualora queste informazioni siano “catturate” dagli algoritmi di negoziazione, specialmente da quelli di alta velocità, producendo episodi di
forte volatilità dei titoli finanziari (i cc.dd. flash crash già accennati), evidenziati da
alcune notizie di cronaca170. Ciò accade per la capacità di questi algoritmi «di sfruttare
164 M. PALMISANO, op. cit., p. 135.
165 P. LUCANTONI, L’high frequency trading nel prisma della vigilanza algoritmica del mercato, cit., p. 300.
166 T.C.W. LIN, The new market manipulation, cit., pp. 1292-1294, spec. p. 1293.
167 L. CALIFANO, La libertà di manifestazione del pensiero … in rete; nuove frontiere di esercizio di un diritto antico. Fake news,
hate speech e profili di responsabilità dei social network, in federalismi.it, n. 26, 2021, p. 14, sottolinea che le notizie
circolanti in rete «possono (e spesso è così) non avere una paternità evidente, trattandosi di meme, articoli anonimi,
estratti di blog, i cui contenuti vengono divulgati medianti strumenti quali la condivisione o il retweet che consentono
di perpetuare l’anonimato».
168 Art. 3, par. 1, 35), Regolamento (UE) MAR relativo agli abusi di mercato offre una definizione di «raccomandazione in
materia di investimenti» in termini di «informazioni destinate ai canali di distribuzione o al pubblico, intese a raccomandare o a consigliare, in maniera esplicita o implicita, una strategia di investimento in merito a uno o a più strumenti
finanziari o emittenti, ivi compresi pareri sul valore o sul prezzo presenti o futuri di tali strumenti».
169 A. CANEPA, Social media e fin-influencers come nuovi fonti di vulnerabilità digitale nell’assunzione delle decisioni di
investimento, in Riv. trim. dir. econ. (fondazionecapriglione.luiss.it), Suppl. al n. 1, 2022, pp. 307 ss., spec. pp. 311 e 321.
170 Si veda M. LONGO, Allarme social network. Così insidiano le Borse, in Il Sole 24 ore, 22 marzo 2018, pp. 1 e 3. L’articolo
ricorda almeno quattro casi di diffusione di fake news via social network che hanno provocato episodi di alta volatilità
del mercato finanziario o di alcuni titoli su di esso. Il primo riguarda la notizia falsa nel 2010 di un aereo della compagnia australiana Qantas precipitato in Indonesia; il secondo si è verificato nell’aprile del 2013 quando alcuni hacker