(AGENPARL) - Roma, 28 Gennaio 2026“La Fondazione E-novation si prepara agli Stati Generali della Sostenibilità e della Sicurezza, che si terranno rispettivamente il 26 e il 27 marzo – annuncia Massimo Lucidi Presidente della Fondazione – nel Palazzo della Santa Sede San Carlo ai Catinari a Roma. Per questo motivo volendo offrire un contributo ideale ai partecipanti, in termini di opinioni sui temi si è chiesto a Roberto Pucciano Ceo di Anchorage Group a Londra – all’Economic Forum di Davos, protagonista dell’economia internazionale e del pensiero geopolitico – una riflessione propria e dunque originalissima, grazie all’osservatorio privilegiato che vive”.
“Mentre l’intelligenza artificiale e la robotica passano dal supporto alle decisioni all’azione autonoma, dichiara Roberto Pucciano – emerge una domanda centrale: quali valori sono incorporati nei sistemi che determinano sempre più i risultati economici, sociali e di sicurezza? Durante l’era della globalizzazione, la governance tecnologica era in gran parte reattiva. L’innovazione si diffondeva rapidamente e le problematiche etiche o sociali venivano affrontate dopo l’implementazione, spesso attraverso una regolamentazione frammentata. Questo approccio non è più praticabile. Nell’era della convergenza, l’intelligenza artificiale e la robotica operano simultaneamente come infrastrutture economiche, istituzioni sociali e strumenti di potere. Il loro comportamento non può essere neutrale rispetto ai valori, conclude Roberto Pucciano – e il presupposto che i mercati da soli selezioneranno risultati positivi si è rivelato insufficiente. Incorporare i valori umani nei sistemi intelligenti è quindi diventata una questione di governance strategica, non di astrazione morale”.
Dall’ottimizzazione tecnica alla progettazione normativa:
I sistemi di intelligenza artificiale ottimizzano per obiettivi definiti dagli esseri umani: efficienza, accuratezza, velocità, scalabilità. Ciò che non possiedono è una comprensione intrinseca del contesto sociale, dei vincoli etici o della legittimità politica.
Con l’integrazione dell’intelligenza artificiale nei mercati del lavoro, nell’assistenza sanitaria, nelle forze dell’ordine, nei sistemi militari e nella pubblica amministrazione, questa limitazione diventa sempre più evidente. Decisioni un tempo mediate dal giudizio umano vengono sempre più delegate a macchine, i cui incentivi riflettono scelte progettuali piuttosto che norme condivise.
In questo contesto, i “valori umani” non si riferiscono a un codice morale universale, ma a principi applicabili come responsabilità, trasparenza, proporzionalità e supervisione umana. Questi principi devono essere integrati nei sistemi fin dall’inizio, piuttosto che essere aggiunti tramite regolamenti dopo l’implementazione.
La sfida non è se l’intelligenza artificiale incarnerà dei valori, ma quali valori, da chi saranno definiti e da quali istituzioni saranno applicati.
I valori come fonte di divergenza strategica:
Proprio come le catene di fornitura e gli standard tecnologici si stanno frammentando lungo linee geopolitiche, lo stesso vale per gli approcci alla governance dell’intelligenza artificiale.
Sistemi politici diversi danno priorità a valori diversi: efficienza anziché consenso, controllo anziché autonomia, ottimizzazione anziché deliberazione. Queste differenze si riflettono sempre più nei quadri normativi, nelle norme di progettazione e nelle scelte di implementazione.
Per le economie avanzate, integrare i valori umani nell’intelligenza artificiale non è solo una questione di fiducia sociale, ma di differenziazione strategica. I sistemi percepiti come opachi, non responsabili o non allineati con le norme pubbliche rischiano di subire contraccolpi politici e perdita di legittimità, sia a livello nazionale che internazionale.
In questo senso, i valori stanno diventando parte integrante della competizione tecnologica. Fiducia, qualità della governance e credibilità etica influenzano l’adozione tanto quanto le metriche di performance.
Robotica e la questione dell’agenzia:
La robotica acuisce ulteriormente queste preoccupazioni. Quando le macchine si spostano dagli ambienti virtuali allo spazio fisico – fabbriche, ospedali, case – le conseguenze del disallineamento diventano immediate e tangibili.
I sistemi autonomi che interagiscono con gli esseri umani devono destreggiarsi tra ambiguità, vulnerabilità e compromessi morali che non possono essere completamente codificati. Garantire un controllo umano significativo, una chiara responsabilità e un comportamento prevedibile è quindi fondamentale per mantenere l’accettazione pubblica.
Ciò pone nuove sfide sia ai decisori politici che alle aziende. La governance deve estendersi oltre i dati e gli algoritmi, per comprendere il comportamento del sistema, l’interazione uomo-macchina e gli effetti sociali a lungo termine.
I valori come infrastruttura:
Nell’era della convergenza, i valori non sono più vincoli esterni alla tecnologia. Sono infrastrutture, essenziali quanto i dati, l’energia o il capitale.
Gli Stati che riusciranno a integrare i valori umani nell’intelligenza artificiale e nella robotica non solo ridurranno il rischio sociale, ma definiranno anche norme, standard e reti di fiducia globali. Quelli che falliranno potrebbero scoprire che la sola capacità tecnologica non è sufficiente a garantire legittimità o influenza.
La nuova era riconosce che la convergenza deve essere governata attivamente, anche a livello di valori. La globalizzazione dava per scontato che la convergenza sarebbe emersa organicamente attraverso i mercati.

