(AGENPARL) - Roma, 30 Novembre 2025Un Manifesto per l’Homo Googlis. Le Leggi della Robotica di Asimov rilette per gli algoritmi e l’intelligenza artificiale
Viviamo in un’epoca in cui ogni essere umano possiede, senza timore di essere smentito, tre identità.
Alla persona fisica, quella riconosciuta dai codici e dalle costituzioni come titolare di diritti e doveri, si affiancano altre due identità, figlie della rivoluzione digitale.
La prima è quella virtuale: un doppione immateriale di noi stessi che vive online ed è generato dalle nostre navigazioni, dai clic, dalle interazioni e da tutti i frammenti di vita digitale che immettiamo, più o meno consapevolmente, nella rete.
È un’identità intangibile che non ha diritti propri; è governata da algoritmi e sistemi automatizzati e da qualsiasi contatto, anche casuale, che incontra nel suo percorso digitale.
A ogni clic il sistema può rimodellarla e chi la genera, il suo “proprietario” non ha voce in capitolo. Gli operatori della rete possono usarla in maniera sostanzialmente indiscriminata, senza controllo. E continuerà ad esistere online anche dopo di noi, quando l’io fisico non sarà più su questa terra.
Di questa identità dobbiamo occuparcene ora: della sua gestione e della manipolazione che ne viene fatta. Non dimentichiamo che è una proiezione della persona, dei suoi diritti e della sua personalità; anche della parte più intima. Chi potrà disporre del patrimonio di dati che la formano e che hanno un importante valore economico?
Accanto a queste due, che lo vogliamo o no, esiste un terzo gemello: il noi con lo smartphone in mano e una connessione attiva, l’Homo Googlis.
Che lo accettiamo o meno, l’essere umano con il cellulare non è più l’Homo Sapiens che uscì dalle caverne per conquistare il mondo, ma un individuo diverso, che vive la rivoluzione digitale comodamente seduto sul proprio divano davanti a uno schermo.
Ha sviluppato nuovi comportamenti, abitudini e persino malattie che il suo predecessore sulla Terra non conosceva.
È il ponte tra le persone e le macchine; è lui che scrolla e dà i comandi. Lo fa con clic spesso compulsivi, inconsapevoli, mentendo quando la macchina gli chiede di rispondere alla domanda se ha letto condizioni e termini di navigazione.
È lui a dare l’input che fa muovere gli algoritmi e l’intelligenza artificiale.
E quando il gesto diventa automatico, lo diventa anche il sistema: uno spazio senza confini è anche uno spazio senza regole.
Ma non può più essere così.
Il sogno originario di una rete libera ed egualitaria, dove ogni opinione ha lo stesso valore, ha presto mostrato la sua debolezza: la libertà senza limiti non è libertà, ma una pericolosa utopia, un rischio per la libertà stessa.
Abbiamo bisogno sempre più urgentemente di confini certi, non di anarchia digitale, e non dimentichiamo che i dati sono per lo più nelle mani di imprese che possono usarli per gestire non solo conoscenza, ma anche potere, e il potere esige responsabilità.
Perché questo potere non si ferma al commercio o all’intrattenimento: arriva fino alla democrazia.
Le piattaforme che un tempo promettevano di unire gli amici oggi mettono in contatto produttori e consumatori, movimenti ed elettori, fanno campagne politiche, pubblicità e propagande mirate. Quella che era nata come una piazza digitale è diventata un mercato, dove tutte le preferenze, comprese le opinioni politiche, vengono vivisezionate, profilate, segmentate e vendute.
Le svolte degli ultimi anni, dalla Brexit alle elezioni americane del 2016, portano l’impronta dei mediatori di dati e della manipolazione algoritmica. Quello che appariva come un dibattito spontaneo era spesso una regia invisibile, costruita da chi possiede le piattaforme.
In questo scenario, le elezioni non sono più lotte tra idee, ma battaglie di dati.
La visibilità può essere comprata, l’indignazione amplificata, il silenzio pagato.
La libertà di parola è ancora garantita dalle costituzioni, ma chi protegge la libertà di essere ascoltati, quando un algoritmo decide chi deve essere visto e chi deve sparire dal flusso?
Online manca ancora un giuramento digitale di Ippocrate, anche se le responsabilità degli operatori non sono meno vitali di quelle dei medici.
Qualche regola locale esiste, e organismi internazionali come le stesse Nazioni Unite hanno emesso raccomandazioni sull’etica digitale e sui diritti umani nell’intelligenza artificiale.
La Raccomandazione dell’UNESCO sull’Etica dell’Intelligenza Artificiale, adottata nel 2021, è stata un passo avanti, ma non un quadro universale. E di un quadro universale, forte e chiaro, abbiamo urgente bisogno.
Le normative nazionali o quelle dell’Unione Europea servono, ma non bastano.
In attesa di interventi globali che affrontino il problema, il dovere etico di intervenire ricade in primis sui grandi operatori della rete, ma anche sulle aziende che utilizzano i dati e l’AI.
Si tratta di organizzazioni che hanno già tra le mani enormi quantità di dati personali; non mi riferisco solo ai giganti del web, ma anche compagnie aeree, catene alberghiere e supermercati. Sanno dove siamo, quando viaggiamo, cosa mangiamo, come dormiamo.
George Orwell, in 1984, scriveva: «Chi controlla il passato controlla il futuro».
Oggi sappiamo che chi controlla i dati controlla passato, futuro, persone, media e perfino le menti. Possiamo davvero lasciare un simile potere in poche mani, senza controllo?
Ogni giorno sono già in grado di incidere in maniera massiva sulle decisioni di milioni di persone e, talvolta, non si rendono conto della misura in cui già influiscono.
Non solo un popup pubblicitario; anche una semplice riga in una privacy policy per conservare i dati a fini di marketing può essere manipolazione dei diritti di qualcuno.
E lo stesso vale per chi sviluppa intelligenze artificiali in grado di orientare decisioni.
Abbiamo bisogno di regole per evitare un habitat disumanizzato.
Occorre un’autoregolamentazione: non una barriera di carta, ma una disciplina viva e proattiva.
Il cammino, del resto, è già stato tracciato da pensatori che ci avevano avvertito.
Seneca ci ricordava che evitare le responsabilità peggiora le cose: l’etica deve precedere l’azione, anche nell’era digitale.
Kant ci insegnò a trattare l’uomo come fine, non come mezzo: una lezione che gli algoritmi non hanno ancora imparato.
Stefano Rodotà, più di cinquant’anni fa, scriveva che pensieri, relazioni e dati non sono merci, ma parte dei diritti fondamentali della persona.
Jules Verne, nel suo Parigi nel XX secolo (1863), immaginava una società dominata da macchine, banche dati e profitto, dove l’arte e i sentimenti umani erano derisi.
La sua visione è diventata realtà.
«Gli uomini del 1960 – scriveva – non si stupivano più di quelle meraviglie; le usavano con calma, senza gioia… perché era chiaro che il demone della prosperità li spingeva avanti senza sosta, senza tregua e senza pietà.»
Ed è qui che entra in scena Isaac Asimov.
Con lucidità rara, offrì una chiave che oggi, più che mai, merita di essere riletta. Nei suoi romanzi e racconti – da Io, Robot alla saga della Fondazione – immaginò un mondo in cui le macchine facevano parte della vita quotidiana.
E ce lo aveva già detto, dandoci le indicazioni per un antidoto, quando formulò le celebri Tre Leggi della Robotica, poi ampliate con una Legge Zero, che stabilivano come le macchine dovessero comportarsi per proteggere l’umanità.
Erano state create per scopi diversi da quelli che conosciamo oggi; ma già allora, prevedendo il futuro, Asimov aveva intuito presto che le macchine potevano arrecare danni gravi e duraturi, o magari con conseguenze irreparabili, se non fossero state regolate e gestite da princìpi che possono provenire solo da una mente umana.
Rileggiamole.
- Un robot non può recare danno a un essere umano né, restando inerte, permettere che un essere umano subisca un danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini non contrastino con la Prima Legge.
- Un robot deve proteggere la propria esistenza, purché tale protezione non entri in conflitto con la Prima o la Seconda Legge.
A queste aggiunse, successivamente, la Legge Zero per risolvere i dilemmi in cui l’interesse del singolo entrava in conflitto con quello dell’intera specie.
0. Un robot non può recare danno all’umanità né, restando inerte, permettere che l’umanità subisca un danno.
Oggi i dilemmi a cui Asimov cercava di dare risposte sono ancora più numerosi e urgenti. Queste leggi possono andare bene anche oggi? Perché no? Ma solo se sapremo adattarle e applicarle.
Devono innanzitutto raggiungere i due canali attraverso i quali l’Homo Googlis muove il sistema: gli algoritmi e l’intelligenza artificiale.
Applicarle solo alle macchine, come Asimov le aveva concepite, sarebbe un errore.
La macchina è soltanto l’ultimo anello della catena: ferro e plastica sono privi di vita, finché un tocco umano non le dice “muoviti”.
Prima di quel momento, sono gli algoritmi a selezionare e a prevedere, e l’intelligenza artificiale ad agire e a decidere, dentro una bolla modellata dai dati.
Un esempio concreto: negli Stati Uniti alcuni sistemi predittivi tentano di stimare il rischio di recidiva degli imputati.
Ma i dati su cui si basano provengono spesso da regioni con popolazioni molto specifiche, talvolta segnate da squilibri sociali o etnici. Se questi modelli vengono applicati su scala nazionale, rischiano, ad esempio, di proiettare i pregiudizi di una zona sull’intero Paese.
Il risultato? Un algoritmo che si dichiara neutrale, ma che in realtà penalizza intere comunità e altera l’idea stessa di giustizia. E lo stesso potrebbe accadere in ambito sanitario: se un’intelligenza artificiale fosse addestrata principalmente su dati di pazienti bianchi, le sue diagnosi potrebbero rivelarsi imprecise per pazienti neri o ispanici.
La tecnologia non cancella il pregiudizio, lo moltiplica, se non lo si ferma alla radice. E la materia prima di tutto questo non è astratta.
È il flusso costante di dati che l’Homo Googlis alimenta: clic, pause, gesti, emozioni.
Anche l’azione più banale diventa un segnale, ripetuto e amplificato fino a trasformarsi in previsione e decisione.
Applicare Asimov oggi significherebbe garantire che gli algoritmi non classifichino male i contenuti, non distorcano le diagnosi e non amplifichino la disinformazione e, non ultimo, che l’intelligenza artificiale non esegua comandi dannosi senza contesto né consapevolezza.
Ma per ottenere questo, prima di tutto, l’Homo Googlis deve diventare più consapevole.
È lui che alimenta il sistema, a volte in modo esplicito, più spesso in modo inconscio, semplicemente scorrendo o reagendo.
Gesti che sembrano insignificanti, ma che modellano la macchina.
La consapevolezza richiede fatica, ma senza di essa la libertà non può esistere.
Ecco perché proteggere il robot non basta più.
Dobbiamo mettere in sicurezza l’intera catena, a partire dall’essere umano che programma e addestra la macchina.
La scintilla nasce sempre dalla mente umana: se l’Homo Googlis non è consapevole, l’algoritmo sbaglia e l’intelligenza artificiale si degrada.
L’educazione deve venire prima di tutto.
Quadri normativi come il GDPR sono un punto di partenza, ma servono nuovi modelli regolatori e una vera educazione digitale, condivisa tra scuole, famiglie e istituzioni, per proteggere non solo i singoli, ma l’umanità intera.
Solo così potremo chiedere conto a chi progetta e sviluppa questi sistemi. Ma servono delle regole di base.
Ecco allora la mia proposta:
Tre Leggi per l’Era Digitale
- Nessun algoritmo o intelligenza artificiale deve causare danni ingiustificati a esseri umani o all’umanità.
- Ogni sistema deve rispettare la dignità umana, i diritti e la legge, sotto chiara responsabilità dell’uomo.
- Ogni sistema deve rimanere trasparente, verificabile e soggetto al controllo umano.
Legge Zero
Nessuna persona può essere giudicata, profilata o trattata da un algoritmo o da un’intelligenza artificiale senza piena consapevolezza, una base giuridica e la possibilità di opporsi.
Usiamole come punto di partenza: l’ossatura su cui un governo o un parlamento potrà costruire il sistema, ma che già oggi le aziende possono adottare come linee guida.
Il nucleo di un insieme di principi per chi vuole mettere l’etica al primo posto nella costruzione e nella gestione della tecnologia, quando quest’ultima tocca l’uomo.
Si può iniziare da subito, magari affiancandole a un regolamento o a un breve decalogo operativo come questo.
Decalogo per una tecnologia etica
- Consentire a ogni essere umano di esercitare i propri diritti sulla propria identità digitale e sui propri dati personali.
- Progettare e sviluppare sistemi in grado di prevenire danni a individui e comunità e correggere le criticità non appena emergano.
- Rilevare, eliminare e monitorare costantemente i bias e le discriminazioni che possano insinuarsi negli algoritmi.
- Porre dignità e valori umani al di sopra del profitto, dell’efficienza o del potere.
- Garantire il rispetto della legge e degli standard internazionali in ogni fase di sviluppo e applicazione tecnologica.
- Costruire trasparenza e verificabilità fin dall’inizio, non come rimedio a posteriori.
- Assicurare la sicurezza dei dati e la riservatezza come diritti essenziali e non come clausole accessorie.
- Prevedere un costante controllo umano in ogni fase del ciclo tecnologico.
- Prevedere che sviluppatori, consulenti e decisori di assumersi direttamente la responsabilità delle conseguenze delle loro scelte.
- Inserire l’etica nel codice sorgente, nei processi aziendali, nelle strategie e nell’agenda dei board.
Queste non sono leggi per le macchine, ma per chi le crea e ha il dovere di scriverle dentro i sistemi.
Gli algoritmi non si svegliano al mattino, da soli, decidendo chi e come dovranno aiutare; glielo diciamo noi.
Il mondo digitale non è più una possibilità, è la nostra realtà quotidiana.
Questo è il mondo che verrà: un mondo che dobbiamo costruire e, al tempo stesso, imparare a vivere con consapevolezza, conoscendo gli strumenti perché siano loro a servirci, non noi a servirli, scegliendo la responsabilità invece della velocità, la trasparenza invece dell’opacità, la dignità invece del profitto.
In questo percorso ho sviluppato Cybermetrica®, un metodo di lettura e gestione dei rischi digitali nato dal lavoro su Homo Googlis e dall’evoluzione della professione forense verso l’Avvocato 6.0. Un approccio pensato per riportare l’essere umano al centro della tecnologia. Non viceversa.
Non è allarmismo. È responsabilità.
Adottando le Tre Leggi per l’Era Digitale e il Decalogo potremo misurare e verificare ciò che costruiamo, assumendoci la responsabilità degli effetti che generiamo.
Perché, alla fine, non si tratta di macchine più intelligenti, ma di uomini più consapevoli.
La domanda è una sola: quale sarebbe il prezzo del non fare nulla?
La risposta è davanti a noi. Lo abbiamo già fatto. E siamo rimasti ciechi.
Un secolo fa Lang e Chaplin ci avevano avvertiti. I loro operai di Metropolis e Tempi Moderni siamo noi: chini sullo schermo, imprigionati nel gesto automatico di uno scroll.
La differenza è che loro, almeno, venivano pagati. Noi paghiamo il sistema con i nostri dati e le nostre informazioni permettendogli di rigenerarsi ogni giorno e di gestire le nostre identità e i comportamenti online.
Fermiamoci un istante. Guardiamo che cosa siamo diventati.
La tecnologia non libera l’uomo: lo plasma.
E il suo futuro dipenderà da chi tiene le redini, e da quanto a lungo sarà disposto a stringerle.
Ognuno di noi è Homo Googlis e continuerà a esserlo.
Nel mondo che verrà rischiamo una sola divisione: chi scorre e chi decide che cosa gli altri scorreranno.
Sta a noi scegliere da che parte stare.
Questo Manifesto si colloca come contributo alla riflessione globale sull’etica digitale.
È un invito a discutere, a vigilare e ad agire con responsabilità.
Si inserisce nel percorso che porto avanti da anni con Homo Googlis®,
nell’evoluzione dell’Avvocato 6.0 tramite il metodo Cybermetrica®,
per una cultura del dato che riporti l’essere umano al centro.
© Gianni Dell’Aiuto. Tutti i diritti riservati.
La presente opera, inclusi testo, struttura e contenuti originali, è protetta dalla normativa sul diritto d’autore. È consentita la citazione con attribuzione, senza modifiche al testo.
È vietata qualsiasi riproduzione, distribuzione, traduzione, adattamento o utilizzo, totale o parziale, con qualsiasi mezzo o finalità, senza autorizzazione espressa dell’autore.
Homo Googlis® e Cybermetrica® sono marchi registrati e protetti.
Gianni Dell’Aiuto, avvocato cassazionista, è autore del progetto Homo Googlis®.
Ha scritto il libro L’Avvocato d’Impresa 6.0 – Il Legal Risk Manager dell’Impresa Digitale Globale, dove condivide la sua visione su come dovrà evolvere la professione forense.
Ha definito il metodo il metodo Cybermetrica®, la nuova grammatica dell’impresa nell’economia dell’accesso all’epoca degli algoritmi e della rivoluzione digitale. Da anni studia l’evoluzione dell’identità digitale e l’impatto degli algoritmi sulla società.
Lo dichiara l’avvocato Gianni Dell’Aiuto in una nota.
