Usare l’intelligenza artificiale per contrastare l’intelligenza artificiale: Gli esperti chiedono tecnologie aggiornate contro i crimini informatici basati sull’IA nel mezzo dello scandalo deepfake
L’uso dell’intelligenza artificiale (IA) per fini illeciti, come la creazione di deepfake, ha sollevato preoccupazioni a livello globale. Gli esperti di sicurezza informatica stanno chiedendo lo sviluppo di nuove tecnologie e sistemi per contrastare questi crimini, evidenziando la necessità di rafforzare le misure contro le minacce digitali emergenti. Lo scandalo deepfake, che coinvolge la distribuzione di contenuti pornografici non consensuali e ritoccati digitalmente, ha messo in luce la gravità del problema.
Il caso Telegram: Deepfake e pornografia non consensuale
Recenti indagini hanno scoperto numerose chat room su Telegram, in cui venivano creati e distribuiti contenuti pornografici deepfake, spesso ritoccando foto di donne comuni e militari. Secondo quanto riportato dal Korea Times, molte delle vittime e degli autori erano adolescenti. Telegram ha risposto all’indignazione pubblica rimuovendo parte di questi contenuti e scusandosi per la sua gestione dei crimini sessuali digitali, come riferito dall’agenzia Yonhap.
Lo scandalo ha rapidamente attirato l’attenzione dei netizen sudcoreani e cinesi, diffondendosi sui social media asiatici. Tuttavia, le conseguenze legali sono andate oltre. Il 28 agosto, un tribunale di Parigi ha presentato un’accusa contro Pavel Durov, fondatore di Telegram, per complicità nella diffusione di immagini di abusi sessuali su minori e altre presunte violazioni legate alla sua piattaforma.
La sfida dei deepfake e il loro impatto globale
I deepfake sfruttano una branca dell’intelligenza artificiale chiamata “deep learning” per creare immagini o video falsi estremamente realistici. Questa tecnologia può essere utilizzata per animare foto 2D o impiantare il volto di una persona in un video, generando contenuti fraudolenti difficili da distinguere dal materiale autentico.
Secondo Ding Jiancong, un osservatore del settore citato da The Beijing News, la tecnologia deepfake non si limita più solo alla manipolazione visiva: anche la sintesi vocale è ormai parte del pacchetto. La crescente sofisticazione dei modelli di IA, come Stable Diffusion, ha contribuito a rendere questi strumenti accessibili e pericolosi. Sebbene alcuni modelli abbiano limitato funzioni di generazione di nudità o manipolazione indebita, il carattere open-source della tecnologia rende difficile arginare completamente il problema.
Nuove minacce alimentate dall’IA
L’uso improprio dell’IA per fini criminali non si limita ai deepfake. Secondo Xiao Xinguang, capo architetto software della società cinese di sicurezza informatica Antiy, l’IA può aumentare l’efficacia di attacchi informatici tradizionali, come il furto di dati e il ransomware. Gli algoritmi di IA possono automatizzare e migliorare la scoperta di vulnerabilità e condurre attacchi in modo più rapido ed efficiente. Inoltre, l’infrastruttura delle grandi piattaforme basate su modelli di IA diventa un bersaglio vulnerabile agli attacchi, offrendo nuove superfici di rischio.
Di fronte a queste minacce, Xiao ritiene che sia irrealistico impedire alle persone di creare contenuti falsi con l’IA. Piuttosto, l’attenzione dovrebbe essere posta sulla regolamentazione della distribuzione di tali contenuti, insieme a un rafforzamento delle normative che disciplinano l’uso delle tecnologie IA.
“Usare l’IA per contrastare l’IA”: La proposta degli esperti
Zhou Hongyi, fondatore della società cinese 360 Security Technology, ha sottolineato che l’unico modo per affrontare le minacce generate dall’IA è utilizzare la stessa tecnologia contro di essa. Durante un forum a Tianjin, Zhou ha spiegato che, se da un lato l’IA rappresenta un’opportunità per innovazioni in vari settori, dall’altro introduce sfide significative per la sicurezza.
Secondo Zhou, è necessario “rimodellare la sicurezza con l’IA”, creando modelli di difesa specializzati per contrastare le minacce provenienti da grandi modelli generativi di IA. Questi sistemi dovrebbero essere in grado di individuare e contrastare in tempo reale attacchi basati su deepfake, manipolazioni vocali e altre forme di crimine digitale automatizzato.
Regolamentazioni più severe per frenare gli abusi
Oltre alla necessità di tecnologie avanzate, gli esperti sostengono che le piattaforme di IA dovrebbero implementare rigide revisioni sui contenuti generati dagli utenti, richiedendo l’identificazione con nome reale per chi accede a tali strumenti. Norme più severe dovrebbero essere applicate per prevenire e punire l’uso illegale delle tecnologie AI, colpendo duramente piattaforme e siti che facilitano la creazione e la distribuzione di contenuti illeciti.
In conclusione, mentre la tecnologia AI continua a progredire, la sua regolamentazione e gestione rimangono sfide cruciali. Gli esperti concordano sul fatto che solo attraverso una combinazione di innovazione tecnologica e misure legislative sarà possibile contenere l’ondata crescente di crimini informatici basati sull’intelligenza artificiale.