[lid] – La tecnologia Deepfake può essere utilizzata dagli utenti inesperti, afferma Eset
La società di antivirus, Eset, ha dichiarato giovedì che i criminali trasformano le immagini normali in nudi utilizzando strumenti di intelligenza artificiale già pronti e ricattano i proprietari delle fotografie.
Con la più semplice tecnologia deepfake basata sull’intelligenza artificiale, che può creare false foto di nudo, le immagini condivise sui social media possono trasformarsi in strumenti di ricatto.
L’FBI ha messo in guardia per un numero crescente di casi di deepfake: immagini con adulti e minori circolano sui social media e sui siti Web per adulti, ha affermato Eset in una nota.
La tecnologia Deepfake utilizza reti neurali che le consentono di imitare l’aspetto o la voce di qualcuno. Le immagini vengono compresse con un codificatore e quindi rigenerate da un decodificatore, ha affermato.
Ha notato che i criminali possono emulare movimenti facciali simili posizionando indistintamente il volto di una persona sul corpo di qualcun altro.
L’accesso alla tecnologia è più facile che mai per tutti e gli utenti inesperti possono usarla in modo convincente e questo dovrebbe preoccupare tutti, secondo Eset.
Ha affermato che è troppo difficile rimuovere i contenuti falsi dalle piattaforme online.
L’azienda ha suggerito di prestare maggiore attenzione alla condivisione di immagini su Internet, in particolare per i bambini, e di garantire la sicurezza degli account sui social media.