
BRUXELLES – Dopo una pausa forzata dovuta alle rigide normative sulla privacy in Europa, Meta – la società madre di Facebook, Instagram e WhatsApp – ha annunciato la ripresa dell’addestramento dei suoi modelli di intelligenza artificiale utilizzando i dati pubblicamente disponibili degli utenti europei.
L’iniziativa, sospesa lo scorso anno per le pressioni delle autorità europee, segna un nuovo capitolo nella corsa globale all’IA generativa, ma riaccende anche il dibattito sul rispetto dei diritti digitali nel Vecchio Continente.
In un post ufficiale sul blog aziendale, Meta ha dichiarato che i suoi sistemi AI saranno addestrati attraverso post pubblici, commenti e interazioni aperte condivise dagli utenti nell’Unione Europea. La società ha sottolineato che non verranno utilizzati messaggi privati né contenuti condivisi con impostazioni di visibilità limitate.
Meta ha inoltre confermato che anche le interazioni con il chatbot “Meta AI” saranno raccolte per migliorare le prestazioni dei suoi modelli linguistici.
“Adottiamo un approccio simile a quello seguito da altre aziende leader nel settore, come Google e OpenAI,” ha dichiarato un portavoce di Meta, sottolineando che l’addestramento dei modelli avverrà nel rispetto delle normative in vigore.
Tuttavia, gruppi europei per la tutela della privacy hanno già presentato denunce ufficiali presso diverse autorità nazionali, sostenendo che l’uso dei dati da parte di Meta potrebbe violare il Regolamento Generale sulla Protezione dei Dati (GDPR), che garantisce ai cittadini europei un controllo stretto sull’uso delle proprie informazioni personali.
L’anno scorso, l’intervento delle autorità europee aveva costretto Meta a sospendere i suoi piani di addestramento IA nel continente, a seguito di un’indagine condotta in diversi Stati membri. Oggi, il ritorno della Big Tech sul tema lascia prevedere una nuova ondata di contenziosi e verifiche regolatorie.
Secondo gli esperti, la questione solleva interrogativi fondamentali: fino a che punto le aziende tecnologiche possono spingersi nell’utilizzare i dati pubblici per addestrare i propri algoritmi? E quanto è realmente “pubblico” un contenuto condiviso su una piattaforma sociale?
L’Unione Europea, con l’AI Act in fase di approvazione definitiva, potrebbe presto stabilire regole ancora più stringenti per regolamentare lo sviluppo e l’impiego dell’intelligenza artificiale, cercando un equilibrio tra innovazione e tutela dei diritti digitali.