
[lid] Il panorama in evoluzione dell’intelligenza artificiale nel giornalismo e nella creazione di contenuti ha scatenato un acceso dibattito, con i media che accusano le società di intelligenza artificiale di sfruttare ingiustamente i loro contenuti. Ora, potrebbe essere in arrivo una legislazione per regolamentare lo spazio.
L’industria dei media ha recentemente espresso serie preoccupazioni sull’uso dei propri contenuti da parte delle società di intelligenza artificiale per addestrare i propri chatbot, come ChatGPT di OpenAI. Molti temono che addestrare i chatbot su questi dati possa danneggiare la loro stabilità finanziaria e l’integrità editoriale. Il problema può essere fatto risalire a più di un decennio fa, quando le aziende tecnologiche iniziarono a condividere contenuti di notizie senza compensare i creatori, cosa che secondo molti editori portò a un calo delle entrate del settore dei media.
Questo problema è giunto al culmine di recente quando il New York Times ha avviato una causa contro i produttori di chatbot AI , tra cui OpenAI, Microsoft, Google, Meta e altri. La causa, fondata su accuse di violazione del copyright, accusa i giganti della tecnologia di utilizzare i contenuti del Times per addestrare i loro strumenti di intelligenza artificiale, tra cui ChatGPT e Copilot di Microsoft, senza autorizzazione. Il NYT sostiene che ciò ha portato a una deviazione del traffico web e, di conseguenza, a una sostanziale perdita di entrate derivanti da pubblicità, licenze e abbonamenti.
Tuttavia, non tutti sono convinti che l’uso delle notizie nei dati di addestramento dell’IA costituisca un problema. Alcuni sostengono che questa pratica sia protetta dal principio del “fair use” della legge sulla proprietà intellettuale, mentre altri la considerano una violazione del diritto d’autore.
Durante una riunione della commissione Giustizia del Senato, i legislatori hanno sostenuto proposte che richiedono alle società di intelligenza artificiale di stabilire accordi di licenza con le testate giornalistiche in una mossa volta a salvaguardare la proprietà intellettuale dei media. Il senatore Richard Blumenthal ha sottolineato la necessità di un regime di licenze. Ha affermato: “Dobbiamo imparare dagli errori derivanti dalla nostra incapacità di supervisionare i social media e di adottare standard”.
Roger Lynch, amministratore delegato di Condé Nast, ha sostenuto in modo convincente la chiarezza legislativa durante l’udienza. Ha esortato il Congresso a “chiarire che l’uso dei nostri contenuti e di quelli di altre pubblicazioni per la formazione e la produzione di modelli di intelligenza artificiale non è un uso corretto”, affermando di ritenere che la risoluzione di questo problema consentirà al libero mercato di facilitare accordi di licenza adeguati. . Facendo eco a questo sentimento, il senatore Josh Hawley ha descritto la necessità di un risarcimento come “imminentemente sensato”, aggiungendo: “Perché non dovremmo espandere il regime verso l’esterno per dire a chiunque i cui dati vengono ingeriti e rigurgitati dall’intelligenza artificiale generativa – sia nel nome, nell’immagine o nelle sembianze – ha diritto ad un risarcimento?”
Uno dei principali punti di discussione durante l’udienza è stata la necessità di una nuova legislazione per affrontare l’impatto dell’intelligenza artificiale sul giornalismo. Curtis LeGeyt, amministratore delegato della National Association of Broadcasters, ha affermato: “Penso che sia prematuro. Se avremo chiarezza sul fatto che le leggi attuali si applicano all’intelligenza artificiale generativa, il mercato funzionerà”. Tuttavia, Lynch ha espresso frustrazione per i processi legali prolungati, affermando: “Una delle principali preoccupazioni è la quantità di tempo per litigare, fare appello, tornare in tribunale, fare appello e forse arrivare alla Corte Suprema per risolvere. Da qui ad allora, molte società di media falliranno”.
Jeff Jarvis, professore di giornalismo, si è espresso contro “una legislazione protezionistica per un settore in difficoltà”, sostenendo invece un’interpretazione più ampia della dottrina del fair use. La Camera del Progresso, un’organizzazione che rappresenta i giganti della tecnologia, ha sostenuto l’interpretazione della sezione 230 del Communication Decency Act per garantire l’immunità alle società di intelligenza artificiale dalle richieste di violazione del copyright. Tuttavia, il senatore Blumenthal ha sostenuto che le aziende di intelligenza artificiale non dovrebbero essere protette ai sensi della sezione 230 se vengono citate in giudizio per contenuti prodotti da strumenti di intelligenza artificiale.