NewsGuard intensifica la sua vigilanza contro la diffusione di disinformazione alimentata dall’intelligenza artificiale in vista delle elezioni del 2024. Questo servizio di valutazione dei media, che si autoproclama imparziale, sta attuando nuove strategie per contrastare il proliferare di contenuti falsi che potrebbero influenzare il processo elettorale negli Stati Uniti.
Secondo quanto riportato da Semafor, nel periodo che precede le elezioni del 2024, ci sono già segnali di individui malintenzionati che sfruttano la tecnologia dell’intelligenza artificiale per generare e diffondere disinformazione su larga scala. NewsGuard, che si definisce come un guardiano della verità nei media e valuta le fonti di notizie secondo rigorosi standard giornalistici, sta adottando nuovi metodi per contrastare la diffusione di notizie false riguardanti i candidati come Joe Biden e Donald Trump. Gordon Crovitz, CEO di NewsGuard, ha dichiarato: “Gli attori maligni stanno sfruttando l’Internet potenziato dall’intelligenza artificiale per produrre contenuti sempre più economici, mirati, controversi e persuasivi”.
NewsGuard si concentra ora sulla lotta alla disinformazione alimentata dall’intelligenza artificiale, collaborando con aziende tecnologiche come Microsoft per utilizzare i suoi dati nel training del nuovo motore di ricerca Bing basato sull’IA. Tuttavia, la reputazione di NewsGuard è stata messa in discussione più volte, con accuse di parzialità. Nonostante si presenti come un controllore delle notizie false, i suoi fondatori hanno fatto affermazioni inesatte su questioni cruciali. Durante le elezioni presidenziali del 2020, il co-fondatore Steve Brill ha erroneamente suggerito che la storia del laptop di Hunter Biden fosse una “bufala perpetrata dai russi”.
Michael Hayden, membro del comitato consultivo di NewsGuard, ha sostenuto questa affermazione senza ritrattarla, nonostante le sue implicazioni infondate. Queste controversie hanno portato a critiche da parte di figure politiche influenti, come il deputato Jim Banks (R-IN), che ha accusato NewsGuard di avere forti pregiudizi politici.
NewsGuard fornisce agli utenti un’estensione del browser che mostra “etichette nutrizionali” accanto ai link dei siti web di notizie, indicando se sono affidabili o meno. Tuttavia, questa valutazione ha attirato critiche per presunte parzialità, con alcuni siti conservatori come Fox News che ricevono valutazioni negative, mentre alcuni media di sinistra continuano a essere valutati positivamente nonostante abbiano pubblicato informazioni fuorvianti.
Tra le nuove iniziative di NewsGuard c’è la creazione di un’impronta digitale per la disinformazione, che aiuta a individuare e prevenire la diffusione di falsità attraverso l’IA. Il gruppo sta anche collaborando con sistemi di intelligenza artificiale per sviluppare contromisure contro la disinformazione, cercando di impedire ai generatori di testo, immagini, video e audio di eludere le loro misure di sicurezza.
Inoltre, NewsGuard sta lavorando per integrare dati autorevoli sulle elezioni, come i seggi elettorali e le date, nelle basi di conoscenza dell’IA, al fine di fornire informazioni logistiche accurate agli elettori.
Secondo quanto riferito da NewsGuard, c’è stato un aumento del 1.000% di articoli di fake news generati dall’IA sulle elezioni tra maggio e dicembre 2022. Nel frattempo, uno studio condotto da Proof ha evidenziato che modelli linguistici come ChatGPT spesso forniscono risposte imprecise alle domande dettagliate sulle procedure di voto.L’organismo di vigilanza sulla “disinformazione” NewsGuard prende di mira i contenuti falsi basati sull’intelligenza artificiale in vista delle elezioni del 2024