
L’articolo di MIT News esplora l’idea se dovremmo etichettare i sistemi di intelligenza artificiale (IA) nello stesso modo in cui etichettiamo i farmaci prescritti, a causa del loro potenziale impatto sugli esseri umani, specialmente nei contesti critici come la sanità.
Gli autori propongono che, come i farmaci, i modelli di IA richiedano etichette che specifichino “uso approvato”, “ingredienti” (cioè i dati utilizzati per addestrarli), potenziali effetti collaterali e avvertenze. Per esempio, un modello di IA potrebbe essere stato addestrato con dati che includono o escludono scenari specifici, come la pandemia di Covid-19, e ciò potrebbe influenzare la sua applicabilità in contesti attuali o futuri.
Inoltre, queste etichette dovrebbero indicare chiaramente dove e quando un modello è stato sviluppato e testato. Modelli addestrati in un contesto geografico potrebbero non essere altrettanto efficaci in altri luoghi, quindi comprendere il “luogo” e il “momento” dell’addestramento è fondamentale per prevenirne l’uso improprio. Gli sviluppatori dovrebbero anche dichiarare esplicitamente quali sono gli usi approvati di un modello e avvertire contro potenziali utilizzi non previsti che potrebbero portare a errori o bias.
Infine, l’articolo sottolinea che, come per i farmaci, nessun modello di IA è perfetto. Rendere obbligatorie le etichette potrebbe aiutare a rendere trasparente il processo di sviluppo, inducendo una maggiore cautela nella progettazione di questi modelli, soprattutto quando sono destinati a contesti con implicazioni critiche per la salute pubblica o la sicurezza ?(MIT News)? (MIT News).