
(AGENPARL) – lun 21 ottobre 2024 *COMUNICATO STAMPA*
*A TORINO IL PRIMO STUDIO CHE DECODIFICA LE ESPRESSIONI FACCIALI DI LEMURI
E GIBBONI CON L’INTELLIGENZA ARTIFICIALE*
*Grazie a tecniche di deep learning sarà possibile condurre studi
comparativi su larga scala focalizzati sulla comunicazione di alcune specie
di primati non umani*
Se l’applicazione dell’intelligenza artificiale è ormai di uso comune per
l’individuazione e la lettura delle espressioni umane, finora la sua
applicazione per specie di primati che non fossero l’uomo era inesplorata.
Oggi l’Università di Torino è promotrice del primo studio orientato
all’utilizzo dell’I.A. per decodificare le espressioni facciali dei primati
non umani. La ricerca
pubblicata sulla rivista *Ecological Informatics,* mostra come l’utilizzo
delle tecniche di *deep learning* possa essere efficace nel riconoscere i
gesti facciali di *lemuri* e *gibboni*, facilitando l’indagine del
repertorio facciale e consentendo una ricerca comparativa più efficace.
Gli studi sulle espressioni facciali nella comunicazione animale sono
essenziali. Tuttavia, i metodi di ispezione manuale sono pratici solo per
piccoli insiemi di dati. Le tecniche di *deep learning* possono aiutare a
decodificare le configurazioni facciali associate alle vocalizzazioni
su *grandi
insiemi di dati*. Lo studio di UniTo, in particolare, indaga se si possano
individuare le espressioni associate all’*apertura della bocca* e alle
*emissioni
vocali*.
*“Quando abbiamo iniziato questo studio, tre anni fa, l’applicazione delle
tecniche di deep learning al riconoscimento delle espressioni facciali di
specie che non fossero l’uomo era un territorio completamente inesplorato.
Oggi siamo di fronte a un progresso importante dal punto di vista
tecnologico che potrà trovare ulteriore applicazione su specie finora
ignorate e consentirà di condurre studi comparativi su larga scala*”,
spiega *Filippo Carugati*, dottorando di Scienze Biologiche e Biotecnologie
Applicate e primo autore del lavoro.