
Google ha annunciato l’introduzione di una nuova funzionalità intelligente chiamata “caching implicito” nella sua piattaforma di intelligenza artificiale Gemini, progettata per ridurre i costi operativi degli sviluppatori che utilizzano i modelli AI più avanzati dell’azienda.
Questa funzionalità, disponibile nelle versioni Gemini 5.2 Pro e Gemini 5.2 Flash, promette un risparmio del 75% sul costo del contesto ricorsivo – ovvero i dati contestuali inviati ripetutamente al modello durante richieste successive tramite API. Il contesto ricorsivo rappresenta spesso una parte significativa del costo computazionale delle applicazioni AI.
Secondo quanto riportato da TechCrunch, la novità è particolarmente rilevante in un momento in cui gli sviluppatori lamentano un aumento generalizzato dei costi legati all’intelligenza artificiale.
La caching implicita si distingue per essere automatica e attivata di default, a differenza della precedente caching esplicita, che richiedeva agli sviluppatori di individuare manualmente le richieste ricorrenti. Quest’ultima modalità, pur pensata per ottimizzare le spese, si è rivelata troppo onerosa in termini di gestione, causando in alcuni casi costi imprevisti e portando a lamentele nella community. A seguito delle critiche, il team di Gemini si è scusato e ha accelerato il rilascio della nuova funzione.
La pratica della memorizzazione nella cache è ben nota nel campo dell’IA: si tratta di conservare le risposte più frequenti o pre-elaborate per evitare rielaborazioni superflue. Ad esempio, risposte a domande comuni possono essere conservate, riducendo così il carico computazionale e migliorando le prestazioni.
Con il rilascio della caching implicita, Google punta a rendere l’uso della sua IA più sostenibile e accessibile, abbattendo i costi per sviluppatori e aziende, e rendendo più efficiente l’adozione di Gemini in applicazioni su larga scala.