(AGENPARL) – ROMA ven 17 marzo 2023
Riconosce le immagini e processa fino a 25 mila parole: è GPT-4. OpenAI presenta la nuova versione dell’intelligenza artificiale dietro ChatGPT. Il chatbot che è salito agli onori della cronaca per la sua capacità di sostenere una conversazione, raccontare storie e scrivere codice ora commette meno errori e risponde a richieste basate sulle immagini.
Il nuovo modello è anche in grado di ottenere punteggi più alti in una serie di test che misurano intelligenza e conoscenze di esseri umani. Duolingo, Stripe e Khan Academy sono alcune delle aziende con cui OpenAI ha già stretto accordi per integrare GPT-4 nei loro prodotti. E a quanto pare, il nuovo Bing di Microsoft è già in esecuzione su GPT-4.
Quando arriverà Chat GPT 4
Per ora l’accesso a GPT-4 tramite Chat GPT e la sua API è limitato e vincolato all’iscrizione ad una lista d’attesa. OpenAI ha iniziato ad invitare alcuni sviluppatori, di modo che possano contribuire a valutare e migliorare il modello. Più tardi aumenterà la disponibilità e i limiti di velocità per bilanciare capacità e domanda.
Chat GPT-4 è attualmente disponibile per chi ha sottoscritto ChatGPT Plus, l’abbonamento mensile al costo di 20 dollari, ma con un limite di utilizzo regolato dinamicamente in base a domanda e prestazioni del sistema. L’accesso all’API richiede comunque il vaglio della lista d’attesa.
Prestazioni a livello umano negli esami di abilitazione
GPT o Generative Pretrained Transformer è un modello linguistico di grandi dimensioni (LLM), addestrato su ampie porzioni di dati raccolti da Internet, che impara matematicamente a individuare modelli e riprodurre stili.
Le prestazioni di GPT-4, l’ultima versione del modello originario del 2018, sono notevoli. Come i suoi predecessori, può eseguire istruzioni complesse in linguaggio naturale e generare lavori tecnici o creativi, ma in modo più approfondito: può gestire testi molto lunghi che contengono fino a 32.768 token (circa 25.000 parole).
OpenAI ha sottoposto il modello vari esami professionali e accademici di livello avanzato e in molti dei compiti, ha performato a livello umano. Nell’esame di abilitazione alla professione forense negli USA, GPT-4 si posiziona nel 10% dei migliori aspiranti avvocati al contrario di GPT-3.5 che risultava agli ultimi posti.
Potenzialmente quindi, se GPT-4 fosse una persona giudicata in base alla capacità di sostenere test, potrebbe entrare nella facoltà di giurisprudenza e probabilmente anche in molte università.
La potenza e i limiti di GPT-4
A livello tecnico, la caratteristica più rilevante di GPT-4 è la multimodalità, ossia la capacità di accettare input testuali ma anche di interpretare immagini. Anche se per ora l’output si ferma al testo. È anche più preciso perché calcola all’istante le tasse, descrive dettagliatamente immagini, inventa barzellette e dispensa consulti medici accurati.
OpenAI sottolinea che il sistema è stato addestrato in sei mesi di formazione sulla sicurezzae che ha dimostrato di avere “l’82% in meno di probabilità di rispondere a richieste di contenuti non consentiti e il 40% in più di probabilità di produrre risposte concrete rispetto a GPT-3.5″.
In una conversazione casuale, la distinzione tra GPT-3.5 e GPT-4 è impercettibile. Ma non se aumenta la complessità della richiesta. GPT-4 è più affidabile, creativo e in grado di gestire istruzioni più complesse.
E se chi fa uso di modelli linguistici di grandi dimensioni si deve ingegnare in una complessa elaborazione dei prompt per ottenere il giusto tipo di risposte, GPT-4 aggiunge un’opzione di comando per impostare un tono o uno stile specifico.
Un altro passo in avanti riguarda le allucinazioni, un problema tipico dell’IA che spesso fornisce risposte del tutto inventate con la stessa apparente autorità delle risposte corrette. Sono diminuite, ma non scomparse perché i sistemi di IA ancora non distinguono il vero dal falso.
Costruisci il tuo futuro con la connessione Fastweb
Fonte/Source: https://gofw.it/942pc