OpenAI lancia GPT-4: la nuova generazione di Intelligenza Artificiale
Gli sviluppatori possono iscriversi a una lista d'attesa per accedere alle API
15 Marzo 2023
OpenAI lancia GPT-4, il nuovo potente modello di intelligenza artificiale per la comprensione di immagini e testi che l’azienda definisce “l’ultima pietra miliare nel suo sforzo di scalare il deep learning“.
GPT-4 è disponibile da oggi per gli utenti paganti di OpenAI tramite ChatGPT Plus (con un limite di utilizzo), mentre gli sviluppatori possono iscriversi a una lista d’attesa per accedere alle API.
Il prezzo è di 0,03 dollari per 1.000 token “prompt” (circa 750 parole) e 0,06 dollari per 1.000 token “completion” (sempre circa 750 parole). I token rappresentano il testo grezzo; ad esempio, la parola “fantastico” sarebbe suddivisa nei token “fan”, “tas” e “tic”.
I token del prompt sono le parti di parole immesse nel GPT-4, mentre i token del completamento sono il contenuto generato dal GPT-4.
LEGGI ANCHE: Google risponde a ChatGPT: 20 nuovi prodotti di AI nel 2023
“In una conversazione informale, la distinzione tra GPT-3.5 e GPT-4 può essere sottile“, ha scritto OpenAI in un post sul blog.
“Le differenze emergono quando la complessità è maggiore e raggiunge una soglia sufficiente: GPT-4 è più affidabile, creativo e in grado di gestire istruzioni molto più complesse di GPT-3.5“.
Senza dubbio, uno degli aspetti più interessanti di GPT-4 è la sua capacità di comprendere le immagini e il testo. GPT-4 è in grado di interpretare immagini relativamente complesse, ad esempio di identificare un adattatore per cavo Lightning da una foto di un iPhone collegato.
La capacità di comprensione delle immagini non è ancora disponibile per tutti i clienti OpenAI, che la sta testando con un solo partner, Be My Eyes, per iniziare. La nuova funzione di è in grado di rispondere a domande sulle immagini che le vengono inviate. L’azienda spiega come funziona in un post sul blog:
“Se un utente invia una foto dell’interno del proprio frigorifero, non solo sarà in grado di identificare correttamente cosa c’è dentro, ma anche di estrapolare e analizzare cosa si può preparare con quegli ingredienti“. Lo strumento può quindi anche offrire una serie di ricette per quegli ingredienti e restituire una guida passo-passo su come prepararli“.
LEGGI ANCHE: 7 cose da sapere su ChatGPT prima di utilizzarlo per i contenuti e per la SEO

OpenAI lancia GPT-4
A quanto pare, GPT-4 si è nascosto in bella vista: Microsoft ha confermato che Bing Chat, la sua tecnologia per chatbot sviluppata in collaborazione con OpenAI, funziona già con GPT-4. Tra gli altri primi utilizzatori c’è Stripe, che usa GPT-4 per scansionare i siti web delle aziende e fornire un riepilogo al personale dell’assistenza clienti. Duolingo ha integrato il GPT-4 in un nuovo livello di abbonamento per l’apprendimento delle lingue. Morgan Stanley sta creando un sistema alimentato dal GPT-4 che recupera informazioni dai documenti aziendali e le fornisce agli analisti finanziari.
Cosa fa GPT-4
GPT-4 è in grado di generare testo e di accettare input di immagini e testo (un miglioramento rispetto a GPT-3.5 che accettava solo testo) e ottiene prestazioni di “livello umano” in vari benchmark professionali e accademici. Ad esempio, GPT-4 ha superato un esame di abilitazione alla professione forense simulato con un punteggio medio del 10% dei partecipanti al test. OpenAI ha impiegato sei mesi per “allineare iterativamente” il GPT-4 utilizzando le lezioni di un programma interno di test, ottenendo i “migliori risultati di sempre”. Come i precedenti modelli GPT, GPT-4 è stato addestrato utilizzando dati disponibili pubblicamente, compresi quelli provenienti da pagine web pubbliche, nonché dati concessi in licenza da OpenAI. OpenAI ha anche collaborato con Microsoft per sviluppare un “supercomputer” da zero nel cloud Azure, che è stato utilizzato per addestrare il GPT-4.Le differenze con GPT-3
