GPT-4 Turbo estende la lunghezza del contesto a 128.000 token

GPT4Turbo

OpenAI ha appena annunciato GPT-4 Turbo, al suo primo evento OpenAI DevDay . GPT-4 Turbo estende la lunghezza del contesto a 128.000 token.

L’azienda afferma che i 128.000 token sono paragonabili a un libro di 300 pagine, quindi gli utenti avranno ora molto più spazio per interagire con ChatGPT in un’unica discussione.

Sebbene la lunghezza illimitata del contesto sia ancora in fase di sviluppo, poiché all’inizio di quest’anno abbiamo trattato una storia in cui Microsoft sta cercando di raggiungerla, GPT-4 estendere la sua lunghezza del contesto a tale livello sarà più che utile.

GPT-4 Turbo è più capace e conosce gli eventi mondiali fino ad aprile 2023. Ha una finestra di contesto da 128k in modo che possa contenere l’equivalente di più di 300 pagine di testo in un unico prompt. Abbiamo anche ottimizzato le sue prestazioni in modo da poter offrire GPT-4 Turbo a un prezzo 3 volte più economico per i token di input e 2 volte più economico per i token di output rispetto a GPT-4.

OpenAI

GPT-4 Turbo è attualmente disponibile in modalità anteprima, ma OpenAI promette di rilasciare la sua versione stabile nelle prossime settimane.

GPT-4 Turbo avrà istruzioni migliorate e, secondo OpenAI, questa versione GPT presenterà anche nuovi miglioramenti per la chiamata delle funzioni.

Oggi rilasciamo diversi miglioramenti, inclusa la possibilità di richiamare più funzioni in un unico messaggio: gli utenti possono inviare un messaggio richiedendo più azioni, come “aprire il finestrino dell’auto e spegnere l’aria condizionata”, che in precedenza richiedevano più azioni andata e ritorno con la modella ( scopri di più ). Stiamo anche migliorando la precisione delle chiamate alle funzioni: è più probabile che GPT-4 Turbo restituisca i parametri di funzione corretti.

OpenAI

Il modello sarà anche in grado di produrre risultati riproducibili, il che, secondo le parole di OpenAI, ha un valore inestimabile per gli sviluppatori.

Questa funzionalità beta è utile per casi d’uso come la riproduzione di richieste di debug, la scrittura di unit test più completi e, in generale, per avere un livello di controllo più elevato sul comportamento del modello. Noi di OpenAI abbiamo utilizzato questa funzionalità internamente per i nostri test unitari e l’abbiamo trovata preziosa.

OpenAI

Insieme a GPT-4 Turbo, arriverà anche GPT 3.5 Turbo, che verrà rilasciato con molteplici nuove funzionalità.

Il nuovo 3.5 Turbo supporta il seguito delle istruzioni migliorato, la modalità JSON e la chiamata di funzioni parallele. Ad esempio, le nostre valutazioni interne mostrano un miglioramento del 38% nel formato dopo attività come la generazione di JSON, XML e YAML. Gli sviluppatori possono accedere a questo nuovo modello chiamando gpt-3.5-turbo-1106 nell’API. Le applicazioni che utilizzano il nome gpt-3.5-turbo verranno automaticamente aggiornate al nuovo modello l’11 dicembre. I modelli precedenti continueranno a essere accessibili passando gpt-3.5-turbo-0613 nell’API fino al 13 giugno 2024.

OpenAI

Cosa ne pensi del nuovo GPT-4 Turbo?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *