GPT-4 Turbo breidt de contextlengte uit tot 128.000 tokens

GPT4-Turbo

OpenAI heeft zojuist GPT-4 Turbo aangekondigd tijdens het allereerste OpenAI DevDay-evenement ooit . GPT-4 Turbo breidt de contextlengte uit tot 128.000 tokens.

Het bedrijf zegt dat de 128.000 tokens vergelijkbaar zijn met een boek van 300 pagina’s, zodat gebruikers nu veel meer ruimte hebben om in één enkele discussie met ChatGPT te communiceren.

Hoewel een onbeperkte contextlengte nog in ontwikkeling is, zoals we eerder dit jaar een verhaal hebben besproken waarin Microsoft dit probeert te bereiken, zal het uitbreiden van de contextlengte in GPT-4 meer dan nuttig zijn.

GPT-4 Turbo is capabeler en heeft kennis van wereldgebeurtenissen tot april 2023. Het heeft een contextvenster van 128k, zodat het het equivalent van meer dan 300 pagina’s tekst in één enkele prompt kan verwerken. We hebben ook de prestaties geoptimaliseerd, zodat we GPT-4 Turbo kunnen aanbieden tegen een 3x lagere prijs voor input-tokens en een 2x lagere prijs voor output-tokens vergeleken met GPT-4.

OpenAI

GPT-4 Turbo is momenteel beschikbaar in preview-modus, maar OpenAI belooft de stabiele versie in de komende weken uit te brengen.

GPT-4 Turbo zal een verbeterde instructie volgen, en volgens OpenAI zal deze GPT-versie ook nieuwe verbeteringen bevatten voor het aanroepen van functies.

We brengen vandaag verschillende verbeteringen uit, waaronder de mogelijkheid om meerdere functies in één bericht aan te roepen: gebruikers kunnen één bericht sturen met het verzoek om meerdere acties, zoals ‘het autoraam openen en de airco uitzetten’, waarvoor voorheen meerdere handelingen nodig waren. rondreizen met het model ( lees meer ). We verbeteren ook de nauwkeurigheid van het aanroepen van functies: het is waarschijnlijker dat GPT-4 Turbo de juiste functieparameters retourneert.

OpenAI

Het model zal ook reproduceerbare resultaten kunnen opleveren, wat volgens OpenAI’s eigen woorden van onschatbare waarde is voor ontwikkelaars.

Deze bètafunctie is handig voor gebruiksscenario’s zoals het opnieuw afspelen van verzoeken voor foutopsporing, het schrijven van uitgebreidere unit-tests en het algemeen hebben van een hogere mate van controle over het modelgedrag. Wij bij OpenAI hebben deze functie intern gebruikt voor onze eigen unit-tests en hebben deze van onschatbare waarde gevonden.

OpenAI

Samen met GPT-4 Turbo komt ook GPT 3.5 Turbo, en deze zal worden uitgebracht met meerdere nieuwe functies.

De nieuwe 3.5 Turbo ondersteunt verbeterde instructievolging, JSON-modus en parallelle functieaanroepen. Uit onze interne evaluaties blijkt bijvoorbeeld dat de indeling met 38% is verbeterd na taken als het genereren van JSON, XML en YAML. Ontwikkelaars hebben toegang tot dit nieuwe model door gpt-3.5-turbo-1106 aan te roepen in de API. Applicaties die de naam gpt-3.5-turbo gebruiken, worden op 11 december automatisch geüpgraded naar het nieuwe model. Oudere modellen blijven tot 13 juni 2024 toegankelijk door gpt-3.5-turbo-0613 in de API door te geven.

OpenAI

Wat vindt u van de nieuwe GPT-4 Turbo?

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *