GPT-4 Turbo étend la longueur du contexte à 128 000 jetons

GPT-4 Turbo étend la longueur du contexte à 128 000 jetons
GPT4 Turbo

OpenAI vient d’annoncer GPT-4 Turbo, lors de son tout premier événement OpenAI DevDay . GPT-4 Turbo étend la longueur du contexte à 128 000 jetons.

La société affirme que les 128 000 jetons sont comparables à un livre de 300 pages, de sorte que les utilisateurs disposeront désormais de beaucoup plus d’espace pour interagir avec ChatGPT au cours d’une seule discussion.

Bien que la longueur illimitée du contexte soit encore en développement, comme nous l’avons évoqué plus tôt cette année dans lequel Microsoft tente d’y parvenir, GPT-4 étendant la longueur de son contexte à un tel degré sera plus qu’utile.

GPT-4 Turbo est plus performant et connaît les événements mondiaux jusqu’en avril 2023. Il dispose d’une fenêtre contextuelle de 128 000 pages et peut donc contenir l’équivalent de plus de 300 pages de texte dans une seule invite. Nous avons également optimisé ses performances afin de pouvoir proposer GPT-4 Turbo à un prix 3 fois moins cher pour les jetons d’entrée et à un prix 2 fois moins cher pour les jetons de sortie par rapport au GPT-4.

OpenAI

GPT-4 Turbo est actuellement disponible en mode aperçu, mais OpenAI promet de sortir sa version stable dans les semaines à venir.

GPT-4 Turbo aura une suite d’instructions améliorée et, selon OpenAI, cette version GPT comportera également de nouvelles améliorations pour les appels de fonctions.

Nous publions aujourd’hui plusieurs améliorations, notamment la possibilité d’appeler plusieurs fonctions dans un seul message : les utilisateurs peuvent envoyer un message demandant plusieurs actions, telles que « ouvrir la fenêtre de la voiture et éteindre la climatisation », ce qui nécessitait auparavant plusieurs actions. allers-retours avec le modèle ( en savoir plus ). Nous améliorons également la précision des appels de fonction : GPT-4 Turbo est plus susceptible de renvoyer les bons paramètres de fonction.

OpenAI

Le modèle sera également capable de produire des résultats reproductibles, ce qui, selon les propres mots d’OpenAI, est inestimable pour les développeurs.

Cette fonctionnalité bêta est utile pour des cas d’utilisation tels que la relecture des demandes de débogage, l’écriture de tests unitaires plus complets et généralement un degré plus élevé de contrôle sur le comportement du modèle. Chez OpenAI, nous utilisons cette fonctionnalité en interne pour nos propres tests unitaires et nous l’avons trouvée inestimable.

OpenAI

Parallèlement à GPT-4 Turbo, GPT 3.5 Turbo arrive également et sera publié avec plusieurs nouvelles fonctionnalités.

Le nouveau 3.5 Turbo prend en charge un suivi d’instructions amélioré, le mode JSON et l’appel de fonctions parallèles. Par exemple, nos évaluations internes montrent une amélioration de 38 % sur le format suite à des tâches telles que la génération de JSON, XML et YAML. Les développeurs peuvent accéder à ce nouveau modèle en appelant gpt-3.5-turbo-1106 dans l’API. Les applications utilisant le nom gpt-3.5-turbo seront automatiquement mises à niveau vers le nouveau modèle le 11 décembre. Les modèles plus anciens continueront d’être accessibles en passant gpt-3.5-turbo-0613 dans l’API jusqu’au 13 juin 2024.

OpenAI

Que pensez-vous du nouveau GPT-4 Turbo ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *