GPT-4 Turbo amplía la longitud del contexto a 128.000 tokens

GPT4 Turbo

OpenAI acaba de anunciar GPT-4 Turbo en su primer evento OpenAI DevDay . GPT-4 Turbo amplía la longitud del contexto a 128.000 tokens.

La compañía dice que los 128.000 tokens son comparables a un libro de 300 páginas, por lo que los usuarios ahora tendrán mucho más espacio para interactuar con ChatGPT en una sola discusión.

Si bien todavía se está desarrollando una longitud de contexto ilimitada, como cubrimos una historia a principios de este año en la que Microsoft está tratando de lograrlo, GPT-4 extender su longitud de contexto hasta tal punto será más que útil.

GPT-4 Turbo es más capaz y tiene conocimiento de los eventos mundiales hasta abril de 2023. Tiene una ventana de contexto de 128k, por lo que puede contener el equivalente a más de 300 páginas de texto en un solo mensaje. También optimizamos su rendimiento para poder ofrecer GPT-4 Turbo a un precio 3 veces más económico para los tokens de entrada y a un precio 2 veces más económico para los tokens de salida en comparación con GPT-4.

Abierto AI

GPT-4 Turbo está actualmente disponible en modo de vista previa, pero OpenAI promete lanzar su versión estable en las próximas semanas.

GPT-4 Turbo tendrá un seguimiento de instrucciones mejorado y, según OpenAI, esta versión de GPT también incluirá nuevas mejoras para la llamada de funciones.

Estamos lanzando varias mejoras hoy, incluida la capacidad de llamar a múltiples funciones en un solo mensaje: los usuarios pueden enviar un mensaje solicitando múltiples acciones, como «abrir la ventana del auto y apagar el aire acondicionado», lo que anteriormente requeriría múltiples Viajes de ida y vuelta con el modelo ( más información ). También estamos mejorando la precisión de las llamadas a funciones: es más probable que GPT-4 Turbo devuelva los parámetros de función correctos.

Abierto AI

El modelo también será capaz de generar resultados reproducibles, lo que, según las propias palabras de OpenAI, es invaluable para los desarrolladores.

Esta característica beta es útil para casos de uso como reproducir solicitudes de depuración, escribir pruebas unitarias más completas y, en general, tener un mayor grado de control sobre el comportamiento del modelo. En OpenAI hemos estado utilizando esta función internamente para nuestras propias pruebas unitarias y la hemos encontrado invaluable.

Abierto AI

Junto con GPT-4 Turbo, también llegará GPT 3.5 Turbo, y se lanzará con múltiples características nuevas.

El nuevo 3.5 Turbo admite seguimiento de instrucciones mejorado, modo JSON y llamada de funciones paralelas. Por ejemplo, nuestras evaluaciones internas muestran una mejora del 38% en el formato después de tareas como generar JSON, XML y YAML. Los desarrolladores pueden acceder a este nuevo modelo llamando a gpt-3.5-turbo-1106 en la API. Las aplicaciones que utilicen el nombre gpt-3.5-turbo se actualizarán automáticamente al nuevo modelo el 11 de diciembre. Se seguirá accediendo a los modelos más antiguos pasando gpt-3.5-turbo-0613 en la API hasta el 13 de junio de 2024.

Abierto AI

¿Qué opinas del nuevo GPT-4 Turbo?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *