GPT-4 Turbo erweitert die Kontextlänge auf 128.000 Token

GPT 4 Turbo

OpenAI hat gerade GPT-4 Turbo bei seinem allerersten OpenAI DevDay Event angekündigt . GPT-4 Turbo erweitert die Kontextlänge auf 128.000 Token.

Das Unternehmen gibt an, dass die 128.000 Token mit einem 300-seitigen Buch vergleichbar sind, sodass Benutzer jetzt viel mehr Platz haben, um in einer einzigen Diskussion mit ChatGPT zu interagieren.

Während sich eine unbegrenzte Kontextlänge noch in der Entwicklung befindet, wie wir Anfang des Jahres berichteten, in der Microsoft versucht, dies zu erreichen, wird es mehr als nützlich sein, die Kontextlänge von GPT-4 auf ein solches Maß zu erweitern.

GPT-4 Turbo ist leistungsfähiger und verfügt über Kenntnisse über Weltereignisse bis April 2023. Es verfügt über ein 128-KByte-Kontextfenster, sodass das Äquivalent von mehr als 300 Textseiten in einer einzigen Eingabeaufforderung Platz findet. Wir haben auch die Leistung optimiert, sodass wir GPT-4 Turbo im Vergleich zu GPT-4 zu einem dreifach günstigeren Preis für Eingabe-Token und einem zweifach günstigeren Preis für Ausgabe-Token anbieten können .

OpenAI

GPT-4 Turbo ist derzeit im Vorschaumodus verfügbar, OpenAI verspricht jedoch, seine stabile Version in den folgenden Wochen zu veröffentlichen.

GPT-4 Turbo wird über eine verbesserte Befehlsfolge verfügen und laut OpenAI wird diese GPT-Version auch neue Verbesserungen für Funktionsaufrufe enthalten.

Wir veröffentlichen heute mehrere Verbesserungen, darunter die Möglichkeit, mehrere Funktionen in einer einzigen Nachricht aufzurufen: Benutzer können eine Nachricht senden und mehrere Aktionen anfordern, z. B. „Öffnen Sie das Autofenster und schalten Sie die Klimaanlage aus“, wofür zuvor mehrere erforderlich waren Rundfahrten mit dem Modell ( mehr erfahren ). Wir verbessern auch die Genauigkeit von Funktionsaufrufen: GPT-4 Turbo gibt mit größerer Wahrscheinlichkeit die richtigen Funktionsparameter zurück.

OpenAI

Das Modell wird auch in der Lage sein, reproduzierbare Ausgaben zu liefern, was laut OpenAIs eigenen Worten für Entwickler von unschätzbarem Wert ist.

Diese Beta-Funktion ist nützlich für Anwendungsfälle wie das Wiederholen von Debugging-Anfragen, das Schreiben umfassenderer Komponententests und allgemein für ein höheres Maß an Kontrolle über das Modellverhalten. Wir bei OpenAI haben diese Funktion intern für unsere eigenen Unit-Tests verwendet und fanden sie von unschätzbarem Wert.

OpenAI

Neben GPT-4 Turbo kommt auch GPT 3.5 Turbo, und es wird mit mehreren neuen Funktionen veröffentlicht.

Der neue 3.5 Turbo unterstützt verbesserte Befehlsverfolgung, JSON-Modus und parallele Funktionsaufrufe. Unsere internen Auswertungen zeigen beispielsweise eine 38-prozentige Verbesserung bei Formatfolgeaufgaben wie der Generierung von JSON, XML und YAML. Entwickler können auf dieses neue Modell zugreifen, indem sie in der API gpt-3.5-turbo-1106 aufrufen. Anwendungen, die den Namen gpt-3.5-turbo verwenden, werden am 11. Dezember automatisch auf das neue Modell aktualisiert. Auf ältere Modelle kann bis zum 13. Juni 2024 weiterhin zugegriffen werden, indem gpt-3.5-turbo-0613 in der API übergeben wird.

OpenAI

Was denken Sie über den neuen GPT-4 Turbo?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert