GPT-4 Turbo zwiększa długość kontekstu do 128 000 tokenów

GPT4 Turbo

OpenAI właśnie ogłosiło GPT-4 Turbo podczas swojego pierwszego w historii wydarzenia OpenAI DevDay . GPT-4 Turbo zwiększa długość kontekstu do 128 000 tokenów.

Firma twierdzi, że 128 000 tokenów można porównać do 300-stronicowej książki, dzięki czemu użytkownicy będą mieli teraz znacznie więcej miejsca na interakcję z ChatGPT w ramach jednej dyskusji.

Chociaż nieograniczona długość kontekstu jest wciąż w fazie rozwoju, jak pisaliśmy na początku tego roku, gdy Microsoft próbował to osiągnąć, wydłużenie długości kontekstu GPT-4 do takiego stopnia będzie więcej niż przydatne.

GPT-4 Turbo ma większe możliwości i dysponuje wiedzą na temat wydarzeń na świecie do kwietnia 2023 r. Posiada okno kontekstowe o wielkości 128 tys., dzięki czemu w jednym wierszu mieści się równowartość ponad 300 stron tekstu. Zoptymalizowaliśmy także jego wydajność, dzięki czemu jesteśmy w stanie zaoferować GPT-4 Turbo po 3x niższej cenie za tokeny wejściowe i 2x tańszej cenie za tokeny wyjściowe w porównaniu do GPT-4.

OpenAI

GPT-4 Turbo jest obecnie dostępny w trybie podglądu, ale OpenAI obiecuje wypuścić jego stabilną wersję w nadchodzących tygodniach.

GPT-4 Turbo będzie miał ulepszone instrukcje, a według OpenAI ta wersja GPT będzie również zawierać nowe ulepszenia w zakresie wywoływania funkcji.

Dzisiaj udostępniamy kilka ulepszeń, w tym możliwość wywoływania wielu funkcji w jednej wiadomości: użytkownicy mogą wysłać jedną wiadomość z prośbą o wiele działań, takich jak „otwarcie okna samochodu i wyłączenie klimatyzacji”, co wcześniej wymagało wielu wycieczki w obie strony z modelem ( dowiedz się więcej ). Poprawiamy także dokładność wywoływania funkcji: GPT-4 Turbo z większym prawdopodobieństwem zwróci właściwe parametry funkcji.

OpenAI

Model będzie także umożliwiał reprodukcję wyników, co według słów samego OpenAI jest nieocenione dla programistów.

Ta funkcja beta jest przydatna w przypadkach użycia, takich jak ponowne odtwarzanie żądań debugowania, pisanie bardziej kompleksowych testów jednostkowych i ogólnie posiadanie wyższego stopnia kontroli nad zachowaniem modelu. W OpenAI używamy tej funkcji wewnętrznie do naszych własnych testów jednostkowych i uznaliśmy ją za bezcenną.

OpenAI

Wraz z GPT-4 Turbo nadchodzi także GPT 3.5 Turbo, który zostanie wydany z wieloma nowymi funkcjami.

Nowa wersja 3.5 Turbo obsługuje ulepszone wykonywanie instrukcji, tryb JSON i równoległe wywoływanie funkcji. Na przykład nasze wewnętrzne oceny wykazują 38% poprawę formatu po zadaniach takich jak generowanie JSON, XML i YAML. Programiści mogą uzyskać dostęp do tego nowego modelu, wywołując gpt-3.5-turbo-1106 w interfejsie API. Aplikacje korzystające z nazwy gpt-3.5-turbo zostaną automatycznie zaktualizowane do nowego modelu 11 grudnia. Starsze modele będą nadal dostępne po przekazaniu gpt-3.5-turbo-0613 w API do 13 czerwca 2024 r.

OpenAI

Jakie są Twoje przemyślenia na temat nowego GPT-4 Turbo?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *