[NEW] Szukaj pracy anonimowo — sprawdź szczegóły
Close
OpenAI wprowadza GPT‑4.1 — nową rodzinę modeli zoptymalizowanych pod kątem kodowania i zadań z długim kontekstem

OpenAI wprowadza GPT‑4.1 — nową rodzinę modeli zoptymalizowanych pod kątem kodowania i zadań z długim kontekstem

OpenAI udostępniła trzy nowe modele językowe w API: GPT‑4.1, GPT‑4.1 mini oraz GPT‑4.1 nano. Wszystkie obsługują kontekst o długości do 1 miliona tokenów i oferują istotne usprawnienia w zakresie pisania kodu, rozumienia długiego kontekstu oraz przestrzegania instrukcji. Modele nie są dostępne w ChatGPT, ale można je wykorzystać w aplikacjach poprzez interfejs API.

Zoptymalizowane do pracy z kodem i precyzyjnych instrukcji

GPT‑4.1 uzyskuje 54,6% skuteczności w teście SWE-bench Verified, co oznacza znaczną poprawę w porównaniu do GPT‑4o i GPT‑4.5. W testach modyfikacji kodu model wprowadza mniej zbędnych zmian i trafniej przestrzega oczekiwanych struktur różnic (diff). W ocenie projektów stron internetowych przygotowanych przez model, płatni recenzenci preferowali wersje stworzone przez GPT‑4.1 w 80% przypadków.

Pod względem przestrzegania złożonych instrukcji model osiąga 38,3% w benchmarku MultiChallenge, co stanowi wzrost o 10,5 punktu procentowego względem GPT‑4o. Ulepszono także odporność na nadmierną pewność siebie i dokładność śledzenia wieloetapowych poleceń.

Milion tokenów kontekstu i praktyczne zastosowania

Wszystkie modele z serii GPT‑4.1 obsługują do 1 miliona tokenów kontekstu, co pozwala analizować obszerne zbiory dokumentów lub repozytoria kodu. W benchmarku Video-MME model osiągnął 72% skuteczności w kategorii „długie wideo bez napisów”. W wewnętrznych testach OpenAI model potrafił skutecznie wyszukiwać potrzebne dane rozproszone po całym kontekście.

Wersje mini i nano oferują mniejsze zużycie zasobów i niższe opóźnienia. GPT‑4.1 nano osiąga 80,1% w teście MMLU i przewyższa GPT‑4o mini pod względem wydajności, będąc jednocześnie najtańszym modelem OpenAI.

Nowe możliwości i ceny API

GPT‑4.1 dostępny jest wyłącznie poprzez API. Jego ceny wynoszą odpowiednio: $2 za milion tokenów wejściowych i $8 za wyjściowych; wersja mini kosztuje $0,40 / $1,60; nano – $0,10 / $0,40. 

https://openai.com/index/gpt-4-1/
https://openai.com/index/gpt-4-1/

Wersje 4.1 stanowią bezpośrednie rozwinięcie GPT‑4.5, który zostanie wycofany z API w lipcu 2025 roku. Wg OpenAI, GPT‑4.1 zapewnia lepsze lub porównywalne wyniki przy niższych kosztach i opóźnieniach. Modele te zaprojektowano jako podstawę do tworzenia autonomicznych agentów AI wspierających zadania inżynierskie, obsługę klienta czy przetwarzanie danych prawnych.

Avatar
Sty 13

BATMMAAN — nowy akronim zamiast FAANG

FAANG i MANGA odchodzą w cień, a na ich miejsce pojawił się nowy akronim — BATMMAAN. Czy w Waszej głowie pojawiło się logo czarnego nietoperza na żółtym tle? Niestety lub na szczęście, ten akronim nie ma nic wspólnego ze znanym superbohaterem.
0
Maj 19

Xiaomi zainwestuje 7 mld dolarów w rozwój własnych chipów do 2035 roku

Xiaomi ogłosiło, że w ciągu najbliższych dziesięciu lat planuje zainwestować co najmniej 50 miliardów juanów (około 6,9 miliarda dolarów) w rozwój własnych mobilnych procesorów. Informację potwierdził współzałożyciel firmy Lei Jun w poście na platformie Weibo, na który powołuje się Bloomberg.
0
Kwi 18

OpenAI uruchamia Flex – tańszy tryb API w zamian za wolniejsze działanie

OpenAI zaprezentowało nową opcję korzystania z modeli sztucznej inteligencji, która pozwala obniżyć koszty obsługi zadań asynchronicznych i testowych. Tryb Flex, dostępny w wersji beta, zapewnia niższe opłaty za przetwarzanie, oferując jednak wolniejszy czas odpowiedzi oraz ryzyko czasowej niedostępności zasobów. Rozwiązanie jest skierowane do projektów, które nie wymagają natychmiastowych rezultatów, np. podczas ewaluacji modeli czy wzbogacania zbiorów danych.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies