OpenAI wprowadza GPT‑4.1 — nową rodzinę modeli zoptymalizowanych pod kątem kodowania i zadań z długim kontekstem

OpenAI wprowadza GPT‑4.1 — nową rodzinę modeli zoptymalizowanych pod kątem kodowania i zadań z długim kontekstem

OpenAI udostępniła trzy nowe modele językowe w API: GPT‑4.1, GPT‑4.1 mini oraz GPT‑4.1 nano. Wszystkie obsługują kontekst o długości do 1 miliona tokenów i oferują istotne usprawnienia w zakresie pisania kodu, rozumienia długiego kontekstu oraz przestrzegania instrukcji. Modele nie są dostępne w ChatGPT, ale można je wykorzystać w aplikacjach poprzez interfejs API.

Zoptymalizowane do pracy z kodem i precyzyjnych instrukcji

GPT‑4.1 uzyskuje 54,6% skuteczności w teście SWE-bench Verified, co oznacza znaczną poprawę w porównaniu do GPT‑4o i GPT‑4.5. W testach modyfikacji kodu model wprowadza mniej zbędnych zmian i trafniej przestrzega oczekiwanych struktur różnic (diff). W ocenie projektów stron internetowych przygotowanych przez model, płatni recenzenci preferowali wersje stworzone przez GPT‑4.1 w 80% przypadków.

Pod względem przestrzegania złożonych instrukcji model osiąga 38,3% w benchmarku MultiChallenge, co stanowi wzrost o 10,5 punktu procentowego względem GPT‑4o. Ulepszono także odporność na nadmierną pewność siebie i dokładność śledzenia wieloetapowych poleceń.

Milion tokenów kontekstu i praktyczne zastosowania

Wszystkie modele z serii GPT‑4.1 obsługują do 1 miliona tokenów kontekstu, co pozwala analizować obszerne zbiory dokumentów lub repozytoria kodu. W benchmarku Video-MME model osiągnął 72% skuteczności w kategorii „długie wideo bez napisów”. W wewnętrznych testach OpenAI model potrafił skutecznie wyszukiwać potrzebne dane rozproszone po całym kontekście.

Wersje mini i nano oferują mniejsze zużycie zasobów i niższe opóźnienia. GPT‑4.1 nano osiąga 80,1% w teście MMLU i przewyższa GPT‑4o mini pod względem wydajności, będąc jednocześnie najtańszym modelem OpenAI.

Nowe możliwości i ceny API

GPT‑4.1 dostępny jest wyłącznie poprzez API. Jego ceny wynoszą odpowiednio: $2 za milion tokenów wejściowych i $8 za wyjściowych; wersja mini kosztuje $0,40 / $1,60; nano – $0,10 / $0,40. 

https://openai.com/index/gpt-4-1/
https://openai.com/index/gpt-4-1/

Wersje 4.1 stanowią bezpośrednie rozwinięcie GPT‑4.5, który zostanie wycofany z API w lipcu 2025 roku. Wg OpenAI, GPT‑4.1 zapewnia lepsze lub porównywalne wyniki przy niższych kosztach i opóźnieniach. Modele te zaprojektowano jako podstawę do tworzenia autonomicznych agentów AI wspierających zadania inżynierskie, obsługę klienta czy przetwarzanie danych prawnych.

Avatar
Kwi 29

OpenAI wprowadza zakupy w ChatGPT, konkurując z Google

OpenAI ogłosiło uruchomienie nowej funkcji zakupowej w ChatGPT – informuje TechCrunch. Użytkownicy mogą teraz wyszukiwać produkty, przeglądać rekomendacje oparte na recenzjach i opinii innych użytkowników, a następnie przechodzić bezpośrednio na strony sprzedawców w celu finalizacji zakupu. Funkcja jest dostępna zarówno dla użytkowników zalogowanych, jak i niezalogowanych, na całym świecie.
0
Lip 14

Grok 4 debiutuje dzień po incydencie z treściami nazistowskimi. xAI zapowiada agentowe modele i nowe funkcje

Firma xAI zaprezentowała dwa nowe modele — Grok 4 oraz Grok 4 Heavy — zaledwie dzień po tym, jak chatbot Grok wygenerował na platformie X odpowiedzi zawierające antysemickie odniesienia. Według xAI wersja Heavy korzysta z architektury multi-agentowej, w której wiele instancji modelu analizuje zapytanie równolegle, a następnie porównuje wyniki przed udzieleniem odpowiedzi. To podejście, określane jako test-time compute scaling, zwiększa wykorzystanie mocy obliczeniowej podczas wnioskowania.
0
Sie 26

Google wprowadza obowiązkową weryfikację deweloperów aplikacji na Androida od 2026 roku

Od 2026 roku instalacja aplikacji na certyfikowanych urządzeniach z Androidem będzie możliwa wyłącznie wtedy, gdy ich twórcy przejdą oficjalną weryfikację dewelopera. Zmiana obejmie nie tylko aplikacje pobierane z Google Play, ale także wszystkie programy instalowane z plików APK, tzw. sideloading.
0

Ta strona używa plików cookie, aby zapewnić Ci lepsze wrażenia podczas przeglądania.

Dowiedz się więcej o tym, jak używamy plików cookie i jak zmienić preferencje dotyczące plików cookie w naszej Polityka plików cookie.

Zmień ustawienia
Zapisz Akceptuj wszystkie cookies