OpenAI oficjalnie uruchomiło GPT-4.1 rodzina modeli, obejmująca GPT-4.1, GPT-4.1 mini i GPT-4.1 nano za pośrednictwem platformy API. Zaprojektowane do pracy w świecie rzeczywistym, modele oferują znaczące ulepszenia w zakresie kodowania, śledzenia instrukcji i rozumienia długiego kontekstu, a jednocześnie działają przy ułamku kosztów i opóźnień poprzednich modeli.
Wprowadzenie na rynek oznacza zdecydowany krok w kierunku wycofania Podgląd GPT-4.5, a OpenAI ustaliło datę zakończenia na 14 lipca 2025 r. GPT-4.1 jest obecnie flagowym modelem firmy wyłącznie API, zapewniającym zarówno wyższą wydajność, jak i korzyści cenowe.

Nowe spojrzenie na możliwości kodowania
GPT-4.1 przewyższa wszystkie poprzednie modele GPT na SWE-bench Verified, wykonując 54.6% zadań, co stanowi 21-punktowy skok w porównaniu z GPT-4o. Model ten sprawdza się w inżynierii oprogramowania w świecie rzeczywistym, szczególnie podczas edycji dużych plików kodu lub generowania poprawek w formacie diff.
Testy porównawcze, takie jak poliglot Aidera, potwierdzają sprawność GPT-4.1 w zadaniach kodowania wielojęzycznego. Model ten osiągnął dokładność ponad 52% w generowaniu różnic, podwajając wynik GPT-4o i pokonując GPT-4.5. Programiści mogą również skorzystać z rozszerzonych limitów tokenów wyjściowych (do 32,768 XNUMX tokenów) i używać zoptymalizowanych podpowiedzi, aby przyspieszyć cykle iteracji.
„GPT-4.1 oferuje inżynierom zupełnie nowe możliwości, zwłaszcza w zakresie debugowania, refaktoryzacji i generowania kodu w czasie rzeczywistym” — powiedział programista z firmy Windsurf, jednego z partnerów wersji alfa OpenAI.
Lepsze przestrzeganie instrukcji i wierność reakcji
Z wynikiem 38.3% ScaleW teście MultiChallenge o 10.5% wyższym niż GPT-4o, GPT-4.1 wyróżnia się lepszym zrozumieniem niuansów instrukcji wieloetapowych. W testach śledzenia instrukcji OpenAI odnotował 49.1% dokładności w przypadku twardych monitów, znacznie wyprzedzając konkurentów.
Możliwość analizowania i wykonywania uporządkowanych, warunkowych i specyficznych dla formatu instrukcji przez ten model sprawia, że jest on niezwykle skuteczny w zastosowaniach korporacyjnych, np. w zakresie zgodności z przepisami podatkowymi (co widać w przypadku Blue J) i w zapytaniach do baz danych (co potwierdza wydajność w Hex).
Rewolucyjny długi kontekst: do 1 miliona tokenów
GPT-4.1 wprowadza zmieniające grę okno kontekstowe do 1 miliona tokenów, mniej więcej wielkości ośmiu pełnych baz kodu React. Dzięki nowym ocenom, takim jak OpenAI-MRCR i Graphwalks, GPT-4.1 udowodnił, że jest zdolny zarówno do pobierania, jak i rozumowania wieloskokowego w rozległych dokumentach, przewyższając GPT-4o we wszystkich pozycjach i testach.
Partnerzy, tacy jak Thomson Reuters i Carlyle, odnotowują znaczną poprawę dokładności i analizy dokumentów, od skomplikowanych procesów prawnych po wyodrębnianie danych finansowych z plików wieloformatowych.
„GPT-4.1 pozwala nam przetwarzać umowy prawne oparte na dziesiątkach dokumentów przy minimalnym nadzorze” — zauważył przedstawiciel Thomson Reuters.
Mini i Nano: wydajność na granicy szybkości i kosztów
- GPT-4.1 mini dorównuje inteligencją GPT-4o, ale zmniejsza opóźnienia o prawie połowę i koszty o 83%.
- GPT-4.1 nano to najszybszy i najtańszy jak dotąd model, idealny do zadań klasyfikacji i automatycznego uzupełniania, z imponującymi wynikami: 80.1% w teście MMLU i 50.3% w teście GPQA.
Modele te zapewniają wysoką wydajność na dużą skalę, obsługując do 1 miliona kontekstów tokenów i zapewniając czas reakcji wynoszący zaledwie 5 sekund w przypadku dużych monitów.
Ulepszone zrozumienie multimodalne i wizualne
Wizualne testy porównawcze również wykazują znaczną poprawę. W testach takich jak MMMU i MathVista, GPT-4.1 mini i nano pokonują GPT-4o, a nawet rywalizują z GPT-4.5. Modele te doskonale interpretują wykresy, diagramy matematyczne i prace naukowe, co jest kluczowe dla przypadków użycia w edukacji, badaniach i analityce.
Ceny i dostępność
Cała seria GPT-4.1 jest teraz dostępna w API OpenAI, w tym przez API Batch z dodatkowym 50% rabatem. Oto podział cen na 1 milion tokenów:
| Model | Wkład | Dane wejściowe w pamięci podręcznej | Wydajność | Ceny mieszane |
|---|---|---|---|---|
| GPT-4.1 | $2.00 | $0.50 | $8.00 | $1.84 |
| GPT-4.1 mini | $0.40 | $0.10 | $1.60 | $0.42 |
| GPT-4.1 nano | $0.10 |
Zniżki za szybkie buforowanie wzrosły do 75%, co pozwala programistom optymalizować zarówno wydajność, jak i koszty.
Co dalej?
Dzięki ulepszeniom GPT-4.1 w zakresie generowania kodu, rozumowania w długim kontekście, śledzenia instrukcji i wizji, OpenAI otwiera drogę do bardziej solidnych aplikacji agentowych. Firma planuje kontynuować włączanie wniosków z GPT-4.5 i wcześniejszych iteracji do swojego rozwijającego się zestawu modeli.
Wraz z zakończeniem obsługi wersji zapoznawczej standardu GPT-4.5 deweloperzy są zachęcani do migracji swoich obciążeń do standardu GPT-4.1, aby skorzystać z jego rozszerzonych możliwości i niższych kosztów operacyjnych.
„GPT-4.1 to praktyczny skok w dziedzinie sztucznej inteligencji, na który czekaliśmy” – powiedział menedżer produktu w Qodo„Jest inteligentniejszy, szybszy i bardziej dostosowany do wyzwań, z którymi mierzą się dziś programiści”.