OpenAI wprowadza API GPT-4.1 z przełomowymi funkcjami

Kwiecień 15, 2025

OpenAI oficjalnie uruchomiło GPT-4.1 rodzina modeli, obejmująca GPT-4.1, GPT-4.1 mini i GPT-4.1 nano za pośrednictwem platformy API. Zaprojektowane do pracy w świecie rzeczywistym, modele oferują znaczące ulepszenia w zakresie kodowania, śledzenia instrukcji i rozumienia długiego kontekstu, a jednocześnie działają przy ułamku kosztów i opóźnień poprzednich modeli.

Wprowadzenie na rynek oznacza zdecydowany krok w kierunku wycofania Podgląd GPT-4.5, a OpenAI ustaliło datę zakończenia na 14 lipca 2025 r. GPT-4.1 jest obecnie flagowym modelem firmy wyłącznie API, zapewniającym zarówno wyższą wydajność, jak i korzyści cenowe.

GPT-4.1

Nowe spojrzenie na możliwości kodowania

GPT-4.1 przewyższa wszystkie poprzednie modele GPT na SWE-bench Verified, wykonując 54.6% zadań, co stanowi 21-punktowy skok w porównaniu z GPT-4o. Model ten sprawdza się w inżynierii oprogramowania w świecie rzeczywistym, szczególnie podczas edycji dużych plików kodu lub generowania poprawek w formacie diff.

Testy porównawcze, takie jak poliglot Aidera, potwierdzają sprawność GPT-4.1 w zadaniach kodowania wielojęzycznego. Model ten osiągnął dokładność ponad 52% w generowaniu różnic, podwajając wynik GPT-4o i pokonując GPT-4.5. Programiści mogą również skorzystać z rozszerzonych limitów tokenów wyjściowych (do 32,768 XNUMX tokenów) i używać zoptymalizowanych podpowiedzi, aby przyspieszyć cykle iteracji.

„GPT-4.1 oferuje inżynierom zupełnie nowe możliwości, zwłaszcza w zakresie debugowania, refaktoryzacji i generowania kodu w czasie rzeczywistym” — powiedział programista z firmy Windsurf, jednego z partnerów wersji alfa OpenAI.

Lepsze przestrzeganie instrukcji i wierność reakcji

Z wynikiem 38.3% ScaleW teście MultiChallenge o 10.5% wyższym niż GPT-4o, GPT-4.1 wyróżnia się lepszym zrozumieniem niuansów instrukcji wieloetapowych. W testach śledzenia instrukcji OpenAI odnotował 49.1% dokładności w przypadku twardych monitów, znacznie wyprzedzając konkurentów.

Możliwość analizowania i wykonywania uporządkowanych, warunkowych i specyficznych dla formatu instrukcji przez ten model sprawia, że ​​jest on niezwykle skuteczny w zastosowaniach korporacyjnych, np. w zakresie zgodności z przepisami podatkowymi (co widać w przypadku Blue J) i w zapytaniach do baz danych (co potwierdza wydajność w Hex).

Rewolucyjny długi kontekst: do 1 miliona tokenów

GPT-4.1 wprowadza zmieniające grę okno kontekstowe do 1 miliona tokenów, mniej więcej wielkości ośmiu pełnych baz kodu React. Dzięki nowym ocenom, takim jak OpenAI-MRCR i Graphwalks, GPT-4.1 udowodnił, że jest zdolny zarówno do pobierania, jak i rozumowania wieloskokowego w rozległych dokumentach, przewyższając GPT-4o we wszystkich pozycjach i testach.

Partnerzy, tacy jak Thomson Reuters i Carlyle, odnotowują znaczną poprawę dokładności i analizy dokumentów, od skomplikowanych procesów prawnych po wyodrębnianie danych finansowych z plików wieloformatowych.

„GPT-4.1 pozwala nam przetwarzać umowy prawne oparte na dziesiątkach dokumentów przy minimalnym nadzorze” — zauważył przedstawiciel Thomson Reuters.

Mini i Nano: wydajność na granicy szybkości i kosztów

  • GPT-4.1 mini dorównuje inteligencją GPT-4o, ale zmniejsza opóźnienia o prawie połowę i koszty o 83%.
  • GPT-4.1 nano to najszybszy i najtańszy jak dotąd model, idealny do zadań klasyfikacji i automatycznego uzupełniania, z imponującymi wynikami: 80.1% w teście MMLU i 50.3% w teście GPQA.

Modele te zapewniają wysoką wydajność na dużą skalę, obsługując do 1 miliona kontekstów tokenów i zapewniając czas reakcji wynoszący zaledwie 5 sekund w przypadku dużych monitów.

Ulepszone zrozumienie multimodalne i wizualne

Wizualne testy porównawcze również wykazują znaczną poprawę. W testach takich jak MMMU i MathVista, GPT-4.1 mini i nano pokonują GPT-4o, a nawet rywalizują z GPT-4.5. Modele te doskonale interpretują wykresy, diagramy matematyczne i prace naukowe, co jest kluczowe dla przypadków użycia w edukacji, badaniach i analityce.

Ceny i dostępność

Cała seria GPT-4.1 jest teraz dostępna w API OpenAI, w tym przez API Batch z dodatkowym 50% rabatem. Oto podział cen na 1 milion tokenów:

Model Wkład Dane wejściowe w pamięci podręcznej Wydajność Ceny mieszane
GPT-4.1 $2.00 $0.50 $8.00 $1.84
GPT-4.1 mini $0.40 $0.10 $1.60 $0.42
GPT-4.1 nano $0.10

Zniżki za szybkie buforowanie wzrosły do ​​75%, co pozwala programistom optymalizować zarówno wydajność, jak i koszty.

Co dalej?

Dzięki ulepszeniom GPT-4.1 w zakresie generowania kodu, rozumowania w długim kontekście, śledzenia instrukcji i wizji, OpenAI otwiera drogę do bardziej solidnych aplikacji agentowych. Firma planuje kontynuować włączanie wniosków z GPT-4.5 i wcześniejszych iteracji do swojego rozwijającego się zestawu modeli.

Wraz z zakończeniem obsługi wersji zapoznawczej standardu GPT-4.5 deweloperzy są zachęcani do migracji swoich obciążeń do standardu GPT-4.1, aby skorzystać z jego rozszerzonych możliwości i niższych kosztów operacyjnych.

„GPT-4.1 to praktyczny skok w dziedzinie sztucznej inteligencji, na który czekaliśmy” – powiedział menedżer produktu w Qodo„Jest inteligentniejszy, szybszy i bardziej dostosowany do wyzwań, z którymi mierzą się dziś programiści”.