OpenAI wierzy, że w końcu objęło prowadzenie w jednym z najchętniej obserwowanych wyścigów w dziedzinie sztucznej inteligencji: kodowaniu opartym na sztucznej inteligencji. Jego najnowszy model, GPT-5.3-Codex, stanowi solidną przewagę nad konkurencyjnymi systemami, wykazując zauważalnie wyższą wydajność w testach porównawczych kodowania i raportowanych wynikach niż poprzednie generacje modeli OpenAI i Anthropic, co sugeruje długo poszukiwaną przewagę w tej kategorii, która może zmienić sposób tworzenia oprogramowania.
Jednak firma wdraża ten model z niezwykle rygorystyczną kontrolą i opóźnia pełny dostęp programistów, stając w obliczu trudniejszej rzeczywistości: te same możliwości, które sprawiają, że GPT-5.3-Codex jest tak skuteczny w pisaniu, testowaniu i wnioskowaniu o kodzie, również budzą poważne obawy dotyczące cyberbezpieczeństwa. W wyścigu o zbudowanie najpotężniejszego modelu kodowania OpenAI podjęło ryzyko bezpośredniego uruchomienia go.
GPT-5.3-Codex jest dostępny dla płatnych użytkowników ChatGPT, którzy mogą używać modelu do codziennych zadań związanych z tworzeniem oprogramowania, takich jak pisanie, debugowanie i testowanie kodu za pośrednictwem narzędzi Codex OpenAI i interfejsu ChatGPT. Jednak na razie firma nie zapewnia nieograniczonego dostępu do zastosowań związanych z cyberbezpieczeństwem wysokiego ryzyka, a OpenAI nie umożliwi od razu pełnego dostępu do API, który umożliwiłby automatyzację modelu na dużą skalę. Te bardziej wrażliwe aplikacje są chronione dodatkowymi zabezpieczeniami, w tym nowym programem zaufanego dostępu dla sprawdzonych specjalistów ds. bezpieczeństwa, co odzwierciedla opinię OpenAI, że model przekroczył nowy próg ryzyka cyberbezpieczeństwa.
W poście na blogu firmy towarzyszącym czwartkowej premierze modelu napisano, że chociaż „nie ma ostatecznych dowodów” na to, że nowy model może w pełni zautomatyzować cyberataki, „stosujemy podejście zapobiegawcze i wdrażamy nasz najbardziej wszechstronny jak dotąd zestaw zabezpieczeń cyberbezpieczeństwa. Nasze środki zaradcze obejmują szkolenia w zakresie bezpieczeństwa, automatyczne monitorowanie, zaufany dostęp do zaawansowanych funkcji oraz kanały egzekwowania prawa obejmujące analizę zagrożeń”. Dyrektor generalny OpenAI, Sam Altman, opublikował post Innymi słowy, jest to pierwszy model, który OpenAI uważa za wystarczająco dobry w kodowaniu i rozumowaniu, aby w znaczący sposób umożliwić rzeczywiste szkody cybernetyczne, zwłaszcza jeśli są zautomatyzowane lub stosowane na dużą skalę.
Ta historia pierwotnie ukazała się na Fortune.com.

