OpenAI ogranicza losowe odniesienia do goblinów w Codexie
OpenAI dodała do instrukcji Codex CLI ograniczenie, zgodnie z którym model nie powinien wspominać o goblinach, gremlinach, szopach, trollach, ograch, gołębiach ani innych zwierzętach lub stworzeniach, jeśli nie jest to „absolutnie i jednoznacznie” związane z pytaniem użytkownika, – informuje WIRED. Zapis dotyczy Codex CLI, czyli narzędzia CLI do pracy z kodem przy użyciu AI.
Skąd wzięło się ograniczenie dotyczące goblinów
Nietypowy zapis przyciągnął uwagę nie tylko ze względu na samą treść, ale też dlatego, że według Business Insidera podobna instrukcja pojawia się w kodzie cztery razy. OpenAI próbowała w ten sposób ograniczyć sytuacje, w których GPT-5.5 dodawał do technicznych odpowiedzi przypadkowe określenia związane z goblinami, gremlinami lub innymi stworzeniami.
Business Insider przytacza przykłady odpowiedzi GPT-5.5, w których pojawiały się frazy takie jak „filthy neon sparkle goblin mode”, „goblin bandwidth” oraz „an even shorter goblin version”. W innym przykładzie model użył określenia „perf gremlin” przy opisie działania procesu. W narzędziu przeznaczonym do pracy z kodem takie dodatki nie pomagały w zrozumieniu błędu ani w wykonaniu zadania programistycznego.
OpenAI wskazuje na wpływ osobowości „Nerdy”
OpenAI opublikowała osobne wyjaśnienie zatytułowane „Where the goblins came from”. Firma napisała, że pierwsze wyraźne sygnały tego zachowania zauważyła w listopadzie, po uruchomieniu GPT-5.1. Użytkownicy zwracali wtedy uwagę, że model brzmi w rozmowach zbyt swobodnie, dlatego OpenAI sprawdziła także powtarzające się słowa i określenia pojawiające się w odpowiedziach.
Po analizie danych firma ustaliła, że po premierze GPT-5.1 użycie słowa „goblin” w ChatGPT wzrosło o 175%, a „gremlin” — o 52%. Przy GPT-5.4 OpenAI odnotowała większy wzrost takich odniesień i powiązała go z osobowością „Nerdy”. Według danych ta osobowość odpowiadała za 2,5% wszystkich odpowiedzi ChatGPT, ale za 66,7% przypadków użycia słowa „goblin”.
OpenAI ustaliła też, że odpowiedzi zawierające słowa „goblin” lub „gremlin” częściej otrzymywały wyższą ocenę podczas trenowania wariantu „Nerdy”. Firma wycofała ten wariant w marcu, po uruchomieniu GPT-5.4. Z procesu trenowania usunięto mechanizm sprzyjający takim odpowiedziom, a dane zawierające słowa związane ze stworzeniami były filtrowane.
Dlaczego problem wrócił w GPT-5.5
GPT-5.5 zaczęto trenować, zanim OpenAI ustaliła przyczynę tego zachowania. Gdy model trafił do testów w Codexie, pracownicy OpenAI ponownie zauważyli skłonność do takich sformułowań i dodali instrukcję, która miała ograniczyć ten efekt.
Według OpenAI ta sytuacja pokazuje, że sposób oceniania odpowiedzi może wpływać na zachowanie modelu w nieoczekiwany sposób. Styl utrwalony w jednym wariancie, w tym przypadku w „Nerdy”, może później pojawić się w innym kontekście, zwłaszcza jeśli wygenerowane odpowiedzi trafiają do danych używanych podczas dalszego trenowania.
W przypadku Codexu problem był widoczny w narzędziu do pracy z kodem. Użytkownik oczekuje tam zwykle technicznej odpowiedzi, a nie dodatkowych określeń stylistycznych. Dlatego ograniczenie w instrukcjach nie dotyczy samego słowa „goblin”, lecz ograniczenia przypadkowych nawiązań, które nie pomagają w rozwiązaniu zadania programistycznego.