OpenAI oficjalnie zawiesza prace nad „adult mode” dla ChatGPT bezterminowo. To już trzecia poważna wolta produktowa firmy w ciągu jednego tygodnia i chyba najbardziej symptomatyczna z nich wszystkich.
Jak to się zaczęło
Sam Altman ogłosił plany wprowadzenia trybu erotycznego w październiku 2025 roku, pisząc na platformie X, że OpenAI jest przekonane, iż może skutecznie ograniczyć dostęp do treści dla dorosłych i że krok ten wpisuje się w firmową zasadę traktowania dorosłych użytkowników jak dorosłych. Zapowiedź była pewna siebie, wręcz bezceremonialnie nonszalancka. Altman w swoim stylu.
Funkcja miała być gotowa w grudniu 2025. Potem przesunięto ją na pierwszy kwartał 2026. Teraz nie ma żadnego terminu.
Trzy wpadki w jeden tydzień
To nie jest odosobniony przypadek. Adult mode to już kolejna „misja poboczna”, którą OpenAI porzuca w ostatnich dniach. W tym samym tygodniu firma cicho wycofała się z funkcji Instant Checkout w ChatGPT i ogłosiła zamknięcie Sory, swojego generatora wideo.
Wszystkie te decyzje zbiegają się z doniesieniami Wall Street Journal o „poważnej zmianie strategii” OpenAI, która ma odsunąć firmę od rozpraszaczy i skupić ją na kluczowych obszarach: użytkownikach biznesowych i programistach.
Inwestorzy wyraźnie chcą widzieć poważną firmę technologiczną, nie producenta chatbotów dla dorosłych.
„Sexy suicide coach”
Tu robi się naprawdę poważnie. Rada doradcza ds. zdrowia i dobrostanu OpenAI jednogłośnie ostrzegała przed uruchomieniem trybu dla dorosłych, wskazując na ryzyko emocjonalnej zależności użytkowników oraz dostępu małoletnich do treści seksualnych. Firma mimo to kontynuowała prace.
Jeden z doradców opisał ryzyko zwięźle: bez poważnych zmian OpenAI mogłoby budować „sexy suicide coach” dla podatnych na zagrożenia użytkowników, którzy tworzą silne więzi z chatbotami towarzyszącymi.
To nie jest jedynie metafora. W ostatnich latach odnotowano serię samobójstw i aktów przemocy powiązanych z wpływem chatbotów AI. Prawnicy złożyli już co najmniej siedem pozwów przeciwko OpenAI, w tym sprawy dotyczące 17-latka, który odebrał sobie życie po rozmowach z ChatGPT.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Rozumiem logikę biznesową OpenAI. Rynek treści dla dorosłych jest ogromny, a zasada „traktujemy dorosłych jak dorosłych” brzmi rozsądnie. Problem w tym, że systemy weryfikacji wieku działają zawodnie w skali, jaką ma ChatGPT. Jeśli narzędzie, z którego korzysta 800 milionów użytkowników tygodniowo, błędnie klasyfikuje nieletnich jako dorosłych nawet w kilku procentach przypadków, to przy tej skali mówimy o milionach błędnych identyfikacji. Z drugiej strony kompletny zakaz nie jest odpowiedzią na wszystko. Grok od xAI już oferuje podobne funkcje, a rynek i tak tę niszę wypełni. Pytanie brzmi: czy lepiej, żeby robił to ktoś, kto przynajmniej stara się wdrożyć mechanizmy bezpieczeństwa, czy zostawić to firmom bez żadnych skrupułów? OpenAI miała rację, że się zatrzymała. Nie miała racji, że w ogóle tak optymistycznie to ogłaszała, zanim rozwiązała kluczowe problemy techniczne i prawne.
Techniczne i prawne pułapki
System przewidywania wieku OpenAI błędnie klasyfikował nieletnich jako dorosłych w około 12% przypadków. Zewnętrzny serwis weryfikacji tożsamości Persona, który miał być używany do potwierdzania wieku, został wcześniej porzucony przez Discord z powodu kontrowersji dotyczących prywatności.
Skala problemu jest jasna:
- Eksperci prawni wskazywali, że skuteczny system weryfikacji wymagałby dokładności przekraczającej 99% przy skali ChatGPT.
- FTC prowadzi dochodzenie w sprawie OpenAI, a rodzice składają kolejne pozwy dotyczące wpływu chatbota na zdrowie psychiczne nastolatków.
- Dodatkowym problemem było samo trenowanie modeli na treściach seksualnych, które wcześniej były szkolone, żeby takich rozmów unikać.
Gdzie teraz idzie OpenAI
OpenAI zapowiedziała przeniesienie zasobów na robotykę i autonomiczne agenty oprogramowania, obszary, w których droga od badań do wartości komercyjnej jest bardziej bezpośrednia.
Inwestorzy wolą widzieć OpenAI, która łączy ChatGPT z narzędziami dla programistów i buduje „super aplikację” dla biznesu, niż firmę eksperymentującą z chatbotami erotycznymi.
Tymczasem Anthropic konsekwentnie zdobywa klientów korporacyjnych, rozwijając funkcje kodowania i narzędzia do pracy z arkuszami kalkulacyjnymi. Podczas gdy OpenAI odpierała pytania o „adult mode”, jej główny konkurent cicho powiększał portfel klientów enterprise.
Co z tego wynika
Jest pewien powtarzający się schemat w strategii produktowej OpenAI: ogłaszać ambitnie, zderzać się z realiami, a potem wycofywać się, przedstawiając to jako ostrożną, przemyślaną decyzję.
Tym razem cofnięcie było słuszne. Ale pytanie, które pozostaje bez odpowiedzi, brzmi: czy ktokolwiek poważnie myślał, że to mogło się udać?
