OpenAI publikuje ambitne rekomendacje dotyczące superinteligencji, obiecując bezpieczeństwo i przejrzystość. Tego samego dnia The New Yorker ujawnia śledztwo, które każe postawić poważne pytania o wiarygodność jej CEO. Sprzeczność jest niemal nie do zaakceptowania – z jednej strony mamy wizję, z drugiej pytania bez odpowiedzi.
Wizja superinteligencji contra rzeczywistość
OpenAI ogłosiło plan polityki mającej zagwarantować, że sztuczna inteligencja będzie służyć ludzkości w momencie osiągnięcia superinteligencji. Firma obiecuje zostać „jasnowidzem” wobec ryzyk, monitorować ekstremalne scenariusze takie jak wymknięcie się AI spod kontroli czy stosowanie jej przez rządy do sabotażu demokracji.
Równocześnie „The New Yorker” opublikował masywne śledztwo, w którym redaktorzy rozmówili się z ponad 100 osobami mającymi wiedzę na temat sposobu działania CEO Sama Altmana, przejrzeli wewnętrzne memo i przeprowadzili z samym Altmanem ponad 12 wywiadów.
Wniosek? Historia, którą chcą opowiedzieć, jest daleka od komfortu.
Portret osobowości: człowiek, który wszystkim chce się spodobać
Zgodnie z relacją „The New Yorkera”, osoby z wewnątrz malują obraz Altmana jako człowieka gotowego na wszystko, aby być lubianym. Jeden z członków zarządu opisał go słowami: „posiada dwie cechy, które prawie nigdy nie przychodzą tej samej osobie. Po pierwsze, silną chęć podobania się innym, bycia lubianym w każdej interakcji. Po drugie, prawie socjopatyczną obojętność na konsekwencje płynące z oszukiwania kogoś” (Two traits that are almost never seen in the same person. The first is a strong desire to please people, to be liked in any given interaction. The second is almost a sociopathic lack of concern for the consequences that may come from deceiving someone).
Śledztwo wykazało, choć bez „palącego dowodu”, szereg incydentów dokumentujących „akumulację domniemanych oszustw i manipulacji”. Były dyrektor naukowy Ilya Sutskever i były szef badań Dario Amodei, którzy wciąż mają dostęp do wewnętrznych komunikatów, doszli do wspólnego wniosku: Altman nie stwarza bezpiecznego środowiska do pracy nad zaawansowaną AI.
Amodei napisał to wprost: „Problem OpenAI to sam Sam” (The problem with OpenAI is Sam himself).
Luka między słowami a rzeczywistością rośnie
Altman zaprzecza niektórym twierdzeniom lub twierdzi, że o nich zapomniał. Niektóre zmiany jego narracji przypisuje zmianom warunków w branży AI. Przyznaje także, że w przeszłości unikał konfliktów.
Ale jego sprzeczności stają się coraz trudniejsze do zignoowania.
Wiemy, że OpenAI odgrywa coraz większą rolę w relacjach między rządem USA a sektorem technologicznym. Wizje Altmana o superinteligencji i jej społecznych korzyściach są rzeczywiście ambitne – krótszy tydzień pracy, fundusz bogactwa publicznego, ochrona pracowników. Te pomysły zasługują na poważną dyskusję. Ale w momencie, gdy pojawiają się liczne alegacje dotyczące braku uczciwości w komunikacji i budowaniu zaufania, trudno je traktować bez dystansu. Pytanie, które powinniśmy sobie zadawać: czy te rekomendacje to rzeczywisty plan działania, czy odpowiedź na rosnącą nieufność opinii publicznej? I czy osoba, wobec której istnieją tak poważne wątpliwości dotyczące wiarygodności, powinna być architektem przyszłości superinteligencji? – Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Najwidoczniej dla publiczności, Altman niedawno zmienił retorykę. Zamiast pozycjonować OpenAI jako ochronę przed apokalipsą AI, przyjął ton „wybuchającego optimizmu”, jak relacjonuje „The New Yorker”.
Rekomendacje OpenAI – przebłaganie czy rzeczywisty plan?
Firma opublikowała polityczne rekomendacje obejmujące:
- eksperymentowanie z czterodniowym tygodniem pracy bez utraty wynagrodzenia
- utworzenie publicznego funduszu mającego dystrybucję zysków z AI do każdego obywatela
- opodatkowanie pracy automatyzowanej na rzecz programów socjalnych
- szkolenia dla pracowników przemieszczenych do sektora opieki zdrowotnej i usług społecznych
- globalną sieć do monitorowania ryzyk superinteligencji
Chris Lehane, główny dyrektor ds. relacji globalnych OpenAI, potwierdził „Wall Street Journalowi”, że firma desperacko martwi się negatywną opinią publiczną na temat AI.
Jednocześnie OpenAI uruchomiła program stypendiów i dotacji badawczych do 100 tysięcy dolarów, plus do 1 miliona dolarów kredytu API dla prac opartych na tych pomysłach.
Ale tutaj pojawia się rysa. Raport „The New Yorkera” czyni łatwiej zadawać niepokoję pytanie: czy rekomendacje to przykrywka dla rosnących obaw publicznych o bezpieczeństwo dzieci, utratę miejsc pracy czy energochłonne centra danych?
Niedawny sondaż Harvard/MIT wykazał, że największą obawą Amerykanów jest spadek jakości życia z powodu kosztów energii wymaganej do zasilania AI. Obawy te mogą przesądzić o wynikach wyborów midterm – moratorium na centra danych zyskuje poparcie.
Altman kontra rzeczywistość
Dla Altmana i jego firmy przekonanie publiczności do ich wizji AI wydaje się kluczowe, szczególnie w momencie, gdy mogą one zmienić scenę polityczną. „The New Yorker” zaznacza, że Altman prywatnie lobbuje przeciwko ostrzejszym ustawom dotyczącym bezpieczeństwa AI – tym, które mogłyby ograniczyć dominację OpenAI.
Jeden z badaczy OpenAI powiedział „The New Yorkerowi”, że obietnice Altmana czasem wydają się improwizacją, mającą przetrwać do następnego kamienia milowego. A gdy chodzi o superinteligencję – niektórzy optimistyczni eksperci szacują, że możemy być 2 lata od jej osiągnięcia – to czas dość bliski.
Altman „buduje struktury, które na papierze go ograniczają” – relacjonuje naukowiec z OpenAI. „Ale kiedy przychodzi moment, by być ograniczanym, pozbywa się tej struktury” (sets up structures that, on paper, constrain him in the future. But then, when the future comes and it comes time to be constrained, he does away with whatever the structure was).
Kryzys zaufania w momencie krytycznym
Fakt, że „The New Yorker” opisuje Altmana jako „największego sprzedawcę pokolenia” (the greatest pitchman of his generation) ma dla nas wszystkich znaczenie. Publika już zgłasza domniemane szkody z modeli OpenAI. Lawiny pozwów, relacje z rządem – wszystko to tworzy środowisko, w którym obietnice stają się tańsze.
Czasem wystarczy dwa lata. Czasem mniej.
