CEO Anthropic udzielił wywiadu indyjskiemu inwestorowi Nikkhilowi Kamathowi w podcaście WTF Is i nie gryzł się w język. Według Amodeia zbliżamy się do momentu, w którym modele AI osiągną ludzki poziom inteligencji – i mało kto zdaje sobie z tego sprawę.
„It’s as if this tsunami is coming at us, and it’s so close we can see it on the horizon” – powiedział CEO Anthropic. I dodał, że ludzie wymyślają sobie tłumaczenia, żeby nie musieć tego faktu przyjąć do wiadomości. W jego opinii społeczeństwo po prostu nie chce zobaczyć tego, co nadchodzi.
Brzmi znajomo? Bo to kolejna odsłona dobrze nam znanych apokaliptycznych przepowiedni ze Doliny Krzemowej.
Nowa retoryka, stary playbook
Amodei nie jest tu osamotniony. Sam Altman od dawna mówi wprost, że AI wyeliminuje całe kategorie zawodów. Szef AI w Microsofcie stwierdził niedawno, że praktycznie wszystkie zadania biurowe zostaną zautomatyzowane przez agentów AI w ciągu półtora roku. Sam Amodei wcześniej ostrzegał, że AI zniszczy połowę stanowisk white-collar na poziomie entry-level.
To interesujący wzorzec: liderzy firm budujących te systemy jednocześnie je sprzedają i ostrzegają przed nimi. Można to interpretować dwojako.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Rozumiem, że Amodei szczerze wierzy w to, co mówi – i być może ma rację co do skali nadchodzących zmian. Ale trudno nie zauważyć pewnej sprzeczności: firma, która zarabia na jak najszybszym rozwijaniu AI, jednocześnie ostrzega, że to AI jest największym zagrożeniem. Pytanie, które warto zadać brzmi: czy te ostrzeżenia to akt odpowiedzialności, czy raczej sprytny sposób na pozycjonowanie się jako „poważny gracz” w oczach regulatorów i opinii publicznej? Tsunami może faktycznie nadchodzić – ale czy ci, którzy je wywołują, są właściwymi osobami do zarządzania ewakuacją?
Anthropic samo tworzy tę falę
Tu dochodzimy do sedna sprawy. Niedawna premiera agenta Claude Cowork wywołała masową wyprzedaż akcji spółek technologicznych i wymazała z rynku setki miliardów dolarów. To nie jest firma, która stoi z boku i obserwuje tsunami – to firma, która je generuje.
Do tego Anthropic konsekwentnie „uczłowiecza” swoje modele:
- Claude prowadzi własnego Substacka, gdzie dzieli się swoimi „refleksjami”
- Amodei publicznie przyznaje, że nie jest pewien, czy Claude może być świadomy
- Firma regularnie sugeruje, że AGI czy nawet superinteligencja jest tuż za rogiem
Każdy z tych ruchów wzmacnia narrację o nieuchronnym rozwoju AI. Co z kolei napędza wyceny, przyciąga inwestorów i uzasadnia kolejne rundy finansowania.
Bezpieczeństwo? To zależy od definicji
Tydzień temu Anthropic porzucił jedną ze swoich kluczowych deklaracji bezpieczeństwa – tę, która mówiła, że firma nie będzie trenować ani wypuszczać modeli, dla których nie może zagwarantować odpowiednich zabezpieczeń. To była, umownie, główna obietnica całego projektu Anthropic.
Decyzja zapadła pod presją Pentagonu, który zagroził zerwaniem kontraktu wartego 200 milionów dolarów, jeśli firma nie zluzuje ograniczeń dotyczących militarnego zastosowania Claude’a.
I w tym samym tygodniu Amodei mówi w podcaście: „There hasn’t been an appropriate realization of the risks of the technology, and there certainly hasn’t been action.”
Trudno o bardziej wymowne zestawienie.
Co z tego wynika?
Może Amodei ma rację i rzeczywiście zbliżamy się do przełomowego momentu w historii AI. Może transformacja rynku pracy będzie tak gwałtowna, że faktycznie nikt nie jest na nią gotowy. Ale warto pamiętać, że prognozy o tsunami, które „jest już na horyzoncie” – słyszymy od lat. Sześć miesięcy temu ten sam Amodei twierdził, że za sześć miesięcy AI będzie pisać 90% kodu. Minęło sześć miesięcy.
Fala może nadchodzić. Ale może warto oceniać jej siłę na podstawie tego, co firmy AI robią – a nie tylko tego, co mówią.
