Sullivan & Cromwell, jedna z najbardziej prestiżowych i dochodowych kancelarii prawnych na świecie, trafiła do nieformalnej „Hall of Shame” – listy kancelarii, które złożyły w sądzie pisma procesowe zawierające błędy wygenerowane przez AI. Ironie tego zdarzenia są co najmniej dwie, i obie są naprawdę grube.
Trzy strony błędów, zapisane pojedynczą interlinią
W sobotę, 18 kwietnia 2026 roku, Andrew Dietderich – założyciel i współszef globalnej grupy restrukturyzacyjnej S&C – wysłał list do sędziego Martina Glenna z federalnego sądu upadłościowego w Nowym Jorku. Treść listu: przeprosiny za wniosek złożony przez kancelarię w sprawie upadłościowej, który zawierał „błędne cytaty i inne nieścisłości.” Do listu załączono trzystronicowy aneks z listą konkretnych błędów. Trzy strony, zapisane pojedynczą interlinią. Tyle halucynacji zdołał wyprodukować system AI użyty przez prawników S&C.
Kancelaria doradcy OpenAI nie zweryfikowała własnych pism
I tu zaczyna się pierwsza ironia. Sullivan & Cromwell to ta sama kancelaria, która na swojej stronie internetowej chwali się, że doradza OpenAI w zakresie „bezpiecznego i etycznego wdrażania sztucznej inteligencji.” Physician, heal thyself – jak to ujął Joe Patrice z serwisu Above the Law.
Druga ironia jest jeszcze bardziej symetryczna: błędy w piśmie S&C wykrył nie jakiś anonimowy urzędnik sądowy, lecz Boies Schiller Flexner – kancelaria, która do tej pory sama dzierżyła nieoficjalny tytuł lidera rankingu „Elite Law Firms Guilty of AI Fails.” BSF miało za sobą co najmniej dwie własne wpadki tego rodzaju. Tym razem to oni złapali rywala za rękę.
Komentarz redaktora – Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Ta historia jest pouczająca na wielu poziomach jednocześnie. Z jednej strony Sullivan & Cromwell to absolutna elita prawnicza – i właśnie dlatego ten incydent jest tak głośny. Gdyby podobny błąd popełniła mała kancelaria z prowincji, nikt by o tym nie pisał. Z drugiej strony – i to jest sedno – problem z halucynacjami AI w dokumentach prawnych nie jest kwestią kompetencji czy prestiżu. To systemowy problem weryfikacji. Każda kancelaria, która wdraża AI bez procesu kontroli jakości, prędzej czy później trafi na podobną wpadkę. Pytanie, które naprawdę warto postawić, brzmi: dlaczego po ponad trzech latach od pierwszych głośnych incydentów (słynna sprawa Avianca z 2023 roku) branża prawnicza wciąż nie wypracowała standardowych procedur weryfikacji treści generowanych przez AI? I czy fakt, że to właśnie kancelaria doradząca OpenAI wpadła w tę pułapkę, powinien nas niepokoić bardziej niż sam incydent?
Dietderich nie szukał kozła ofiarnego
Warto oddać S&C to, co jej należne. Andrew Dietderich podpisał list do sędziego sam, bez wskazywania winnych. A przecież nikt nie płaci partnerowi za stawce 2500 dolarów za godzinę za przeszukiwanie baz orzecznictwa – to robota prawników niżej w hierarchii. Mimo to Dietderich wziął odpowiedzialność na siebie.
Autor relacji, David Lat z newslettera Original Jurisdiction, przyznał, że sam miał w tym roku własną, mniejszą wpadkę z AI, i apeluje o odrobinę pokory. Napisał przy okazji kilka celnych aforyzmów, które poprosił o wygenerowanie… Claude’a:
- „An AI making things up with total confidence isn’t a bug. It’s a mirror.”
- „Garbage in, garbage out – but now the garbage speaks in complete sentences and cites its sources.”
Narzędzia już istnieją – tylko trzeba ich używać
Patrice w swoim tekście wspomniał o jednym z narzędzi przeznaczonych specjalnie do łapania halucynacji AI w pismach prawnych – RealityCheck by BriefCatch. To nie jest jedyne tego typu rozwiązanie na rynku. Lista błędów popełnionych przez kancelarie prawnicze na skutek niezweryfikowanych wyników generatywnego AI liczy dziś, według prawnika i technologa Damiena Charlotina, już ponad 1300 udokumentowanych przypadków.
Kilka wniosków, które nasuwają się po tej historii:
- Halucynacje AI nie omijają nawet najlepszych prawników na świecie
- Narzędzia do weryfikacji istnieją – problem leży w procesach wewnętrznych, nie technologii
- Przyjęcie odpowiedzialności bez szukania kozłów ofiarnych to wciąż rzadka, ale godna pochwały postawa
- Firma doradząca w kwestii etycznego wdrażania AI powinna mieć najwyższe standardy weryfikacji własnych pism
Trzy lata po Avianca-gate – postęp jest powolny
Sprawa Avianca z maja 2023 roku była pierwszym głośnym przypadkiem, kiedy prawnicy złożyli w sądzie pismo oparte na wymyślonych przez ChatGPT precedensach. Od tamtej pory minęły trzy lata. Wyrok za wyrokiem, wpadka za wpadką, kancelaria za kancelarią – a mimo to incydenty się powtarzają, tym razem w wykonaniu absolutnej elity prawniczej.
Sullivan & Cromwell wyszło z tej historii z pewną klasą dzięki postawie Dietdericha. Ale fakt, że w ogóle do niej doszło, to sygnał, że branża prawnicza jako całość nadal nie traktuje weryfikacji AI-generated content jako standardowego kroku w procesie tworzenia pism procesowych. A powinna.
