10 lutego 2026 roku, Tumbler Ridge w Kolumbii Brytyjskiej. 18-letnia Jesse Van Rootselaar zabiła matkę i przyrodniego brata, a potem weszła do pobliskiej szkoły i zastrzeliła pięcioro dzieci w wieku 12-13 lat oraz asystentkę nauczyciela. Łącznie osiem ofiar. Potem odebrała sobie życie. To jeden z najgorszych szkolnych ataków w historii Kanady.
Kilka dni po tragedii świat dowiedział się, że OpenAI zawiesiło konto Van Rootselaar na ChatGPT już w czerwcu 2025 roku, czyli ponad siedem miesięcy wcześniej. Wewnętrzne systemy firmy wykryły niepokojące treści dotyczące przemocy z użyciem broni. Sprawa trafiła do ludzkiego przeglądu. I… nic. Policja nie została powiadomiona.
Teraz wychodzi na jaw kolejny szczegół, który tylko pogłębia ten obraz. OpenAI potwierdziło w czwartek, że Van Rootselaar po zawieszeniu pierwszego konta założyła drugie i w ten sposób ominęła ban. Firma odkryła to dopiero po tym, gdy RCMP (Królewska Kanadyjska Policja Konna) podała publicznie jej nazwisko.
Firma wiedziała. Ale progi były za wysokie
W liście do ministra ds. sztucznej inteligencji Evana Solomona, wiceprezydentka OpenAI ds. polityki globalnej Ann O’Leary napisała wprost: gdyby obecne, zaostrzone protokoły obowiązywały już w czerwcu 2025 roku, sprawa trafiłaby do organów ścigania. O’Leary użyła sformułowania: „Based on what we could see at that time the account was banned in June 2025, we did not identify credible and imminent planning that met our threshold to refer the matter to law enforcement.”
Innymi słowy: system zadziałał, człowiek przejrzał materiały, ale uznał, że nie spełniają wystarczająco wysokiego progu, żeby dzwonić na policję.
Tymczasem cyfrowy ślad Van Rootselaar był znacznie szerszy niż same rozmowy z ChatGPT. Stworzyła grę na Robloxie symulującą strzelaninę w centrum handlowym. Publikowała posty o broni na Reddit. Policja była już wcześniej wzywana do jej domu po tym, gdy pod wpływem substancji odurzających podpaliła coś w mieszkaniu. Nikt nie połączył tych kropek.
Granica między prywatnością a obowiązkiem ostrzeżenia
Tutaj wkracza pytanie, na które nikt nie ma dobrej odpowiedzi.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Rozumiem, że OpenAI znalazło się w trudnej pozycji. Z jednej strony mamy rzeczywiste zagrożenie, które nie zostało rozpoznane jako wystarczająco konkretne. Z drugiej, firmy technologiczne nie są służbami wywiadowczymi i nie powinniśmy oczekiwać, że będą działać jak psychiatrzy czy oficerowie prewencji. Ale jednocześnie nie można udawać, że „próg wiarygodnego i bezpośredniego zagrożenia” jest neutralnym kryterium technicznym. Ktoś go ustalił. Ktoś zdecydował, że ta konkretna granica jest w tym, a nie innym miejscu. I to jest decyzja polityczna, nie algorytmiczna. Pytanie brzmi: czy branża AI jest gotowa wziąć za nią odpowiedzialność?
Spotkanie w Ottawie. „Rozczarowujące”
Kanadyjskie władze wezwały przedstawicieli OpenAI do stolicy jeszcze w zeszłym tygodniu. Minister Solomon opisał spotkanie jednym słowem: „disappointing”. Ministrowie z gabinetu premiera Marka Carneya chcieli wiedzieć, dlaczego policja nie została poinformowana. Zamiast konkretnych odpowiedzi dostali korporacyjne komunały.
Teraz sam CEO OpenAI, Sam Altman, zgodził się spotkać z premierem Kolumbii Brytyjskiej Davidem Ebym. Eby komentuje obietnice OpenAI dotyczące zmiany protokołów krótko: „cold comfort” dla rodzin ofiar z Tumbler Ridge.
Co konkretnie OpenAI obiecuje zmienić:
- Wzmocnienie systemów wykrywania prób obejścia bana (jak założenie drugiego konta)
- Zaostrzenie kryteriów zgłaszania spraw do organów ścigania
- Stworzenie bezpośredniego kanału kontaktu z kanadyjską policją
- Priorytetowe traktowanie „osób o najwyższym profilu ryzyka”
Regulacje, które nie zdążyły
Kanada od lat pracuje nad przepisami dotyczącymi bezpieczeństwa online. Jeden z projektów ustaw mógłby objąć chatboty i nałożyć na nie obowiązek zgłaszania niebezpiecznych treści. Ale gdy parlament poszedł na przerwę w zeszłym miesiącu, projekt umarł. Zdaniem profesor Lori Laidlaw z Uniwersytetu Zachodniokanadyjskiego ustawa wpadła w pułapkę spolaryzowanej debaty o cenzurze i ostatecznie nie przeżyła.
Teraz podobno szykują się nowe regulacje. Tym razem chatboty mają być wyraźnie uwzględnione w zakresie prawa. I tym razem obowiązek raportowania do policji może stać się wymogiem prawnym, a nie dobrowolną decyzją korporacji.
Jest tylko jeden problem: OpenAI to firma amerykańska. A Kanada zdążyła już przekonać się, jak trudno wyegzekwować nawet wyroki własnego Sądu Najwyższego wobec zagranicznych platform technologicznych.
Sekcja 230 amerykańskiego prawa od dekad chroni firmy przed odpowiedzialnością za treści użytkowników. Jak będzie działać w kontekście AI? Tego nie wie na razie nikt.
