OpenAI opublikowało szczegółowy dokument opisujący podejście do bezpieczeństwa w Sorze 2. Firma prezentuje wielowarstwowy system ochrony, który ma chronić użytkowników, ich wizerunek i osoby trzecie. Czy to wystarczy?
Sora 2 to nie jest już niszowe narzędzie dla entuzjastów AI. To aplikacja z milionami użytkowników, dostępna na iPhonie, w przeglądarce i w Microsoft 365. I właśnie dlatego to, co OpenAI wpisało w swoje zasady bezpieczeństwa, ma realne znaczenie dla milionów ludzi, często nieświadomych, że mogą być bohaterami cudzych filmów.
Jak Sora znakuje filmy AI
Każdy film wygenerowany przez Sorę niesie ze sobą ślad swojego pochodzenia. Mowa zarówno o widocznych sygnałach, jak animowane znaki wodne z nazwą twórcy, jak i o niewidocznych: metadanych C2PA, czyli branżowym standardzie podpisów cyfrowych. OpenAI utrzymuje też wewnętrzne narzędzia do odwrotnego wyszukiwania obrazu i dźwięku, które pozwalają z dużą dokładnością zidentyfikować filmy pochodzące z Sory.
Brzmi dobrze. Problem w tym, że metadane C2PA można usunąć, czasem nieświadomie, przy zwykłym udostępnieniu przez media społecznościowe. I jak pokazały analizy NewsGuarda z października 2025 roku, filmy ze znakiem wodnym „Sora” były uznawane przez wielu użytkowników za autentyczne nagrania z protestów.
Wizerunek: twój, ale z zastrzeżeniami
Tu dzieje się sporo. OpenAI wprowadza kilka mechanizmów zarządzania wizerunkiem, i trzeba przyznać, że są bardziej przemyślane niż to, co oferuje konkurencja.
Funkcja Characters pozwala użytkownikowi samodzielnie zdefiniować swój wizerunek, zarówno wizualny, jak i głosowy. Tylko właściciel decyduje, kto może korzystać z jego postaci. Można cofnąć dostęp w każdej chwili. Każde wideo z twoją postacią, łącznie z wersjami roboczymi tworzonymi przez innych użytkowników, jest dla ciebie zawsze widoczne. Możesz je przeglądać, usuwać i zgłaszać.
Rozumiem logikę OpenAI: dać użytkownikowi kontrolę zamiast zakazywać wszystkiego. To sensowne podejście. Ale mam jedno fundamentalne pytanie: co z osobami, które tej kontroli nie aktywują, bo po prostu nie wiedzą, że Sora istnieje? System ochrony oparty na świadomym opt-in chroni tylko tych, którzy wiedzą, że potrzebują ochrony. Reszta, czyli zdecydowana większość, jest poza zasięgiem tych mechanizmów. Warto to mieć z tyłu głowy, oceniając, jak „bezpieczna” jest Sora.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Zdjęcia prawdziwych ludzi: nowa, ryzykowna funkcja
OpenAI zdecydowało się odblokować tworzenie filmów ze zdjęć prawdziwych osób, na przykład rodziny czy znajomych. To jedna z najczęściej wnioskowanych funkcji, ale i jedna z najbardziej wrażliwych.
Przed przesłaniem zdjęcia użytkownik musi potwierdzić, że ma zgodę osób widocznych na zdjęciu i prawa do przesłania materiału. Treści z dziećmi i osobami wyglądającymi młodo podlegają jeszcze bardziej rygorystycznej moderacji. Filmy generowane tą drogą zawsze będą opatrzone znakami wodnymi przy udostępnianiu.
To, co rzuca się w oczy: ta ścieżka jest surowiej moderowana niż nawet Characters. OpenAI wyraźnie zaznacza, że to funkcja z największym ryzykiem nadużyć i traktuje ją odpowiednio.
Nastolatki pod specjalną ochroną
Sora wyróżnia się tutaj na tle większości platform. Lista zabezpieczeń dla młodszych użytkowników obejmuje:
- feed domyślnie filtrowany z treści nieodpowiednich wiekowo,
- profile nastolatków niewidoczne w rekomendacjach dla dorosłych,
- zakaz inicjowania kontaktu przez dorosłych,
- domyślne limity czasu ciągłego scrollowania,
- kontrole rodzicielskie w ChatGPT, pozwalające zarządzać wiadomościami i personalizacją.
Domyślne ograniczenie nieskończonego przewijania to decyzja, na którą większość firm technologicznych się nie decyduje, bo działa przeciwko ich modelowi biznesowemu opartemu na czasie spędzonym w aplikacji. Tu OpenAI idzie pod prąd.
Filtrowanie treści: warstwy przed i po generowaniu
System moderacji działa na dwóch etapach. Przed wygenerowaniem: blokowanie promptów i analiza wyjść klatka po klatce oraz transkryptów audio. Po wygenerowaniu: automatyczne skanowanie całego feedu pod kątem globalnych zasad użytkowania, uzupełnione o ludzką moderację w przypadkach o największym potencjale szkód.
Sora blokuje generowanie muzyki imitującej żyjących artystów i honoruje wnioski o usunięcie treści od twórców przekonanych, że ich praca została naśladowana.
Zabronione jest tworzenie materiałów propagandowych terroryzmu, promujących samookaleczenie, treści seksualnych, a także dezinformacji mającej na celu wprowadzanie w błąd.
Kontrola należy do użytkownika, przynajmniej w teorii
Każdy film trafia do feedu tylko wtedy, gdy użytkownik sam zdecyduje się go udostępnić. Można usunąć opublikowaną treść w każdej chwili. Każdy element platformy, film, profil, wiadomość, komentarz, postać, można zgłosić. Można zablokować konta, co uniemożliwia im dostęp do twojego profilu, postów i Characters.
To solidny zestaw narzędzi. Pytanie, ile osób z niego korzysta i czy interfejs naprawdę ułatwia te działania, czy tylko je umożliwia.
Sora 2 bezpieczna czy bezpieczniejsza?
OpenAI nie mówi, że Sora jest narzędziem bez ryzyka. Mówi, że bezpieczeństwo jest wbudowane od początku i że podejście jest iteracyjne: firma uczy się w trakcie i aktualizuje systemy w miarę pojawiania się nowych zagrożeń.
To uczciwa deklaracja. I jednocześnie przyznanie, że żaden system moderacji nie jest szczelny.
Sora 2 to wyjątkowo potężne narzędzie w rękach przeciętnego użytkownika. Zasady, które OpenAI opisuje, są przemyślane i w wielu miejscach idą dalej niż branżowy standard. Ale między napisanymi zasadami a ich skutecznym egzekwowaniem w skali dziesiątek milionów generacji dziennie wciąż leży przepaść, którą możemy tylko częściowo zmierzyć.
