Rząd w New Delhi wprowadza jedne z najsurowszych na świecie regulacji dotyczących sztucznej inteligencji i treści syntetycznych. Social media czeka rewolucja w moderacji – albo grozi utrata ochrony prawnej.
Indie, największy rynek internetowy świata z ponad miliardem użytkowników, właśnie zmieniły zasady gry dla platform społecznościowych. Opublikowane we wtorek poprawki do przepisów IT z 2021 roku wprowadzają bezprecedensowo krótkie terminy na usuwanie treści deepfake oraz nakładają na firmy technologiczne obowiązek aktywnego wykrywania i oznaczania materiałów generowanych przez AI.
Trzy godziny to nowy standard
Nowe regulacje to nie kolejny papierowy tygrys. Platformy takie jak Meta, YouTube, X czy TikTok muszą teraz usuwać zgłoszone treści w ciągu zaledwie trzech godzin od otrzymania oficjalnego nakazu – a w przypadku pilnych skarg użytkowników ten czas skraca się do dwóch godzin.
To radykalna zmiana, która faktycznie wymusza automatyzację procesów moderacji. Nie ma czasu na ręczne sprawdzanie każdego przypadku, nie ma miejsca na szczegółową analizę kontekstu. System musi działać natychmiast – inaczej firma traci tzw. safe harbour, czyli ochronę przed odpowiedzialnością prawną za treści użytkowników.
„Zmienione przepisy IT stanowią bardziej wyważone podejście do regulacji deepfake’ów generowanych przez AI, ale znacząco skompresowane terminy rozpatrywania skarg – takie jak dwu- lub trzygodzinne okna na usuwanie treści – będą znacząco zwiększać obciążenia związane z compliance” – komentuje Rohit Kumar, partner zarządzający w The Quantum Hub, firmie konsultingowej z New Delhi.
Obowiązkowe oznaczanie i tropienie źródła
Przepisy idą jednak znacznie dalej niż tylko przyspieszenie reakcji na skargi. Platformy umożliwiające udostępnianie treści audio-wideo muszą teraz:
- Wymagać od użytkowników ujawnienia, czy materiał jest syntetyczny
- Wdrożyć narzędzia weryfikujące te deklaracje
- Zapewnić wyraźne oznaczenie deepfake’ów
- Osadzić w treściach syntetycznych dane o ich pochodzeniu (tzw. provenance data)
Pewne kategorie treści AI są całkowicie zakazane – chodzi o oszukańcze podszywanie się pod inne osoby, intymne obrazy tworzone bez zgody oraz materiały związane z poważnymi przestępstwami. To ostatnia kwestia jest szczególnie szeroka i może obejmować różnorodne przypadki.
Piotr Wolniewicz, Redaktor Naczelny AIport.pl: „Indie pokazują, że regulacja AI może wyglądać zupełnie inaczej niż ostrożne europejskie AI Act. Trzygodzinny deadline to nie jest próba dialogu z Big Tech – to ultimatum. Pytanie tylko, czy automatyczne systemy moderacji nie staną się nowym narzędziem cenzury, gdzie algorytm usunie najpierw, a o kontekst można zapytać później. Jeśli ten model się sprawdzi – lub przynajmniej zostanie wprowadzony – inne rynki mogą pójść tą samą drogą.”
Głosy krytyki: „Niemożliwe terminy eliminują ludzką weryfikację”
Nie wszyscy są zachwyceni nowym podejściem. Internet Freedom Foundation, organizacja działająca na rzecz wolności cyfrowych, ostro krytykuje przepisy jako narzędzie przyspieszającej cenzury.
IFF Statement on the Information Technology (IGDME) Amendment Rules, 2026
The Government of India today notified the Information Technology (Intermediary Guidelines and Digital Media Ethics Code) Amendment Rules, 2026, concerning synthetically generated information (SGI). While…
— Internet Freedom Foundation (IFF) (@internetfreedom) February 10, 2026
„Te niemożliwie krótkie terminy eliminują jakąkolwiek znaczącą ludzką weryfikację” – ostrzega organizacja w oświadczeniu opublikowanym na platformie X. IFF wskazuje również na problematyczne przepisy pozwalające platformom ujawniać tożsamość użytkowników prywatnym skarżącym – bez nadzoru sądowego.
Eksperci prawni również widzą potencjalne zagrożenia. Aprajita Rana, partnerka w kancelarii AZB & Partners, zauważa, że wymóg usuwania treści w ciągu trzech godzin od „uzyskania świadomości” o problemie odchodzi od ustalonych zasad ochrony wolności słowa.
Konsultacje? Jakie konsultacje?
Dwa źródła branżowe przekazały TechCrunch, że poprawki zostały wprowadzone po ograniczonym procesie konsultacyjnym – tylko wąski zakres sugestii został uwzględniony w ostatecznej wersji przepisów. Choć rząd zawęził zakres regulacji (skupiając się na treściach audio-wideo zamiast wszystkich materiałów online), to skala zmian między projektem a finalnymi przepisami była na tyle duża, że branża oczekiwała kolejnej rundy konsultacji.
Timing nie jest przypadkowy
Nowe przepisy wchodzą w życie 20 lutego – zaledwie dziesięć dni po publikacji. To daje platformom minimalny czas na dostosowanie systemów compliance. Data nie jest przypadkowa: między 16 a 20 lutego Indie organizują AI Impact Summit w New Delhi, wydarzenie, które przyciągnie najważniejszych przedstawicieli globalnej branży technologicznej i decydentów.
To doskonały moment na pokazanie, że Indie traktują regulację AI poważnie – i że największy rynek cyfrowy świata nie zamierza czekać, aż ktoś inny ustali standardy.
Co dalej?
Żadna z głównych platform – Meta, Google, Snap, X – nie skomentowała jeszcze nowych przepisów. Indyjskie ministerstwo IT również milczy. Cisza ta jest wymowna: firmy technologiczne znalazły się w sytuacji, gdzie muszą albo dostosować systemy w ekspresowym tempie, albo stanąć do konfrontacji prawnej na kluczowym rynku.
Biorąc pod uwagę, że wcześniejsze próby negocjacji między platformami a rządem indyjskim kończyły się bataliami sądowymi (X pozwało Indie za „nieokiełznaną cenzurę”), można się spodziewać, że nowe regulacje również nie przejdą bez echa.
Indie właśnie ustaliły nowy standard w regulacji deepfake’ów. Pytanie brzmi: czy reszta świata podąży tym tropem?
