Europarlamentarzyści stracili dostęp do wbudowanych narzędzi sztucznej inteligencji na swoich służbowych urządzeniach. Dział IT Parlamentu Europejskiego podjął tę decyzję ze względu na ryzyko wycieku poufnych informacji do serwerów amerykańskich firm technologicznych.
Sprawa wyszła na jaw za sprawą wewnętrznego e-maila rozesłanego przez dział IT instytucji, do którego dotarło Politico. Wynika z niego, że Parlament nie jest w stanie zagwarantować bezpieczeństwa danych przesyłanych do chmur obsługiwanych przez dostawców narzędzi AI. Co więcej — jak przyznają urzędnicy — pełny zakres informacji udostępnianych firmom AI jest „nadal oceniany”. W tej sytuacji zdecydowano, że bezpieczniej będzie po prostu wyłączyć te funkcje.
Zakaz obejmuje narzędzia wbudowane bezpośrednio w systemy operacyjne i aplikacje biurowe — a więc przede wszystkim Microsoft Copilot, ale pośrednio dotyka też innych asystentów AI dostępnych na urządzeniach. Parlamentarzyści i ich pracownicy nie będą mogli korzystać z nich do obsługi służbowej korespondencji ani dokumentów.
Dlaczego to ważne? Bo dane lecą prosto do USA
Serce problemu tkwi w tym, gdzie fizycznie trafiają dane wpisywane do chatbotów AI. Korporacje takie jak Microsoft, OpenAI czy Anthropic działają pod jurysdykcją prawa amerykańskiego — co oznacza, że amerykańskie służby mogą legalnie zażądać od nich wydania danych użytkowników. I nie jest to scenariusz czysto teoretyczny.
W ostatnich tygodniach Departament Bezpieczeństwa Wewnętrznego USA rozesłał setki wezwań do gigantów technologicznych, domagając się ujawnienia informacji o osobach publicznie krytykujących politykę administracji Trumpa. Google, Meta i Reddit w wielu przypadkach zastosowały się do tych żądań — mimo że nie były one wydane przez sąd.
Komentarz Piotra Wolniewicza, Redaktora Naczelnego AIPORT.pl:
Ta decyzja to symptom czegoś znacznie głębszego niż zwykła ostrożność IT-owców. Europa od lat buduje narrację o własnej suwerenności cyfrowej, a tymczasem jej instytucje były gotowe bez mrugnięcia okiem wklejać poufną korespondencję do narzędzi zarządzanych przez amerykańskie spółki. To, co dzieje się teraz — zarówno ten zakaz, jak i narastająca presja polityczna ze strony administracji Trumpa — może być tym zimnym prysznicem, którego europejskim decydentom brakowało. Pytanie brzmi: czy Europa ma w ogóle alternatywę? Lokalnych, europejskich modeli AI na tym poziomie praktycznie nie ma. To jest właśnie ta luka, której zapełnienie powinno być priorytetem dla unijnej polityki technologicznej.
Unijne przepisy o ochronie danych kontra presja lobby Big Tech
To szczególnie gorzka ironia, że ten zakaz pojawia się dokładnie w momencie, gdy Komisja Europejska — ciało wykonawcze UE — pracuje nad złagodzeniem przepisów RODO, by ułatwić amerykańskim gigantom trenowanie modeli AI na danych Europejczyków. Krytycy tych propozycji wprost mówią o kapitulacji przed Big Techem.
Tymczasem kilka państw członkowskich UE podjęło już konkretne kroki, by uniezależnić się od amerykańskiej infrastruktury cyfrowej. Decyzja Parlamentu Europejskiego wpisuje się w ten szerszy trend — choć na razie ma charakter defensywny, a nie ofensywny. Zamiast budować własne alternatywy, instytucje po prostu odcinają dostęp do tych już istniejących.
Co dalej?
Departament IT Parlamentu nie określił, kiedy i pod jakimi warunkami narzędzia AI mogłyby zostać ponownie dopuszczone. Ocena ryzyka trwa. Można się spodziewać, że podobne decyzje — przynajmniej w odniesieniu do szczególnie wrażliwych środowisk — podejmą też inne europejskie instytucje publiczne.
Dla dostawców narzędzi AI to wyraźny sygnał: bez przekonujących gwarancji lokalizacji danych i niezależności od obcych jurysdykcji, droga do europejskiego sektora publicznego pozostanie zamknięta.
