Microsoft od lat przekonuje świat, że Copilot to przyszłość produktywności. Tymczasem w regulaminie korzystania z usługi firma przyznaje wprost: to narzędzie rozrywkowe, którego nie należy używać do poważnych decyzji.
Brzmi jak żart? Niestety nie. W aktualizacji warunków korzystania z Microsoft Copilot z października ubiegłego roku pojawiły się zapisy, które trudno interpretować inaczej niż jako głośny dysonans poznawczy ze strony Redmond. Firma, która wbudowała Copilota w Windows 11, sprzedaje go firmom jako narzędzie do pracy i wydała miliardy na rozwój AI, w swoim regulaminie pisze: „Copilot is for entertainment purposes only. It can make mistakes, and it may not work as intended. Don’t rely on Copilot for important advice. Use Copilot at your own risk.” / „Copilot służy wyłącznie do celów rozrywkowych. Może popełniać błędy i może nie działać zgodnie z założeniami. Nie polegaj na Copilocie w ważnych sprawach. Korzystasz z niego na własne ryzyko.”
Nie tylko Microsoft się zabezpiecza
Microsoft nie jest tu osamotniony. Podobne klauzule stosuje m.in. xAI, firma Elona Muska. Jej regulamin stwierdza, że sztuczna inteligencja „is rapidly evolving and is probabilistic in nature,” przez co może generować treści zawierające „hallucinations,” być obraźliwa, nieprecyzyjna lub po prostu nieodpowiednia dla zamierzonych celów. To zapis prawie identyczny w duchu z tym Microsoftu, tylko inaczej sformułowany.
Prawnicy takich firm doskonale wiedzą, co robią. Tego rodzaju klauzule to klasyczna ochrona przed odpowiedzialnością cywilną. Ale właśnie dlatego stawiają one użytkowników w bardzo ciekawej sytuacji: korporacja zachęca do korzystania z narzędzia w pracy, wbudowuje je w system operacyjny używany przez miliony firm na całym świecie, a jednocześnie na dole strony, drobnym drukiem, informuje, że tak naprawdę to tylko rozrywka.
Copilot w Windows 11, czyli „rozrywka” wbudowana na stałe
To właśnie ten aspekt boli najbardziej. Administratorzy systemów przez długi czas nie mieli nawet możliwości usunięcia Copilota z firmowych komputerów. Microsoft dopiero niedawno umożliwił odinstalowanie aplikacji na wersjach Pro, Enterprise i EDU – i to po spełnieniu określonych warunków.
Tymczasem użytkownicy na forach pytają wprost: jeśli to tylko rozrywka, po co Microsoft tak uparcie wciska to narzędzie do środowisk biznesowych?
Mam mieszane uczucia wobec tej całej sytuacji. Z jednej strony rozumiem korporacyjną logikę – prawnicy muszą zabezpieczyć firmę przed lawiną pozwów, gdy ktoś podejmie złą decyzję finansową lub medyczną na podstawie odpowiedzi chatbota. To normalna praktyka, stosowana zresztą przez wszystkich dużych graczy. Z drugiej strony nie mogę oprzeć się wrażeniu, że coś tu nie gra. Przez ostatnie dwa lata Microsoft wydał miliardy dolarów przekonując nas, że Copilot to rewolucja w produktywności. Budowały się na tym całe strategie biznesowe, firmy płaciły za subskrypcje Microsoft 365 z AI, kadry zarządzające reorganizowały procesy. A tu nagle okazuje się, że „w regulaminie mamy napisane, że to tylko dla zabawy”. To nie jest kwestia drobnego druczku – to fundamentalne pytanie o uczciwość w komunikacji z rynkiem. Czy firmy technologiczne nie powinny być bardziej transparentne co do rzeczywistych możliwości i ograniczeń swoich narzędzi AI, zamiast zostawiać to prawnikom?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Automation bias, czyli dlaczego to nie jest tylko problem prawny
Największe ryzyko tkwi jednak nie w regulaminach, ale w ludzkiej psychologii. Mamy dobrze udokumentowane zjawisko zwane automation bias – skłonność do bezkrytycznego ufania wynikom generowanym przez maszyny. I tu AI stwarza szczególne zagrożenie, bo jej odpowiedzi brzmią wiarygodnie, są dobrze sformatowane, pewne siebie. Nie ma w nich typowych sygnałów niepewności, które wyłapujemy u drugiego człowieka.
Konsekwencje bywają poważne. Amazon doświadczył już kilku głośnych awarii infrastruktury AWS, które według doniesień były związane z działaniami botów do kodowania uruchomionych bez odpowiedniego nadzoru. Jeden przypadek skończył się awarią produkcyjną o „high blast radius” – na tyle poważną, że firma zwołała specjalne spotkanie z udziałem starszych inżynierów. To nie była teoria. To był realny, kosztowny problem.
Co z tym zrobić?
Kilka zasad, które każdy użytkownik narzędzi AI powinien sobie przyswoić:
- Traktuj wyniki AI jak pierwszą wersję roboczą, nie gotowy produkt do wdrożenia
- Zawsze weryfikuj krytyczne informacje w niezależnych, autoryzowanych źródłach
- Nie deleguj decyzji o wysokiej stawce do żadnego modelu językowego bez ludzkiego przeglądu
- Pamiętaj o automation bias – mózg łatwiej akceptuje odpowiedź sformatowaną przez AI niż powinien
- Sprawdzaj regulaminy narzędzi, których używasz w środowisku zawodowym
Miliardowe inwestycje kontra „używaj na własne ryzyko”
Warto postawić pytanie wprost: co jest bardziej uczciwe wobec klientów? Transparentna komunikacja o ograniczeniach AI od samego początku, nawet jeśli utrudnia sprzedaż? Czy też masowe kampanie marketingowe, a w tle regulaminy chroniące firmę, gdy coś pójdzie nie tak?
Branża technologiczna wydała setki miliardów dolarów na infrastrukturę AI. Presja na zwrot z tej inwestycji jest ogromna. To tłumaczy agresywny marketing, ale go nie usprawiedliwia. Użytkownicy – zarówno indywidualni, jak i biznesowi – zasługują na jasny przekaz: co AI potrafi zrobić dobrze, a gdzie kończy się jego kompetencja i zaczyna odpowiedzialność człowieka.
Na razie tę odpowiedź można znaleźć tylko w regulaminie. Drobnym drukiem.
