Grammarly wyłączyło funkcję AI, która bez zgody autorów podszywała się pod znanych pisarzy i dziennikarzy. Firma stanęła przed pozwem zbiorowym na ponad 5 milionów dolarów.
Narzędzie do pisania Grammarly – a właściwie jego właściciel, firma Superhuman – usunęło w tym tygodniu funkcję Expert Review. Oferowała ona użytkownikom informacje zwrotne „inspirowane” stylem znanych twórców, m.in. Stephena Kinga czy nieżyjącego już naukowca Carla Sagana. Problem w tym, że żadna z tych osób nie wyraziła na to zgody.
Personalizacja bez pozwolenia
Funkcja działała na zasadzie tworzenia „AI personas” – wirtualnych agentów stylizowanych na konkretnych, realnych ludzi. Użytkownik płacił za subskrypcję i dostawał sugestie edytorskie rzekomo „od” wybranego eksperta. Brzmi jak sprytny marketing. W praktyce okazało się jednak, że to coś więcej niż inspiracja – to bezpośrednie wykorzystanie nazwisk i reputacji żywych (i martwych) ludzi do generowania przychodów.
Jedną z osób, których wizerunek trafił do systemu bez pytania, jest Julia Angwin – ceniona dziennikarka śledcza. Nie czekała długo.
„I’m suing Grammarly over its paid AI feature that presented editing suggestions as if they came from me – and many other writers and journalists – without consent” – napisała w mediach społecznościowych.
W środę złożyła pozew zbiorowy w federalnym sądzie dla Południowego Dystryktu Nowego Jorku. Pozew obejmuje Angwin i wszystkich, którzy znaleźli się w podobnej sytuacji – według dokumentów sądowych cytowanych przez Wired, Grammarly miało bez zgody wykorzystać nazwiska i tożsamości „setek dziennikarzy, autorów, pisarzy i redaktorów”.
Opt-out zamiast opt-in? Branża mówi: nie
Kiedy presja zaczęła rosnąć, Superhuman początkowo zapowiedział, że utrzyma funkcję, ale pozwoli zainteresowanym… wypisać się mailowo. Reakcja środowiska była natychmiastowa.
Wes Fenlon, dziennikarz gamingowy, którego persona trafiła do narzędzia, napisał na Bluesky:
„Opt-out via email is a laughably inadequate recourse for selling a product that verges on impersonation and profits on unearned credibility.”
Celnie. Zasada opt-out zamiast opt-in to w branży technologicznej stary trick – domyślnie bierzesz udział, a żeby się wycofać, musisz sam o to zadbać. Przy funkcji, która wprost czerpie z czyjejś tożsamości zawodowej i sprzedaje ją jako produkt, to podejście trudno obronić.
Komentarz redakcji
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Rozumiem logikę biznesową Grammarły – funkcja „pisz jak King” brzmi atrakcyjnie i pewnie dobrze konwertuje w sprzedaży. Ale jest tu fundamentalny problem etyczny, który nie znika tylko dlatego, że technicznie można coś zrobić. Tożsamość zawodowa pisarza czy dziennikarza to jego kapitał – budowany latami, oparty na konkretnych wyborach, wartościach, stylu. Spakowanie tego w AI-agenta i sprzedanie subskrybentom bez pytania to nie „inspiracja”. To zawłaszczenie.
Z drugiej strony – czy pozew zbiorowy na 5 milionów dolarów to właściwa odpowiedź? Być może. Ale ważniejsze wydaje mi się pytanie systemowe: gdzie jest granica między „inspiracją stylem” a „podszywaniem się pod kogoś”? Tego prawo jeszcze nie rozstrzygnęło, a branża AI desperacko potrzebuje jasnych reguł – zanim kolejna firma zdecyduje, że poproszenie o zgodę jest zbędnym formalizmem.
Przeprosiny i wycofanie
Ostatecznie Superhuman wyłączył funkcję i prezes firmy Shishir Mehrotra przeprosił na LinkedIn. Przyznał, że narzędzie „misrepresented” głosy ekspertów i że firma „fell short”.
Mehrotra tłumaczył, że agent korzystał z „publicznie dostępnych informacji z zewnętrznych modeli językowych”, by generować sugestie pisarskie inspirowane opublikowanymi pracami twórców. Brzmi jak próba złagodzenia przekazu – ale prawnicy Angwin zapewne mają inne zdanie.
Grammarly zostało założone w 2009 roku jako narzędzie do korekty tekstu. Generatywne AI zaczęło integrować w sierpniu 2025 roku. W październiku firma rozpoczęła rebranding do Superhuman, zachowując jednak nazwę Grammarly dla głównej usługi. Expert Review najwyraźniej był krokiem za daleko.
Co dalej?
Sprawa Angwin kontra Superhuman/Grammarly może stać się precedensem. Pytania, które postawi przed sądem, są szersze niż jeden produkt jednej firmy:
- Czy AI może legalnie „inspirować się” stylem konkretnej, żyjącej osoby i sprzedawać to jako usługę?
- Kto ponosi odpowiedzialność, kiedy model językowy generuje treści „w imieniu” kogoś, kto nigdy na to nie wyraził zgody?
- Czy opt-out jest wystarczającym standardem ochrony tożsamości, czy powinna obowiązywać zasada opt-in?
Na odpowiedzi poczekamy. Ale jedno jest pewne – branża AI właśnie dostała kolejny sygnał, że granice istnieją. Nawet jeśli jeszcze nie są wyraźnie narysowane.
