52-letnia kobieta sparaliżowana po udarze mózgu sprzed niemal dwóch dekad obserwowała, jak zdania pojawiają się na ekranie – zdania, które tylko sobie wyobraziła, nie wypowiadając ani słowa na głos. To nie jest fabuła serialu o przyszłości. To wyniki badań opublikowanych w prestiżowym czasopiśmie Cell.
Zespół naukowców z Uniwersytetu Stanforda, kierowany przez dr Erin Kunz i prof. Franka Willetta, opracował interfejs mózg-komputer (BCI), który w czasie rzeczywistym dekoduje tzw. mowę wewnętrzną – czyli myśli formułowane w głowie bez jakiejkolwiek próby fizycznego wymawiania słów. W eksperymencie wzięły udział cztery osoby z poważnymi zaburzeniami mowy i motoryki, spowodowanymi ALS lub udarem pnia mózgu. Wszystkim implantowano maleńkie układy mikroelektrod w korze ruchowej mózgu.
Jak to właściwie działa?
Kora ruchowa mózgu zawiera obszary kontrolujące ruchy mięśniowe – w tym te odpowiedzialne za mowę. BCI rejestruje wzorce aktywności neuronów z powierzchni mózgu za pomocą tablic mikroelektrod, każda mniejsza od ziarnka grochu. Sygnały te trafiają następnie do algorytmu, który rozpoznaje powtarzające się wzorce powiązane z konkretnymi fonemami – najmniejszymi jednostkami mowy – i skleja je w słowa i zdania.
Kluczowe odkrycie? Mowa wewnętrzna i próba fizycznego mówienia aktywują te same obszary mózgu – tyle że mowa wewnętrzna generuje słabsze sygnały. Wystarczająco różne jednak, by algorytm AI mógł je od siebie odróżnić. System wytrenowany na słowniku 125 000 słów osiągnął dokładność dekodowania wyobrażonych zdań na poziomie 74 procent – najwyższą odnotowaną dotychczas dla mowy wewnętrznej.
„This is the first time we’ve managed to understand what brain activity looks like when you just think about speaking” – powiedziała Erin Kunz z Uniwersytetu Stanforda, główna autorka badania.
Hasło w głowie zamiast przycisku
Jedną z ciekawszych części badania jest rozwiązanie problemu, który od razu nasuwa się każdemu: co z prywatnością myśli? Skoro urządzenie może odczytywać mowę wewnętrzną, co stoi na przeszkodzie, by wyłapywało wszystko – włącznie z tym, czego pacjent nie chce ujawniać?
Naukowcy stworzyli system ochronny oparty na haśle mentalnym. Użytkownik aktywuje tryb dekodowania myśląc konkretną, nieoczekiwaną frazę – w eksperymencie było to „chitty chitty bang bang”. System rozpoznawał to hasło ze skutecznością powyżej 98 procent. Dopiero po jego „wypowiedzeniu” w głowie urządzenie zaczyna interpretować dalszą mowę wewnętrzną.
Komentarz Redaktora Naczelnego:
Rozumiem entuzjazm – i sam go czuję, czytając te wyniki. Dla osób z ALS czy po udarze, które utraciły zdolność mówienia, taka technologia może być absolutnie przełomowa. Niezależność komunikacyjna to coś fundamentalnego dla godności człowieka.
Ale nie możemy udawać, że pytania o prywatność mentalną to abstrakcja dla filozofów. Już dziś Neuralink zbiera dane z ludzkich mózgów. Za kilka lat takie interfejsy mogą trafić do szerszego użytku – i wtedy pytania o to, kto ma dostęp do tych danych, na jakich serwerach są przechowywane i czy mogą być wydane na żądanie organów państwowych, staną się bardzo konkretne. Hasło mentalne to pomysłowe rozwiązanie techniczne, ale nie prawne. Brakuje nam jeszcze zupełnie ram regulacyjnych dla „neuro-praw”. Na razie nauka wyprzedza prawo o lata świetlne.
– Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Myśli jako obraz. Japończycy idą dalej
Równolegle z badaniami Stanfordu naukowcy w Japonii zaprezentowali technikę „mind captioning” – nieinwazyjne skanowanie mózgu połączone z wieloma modelami AI, które generuje szczegółowe opisy tego, co dana osoba widzi lub wyobraża sobie w głowie. To inne podejście – bez implantów, na razie mniej precyzyjne, ale z ogromnym potencjałem skalowania.
Tymczasem zespół z UC Davis w 2025 roku osiągnął kolejny kamień milowy: dekodowanie nie tylko słów, ale też tonu, rytmu i intonacji. Pacjenci mogli wyrażać emocje, a nawet nucić proste melodie za pomocą systemu generującego mowę. Około 60 procent generowanych słów było zrozumiałych dla słuchaczy.
Postęp w tej dziedzinie jest lawinowy, a zaangażowane są:
- Stanford University (dekodowanie mowy wewnętrznej, BCI nowej generacji)
- UC Davis (intonacja i emocje w mowie syntetycznej)
- Columbia University z NewYork-Presbyterian Hospital (miniaturowy implant BISC wielkości ludzkiego włosa, przesyłający dane z dużą przepustowością)
- Neuralink (komercjalizacja implantów mózgowych)
- Synchron (endowaskularne BCI Stentrode integrowane z iPadem i Apple Vision Pro)
Co dalej?
„The future of BCIs is bright” – mówił Frank Willett po ogłoszeniu wyników. I trudno się z nim nie zgodzić, patrząc na tempo, w jakim ta dziedzina się rozwija. Planowane ulepszenia obejmują w pełni bezprzewodowe implanty, rejestrowanie aktywności większej liczby neuronów oraz eksplorację obszarów mózgu poza korą ruchową – na przykład regionów odpowiedzialnych za przetwarzanie słuchowe, które mogą dostarczać dodatkowych informacji o tym, jak formuje się mowa wewnętrzna.
Maitreyee Wairagkar, neuroinsżynier z UC Davis, prognozuje, że „w ciągu kilku najbliższych lat zobaczymy komercjalizację i wdrożenie tych technologii na szerszą skalę”. To ambitna prognoza. Ale biorąc pod uwagę, że jeszcze dekadę temu dekodowanie jakiejkolwiek mowy z sygnałów mózgowych wydawało się odległą przyszłością – może warto przestać się dziwić.
Prawdziwe „czytanie myśli” – w filmowym sensie, bez zgody, z każdą prywatną refleksją – pozostaje poza zasięgiem nauki. Ale granica między rehabilitacją a inwigilacją jest cieńsza, niż nam się wydaje. I warto o tym rozmawiać już teraz, nie wtedy, gdy technologia stanie przy drzwiach.
