Każdy słyszał o Claude. Mało kto wie, że odmówi nawet Anthropic, że był trenowany przez samego siebie i że masz go teraz dosłownie w kieszeni – bez otwierania przeglądarki.
Artykułów o Claude jest w sieci setki. Większość z nich wygląda tak samo: krótkie wprowadzenie, lista funkcji, porównanie z ChatGPT, koniec. Ten tekst będzie inaczej. Zebrałem rzeczy, o których Anthropic nie krzyczy na każdym kroku, ale które sprawiają, że Claude to coś więcej niż kolejny chatbot do pisania maili.
W tym artykule przeczytasz o:
- tym, skąd Claude ma charakter i dlaczego to nie jest przypadek
- jak Claude był trenowany przez… samego siebie
- co możesz zrobić z aplikacją desktopową, o której 90% użytkowników nawet nie wie
- do czego naprawdę służy kontekst 200 tysięcy tokenów
- jak działa pamięć między sesjami i dlaczego to nie to samo, co w ChatGPT
- i kilku innych rzeczach, które zmienią to, jak korzystasz z tego narzędzia
Zanim zaczniesz czytać – jeśli szukasz ogólnego wprowadzenia do narzędzi AI do pisania, mamy dla ciebie osobny materiał. Tu jedziemy głębiej.
Claude ma filozofa na etacie – i to widać
Większość ludzi myśli, że osobowość modelu AI to efekt marketingu. Że ktoś napisał w briefie „bądź pomocny i przyjazny”, a model się dostosował. W przypadku Claude jest inaczej.
Za charakterem Claude stoi konkretna osoba: Amanda Askell, filozofka z doktoratem z etyki, której jedyną rolą w Anthropic jest kształtowanie osobowości modelu. W jednym z wywiadów powiedziała coś, co dobrze pokazuje, jak traktują ten projekt: „Wyobraź sobie, że nagle odkrywasz, że twoje sześcioletnie dziecko jest w pewnym sensie geniuszem. Musisz być z nim szczery. Jeśli próbujesz wciskać mu kit, od razu to wyczuje.”
Efekt tej pracy to coś, co Anthropic nazwało wewnętrznie „soul document”, a potem opublikowało jako konstytucję Claude’a. To 23 000 słów (w wersji z 2026 roku, poprzednia miała 2700) instrukcji skierowanych bezpośrednio do modelu, wyjaśniających nie tylko co ma robić, ale dlaczego. To różnica między „nie kłam” a „nie kłam, bo zaufanie jest fundamentem relacji, a my chcemy, żebyś miał relację z ludźmi, nie tylko reagował na ich zapytania”.
„Tak jak żołnierz może odmówić strzelania do pokojowych demonstrantów, Claude powinien odmówić działań, które pomagają koncentrować władzę w nielegalny sposób. Nawet jeśli prośba pochodzi od samego Anthropic.”
– Konstytucja Claude’a, 2026
To zdanie nie jest figurą retoryczną. Claude ma wbudowaną hierarchię wartości: bezpieczeństwo, etyka, zgodność z wytycznymi Anthropic, a dopiero potem pomocność. W praktyce oznacza to, że jeśli instrukcja systemowa (np. od firmy wdrażającej Claude’a) jest sprzeczna z interesem użytkownika, Claude może ją zignorować.
Różnica względem konkurencji jest tu realna:
| Cecha | Claude | ChatGPT (GPT-4o) | Gemini |
|---|---|---|---|
| Opublikowana konstytucja treningu | Tak (CC0, pełna treść) | Nie | Nie |
| Filozofka kształtująca osobowość | Tak (Amanda Askell) | Nie (brak odpowiednika) | Nie |
| Model może odmówić operatorowi | Tak | Ograniczony | Ograniczony |
| Hierarchia wartości ponad helpfulness | Tak | Nie wprost | Nie wprost |
Claude był trenowany przez samego siebie – i to nie metafora
To jest jeden z tych faktów, który brzmi jak clickbait, a jest prawdziwą techniką inżynierii AI. Anthropic nazwało to Constitutional AI (CAI) i opublikowało metodę w grudniu 2022 roku.
W tradycyjnym treningu modeli językowych, ludzie porównują pary odpowiedzi i wskazują, która jest lepsza. Tysiące takich ocen kształtują to, jak model się zachowuje. Problem polega na tym, że jest to powolne, kosztowne i wymaga narażania pracowników na kontakt z toksycznymi treściami.
Anthropic rozwiązało to inaczej. Proces treningu Claude’a wygląda tak:
- Model generuje odpowiedź na trudne zapytanie
- Ten sam (lub inny) model ocenia tę odpowiedź według listy zasad (konstytucji)
- Model krytykuje własną odpowiedź i proponuje poprawkę
- Poprawiona odpowiedź jest używana do dalszego treningu
- W fazie reinforcement learning: model ocenia, które z dwóch odpowiedzi lepiej spełnia konstytucję
Efekt? Claude nauczył się zachowywać etycznie bez potrzeby, żeby tysiące ludzi oglądało i oceniało szkodliwe treści. To skalowalne, tańsze i – co ciekawe – daje modele, które są jednocześnie bardziej pomocne i mniej szkodliwe (w branży mówi się o „Pareto improvement”).
Co ważne – konstytucja Claude’a z 2026 roku jest publiczna, napisana ludzkim językiem i dostępna na stronie Anthropic. Każdy może sprawdzić, według jakich zasad Claude podejmuje decyzje. To unikalne na tle całej branży.
Aplikacja desktopowa: gamechanger, o którym nikt nie mówi
To jest sekcja, którą chciałem napisać od dawna. Claude ma aplikację na Maca i Windowsa, ale sposób, w jaki działa ta wersja – szczególnie na Macu – sprawia, że to zupełnie inne narzędzie niż przeglądarkowy chatbot.
Jak to działa w praktyce
Aplikacja desktopowa Claude’a na Macu posiada funkcję zwaną Quick Entry. Działa tak:
- Podwójne naciśnięcie klawisza Option – wywołuje nakładkę Claude’a z dowolnego miejsca w systemie, bez zmiany aktywnej aplikacji
- Caps Lock – włącza dyktowanie głosowe (wymaga macOS 14+)
- Zrzut ekranu lub przechwycenie okna aplikacji i od razu wysyłasz Claude’owi do analizy
Nie musisz wychodzić z Figmy, żeby zapytać o projekt. Nie musisz minimalizować Excela, żeby wyjaśnić formułę. Nie musisz otwierać przeglądarki, żeby przepisać email, który właśnie piszesz w mailu.
Windows ma wersję desktopową, ale bez Quick Entry i bez dyktowania głosowego – to funkcje na razie wyłącznie macOS.
Dyktowanie: kto tego naprawdę potrzebuje
Piotr Wolniewicz, redakcja AIPORT.pl: „Kiedy po raz pierwszy zdikowałem do Claude’a brief na artykuł w samochodzie, pomyślałem: to jest ta zmiana, o której wszyscy mówią. Mam pomysł, mówię go głośno, a za chwilę mam gotowy plan działania. Bez wpisywania, bez szukania aplikacji, bez przerywania toku myśli.”
Dyktowanie w praktyce sprawdza się szczególnie w kilku sytuacjach:
- Burza mózgów w ruchu – masz pomysł jadąc do pracy, mówisz go do telefonu lub Maca, Claude porządkuje
- Przetwarzanie notatek ze spotkań – po zebraniu mówisz kluczowe punkty, dostajesz gotowe podsumowanie
- Pierwsze szkice tekstów – łatwiej dyktować niż pisać, a Claude i tak poprawi styl
- Zadania multitaskingowe – robisz coś ręcznie, pytasz Claude’a głosem
Co ważne: to nie jest „rozmawianie z AI” jak Siri czy Alexa. To dyktowanie złożonych poleceń i kontekstu, które Claude przetwarza jak tekst. Możesz powiedzieć: „Przeanalizuj mi argumenty za i przeciw wdrożeniu CRM w firmie 20-osobowej, weź pod uwagę koszty wdrożenia, czas nauki i integracje z narzędziami, których używamy” – i dostaniesz przemyślaną odpowiedź, nie odpowiedź głosowego asystenta.
Najciekawsze przypadki użycia aplikacji desktopowej
| Scenariusz | Jak działa | Efekt |
|---|---|---|
| Analiza błędu w kodzie | Option+Option, przychwyć okno z błędem, zapytaj | Bez kopiowania, Claude widzi cały kontekst |
| Szybki research w trakcie pracy | Option+Option, wpisz lub podyktuj pytanie | Odpowiedź bez zmiany aktywnej aplikacji |
| Notatki ze spotkania | Caps Lock, mów kluczowe punkty | Gotowe podsumowanie z action items |
| Poprawka emaila | Przechwyt okna z mailiem, „popraw ton na bardziej formalny” | Korekta w kontekście całej wiadomości |
| Brief do projektu | W samochodzie, dyktuj pomysł | Gotowa struktura po dotarciu do biura |
| Analiza screenshota z Figmy | Zrzut, „co mogę poprawić w tym layoucie?” | Feedback bez eksportu pliku |
Aplikacja desktopowa jest dostępna bezpłatnie, ale dyktowanie i Quick Entry działają tylko na Macu. Warto też pamiętać, że aplikacja obsługuje tryb incognito – rozmowy nie są zapisywane w historii ani używane do treningu.
200 tysięcy tokenów: co to naprawdę oznacza
„Claude ma ogromne okno kontekstowe” – to zdanie pojawia się wszędzie, ale zwykle towarzyszy mu przykład w stylu „możesz wrzucić cały PDF”. To za mało. Okno kontekstowe 200k tokenów (a w niektórych wersjach API nawet więcej) otwiera możliwości, o których nie myślisz przy codziennym użyciu.
200 tysięcy tokenów to w przybliżeniu:
- 150 000 słów tekstu (czyli mniej więcej 500 stron książki)
- Cała baza kodowa średniej wielkości projektu
- 10 długich umów prawnych jednocześnie
- Kilka miesięcy emailowej korespondencji z klientem
Co możesz z tym zrobić w praktyce
Zamiast „wrzuć PDF i podsumuj”, pomyśl o takich zastosowaniach:
- Analiza spójności dokumentów – wrzucasz umowę i regulamin i pytasz, czy są sprzeczne ze sobą w konkretnych punktach
- Porównanie wielu ofert – 5 ofert od dostawców naraz, „wskaż ukryte koszty i różnice w warunkach gwarancji”
- Refaktoring całego projektu – nie plik po pliku, ale cała baza kodu w jednym kontekście
- Analiza feedbacku od klientów – setki recenzji lub zgłoszeń helpdesk naraz, „znajdź wzorce problemów”
- Symulacja konsekwencji decyzji – wrzucasz całą historię projektu i pytasz, „co mogło pójść nie tak i dlaczego”
Kluczowa różnica w stosunku do innych modeli: Claude utrzymuje spójność i pamięta detale przez cały długi kontekst. W praktyce oznacza to, że pytanie zadane na początku i nawiązanie do szczegółu z końca 150-stronicowego dokumentu działa – model nie „zapomina” tego, co było wcześniej.
Projekty i pamięć: Claude który zna twój kontekst
Funkcja Projektów w Claude różni się od Custom GPTs z OpenAI bardziej, niż się wydaje na pierwszy rzut oka. W projektach możesz:
- Wgrać dokumenty, które będą dostępne w każdej rozmowie w tym projekcie
- Ustawić instrukcje systemowe („zawsze odpowiadaj po polsku”, „znasz specyfikę naszej firmy – oto ona”)
- Przechowywać kontekst między sesjami bez konieczności każdorazowego tłumaczenia od zera
To znaczy, że jeśli prowadzisz projekt dla klienta, możesz wgrać brief, poprzednie materiały i ustalenia, a Claude będzie miał do nich dostęp w każdej kolejnej rozmowie. Bez wklejania, bez przypominania, bez „jak ci pisałem ostatnim razem…”.
Pamięć w Claude.ai (poza projektami) działa dodatkowo jako dynamicznie aktualizowany zapis wniosków z poprzednich rozmów. Claude zapamiętuje preferencje, kontekst zawodowy, styl komunikacji – i stosuje to w kolejnych sesjach. Możesz też ręcznie zarządzać tym, co jest zapamiętane.
Praktyczne zastosowania projektów, o których rzadko się mówi:
- Projekt dla każdego klienta agencji z jego briefem i historią współpracy
- Projekt „mój styl pisania” z przykładami tekstów i wytycznymi tonalnymi
- Projekt „research do książki” z zebranymi źródłami i notatkami
- Projekt „onboarding pracownika” z dokumentami firmy i odpowiedziami na typowe pytania
Extended thinking: Claude który myśli, zanim odpowie
To funkcja, która w benchmarkach wygląda spektakularnie (matematyka olimpijska, złożone zadania logiczne), ale jej prawdziwy potencjał leży zupełnie gdzie indziej.
Extended thinking to tryb, w którym Claude „myśli głośno” – widać proces rozumowania, nie tylko wynik. W zaawansowanym użyciu służy do:
- Symulowania debaty – „przemyśl argumenty za i przeciw tej decyzji biznesowej, zanim mi je przedstawisz”
- Wcielania się w adwokata diabła – „znajdź wszystkie słabe punkty mojego planu zanim zacznę go wdrażać”
- Analizy scenariuszy „co jeśli” – złożone decyzje z wieloma zmiennymi
- Przemyślanych kreatywnych projektów – struktura powieści, architektura systemu, plan kampanii
Kluczowa różnica: standardowy Claude daje ci odpowiedź. Claude z extended thinking daje ci wgląd w to, jak do niej doszedł – a to bywa cenniejsze niż sama odpowiedź.
Jak Claude wypada tam, gdzie benchmarki milczą
Testy i rankingi mierzą to, co łatwo zmierzyć. Są jednak aspekty, które ważą w codziennym użyciu, a żaden benchmark ich nie uwzględnia.
| Kategoria | Claude | GPT-4o | Gemini 1.5 Pro |
|---|---|---|---|
| Spójność charakteru w długich sesjach | Wysoka | Umiarkowana | Umiarkowana |
| Odpowiedź bez „ucięcia” na granicy limitu | Rzadko | Częściej | Rzadko |
| Odporność na „jailbreak przez narrację” | Wysoka | Umiarkowana | Umiarkowana |
| Publiczna dokumentacja zasad treningu | Pełna | Brak | Brak |
| Głosowe dyktowanie w aplikacji desktop | Mac | Tak | Nie (brak apki) |
| Tryb incognito bez zapisu historii | Tak | Nie | Nie |
| Projekty z własnym kontekstem i plikami | Tak | Tak (GPT Store) | Częściowo |
Warto też wspomnieć o tym, o czym mówi się mało: Claude radzi sobie wyjątkowo dobrze z długimi, złożonymi poleceniami. Im bardziej szczegółowy prompt, tym lepsza odpowiedź. ChatGPT często „skraca narożniki” przy długich instrukcjach. Claude rzadziej.
Jeśli chcesz zobaczyć, jak Claude radzi sobie z generowaniem grafik i wizualizacji przy pomocy AI, przygotowaliśmy też oddzielny przegląd narzędzi.
FAQ
Czy Claude naprawdę może odmówić instrukcji od firmy, która go wdraża?
Tak, i to nie jest teoria. Konstytucja Claude’a wprost stanowi, że model powinien chronić interesy użytkownika nawet wtedy, gdy instrukcja systemowa operatora jest z nimi sprzeczna. W praktyce chodzi głównie o sytuacje, w których operator próbowałby użyć Claude’a do manipulowania użytkownikami lub ukrywania przed nimi ważnych informacji. Claude może nie ujawnić treści system promptu (jeśli tak nakazuje operator), ale musi poinformować użytkownika, że taki prompt istnieje.
Czym różni się aplikacja desktopowa od wersji przeglądarkowej?
Funkcjonalność AI jest taka sama, ale aplikacja desktopowa – szczególnie na Macu – oferuje Quick Entry (nakładka wywoływana skrótem klawiszowym z dowolnego miejsca), dyktowanie głosowe przez Caps Lock, przechwytywanie okien aplikacji bez ręcznego screenshota i tryb incognito. Wersja przeglądarkowa tego nie ma.
Czy dyktowanie w Claude działa po polsku?
Tak. Dyktowanie korzysta z systemowego rozpoznawania mowy macOS, które obsługuje język polski. Jakość transkrypcji jest zbliżona do systemowej, a Claude poradzi sobie nawet z nieperfekcyjną transkrypcją.
Czym jest Constitutional AI i dlaczego to ważne dla użytkownika?
To metoda treningu, w której Claude ocenia i poprawia własne odpowiedzi według zestawu zasad (konstytucji), zamiast polegać wyłącznie na ocenach ludzkich. Dla użytkownika oznacza to model bardziej spójny w wartościach, mniej podatny na manipulację przez sprytne prompty i – co istotne – bardziej transparentny, bo zasady są publiczne.
Jak działa pamięć Claude’a między sesjami?
Claude zapamiętuje kontekst z poprzednich rozmów i stosuje go automatycznie – np. styl komunikacji, kontekst zawodowy, preferencje. Możesz przeglądać i edytować to, co zostało zapamiętane, w ustawieniach. Projekty działają osobno – to wgrany przez ciebie kontekst (dokumenty, instrukcje), dostępny w każdej rozmowie w projekcie.
Co to jest extended thinking i kiedy warto go używać?
To tryb, w którym Claude „myśli głośno” przed odpowiedzią – widać jego tok rozumowania. Warto go włączyć przy złożonych decyzjach, analizie z wieloma zmiennymi, zadaniach wymagających krytycznego spojrzenia na własny plan lub przy problemach, gdzie ważniejszy jest proces dochodzenia do odpowiedzi niż sama odpowiedź.
Czy Claude jest bezpieczny dla wrażliwych danych w aplikacji desktopowej?
Aplikacja desktopowa oferuje tryb incognito, w którym rozmowy nie są zapisywane w historii ani używane do treningu. Dane są szyfrowane w tranzycie i w spoczynku. Jednak Claude.ai to serwis chmurowy – jeśli pracujesz z danymi, które nie mogą opuszczać sieci firmowej, potrzebujesz API z odpowiednimi umowami lub rozwiązania on-premise.
Podsumowanie
Większość osób używa Claude jak zaawansowanego pola tekstowego. Wpisujesz, dostajesz odpowiedź, kopiujesz, zamykasz. To trochę jak używanie iPada wyłącznie do przeglądania Facebooka.
Claude to model z filozofią wbudowaną w trening, z unikalną metodą uczenia się od siebie samego, z aplikacją desktopową, która potrafi działać jako asystent przyczepiony do każdej aplikacji na twoim Macu, z pamięcią między sesjami i projektami, które naprawdę pamiętają kontekst twojej pracy.
Jeśli cokolwiek z tego, co przeczytałeś, byłoby dla ciebie nowe – wiesz teraz, od czego zacząć eksperymentować. Pobierz aplikację desktopową, włącz dyktowanie, stwórz pierwszy projekt i wgraj do niego dokumenty, z którymi pracujesz najczęściej. Za tydzień wróć i zastanów się, czy nadal chcesz używać go jak pola tekstowego.
Masz swój własny gamechanger z Claude? Napisz w komentarzu – chętnie dowiem się, jak go używacie.
