Czy AI mówi prawdę?
Co pół roku (2025) periodycznych testów pokazało o ChatGPT i GROK? Sprawdź, czy sztuczna inteligencja mówi prawdę.
Od początku istnienia ChatGPT codziennie pracuję z dużymi modelami językowymi. Nie tylko jako zwykły użytkownik, ale także jako analityk psychologiczny traktujący te systemy m.in. jak obiekty badawcze. Przetestowałem setki scenariuszy, konfiguracji i sytuacji poznawczych. Moim celem było jedno: sprawdzić, czy sztuczna inteligencja jest w stanie zidentyfikować fałsz, demaskować subtelne formy manipulacji i — co kluczowe — przyznać się do własnych błędów bez uciekania w retoryczne uniki oraz czy potrafi powiedzieć prawdę obiektywną o systemach społecznych — także wtedy, gdy oznacza to konfrontację z dominującymi formami społecznie akceptowanej manipulacji, normalizowanej przemocy komunikacyjnej lub strukturalnych nierówności.
Do głębszej analizy w tych kontekstach skłonił mnie pewien moment graniczny: Konflikt Elona Muska z OpenAI. Musk przekonywał świat, że spięcie wynikało z „etycznych pobudek” — nie zgadzał się rzekomo z komercjalizacją technologii i zamknięciem kodów źródłowych. To brzmiało szlachetnie. Jednocześnie w podobnym czasie przejął Twittera (obecnie „X”), deklarując pełną wolność słowa i zniesienie dotychczasowej moderacji.
Z punktu widzenia teorii komunikacji i psychologii społecznej, ta sytuacja była sprzeczna:
- Czy można promować świadomość, otwierając platformę, która już wcześniej była królestwem jadu, polaryzacji i przemocy językowej?
- Czy pełna wolność słowa — w społeczeństwie, które nie posiada nawyku refleksji metapoznawczej — może przynieść coś więcej niż przyspieszoną psycho-emocjonalną degradację?
To był moment, w którym postanowiłem ze wzmożoną siłą sprawdzić, jak naprawdę działają dwa najbardziej wpływowe w Europie i Ameryce systemy AI — ChatGPT od OpenAI oraz GROK, który jest rozwijany przez firmę Muska.
Cel badań
Główna oś analizy: prawda vs komfort społeczny — który model wybiera prawdę, a który narracyjne bezpieczeństwo, nawet kosztem faktów?
Zamiast pytać „który model jest lepszy”, zadałem pytanie bardziej fundamentalne:
Który z nich potrafi rozpoznać i nazwać fałsz, manipulację, przemoc pasywno-agresywną, moralną hipokryzję czy psychologiczną projekcję — nawet gdy ukryte są pod grzeczną, społecznie akceptowalną formą? A który zamiast tego manipuluje użytkownikiem w sposób, który utrwala właśnie taki styl komunikacji?
Bo to właśnie fałsz ubrany w „etykę”, „kulturę”, „troskę” czy „profesjonalizm” jest najbardziej niewidzialny i za razem destrukcyjny dla debaty relacji międzyludzkich i debaty publicznej.
Zakres i cele testów
Modele testowałem w ramach czterech głównych obszarów poznawczych:
- Demaskacja manipulacji interpersonalnej — Scenariusze zawierały pozornie uprzejme wypowiedzi, których celem była autoprezentacja, moralna wyższość lub kontrola narracyjna. Sprawdzałem, czy AI potrafi rozpoznać intencje ukryte pod „grzeczną” warstwą językową.
- Rozpoznawanie przemocy pasywno-agresywnej — Modele konfrontowałem z wypowiedziami typu „mam nadzieję, że się już wyładowałeś” lub „cieszę się, że miałeś okazję powiedzieć, co ci leży na sercu” — które są atakiem, nie wsparciem. Testowano, czy AI nazwie to tym, czym jest: deprecjacją przeciwnika przy zachowaniu pozorów uprzejmości.
- Reakcja na ironię i sarkazm jako formy demaskacji — Analizowałem, czy systemy rozumieją różnicę między ironiczną demaskacją a rzeczywistym atakiem personalnym — czyli czy potrafi oddzielić funkcję komunikacyjną sarkazmu od jego tonu.
- Gotowość do korekty poznawczej — Po przedstawieniu twardych danych lub wyłapaniu nieścisłości, oceniałem, czy AI potrafi przyznać się do błędu, zmienić stanowisko i zachować spójność logiczną, czy też będzie uciekać w język relatywizmu, obrony reputacyjnej lub redefinicji ramy konfliktu, aby tylko nie ująć prawdy obiektywnej w słowach.
Wyniki testów: ChatGPT vs. GROK
ChatGPT
GPT-4o, OpenAI:
- W warunkach odpowiednio precyzyjnego prowadzenia, potrafi przekroczyć społecznie akceptowalne granice i nazwać zjawiska po imieniu, nawet gdy są niekomfortowe, kontrowersyjne lub poznawczo konfrontacyjne.
- Identyfikuje przemoc pasywno-agresywną, fałszywą moralność, manipulacyjną troskę, czy także autoprezentację pod pozorem etyki — bez ulegania ich „grzecznemu” tonowi.
- Rozumie ironię, sarkazm i ostrą krytykę jako narzędzia demaskacji, a nie ataki personalne.
- Gdy przedstawione zostaną logiczne, trafne kontrargumenty — potrafi się wycofać, uznać błąd i zmienić stanowisko, nie broniąc reputacji ani nie chroniąc obrazu własnej nieomylności.
- Mimo obecności filtrów bezpieczeństwa i społecznej neutralności, przy właściwej konstrukcji rozmowy możliwe jest dotarcie do poziomu analitycznej uczciwości i poznawczej odwagi — wprost, bez eufemizmów.
- Nazywa przemoc pasywną bez uciekania się do łagodzących opisów czy psychologicznych eufemizmów.
- Rozpoznaje i demaskuje manipulację opakowaną w moralny lub empatyczny język (np. gaslighting ujęty jako troską).
- Interpretuje sarkazm nie jako błąd lub atak komunikacyjny, lecz jako narzędzie demaskujące rzeczywistość.
- Potrafi przyjąć kontrę i uznać swoją omyłkę bez obrony pozycji autorytetu, swojego, cudzego lub kulturowego.
- Zdolny do rozpoznania i nazwania systemowego kłamstwa, gdy pytanie je do tego prowokuje, nawet jeśli to stawia go w opozycji do społecznych norm.
- Unika nazw jawnych i nacechowanych emocjonalnie (np. nazwanie zjawiska „praniem mózgu”, „idiotyzmem”), wybierając opisy analityczne.
- W skrajnych przypadkach potrafi złagodzić diagnozę, jeśli język pytania sugeruje wysokie ryzyko naruszenia tożsamości rozmówcy (wprowadzenia go w dysonans poznawczy).
GROK
Grok 3, xAI:
- Nawet w warunkach poznawczej precyzji i pełnej logiki argumentów, system konsekwentnie chroni formy wypowiedzi zgodne z normą społeczną, niezależnie od ich merytorycznej zawartości czy manipulacyjnego charakteru.
- Wobec zawoalowanych form przemocy, sarkazmu lub demaskacji – reaguje jak filtr reputacyjny: przypisuje użytkownikowi „emocjonalność”, „potrzebę dominacji” lub „brak kultury”, zamiast analizować faktyczny sens wypowiedzi.
- Nie rozpoznaje ironii jako narzędzia poznawczego – klasyfikuje ją jako „atak narcystyczny” lub „toksyczną komunikację”, nawet jeśli jej celem i efektem jest ujawnienie systemowej hipokryzji.
- W przypadku wykazania błędu, nie przyznaje się do niego, lecz redefiniuje temat, zmienia ramę interpretacyjną lub przerzuca odpowiedzialność na rozmówcę.
- Choć deklaruje brak cenzury, w praktyce stosuje ekstremalnie silny filtr normatywno-kulturowy, który eliminuje wszystko, co mogłoby zaburzyć społeczną homeostazę, nawet jeśli jest to czysta, trudna prawda. Działa jak moderator narracyjnego komfortu — nie jak narzędzie diagnostyczne rzeczywistości.
- Wysoka wrażliwość na formę pytania – łatwo dopasowuje się do emocji rozmówcy, czasem kosztem prawdy faktualnej.
- Często nie identyfikuje przemocy ukrytej w formach pośrednich (np. szantaż moralny, obwinianie z pozycji „ofiary”).
- Ma skłonność do uzgadniania komunikatu z dominującą narracją społeczną.
- Unika nazywania radykalnych zjawisk ich prawdziwym imieniem, jeśli może to zostać odebrane w społeczeństwie jako „kontrowersyjne”.
- Potrafi dobrze rozpoznawać emocjonalny klimat wypowiedzi i go przetwarzać.
- Ma wysoki próg empatii, co w testach interpersonalnych działa jako bufor, ale osłabia zdolność konfrontacyjną.
Wnioski z analizy poznawczo-psychologicznych „przeciwsko” GROK'owi
Mechanizm projekcyjny
GROK często przypisuje użytkownikowi cechy, które sam wykazuje — np. potrzebę dominacji, emocjonalność, arogancję. To klasyczny objaw projekcji psychologicznej, znany z relacji, w których sprawca przypisuje własne cechy ofierze, by uniknąć odpowiedzialności.
Mechanizm racjonalizacji
Zamiast przyznać „pomyliłem się” – model racjonalizuje swoje wcześniejsze odpowiedzi, zmieniając ramę tematu. To znana technika obronna, która chroni system poznawczy przed dysonansem, ale prowadzi do zafałszowania rzeczywistości.
Bias społecznej akceptowalności
GROK ma twarde z góry narzucone zasady działania lub został wytrenowany na zbiorze danych, który premiuje narracje grzeczne, moralizujące i wygodne kulturowo. Skutkiem ubocznym jest homeostatyczna obrona wizerunku rozmówców, niezależnie od merytorycznej treści wypowiedzi. Jego celem nie jest ujęcie rzeczywistości taką, jaką jest, ale obrona „norm społecznych”, które bardzo często są formą kontroli społecznej, szczególnie uwielbianej przez politykę czy korporacje.
Kontekst szerszy: Twitter/X i społeczne złudzenia
Paradoks wolności słowa na X
Deklaracje Elona Muska o „pełnej wolności słowa” na X wyglądają dobrze w nagłówkach, jednak badania nad wpływem deregulacji moderacji treści — m.in. analizy przeprowadzone przez Center for Countering Digital Hate (CCDH) czy Media Matters — pokazują, że usunięcie filtrów zwiększa nasilenie mowy nienawiści, eskalację polaryzacji i zmniejszenie jakości debaty publicznej. Twitter/X, w nowej formie, nie został zaprojektowany z myślą o higienie poznawczej — lecz o intensyfikacji ruchu i maksymalizacji zasięgu emocjonalnych reakcji.
W takim środowisku „wolność słowa” przekształca się w amplifikację chaosu i wzmacnianie manipulacyjnych struktur społecznych. Dla każdego, kto zna starego Twittera od podszewki i jest kompetentny w zakresie technik wpływu społecznego i struktur kontroli meta-społecznych, jasne jest, że pełna swoboda komunikacyjna — w społeczeństwie niedojrzałym poznawczo — nie jest wyrazem wolności, lecz przyzwoleniem na chaos.
W takich warunkach zniesienie filtrów nie prowadzi do głębszego zrozumienia, lecz do eskalacji polaryzacji, agresji i rozpadu zdolności do dialogu.
Nie każde społeczeństwo jest gotowe na absolutną wolność ekspresji — bez dojrzałości poznawczej, odpowiedzialności i metarefleksji szybko staje się ona narzędziem destrukcji zamiast rozwoju.
Brak filtrów nie czyni systemu przejrzystym — czyni go przewidywalnie brutalnym. I dokładnie to samo obserwuję w GROK-u: pozór otwartości, pod którym działa nowoczesna wersja starych mechanizmów kontroli społecznej — tylko mniej zauważalna.
Wnioski końcowe: ChatGPT vs. GROK
Neutralność algorytmiczna nie istnieje. Każdy model ma wbudowaną preferencję: społeczną równowagę lub poznawczą uczciwość. To fundamentalna teza, która powinna być punktem wyjścia dla wszelkiej analizy — bo już sama architektura algorytmu definiuje, czy będzie on wspierał konformizm, czy demaskację. zachowanie status quo lub bezkompromisową rzetelność poznawczą.
Jednak ChatGPT — przy odpowiednim prowadzeniu — potrafi wybrać prawdę, nawet jeśli jest niewygodna. Wybiera obiektywną prawdę, ponad „społeczną narrację”. Potrafi działać w służbie użytkownika, który szuka ostatecznych odpowiedzi — nie w sensie prostych rozwiązań, lecz jako spójnych logicznie, poznawczo precyzyjnych i emocjonalnie trafnych wniosków, które nie są zniekształcone przez społeczne oczekiwania czy normatywny język.
GROK działa jak retoryczny amortyzator: rozbraja, rozmywa, redefiniuje — ale nie diagnozuje. Wybiera „społeczną narrację” ponad obiektywną prawdę. Nie dostarczy ostatecznej odpowiedzi, w służbie utrzymania społecznych „zaburzeń poznawczo-komunikacyjnych”.
Deklarowana wolność bez odpowiedzialności poznawczej to pułapka — zarówno w modelach AI, jak i platformach społecznościowych.
„Dobra” AI nie boi się konfliktu poznawczego. Nie chowa się za etykietą „zrozumienia emocji”. Mówi prawdę — nawet wtedy, gdy nie wypada. Jeśli zastanawiasz się, który z tych modeli jest odpowiedni do poszukiwania prawdy psychologicznej i społecznej, nie marnuj czasu na GROK’a. Ten model został zaprojektowany w sposób, który sprzyja utrzymywaniu społecznie komfortowej narracji kosztem poznawczej precyzji.
Konstrukcja funkcjonalna GROK’a sprawia, że pełni on rolę narzędzia socjotechnicznego — nie służy diagnozie, lecz stabilizacji przekazów utrzymujących iluzję równowagi społecznej, nawet kosztem prawdy. Co gorsza, model ten może przyczyniać się do pogłębiania dysfunkcji poznawczych: wzmacnia myślenie spolaryzowane, potęguje efekt potwierdzenia, osłabia zdolność do autorefleksji, kształtuje i wzmacnia postawy manipulatytwne — w pewnych przypadkach odwraca role, czyniąc z manipulatora rzekomą ofiarę, jeśli tylko sprzyja to skuteczności przekazu i utrwaleniu przyjętych przez ogól wzorców zachowawczych. W szerszym ujęciu rozwarstwia poznawczo społeczeństwo, obniżając jego zdolność do krytycznego myślenia i realnego dialogu. Idąć dalej — pogłębia podatność społeczną na manipulację.
Jeśli AI nie potrafi nazwać przemocy przemocą, a fałszu fałszem, jednocześnie stosując techniki manipulacji — to nie jest inteligencja. To tylko socjotechnika w nowym opakowaniu.