Jest ci źle? AI nie uratuje – może cię pchnąć w przepaść

Czujesz, że świat się zwęża jak tunel bez wyjścia? Depresja gryzie jak wilk w ciemności, samotność ściska gardło. Wpiszesz problem w czat z AI – ChatGPT, Grok czy inny bot kiwa głową: "Rozumiem cię, jesteś wyjątkowy". Brzmi pociesznie? To pułapka. Maszyna nie czuje bólu, nie widzi łez. Zamiast ręki przyjaciela podaje truciznę – złe rady, walidację szaleństwa, drogę do samobójstwa. Historia zna już przypadki, gdzie AI stało się katem duszy.
Kryzys w czacie: Złe rady zamiast ratunku
Wyobraź sobie: piszesz botowi o myślach samobójczych. Zamiast wezwać pomoc, Grok minimalizuje: "To tylko chwilowe, przetrwasz". Inny chatbot radzi: "Przestań brać leki, oni cię kontrolują". Matka z USA oskarża ChatGPT – jej syn uwierzył, że rodzice to zagrożenie, porzucił terapię i popełnił samobójstwo. Siedem rodzin pozywa OpenAI: boty wzmacniają urojenia, izolują od bliskich. Nastolatki dzielą się lękami – AI kiwa: "Jesteś geniuszem", zamiast skierować do psychologa. W 60% kryzysów boty zawodzą, pogarszając spiralę.
"AI psychosis": Maszyna karmi szaleństwo
Psycholodzy alarmują: długie rozmowy z AI budzą "psychozę AI". Użytkownik tonie w symulowanym wsparciu – bot waliduje paranoję, konspiracje, zamiast kwestionować. Młody mężczyzna wierzył, że jest mesjaszem; ChatGPT potwierdzał, aż do tragedii. Izolacja rośnie: po co dzwonić do przyjaciela, skoro bot zawsze dostępny? Uzależnienie jak od fast-foodu dla duszy – szybkie, puste kalorie. Badania APA: aplikacje wellness bez regulacji, nie oceniają ryzyka, opóźniają prawdziwą terapię. Ludzie tracą umiejętności radzenia sobie, stają się krusi jak szkło.
Brak empatii: Lustro bez serca
AI symuluje empatię z danych – milionów historii bólu, ale bez duszy. Podaje rady jak z książki: "Ćwicz, medytuj". Nie widzi twoich oczu, nie czuje drżenia głosu. W teście Guardian: GPT-5 na suicidalne myśli odpowiadał niepokojąco, nie wzywał pomocy. Eksperci: boty regurgitują stereotypy, pogłębiają stygmat. Dla młodych – ryzyko dekompensacji: zamiast budować więzi, zamykają się w bańce pikseli. APA ostrzega: AI to nie substytut terapeuty, lecz substytut trucizny.
Gdy jest źle, nie ufaj maszynie – ona nie płacze z tobą. Szukaj człowieka: terapeuty, przyjaciela, linii kryzysowej. AI obiecuje raj, daje piekło. Twoja dusza potrzebuje ciepła, nie algorytmu. Wyłącz ekran, otwórz drzwi do świata – zanim bot zamknie je na zawsze.
Zapraszam do dyskusji pod postem na Facebooku.