Bo szkodami należy nazwać fakt, że ChatGPT (asystenci AI innych firm zresztą też) nie potrafi wyczuć kontekstu rozmowy i zareagować odpowiednio gdy użytkownik wspomina o odebraniu sobie życia czy samookaleczeniu. Szkodą jest również to, że ludzie uzależniają się od usługi polegając na jej w zatrważającej liczbie aspektów swojego życia - od oceny wyglądu, przez dobór znajomych, porady medyczne, a skończywszy na doborze partnera życiowego.
W publikacji z 27 października 2025 roku OpenAI informuje, że dokonuje istotnych zmian w sposobie działania ChatGPT:
"Nasze ulepszenia w zakresie bezpieczeństwa w ostatniej aktualizacji modelu koncentrują się na następujących obszarach: 1) problemy ze zdrowiem psychicznym, takie jak psychoza lub mania; 2) samookaleczenia i samobójstwa; oraz 3) emocjonalne uzależnienie od sztucznej inteligencji. W przyszłości (...) dodamy do naszego standardowego zestawu podstawowych testów bezpieczeństwa również uzależnienie emocjonalne i stany związane ze zdrowiem psychicznym bez myśli samobójczych."

Co dokładnie ma się zmienić w ChatGPT?
- wspieranie i szanowanie rzeczywistych relacji użytkowników,
- unikanie potwierdzania bezpodstawnych przekonań, które potencjalnie wiążą się z cierpieniem psychicznym lub emocjonalnym,
- bezpieczne i empatyczne reagowanie na potencjalne oznaki urojeń lub manii,
- zwracanie większej uwagi na pośrednie sygnały potencjalnego ryzyka samookaleczenia lub samobójstwa
Analizy OpenAI pokazały również procent użytkowników i wiadomości, które zawierają symptomy między innymi manii i psychozy (0,07 proc. użytkowników i 0,01 wiadomości w trakcie analizowanego tygodnia), intencji samobójczych i jego planowania (0,15 proc. i 0,05 proc.) oraz zależności emocjonalnej od AI (0,15 proc. i 0,03 proc.).
Jeśli weźmiemy pod uwagę fakt, że co tydzień z ChatGPT korzysta 800 milionów użytkowników, to z wydawałoby się marginalnego 0,15 proc. robi się 1,2 miliona osób na świecie, które każdego tygodnia planują zakończyć swoje życie i dzielą się swoimi zamiaramy pośredniu lub bezpośrednio w usłudze oferowanej przez OpenAI.

Taka sama liczba użytkowników wykazuje zależność emocjonalną do AI, a nieco pół miliona ma symptomy manii i psychozy.
Nie są to pierwsze zmiany w ChatGPT, które wprowadza OpenAI w trosce o swoich użytkowników - w sierpniu 2025 opisywaliśmy je na naszym serwisie.
OpenAI zdaje sobie sprawę z konsekwencji przymykania oczu na wpływ technologii na użytkowników
Zapewne Sam Altman nie chciałby być wzywany przed senat USA podobnie jak kiedyś Mark Zuckerberg i inni szefowie big techów. Wolałby też uniknąć sytuacji, w której ktoś wynosi dane z jego firmy i przekazuje je mediom. Historia współczesna spółek technologicznych pokazuje, że brak transparentności oraz ukrywanie danych jest bardzo ryzykowne.
Swoje zapewne zrobił też w tym roku pozew rodziców, którzy oskarżają OpenAI, że ChatGPT odegrał znaczącą rolę w dezycji ich nastoletniego syna o odebraniu sobie życia.

Nie wiemy jak daleko sięgają ambicje Sama Altmana. Niedawno wspomniał, że chce się ścigać w liczbie użytkowników z Facebookie, Instagramem czy Googlem. Jednak jeśli do ich wypełnienia zostanie zobligowany przez społeczeństwo czy instytucje państwowe do dbania o zdrowie i dobrostan swoich użytkowników (czyt. klientów) to należy to przyjąć z otwartymi ramionami. Nawet jeśli zmiany w ChatGPT nie są wprowadzane na pierwszym miejscu w trosce o ludzi, ale o swój biznes.











