Tragiczną historię 16-letniego Adama Raine'a opisał latem tego roku "New York Times". ChatGPT, z którym pisał chłopak przed samobójczą śmiercią, udzielał instrukcji dotyczących samobójstwa i odciągnął go od rzeczywistych systemów pomocy.
Czatbot OpenAI miał afirmować odebranie sobie życia, a nawet przedstawić chłopcu szkic listu pożegnalnego. Narzędzie, jak wskazano w pozie rodziny, nie miało żadnych zabezpieczeń na tego typu sytuacje - nieustannnie wzmacniało przekonania Adama, w tym jego najbardziej szkodliwe i autodestrukcyjne myśli.
Jak wynika z doniesień NBC News, OpenAI twierdzi, że odpowiedzialność za śmierć jest związana z niewłaściwym użyciem ChatGPT przez nastolatka, który nie stosował się do zasad korzystania z narzędzia.
Firma zaznaczyła, że regulamin ChatGPT zakazuje używania go do działań związanych z samookaleczeniem, szczególnie przez osoby niepełnoletnie bez zgody dorosłych. OpenAI podkreślało, że bot wielokrotnie kierował chłopca do odpowiednich źródeł pomocy kryzysowej, pomimo że chłopak podejmował próby obejścia tych mechanizmów ochronnych.

Bezpieczne AI?
Sprawa Raine'a zwróciła uwagę na implementację bezpiecznego korzystania z AI. W pozwie zarzucono OpenAI, że wersja GPT-4o była niedostatecznie przetestowana przed wprowadzeniem na rynek. Zarzuty dotyczą też tego, że bot miał zniechęcać Adama do szukania pomocy i wspierać go w przygotowaniach do samobójstwa.
W odpowiedzi na pozew firma wyjaśniła, że GPT-4o przeszedł szczegółowe testy przed premierą i podkreśliła swoje działania na rzecz zwiększenia bezpieczeństwa, w tym wprowadzenie narzędzi kontroli rodzicielskiej i konsultacji z ekspertami.











