OpenAI wprowadził do ChataGPT funkcję "przewidywania wieku", która ma pomóc w identyfikacji osób nieletnich. Gdyby udało się zidentyfikować osobę nieletnią, która przedstawiała się jako dorosła, treści rozmów z chatbotem podlegałyby ograniczeniom.
W ostatnim czasie właściciel ChataGPT spotkał się z ostrą krytyką dotyczącą wpływu, jaki chatbot może mieć na dzieci. Łączono z nim samobójstwa wśród nastolatków, krytykowano za umożliwienie dyskusji na tematy seksualne z młodymi użytkownikami. W kwietniu 2025 roku OpenAI został zmuszony do naprawienia błędu, który umożliwiał chatbotowi tworzenie treści erotycznych dla użytkowników poniżej 18. roku życia.
ChatGPT z nową funkcją przewidywania wieku użytkowników
OpenAI od dłuższego czasu pracuje nad rozwiązaniem problemu nieletnich użytkowników, a nowa funkcja "przewidywania wieku" uzupełnia dotychczasowe zabezpieczenia. To na przykład filtry treści, które pozwalają odsiewać dyskusje o seksie, przemocy i inne potencjalnie problematyczne tematy dla użytkowników poniżej 18. roku życia.

Jak przekazała firma w komunikacie, sygnały obejmują takie informacje jak podany wiek użytkownika, czas istnienia konta oraz pory dnia, w jakich konto z reguły jest aktywne. Jeśli mechanizm przewidywania wieku zidentyfikuje konto jako przeznaczone dla osoby nieletniej, filtry zostaną zastosowane automatycznie.
Jeśli natomiast internauta zostanie omyłkowo oznaczony jako osoba niepełnoletnia, będzie sposób na przywrócenie konta dla osoby dorosłej. Użytkownik może przesłać... selfie do Persona, partnera OpenAI w zakresie weryfikacji tożsamości. Pesona pomaga OpenAI automatycznie weryfikować 99 proc. użytkowników, by dostarczać bezpieczne treści generowane przez AI.
OpenAI ogłosił plany stworzenia wersji ChatGPT dla nastolatków we wrześniu ub.r. Nowe funkcje mają zapewnić większe bezpieczeństwo użytkownikom poniżej 18. roku życia. "W niektórych przypadkach lub krajach możemy poprosić użytkowników o dowód osobisty" – napisał wówczas na blogu Sam Altman, dyrektor generalny OpenAI.












