Meta rozbudowuje narzędzia nadzoru rodzicielskiego wokół swoich rozwiązań AI, zwiększając wgląd w to, jak nastolatkowie korzystają z Meta AI w jej aplikacjach.
W nowej karcie Insights rodzice zobaczą kategorie tematów, o które dziecko pytało AI
w ostatnich siedmiu dniach. Funkcja jest wdrażana na kluczowych rynkach, w tym w Australii.
Insights w Meta AI: co widzą rodzice, a czego nie
Nowa funkcja pokaże jedynie ogólną tematykę zapytań, bez dostępu do treści rozmów. Zostaną one przypisane do szerokich kategorii, takich jak szkoła, rozrywka, styl życia czy zdrowie. Meta podkreśla, że to kompromis między przejrzystością a prywatnością.
W praktyce rodzice zyskają lepszy wgląd w to, jak dziecko korzysta z AI, ale bez dostępu do pełnych konwersacji. To część szerszego pakietu zabezpieczeń dla kont nastolatków, obejmującego m.in. ograniczenia treści nieadekwatnych do wieku i reakcje na tematy wrażliwe.

Bezpieczeństwo i zdrowie psychiczne: alerty przy ryzykownych rozmowach
Meta pracuje też nad powiadomieniami, które mają informować rodziców, gdy nastolatek podejmuje w AI tematy związane z samobójstwem lub samookaleczeniem. Firma wskazuje, że to rosnące wyzwanie wraz z coraz większą obecnością AI w życiu młodych użytkowników.
Równolegle Meta rozwija działania edukacyjne i konsultacyjne. Powołała AI Wellbeing Expert Council, czyli zespół specjalistów ds. zdrowia psychicznego, bezpieczeństwa młodzieży i odpowiedzialnego rozwoju AI.










