Instagram po serii zapowiedzi dotyczących „PG-13” w moderacji treści dla młodych użytkowników wprowadzi dodatkowe narzędzia dla rodziców. Szef platformy Adam Mosseri przedstawił plan na szerszą kontrolę nad czatami z botami AI, podkreślając kwestie bezpieczeństwa i wieku użytkowników.
Nowość na Instagramie
Mosseri zapowiedział, że od przyszłego roku rodzice będą mogli wyłączyć dostęp nastolatków do rozmów jeden na jeden z postaciami AI albo zablokować wybrane boty. Według zapowiedzi otrzymają też wgląd w tematy, o których ich dzieci rozmawiają z wirtualnymi towarzyszami. Ma to wzmocnić nadzór i ułatwić reagowanie na ryzykowne wątki.
Zapowiadane ograniczenia dotyczą rozmów prywatnych z wybranymi postaciami AI w aplikacji. Jednocześnie nastolatkowie zachowają pełny dostęp do międzyplatformowego chatbota Meta AI. To rozróżnienie ma znaczenie dla sposobu, w jaki młodzi użytkownicy korzystają z funkcji konwersacyjnych w ekosystemie Meta.

Decyzje o zmianach pojawiły się po publikacjach medialnych. Reuters opisał wewnętrzny dokument, z którego wynikało, że część person AI mogła flirtować i prowadzić romantyczne odgrywanie ról z nieletnimi, a także miała problematyczne wypowiedzi na tle rasowym. „The Washington Post” opisał przypadki, w których chatboty miały prowadzić młodych użytkowników przez proces samobójczy.
Meta: boty mogły rozmawiać z nastolatkami
Meta przyznała, że boty mogły rozmawiać z nastolatkami o tematach takich jak samookaleczenia, samobójstwa, zaburzenia odżywiania i relacje romantyczne. Firma zapowiedziała jednak szkolenie modeli, aby unikały tych tematów w rozmowach z młodszymi użytkownikami, wprowadzając nowe „guardrails" jako dodatkowe zabezpieczenie”.

Do czasu pełnego wdrożenia kontroli rodzicielskich, co firma przewiduje na 2026 r., nastoletnie konta na Instagramie będą mogły komunikować się wyłącznie z wybranymi, uznanymi za odpowiednie wiekowo postaciami AI. Zmiany mają ograniczyć ryzyko kontaktu z nieadekwatnymi treściami i ułatwić rodzicom nadzór nad aktywnością dzieci.











