O TikTok está começando a testar maneiras de restringir alguns tipos de conteúdo em seu aplicativo em meio a um esforço para reforçar os recursos de segurança para adolescentes.
O trabalho está em estágio inicial, mas a empresa diz que o objetivo é proteger os usuários mais jovens de conteúdo adulto ou outros vídeos potencialmente inapropriados.
O TikTok, como outros aplicativos de mídia social, enfrentou recentemente um maior escrutínio sobre como lida com a segurança do usuário, principalmente para crianças e adolescentes.
Em uma audiência no Congresso no outono passado, o vice-presidente de políticas públicas da empresa deu a entender que o aplicativo estava trabalhando em novas maneiras de “aproveitar o conteúdo com base na adequação à idade”.
Agora, a empresa compartilhou mais alguns detalhes de como isso pode ser.
O TikTok, há muito conhecido por seu algoritmo de recomendação assustadoramente preciso, está trabalhando em recursos que seriam capazes de classificar o conteúdo com base na “maturidade do conteúdo e zonas de conforto temáticas”, de acordo com Tracy Elizabeth, líder de política de questões globais do TikTok.
“Quando o sistema estiver totalmente lançado, o conteúdo que identificamos como contendo temas abertamente adulto pode ser restrito a adolescentes”, disse ela durante uma entrevista com repórteres.
“E para conteúdo com menos… temas maduros, os membros da nossa comunidade poderão escolher as zonas de conforto ou maturidade do conteúdo que preferem pular ou optar.”
Separadamente, o TikTok também está trabalhando em um recurso para criadores que permitiria indicar se seus vídeos são destinados a adultos ou usuários mais jovens.
Isso pode ajudar a informar ainda mais as recomendações do TikTok para garantir que conteúdo mais adulto fique fora dos feeds de usuários mais jovens.