O YouTube reforçou a aplicação de suas diretrizes para vídeos voltados para crianças, afirmou a Alphabet, do Google, na quarta-feira, em resposta a críticas de que a rede social não tem protegido as crianças de conteúdos adultos.
O serviço de streaming de vídeo removeu mais de 50 canais na última semana e parou de transmitir anúncios em mais de 3,5 milhões de vídeos desde junho, afirmou a vice-presidente do YouTube, Johanna Wright, em publicação em um blog.
+ Após críticas, YouTube anuncia plano para acabar com censura a conteúdo LGBT
“No geral, nós temos aumentado os recursos para garantir que milhares de pessoas estejam trabalhando 24 horas por dia para monitorar, revisar e tomar as decisões certas sobre nossas políticas de anúncio e conteúdo”, disse Wright. “Essas últimas mudanças de aplicação tomarão forma nas próximas semanas e meses à medida que trabalhamos para lidar com esse desafio crescente”.
O YouTube tem se tornado uma das operações do Google de crescimento mais rápido em termos de venda ao simplificar o processo de distribuição de vídeos online, mas colocando poucos limites no conteúdo.
Pais, anunciantes, órgãos reguladores e judiciais têm ficado cada vez mais preocupados com a natureza aberta do serviço. Eles alegam que o Google precisa fazer mais para banir e restringir o acesso a vídeos inapropriados, incluindo propagandas de extremistas religiosos.
O Google depende de pedidos de revisão de usuários, de um painel de especialistas e de um programa automatizado de computador para ajudar seus moderadores a identificar materiais que possam precisar ser removidos.
Moderadores agora são instruídos a deletar vídeos “mostrando menores que podem estar colocando crianças em perigo, mesmo se essa não seja a intenção de quem os publicou”, disse Wright. Vídeos com personagens populares “mas contendo temas maduros ou humor adulto” também serão restringidos a adultos, disse.