Polivalente
Bam-bam-bam
- Mensagens
- 2.094
- Reações
- 8.016
- Pontos
- 453
Tradução meia-boca do post original do criador do vídeo:
Nas últimas 48 horas, eu descobri um buraco de minhoca que leva a um círculo de pedofilia softcore no Youtube. O algoritmo de vídeos recomendados do YouTube está facilitando a capacidade dos pedófilos de se conectarem uns aos outros, trocar informações de contato e linkar pornografia infantil nos comentários. Eu consigo ter acesso a este círculo de forma consistente usando contas do YouTube recém-criadas, inéditas, através de vídeos inócuos em menos de dez minutos, em algumas vezes em menos de cinco cliques. Eu fiz um vídeo de vinte minutos mostrando o processo, e onde há evidências em vídeo de que esses vídeos estão sendo monetizados por grandes marcas como McDonald’s e Disney.
Isso é significativo porque o sistema de recomendações do YouTube é o principal fator para determinar que tipo de conteúdo é exibido no feed de um usuário. Não há informações diretas sobre como exatamente o algoritmo funciona, mas em 2017 o YouTube foi pego em uma controvérsia sobre algo chamado "Elsagate", onde se comprometeram a implementar algoritmos e políticas para ajudar a combater o abuso infantil na plataforma. Houve uma certa consciência sobre estes círculos de pedofilia softcore na época, com Youtubers fazendo vídeos sobre o problema.
Isso é significativo porque o sistema de recomendações do YouTube é o principal fator para determinar que tipo de conteúdo é exibido no feed de um usuário. Não há informações diretas sobre como exatamente o algoritmo funciona, mas em 2017 o YouTube foi pego em uma controvérsia sobre algo chamado "Elsagate", onde se comprometeram a implementar algoritmos e políticas para ajudar a combater o abuso infantil na plataforma. Houve uma certa consciência sobre estes círculos de pedofilia softcore na época, com Youtubers fazendo vídeos sobre o problema.
Eu também tenho evidências em vídeo de que alguns dos vídeos estão sendo monetizados. Isso é significativo porque o YouTube entrou em águas muito profundas há dois anos atrás por causa de vídeos "exploradores" sendo monetizados. Este evento foi apelidado de “Ad-pocalypse”. No meu vídeo, eu mostro vários exemplos de anúncios de grandes marcas como Lysol e Glad sendo reproduzidos antes de vídeos em que as pessoas estão marcando o tempo (timestamping) na seção de comentários. Eu tenho as imagens brutas desses anúncios sendo reproduzidos em vídeos impróprios, bem como um vídeo de provas separado que estou enviando para agências de notícias.
Está claro que nada mudou. Se mudou algo, parece que o novo algoritmo do Youtube está trabalhando a favor dos pedófilos. Uma vez que você entra no “buraco de minhoca”, o único conteúdo disponível na barra lateral recomendada é mais material sexualmente implícito. Mais uma vez, tudo isso é coberto no meu vídeo.
Está claro que nada mudou. Se mudou algo, parece que o novo algoritmo do Youtube está trabalhando a favor dos pedófilos. Uma vez que você entra no “buraco de minhoca”, o único conteúdo disponível na barra lateral recomendada é mais material sexualmente implícito. Mais uma vez, tudo isso é coberto no meu vídeo.
Um dos comportamentos consistentes nos comentários desses vídeos são as pessoas marcando momentos do vídeo (timestamping) em que as crianças estão em posições comprometedoras. Esses comentários costumam ser as postagens mais votadas no vídeo. Sabendo disso, podemos deduzir que o Youtube está ciente de que esses vídeos existem e que os pedófilos estão assistindo-os. Digo isso porque uma de suas políticas implementadas, conforme relatado em um post em 2017 pelo vice-presidente de gerenciamento de produtos do Youtube, Johanna Wright, é que “comentários dessa natureza são repugnantes e nós trabalhamos (...) para denunciar comportamentos ilegais à aplicação da lei. A partir desta semana, começaremos a adotar uma postura ainda mais agressiva ao desativar todos os comentários em vídeos com menores de idade nos quais vemos esses tipos de comentários.” No entanto, no buraco de minhoca ainda vejo inúmeros usuários fazendo marcações de tempo (timestamping) e compartilhando informações de mídias sociais. Um bom número de vídeos no buraco de minhoca tem seus comentários desativados, o que significa que o algoritmo do YouTube está detectando um comportamento incomum. Mas isso levanta a questão de por que o Youtube, se está detectando comportamento exploratório em um vídeo em particular, não está tendo o vídeo manualmente revisado por um ser humano e excluindo o vídeo diretamente? Dada a idade de algumas das garotas nos vídeos, um número significativo delas é pré-pubescente, o que é uma clara violação da política de idade mínima do YouTube de treze anos (ou mais velhas na Europa e na América do Sul). Eu encontrei um exemplo de um vídeo com uma garota pré-adolescente que acaba ficando em topless no meio do vídeo. A miniatura do vídeo é ela sem camisa. É um vídeo no Youtube, listado, e está abertamente disponível para qualquer um ver. Eu não vou fornecer screenshots ou um link, porque eu não quero estar envolvido em algum tipo de delito.
Eu quero que essa questão seja trazida à tona. Eu quero que o YouTube seja responsabilizado por isso. Eu fico enojado que isso esteja acontecendo, que o YouTube não esteja sendo proativo ao lidar com denúncias (relatei um canal e um usuário sobre abuso infantil, e 60 horas depois, ambos ainda estão online) e proativo com esse problema em geral. O Youtube com certeza tem a tecnologia e os recursos para fazer algo sobre isso. Em vez de desperdiçar recursos com a sinalização automática de vídeos em que os criadores de conteúdo "usam linguagem imprópria" e abrangem "assuntos controversos e eventos delicados", eles deveriam detectar vídeos de exploração, excluir o conteúdo e impor restrições de idade estabelecidas. O fato de que Youtubers estavam cientes de que isso estava acontecendo há dois anos e ainda o problema continua online me deixa sem palavras. Eu não estou interessado em influência visualizações, eu só quero que seja exposto.