É hora de o YouTube morrer

É hora do YouTube morrer

Quatorze anos atrás, em 14 de fevereiro de 2005, o YouTube nasceu. Uma das plataformas de mídia social mais populares agora e, de acordo com a Alexa Internet, o segundo site mais popular do mundo – apenas o segundo do Google. E apenas um ano após seu lançamento, foi adquirida pelo Google por US $ 1,65 bilhão. O YouTube oferece a seus usuários um lugar para enviar seus vídeos livremente e, a partir de fevereiro de 2017, são enviadas mais de 400 horas de conteúdo para o YouTube a cada minuto e um bilhão de horas de conteúdo sendo assistido diariamente. Eu, provavelmente, gasto pelo menos 2 horas por dia assistindo ao YouTube e, em certa medida, substitui o tempo que eu gasto assistindo televisão ou streaming online. Então, o que estou prestes a sugerir em seguida pode chocar você:

Acho que é hora do YouTube morrer.
Eu sei que parece loucura, mas me ouça. Há muitos problemas que surgiram nos últimos anos e que o YouTube ainda precisa abordar de maneira significativa. E agora que a sociedade jovem passou a querer ser YouTubers (de 1.000 crianças pesquisadas, 75% dizem que querem seguir uma carreira de vídeo on-line), o YouTube não tem outra opção senão fazer uma mudança e em breve. Minha opinião é: o tempo está passando no YouTube antes que uma nova empresa receba seus problemas já resolvidos e assuma o controle.

Mas o que exatamente são essas questões?

Sistema de revisão do YouTube

O YouTube, desde o seu lançamento, lutou muito para acompanhar o enorme número de vídeos enviados a cada minuto. É claro que é impossível filtrar todos os vídeos antes que eles subam, então o YouTube tem uma maneira automatizada de escanear vídeos para ver se os vídeos aderem às diretrizes da comunidade que, em resumo, são:

Sem nudez ou conteúdo sexual
Conteúdo nocivo ou perigoso
Conteúdo não odioso
Nenhum conteúdo violento ou gráfico
Não intimidação ou assédio
Não há fraudes ou conteúdo enganoso
Nenhum material protegido por direitos autorais
Parece bem simples, mas é muito difícil para um robô dizer qual é a linha entre os vídeos que são genuinamente prejudiciais e que são piadas. O maior escândalo para atacar o YouTube e chamar seu sistema de revisão sem brilho foi o vlog de Logan Paul em 2018.

Logan Paul e a Floresta Suicida

Logan Paul no seu desde o vlog deletado no Japão
Em 2018, o astro do YouTube Logan Paul postou o que parecia ser um vlog regular em seu canal no YouTube. Apesar de ser uma figura controversa, mesmo antes do escândalo, Paul era imensamente popular, estimado pela Forbes em cerca de US $ 12,5 milhões. Mas não demorou muito para o vlog antes que estivesse claro que algo estava indo muito errado.

Paul e seus amigos fizeram uma viagem para a floresta Aokigahara no Japão, também conhecida como a “Floresta Suicida”. O Japão tem a maior taxa de suicídio do mundo e a floresta Aokigahara se tornou um lugar popular para as pessoas irem para realizar isso. Enquanto filmava lá, Paul e seus amigos descobriram o corpo de um homem pendurado em uma árvore. Apesar de parecerem chocados no começo, eles continuaram a filmar o corpo e fazer piadas sobre suicídio. O vídeo foi recebido com críticas generalizadas, chamando-o de “desrespeitoso” e “repugnante”. O pior é que o vídeo ficou no YouTube por 10 dias, ganhando mais de 6 milhões de visualizações antes de o próprio Logan Paul gravar o vídeo.

Além dos problemas óbvios com Paul, o YouTube precisou de muito esforço para permitir que o vídeo passasse pela revisão sem que nada fosse sinalizado como um problema. Vários dias após o fiasco, o YouTube emitiu seu pedido de desculpas em seu Twitter:

“… Esperamos que mais criadores de conteúdo criem sua comunidade no YouTube … O canal violou nossas diretrizes da comunidade, agimos de acordo e estamos analisando outras consequências. Levamos muito tempo para responder, mas estamos ouvindo tudo o que você está dizendo. Sabemos que as ações de um criador de conteúdo podem afetar toda a comunidade, então teremos mais a compartilhar em breve sobre as medidas que estamos tomando para garantir que um vídeo como esse nunca seja divulgado novamente. ”
No rescaldo, o YouTube acompanhou sua promessa de punir Paulo. O YouTube passou a maior parte de seus esforços removendo Paul de seu programa preferido, encerrando sua série original com ele e removendo brevemente a publicidade de seu canal (embora tenha sido restaurado menos de um mês depois). E embora eles prometessem uma mudança chegando ao processo de revisão, eles nunca realmente assumiram a responsabilidade por sua falha em todo o calvário.

Momo e YouTube Kids

Exemplo de uma miniatura usando Peppa Pig para mascarar conteúdo mais perturbador encontrado no YouTube Kids (via James Bridle)
O YouTube Kids, um subconjunto do YouTube, é anunciado como um local seguro para as crianças aproveitarem o conteúdo do YouTube com filtros extras para manter o conteúdo seguro para a faixa etária sensível. Muitos pais fazem o download do aplicativo e permitem que seus filhos assistam a vídeos livremente, mas muitas vezes comprovou que ele não é tão seguro quanto parece.

A imagem associada a “Momo” é na verdade uma escultura japonesa intitulada “Mother Bird” e não tem nenhuma relação com o desafio em si.
O desafio Momo foi popularizado há alguns anos, mas desde então ressurgiu. A premissa do desafio envolvia que as crianças descobrissem Momo em vídeos e, em seguida, instruí-las a enviar uma mensagem para ela. Depois disso, essas crianças receberiam instruções de como se machucar ou, em casos mais sérios, se matariam. Desde o seu ressurgimento, a própria Momo foi desmascarada devido à falta de provas concretas, mas a ameaça ainda é muito real, apenas um pouco menos no nariz.

Em 2017, o escritor e artista James Bridle detonou grandes alarmes ao descobrir uma série de vídeos de Peppa Pig e Mickey Mouse sendo torturados, vídeos sexualizados das Princesas da Disney e canais “peganeando” seus filhos, mostrando-os se molhando e gritando de medo. exemplo foi feito de YouTubers da família que perderam a custódia de seus filhos sobre suas brincadeiras perturbadoras). Tudo isso facilmente acessível na plataforma do YouTube Kids.

A comunidade do blog PediMom descobriu vários vídeos de desenhos animados com conteúdos perturbadores inseridos no YouTube Kids. Um escreve isso enquanto ela estava tentando parar o nariz sangrento de seu filho:

“Quatro minutos e quarenta e cinco segundos no vídeo. O homem entrou rapidamente, estendeu o braço e, traçando o antebraço, disse: “Crianças, lembrem-se, cortem esse caminho para chamar a atenção, e desta forma para obter resultados”, e então saíram rapidamente.

A reação do YouTube ao crescente número de conteúdo impróprio na plataforma é aumentar a responsabilidade do usuário – chamando os usuários que veem esses vídeos perturbadores para denunciá-los para revisão adicional. A mensagem de boas-vindas do YouTube Kid aponta que nenhum sistema automatizado é perfeito, mas ainda há um longo caminho a percorrer no final do YouTube para melhorar o processo de análise deles, especialmente no app do Kid. Além das questões de autoagressão, há muitos vídeos para os quais as crianças não devem ser expostas e que podem surgir naturalmente de canais “voltados para a família”. como teorias da conspiração, insultos raciais, ideais anti-semitas e de alt-certo, e mais.

O conselho dos blogueiros que descobriram esses tipos de vídeos no YouTube Kids sugere a mesma coisa: observe o que seus filhos estão assistindo com eles ou exclua o aplicativo. Simples assim.

Sobre o tema da exploração infantil, recentemente um anel de pedófilos foi descoberto na seção de comentários do YouTube. Um tempo parece um pouco dramático, era verdade. Embora os vídeos em questão não fossem sexuais de qualquer forma – apenas vlogs familiares regulares – as seções de comentários foram preenchidas com usuários sexualizando as crianças. E, em alguns casos, esses predadores interagiam entre si, oferecendo-se para trocar pornografia infantil real logo abaixo do vídeo nos comentários.

Tweet de vlogger família BubzBeauty sobre a recente mudança de política
Depois de eliminar centenas de milhares de comentários e dezenas de milhões de vídeos, o YouTube chegou a um compromisso por enquanto: banir todos os comentários em todos os canais que apresentem crianças. Isso foi um meio feliz para a maioria dos criadores de conteúdo na plataforma, especialmente porque a restrição de comentários não afetará a monetização de um canal. No entanto, ainda há muitos criadores de conteúdo que estão desapontados por não poderem mais interagir com os fãs em seus vídeos e estão aguardando uma solução mais permanente para o problema.

Abusando Criadores Verdadeiros

Agora, com todas aquelas coisas horríveis no YouTube que discutimos, há igualmente coisas boas. O YouTube é cheio de criadores fortes e apaixonados que querem apenas uma plataforma para compartilhar suas histórias. No entanto, o YouTube também não tem sido ótimo para lidar com eles. Como eu disse, passo muito do meu tempo assistindo ao YouTube e há uma tendência decepcionante nos últimos meses em relação ao aumento dos problemas de direitos autorais. Isto irá, presumivelmente, piorar com o tempo, especialmente com novas leis, como o Artigo 13 para a UE.

Lembre-se do número 7 das Diretrizes da comunidade do YouTube? Nenhum material protegido por direitos autorais. A menos que esse material se enquadre no Fair Use. O uso justo é uma condição escorregadia que é definida como “uma doutrina legal que promove a liberdade de expressão ao permitir o uso não licenciado de obras protegidas por direitos autorais em certas circunstâncias”. Mas quais são exatamente essas “circunstâncias”? .

O uso aceitável ocorre quando o conteúdo protegido por direitos autorais é transformado, usado para fins educacionais ou não é muito usado, por isso é um tópico muito subjetivo. O YouTube é um lugar cheio de canais de comentários: revisores de filmes, comediantes que reagem ao conteúdo e canais de dramas, e todos esses usos são de uso justo. No entanto, o algoritmo do YouTube não tem como saber se o material protegido por direitos autorais está sob uso aceitável e, às vezes, sinaliza incorretamente o conteúdo como protegido por direitos autorais. E, além disso, as empresas têm o direito de pesquisar manualmente vídeos para tentar encontrar conteúdo roubado com direitos autorais. No entanto, com o controle nas mãos das empresas, não há muito o que impedir de reivindicar direitos autorais e remover um vídeo injustamente. Por exemplo, vamos usar o YouTuber Danny Gonzalez. O canal de Gonzalez é baseado em comentários cômicos sobre diferentes materiais encontrados na internet. Para um vídeo, ele usou imagens de um canal de animação infantil do YouTube chamado “Billion Surprise Toys”. Gonzalez postou um vídeo ridicularizando a empresa e, por sua vez, a Billion Surprise Toys fez uma reivindicação de direitos autorais sobre o vídeo, bloqueando-o nos EUA e no Canadá . Mesmo que o vídeo de Gonzalez seja de uso justo, a Billion Surprise Toys pode usar seu poder para sinalizar qualquer vídeo que ele sinta de má qualidade, declarando erroneamente que não é um uso justo.

Então, o que acontece quando uma reivindicação de direitos autorais é colocada em um vídeo? Esse vídeo pode então ser desmonetizado, bloqueado em determinados países ou completamente eliminado. Depois disso, o criador tem a opção de contestar essa reivindicação de direitos autorais, mas aqui é onde o sistema é violado: esse recurso de direitos autorais será enviado à empresa que o emitiu. Essa empresa decidirá se é ou não um uso justo. E se decidirem que não, esse criador receberá um aviso de direitos autorais no canal deles. Esses avisos impedem que um criador postar por uma semana e permanecer nesse canal por 90 dias. No segundo ataque em 90 dias, o usuário é banido por duas semanas. Se um canal acumular 3 avisos dentro de um período de 90 dias, será banido para sempre.

Gonzalez também foi atingido por reclamações de direitos autorais da música no final de todos os seus vídeos recentemente, apesar de tê-la usado por anos, exigindo que ele alterasse o final de todos os seus vídeos no YouTube manualmente.
Então agora os criadores de conteúdo estão lutando para combater o processo de direitos autorais e Gonzalez encontrou um hack para combater essas reivindicações de direitos autorais. Gonzalez fez uma série de vídeos descrevendo seus problemas com uma empresa e não queria uma disputa – se a empresa alegasse que o vídeo era deles, por que eles mudariam de ideia e diriam que era um uso justo depois disso? Então ele entrou no Twitter e escreveu:

“Estou trabalhando com minha equipe e analisando minhas opções legais em relação ao @BillionSurprise para recuperar meu vídeo. Estamos bem dentro dos direitos de uso justo e a BST está abusando totalmente do sistema. ”
Menos de 10 minutos depois do tweet, a empresa divulgou sua reivindicação. A mesma coisa aconteceu em fevereiro deste ano com uma empresa diferente e Gonzalez fez um tweet similar sobre “suas opções legais” e a reivindicação foi divulgada no dia seguinte.

“Revisar minhas opções legais” se tornou uma espécie de meme na comunidade do YouTube e, embora tenha funcionado para Gonzalez, nem todos os criadores tiveram tanta sorte. Popular YouTuber e colega de Gonzalez, Cody Ko foi atingido em dezembro de 2018 com dois de seus vídeos sendo atingidos devido a questões de direitos autorais, apesar de ambos serem de uso justo.

Ko é conhecido por reagir ao conteúdo “grosseiro” e um dos vídeos que ele reagiu foi um YouTuber com alguns de seus amigos tentando um “vape hotbox”. YouTube deu a Ko um ataque de direitos autorais em seu canal por mostrar um menor participando de um perigoso atividade, no entanto, o vídeo original ainda está ativo e ativo no canal do YouTuber. Outro YouTuber, e amigo de Ko, Noel Miller teve o sexto episódio em um jogo em seu canal excluído permanentemente e recebeu um ataque de direitos autorais também. No entanto, os outros 7 vídeos da série permanecem intocados e foram todos bem dentro do uso justo.

É decepcionante que algo que possa ser facilmente analisado pela equipe do YouTube não esteja sendo feito. Frustrações em torno do sistema de recursos de direitos autorais estão aumentando e, para algo que é tão fácil para o YouTube corrigir, parece que não há planos para alterar o processo.

Então o que vem depois?

Depois de descarregar todos os meus problemas com o YouTube, agora podemos voltar às minhas reflexões sobre por que o YouTube precisa morrer. Eu acho que, como uma plataforma, o YouTube sem dúvida abriu o caminho para o estímulo. Agora, qualquer um pode compartilhar suas ideias e criações com o mundo em um instante, mas é claro que há vários problemas associados a isso.

Não é que o YouTube não seja capaz de analisar os vídeos mais detalhadamente antes de permitir que eles sejam enviados. É porque eles não estão dispostos a fazer isso. Isso não só está frustrando sua base de usuários, mas também está assustando os anunciantes, que é onde o YouTube ganha dinheiro. Grandes nomes como AT & T, Disney, Verizon, Johnson & Johnson e Epic Games (os criadores do Fortnite) decidiram parar de anunciar no YouTube por medo de estarem associados a ideais de alt-right e pedofilia.

Além disso, acho que anunciar a desgraça iminente da plataforma despertará uma ideia de alguém, qualquer um, que tenha a iniciativa de corrigir os problemas que assolam o YouTube hoje. E se alguém puder criar uma plataforma que corrija todos esses problemas antes que o YouTube consiga se corrigir, isso não será uma declaração? Mesmo que alguém não consiga criar um modelo perfeito imediatamente, qualquer competição com o YouTube pressionará para se corrigir. Essa é a questão dos monopólios; não há ninguém para desafiar o YouTube a melhorar. Então, e se eles não resolverem seus problemas? Para onde mais as pessoas vão?

Não é uma mudança que pode acontecer da noite para o dia. Será preciso uma mudança tanto dos consumidores quanto dos criadores e, é claro, de uma plataforma para a qual mudar. Mas é hora de dar um passo na direção certa.

Com ou sem o YouTube.