terça-feira, 6 de fevereiro de 2018

Vídeos pornô fake de celebridades feitos com aplicativo ‘inteligente’ são retirados da internet

_99845186_22b328f1-5e3a-48e0-8c1c-479bba
Emma Watson foi uma das várias atrizes que teve seu rosto aplicado sobre vídeos pornô | Foto: Reprodução
Vídeos pornô feitos com um novo programa que substitui o rosto da atriz original pelo de celebridades estão sendo retirados do ar pelo serviço que hospedava a maior parte destes clipes. A empresa Gfycat, de São Francisco, nos Estados Unidos, disse que eles são "ofensivos".
A criação destes vídeos tornou-se mais comum e fácil depois do lançamento de uma ferramenta grátis no início de janeiro, o que tornou a troca de rostos um processo relativamente simples. O desenvolvedor do FakeApp diz que ele foi baixado mais de 100 mil vezes.
Ele é baseado em um algoritmo que cria uma versão computadorizada do rosto de uma celebridade ao analisar centenas de fotos desta pessoa e um vídeo de quem terá seu rosto substituído. Os resultados, conhecidos como deepfakes, variam bastante em termos de qualidade.
Mas, em alguns casos, quando as duas pessoas envolvidas na troca são parecidas fisicamente, o produto final pode ser bem convincente, e há quem tenha usado essa tecnologia para criar conteúdo que não é pornográfico, como um vídeo em que o rosto da chancelecer alemã, Angela Merkel, foi trocado pelo do presidente americano, Donald Trump.
Mas o uso mais comum da ferramenta até agora tem sido aparentemente a pornografia, criando a ilusão de que atrizes e cantoras famosas estão participando das cenas. Muitos clipes foram compartilhados na internet.
Autores desses vídeos pornô falsos sobem o material para o Gfycat, um serviço usado para hospedar clipes curtos que depois são publicados em sites como o fórum online Reddit, entre outros.
O Gfycat permite conteúdo adulto, mas começou a apagar os deepfakes no início desta semana, algo que foi notado primeiro pelo site Motherboard. "Nossos termos de serviço permitem que retiremos do ar conteúdo ofensivo. Estamos ativamente removendo esse conteúdo", disse o serviço em um comunicado.
_99845190_a3c8785c-2803-4b6d-a87c-56c071
Fotos da cantora Ariana Grande foram usadas para trocar o rosto de uma atriz pornô | Foto: Reprodução
Mas os vídeos que ainda não foram apagados pelo Gfycat e deepfakes hospedados em outros sites podem ser acessados por meio do Reddit, por exemplo. O fórum ainda não se manifestou sobre isso. Seus termos proíbem "pornografia involuntária". Mas não está claro se os deepfakes se enquadram nisso. Além disso, o Reddit requer que seja feita uma reclamação sobre o conteúdo.
No entanto, o Gfycat não é o único envolvido a ter retirado esse material do ar. Os donos dos direitos de alguns dos vídeos originais exigiram que o acesso a eles fosse bloqueado. E o serviço Discord fechou um grupo de discussão dedicado a compartilhar esses clipes, afirmando que eles violam suas regras.

Nenhum comentário:

Postar um comentário