Aplicativo utilizado em sites para criar imagens difamatórias de artistas é duramente reprimido

Um dos principais sites de compartilhamento de imagens do mundo aplicou duras medidas a um aplicativo que foi usado para sobrepor rostos de celebridades em vídeos pornográficos.

Funcionamento do App

O Fakeapp pode capturar imagens do rosto de uma pessoa e colocá-lo automaticamente no corpo de outra pessoa.

Os vídeos ou GIFs animados são chamados de deepfakes.

Como tudo aconteceu

Desde que foi criado, no mês passado, o aplicativo se tornou uma sensação viral, com uma piada envolvendo o ator Nicolas Cage sendo sobreposta a outros filmes.

Mas alguns internautas exploraram o software para colocar rostos de celebridades como Ariana Grande, Emma Watson e Daisy Ridley nos corpos de mulheres em vídeos pornográficos.

Muitos usuários estavam carregando suas criações no site de compartilhamento de imagens Gfycat, até que a empresa de São Francisco anunciou que começaria a remover os GIFs animados.

“Nossos termos de serviço nos permitem remover o conteúdo que consideramos questionável”, disse Gfycat em comunicado.

“Estamos removendo ativamente este conteúdo”.

Resultados

Muitos dos deepfakes foram publicados no Reddit, mas o gigante da mídia social não tomou nenhuma ação para removê-los.

Desde que foi criado, no mês passado, o Fakeapp foi baixado mais de 100.000 vezes.

 

Traduzido e adaptado por equipe Saibama.is
Fonte: 9news.