Recentemente, quando foi revelado que o ator Tom Cruise também era candidato ao Homem de Ferro, algumas cenas do filme com o rosto de Tom Cruise em vez do Ironman se tornaram um assunto quente. É uma transformação do rosto no vídeo com uma profunda tecnologia falsa.
Deepfake é uma palavra composta de aprendizado profundo e falso e se refere a uma imagem ou vídeo falso que é difícil distinguir a autenticidade usando a tecnologia de aprendizado profundo. O Deepfake geralmente tem uma percepção negativa de “falso”, mas é uma das tecnologias de aprendizado profundo.
Hoje, analisaremos alguns casos de abuso de deepfake e alguns casos positivos.
Um caso em que o deepfake foi abusado.
Há cada vez mais casos de abuso da tecnologia deepfake em mídias sociais, plataformas de vídeo e notícias falsas. Em particular, tem sido muito usado para distribuir pornografia, tornando-a um problema social. No ano passado, também houve um caso de danos profundos no incidente da Nth Room, que fez com que a sociedade coreana se tornasse uma polêmica acalorada. Vários vídeos de pornografia ilegal e rostos de cantoras de K-pop e celebridades femininas foram distribuídos.
A responsabilidade social da DeepBrain AI por esses “casos falsos profundos e negativos”!
Com o desenvolvimento da tecnologia deepfake, várias imagens falsificadas e alteradas estão se tornando um problema social, mas não havia uma ferramenta de análise objetiva para verificar se havia falsificação ou alteração.
A DeepBrain AI lançou o Detect Deepfake AI (Detectdeepfake.ai), esperando minimizar os danos causados por vídeos deepfake e servir como uma oportunidade para a tecnologia deepfake se desenvolver em uma direção positiva.
O Detect Deepfake AI é um serviço que verifica a autenticidade do vídeo por meio de aprendizado profundo, análise de IA, aprendizado de vídeos suspeitos de falsificação e alteração. Para desenvolver a tecnologia de IA que detecta e detecta imagens moduladas (deepfakes) geradas por meio de algoritmos de modulação baseados em redes neurais, também construímos e lançamos dados de imagens moduladas para aprendizado, considerando a possibilidade de várias interferências de detecção.
Também há casos positivos em relação ao deepfake.
Para casos de DeepBrain AI,
Em 21, a DeepBrain AI apoiou o documentário KBS 1TV com a tecnologia “Puppet Master” para fornecer expressões faciais e movimentos naturais na aparência de ativistas da independência deixados apenas em fotos em “Okbaraji, seu movimento de independência”, que foi produzido especialmente para comemorar o Dia da Independência da Coreia em 15 de agosto.
Tentamos dar aos nossos descendentes e gerações a oportunidade de refletir sobre o significado da história e transmitir um impacto positivo ao permitir que figuras históricas que fizeram campanha pela independência respirem vivas.
A DeepBrain AI participou recentemente da produção de um anúncio que incorpora o jogador de futebol Cristiano Ronaldo com uma profunda tecnologia falsa. A tecnologia deepfake está se tornando cada vez mais utilizada em áreas de entretenimento, como anúncios e filmes, pois é difícil distingui-la de pessoas reais.
Outro exemplo é o lançamento de um aplicativo móvel (APP) que se transforma em uma variedade de expressões faciais e movimentos com uma única foto, proporcionando prazer e chamando a atenção de usuários estrangeiros
APP “Newface” com várias expressões faciais e movimentos através de fotos da DeepBrain AI.
Outra vantagem é que ele pode ser usado com tecnologias de identificação, como encontrar criminosos e bloquear terroristas, encontrar e prevenir sinais de câncer com antecedência por meio da análise de dados de tomografia computadorizada e ressonância magnética e reproduzir pessoas que não estão mais conosco.
Como vimos em alguns dos exemplos acima, a tecnologia deepfake não é apenas uma tecnologia negativa, mas também um aspecto positivo, dependendo de sua utilização.
p.s: Se o rosto, o corpo ou a voz de uma pessoa forem editados, sintetizados, filmados ou distribuídos contra a vontade do crime atual do Deepfake, ela estará sujeita a até cinco anos de prisão ou multa de até 50 milhões de won.