Recientemente, cuando se reveló que el actor Tom Cruise también era candidato al Iron Man, algunas escenas de la película con la cara de Tom Cruise en lugar de Iron Man se convirtieron en un tema candente. Se trata de una transformación del rostro del vídeo con una tecnología profundamente falsa.
Deepfake es una palabra compuesta de aprendizaje profundo y falso, y se refiere a una imagen o un vídeo falsos cuya autenticidad es difícil de distinguir mediante la tecnología de aprendizaje profundo. Por lo general, Deepfake tiene una percepción negativa de «falso», pero es una de las tecnologías de aprendizaje profundo.
Hoy veremos algunos casos de abuso de deepfake y algunos casos positivos.
Un caso en el que se abusó de deepfake.
Cada vez hay más casos de abuso de la tecnología deepfake en las redes sociales, las plataformas de vídeo y las noticias falsas. En particular, se ha utilizado mucho para distribuir pornografía, lo que la convierte en un problema social. El año pasado, en el incidente de Nth Room también se produjo un caso de daños causados por la tecnología Deepfake, que provocó una gran controversia en la sociedad coreana. Se han distribuido varios vídeos de pornografía ilegal y rostros de cantantes de K-pop y celebridades femeninas.
¡La responsabilidad social de DeepBrain AI por estos «casos negativos y profundos falsos»!
Con el desarrollo de la tecnología deepfake, varias imágenes falsificadas y alteradas se están convirtiendo en un problema social, pero no existía una herramienta de análisis objetiva para comprobar si había falsificaciones o alteraciones.
DeepBrain AI ha lanzado Detect Deepfake AI (Detectdeepfake.ai), con la esperanza de minimizar el daño causado por los vídeos de deepfake y servir como una oportunidad para que la tecnología deepfake se desarrolle en una dirección positiva.
Detect Deepfake AI es un servicio que verifica la autenticidad del vídeo mediante el análisis mediante inteligencia artificial de aprendizaje profundo: el aprendizaje de vídeos sospechosos de falsificación y alteración. Con el fin de desarrollar una tecnología de inteligencia artificial que detecte imágenes moduladas (deepfakes) generadas mediante algoritmos de modulación basados en redes neuronales, también hemos creado y publicado datos de imágenes moduladas para su aprendizaje, teniendo en cuenta la posibilidad de que se produzcan diversas interferencias en la detección.
También hay casos positivos relacionados con el deepfake.
Para los casos de DeepBrain AI,
En 21 años, DeepBrain AI apoyó el documental de KBS 1TV con la tecnología «Puppet Master» para mostrar expresiones faciales y movimientos naturales en la apariencia de los activistas independentistas que solo quedan en las fotos de «Okbaraji, su movimiento por la independencia», que se produjo especialmente para conmemorar el Día de la Independencia de Corea el 15 de agosto.
Intentamos dar a nuestros descendientes y generaciones la oportunidad de reflexionar sobre el significado de la historia y transmitir un impacto positivo al permitir que las figuras históricas que han hecho campaña por la independencia respiren vivas.
DeepBrain AI participó recientemente en la producción de un anuncio que encarna al jugador de fútbol Cristiano Ronaldo con tecnología Deep Fake. La tecnología Deepfake se utiliza cada vez más en los campos del entretenimiento, como la publicidad y las películas, ya que es difícil distinguirla de las personas reales.
Otro ejemplo es el lanzamiento de una aplicación móvil (APP) que convierte en una variedad de expresiones y movimientos faciales con una sola foto, proporcionando placer y atrayendo la atención de los usuarios extranjeros
APP «Newface» con varias expresiones faciales y movimientos a través de fotos de DeepBrain AI.
Otra ventaja es que se puede utilizar con tecnologías de identificación, como encontrar delincuentes y bloquear a terroristas, detectar y prevenir los signos de cáncer con antelación mediante el análisis de datos de tomografías computarizadas y resonancias magnéticas, y reproducir a personas que ya no están con nosotros.
Como hemos visto en algunos de los ejemplos anteriores, la tecnología deepfake no solo es una tecnología negativa sino también un aspecto positivo en función de su utilización.
PD: Si el rostro, el cuerpo o la voz de una persona son editados, sintetizados, filmados o distribuidos en contra de la voluntad del crimen actual de Deepfake, estará sujeta a hasta cinco años de prisión o a una multa de hasta 50 millones de wones.