Récemment, alors qu'il a été révélé que l'acteur Tom Cruise était également candidat pour Iron Man, certaines scènes du film avec le visage de Tom Cruise au lieu d'Ironman sont devenues un sujet brûlant. Il s'agit d'une transformation du visage dans la vidéo grâce à une technologie Deep Fake.
Deepfake est un mot composé d'apprentissage profond et de faux, et fait référence à une fausse image ou vidéo dont l'authenticité est difficile à distinguer à l'aide de la technologie d'apprentissage profond. Le deepfake a généralement une perception négative du terme « faux », mais il s'agit de l'une des technologies d'apprentissage profond.
Aujourd'hui, nous examinerons certains cas d'abus de deepfake et certains cas positifs.
Une affaire où le deepfake a été abusé.
Il y a de plus en plus de cas d'abus de la technologie deepfake sur les réseaux sociaux, les plateformes vidéo et les fausses informations. En particulier, il a été beaucoup utilisé pour diffuser de la pornographie, ce qui en fait un problème social. L'année dernière, il y a également eu un cas de dommages causés par des deepfake lors de l'incident de la Nth Room qui a suscité une vive controverse dans la société coréenne. Un certain nombre de vidéos pornographiques illégales et de visages de chanteuses de K-pop et de célébrités féminines ont été diffusées.
La responsabilité sociale de DeepBrain AI à l'égard de ces « fake cases négatives » !
Avec le développement de la technologie deepfake, diverses images falsifiées et modifiées deviennent un problème social, mais il n'existait aucun outil d'analyse objectif pour vérifier s'il y avait falsification ou altération.
DeepBrain AI a lancé Detect Deepfake AI (Detectdeepfake.ai), dans l'espoir de minimiser les dommages causés par les vidéos deepfake et de permettre à la technologie deepfake de se développer dans une direction positive.
Detect Deepfake AI est un service qui vérifie l'authenticité de la vidéo grâce à l'apprentissage en profondeur (IA), c'est-à-dire à l'apprentissage de vidéos suspectées de falsification et d'altération. Afin de développer une technologie d'IA qui détecte et détecte les images modulées (deepfakes) générées par des algorithmes de modulation basés sur des réseaux neuronaux, nous avons également construit et publié des données d'images modulées pour l'apprentissage en tenant compte de la possibilité de diverses interférences de détection.
Il existe également des cas positifs concernant le deepfake.
Pour les cas d'IA DeepBrain,
En 21, DeepBrain AI a soutenu le documentaire KBS 1TV avec la technologie « Puppet Master » pour fournir des expressions faciales et des mouvements naturels dans l'apparence des militants indépendantistes, uniquement visibles sur les photos de « Okbaraji, leur mouvement pour l'indépendance », qui a été spécialement produit pour commémorer le 15 août, jour de l'indépendance de la Corée.
Nous avons essayé de donner à nos descendants et à nos générations l'occasion de réfléchir à la signification de l'histoire et de transmettre un impact positif en permettant aux personnages historiques qui ont fait campagne pour l'indépendance de respirer un souffle vivant.
DeepBrain AI a récemment participé à la production d'une publicité qui incarne le joueur de football Cristiano Ronaldo grâce à une technologie Deep Fake. La technologie Deepfake est de plus en plus utilisée dans les domaines du divertissement tels que les publicités et les films, car elle est difficile à distinguer des personnes réelles.
Un autre exemple est le lancement d'une application mobile (APP) qui se transforme en une variété d'expressions faciales et de mouvements avec une seule photo, procurant du plaisir et attirant l'attention des utilisateurs étrangers
Application « Newface » avec différentes expressions faciales et mouvements grâce à des photos prises par DeepBrain AI.
Un autre avantage est qu'il peut être utilisé avec des technologies d'identification telles que la détection de criminels et le blocage des terroristes, la détection et la prévention des signes de cancer à l'avance grâce à l'analyse des données de tomodensitométrie et d'IRM, et la reproduction de personnes qui ne sont plus parmi nous.
Comme nous l'avons vu dans certains des exemples ci-dessus, la technologie deepfake n'est pas seulement une technologie négative, mais également un aspect positif en fonction de son utilisation.
p.s : Si le visage, le corps ou la voix d'une personne sont édités, synthétisés, filmés ou distribués contre la volonté du crime Deepfake actuel, elle sera passible d'une peine pouvant aller jusqu'à cinq ans de prison ou d'une amende pouvant aller jusqu'à 50 millions de won.