Di recente, poiché è stato rivelato che anche l'attore Tom Cruise era candidato per Iron Man, alcune scene del film con la faccia di Tom Cruise al posto di Ironman sono diventate un argomento scottante. È una trasformazione del volto nel video con tecnologia deep fake.
Deepfake è una parola composta da deep learning e fake e si riferisce a un'immagine o un video falso di cui è difficile distinguere l'autenticità utilizzando la tecnologia di deep learning. Deepfake ha generalmente una percezione negativa di «falso», ma è una delle tecnologie di deep learning.
Oggi esamineremo alcuni casi di abuso di deepfake e alcuni casi positivi.
Un caso in cui il deepfake è stato abusato.
Ci sono sempre più casi di abuso della tecnologia deepfake su social media, piattaforme video e fake news. In particolare, è stato molto utilizzato per distribuire materiale pornografico, rendendolo un problema sociale. L'anno scorso, nell'incidente di Nth Room, si è verificato anche il danneggiamento causato da un deepfake, che ha suscitato una accesa controversia nella società coreana. Sono stati distribuiti numerosi video pornografici illegali e volti di cantanti K-pop e celebrità femminili.
La responsabilità sociale di DeepBrain AI per questi «casi negativi di deep fake»!
Con lo sviluppo della tecnologia deepfake, varie immagini contraffatte e alterate stanno diventando un problema sociale, ma non esisteva uno strumento di analisi oggettivo per verificare la presenza di falsificazioni o alterazioni.
DeepBrain AI ha lanciato Detect Deepfake AI (Detectdeepfake.ai), sperando che riduca al minimo i danni causati dai video deepfake e costituisca un'opportunità per lo sviluppo della tecnologia deepfake in una direzione positiva.
Detect Deepfake AI è un servizio che verifica l'autenticità del video attraverso l'analisi AI di deep learning, ovvero l'apprendimento di video sospettati di falsificazione e alterazione. Per sviluppare una tecnologia di intelligenza artificiale in grado di rilevare e rilevare immagini modulate (deepfake) generate tramite algoritmi di modulazione basati su reti neurali, abbiamo anche creato e rilasciato dati di immagine modulati per l'apprendimento in considerazione della possibilità di varie interferenze di rilevamento.
Ci sono anche casi positivi riguardanti il deepfake.
Per i casi di DeepBrain AI,
Nel 21, DeepBrain AI ha supportato il documentario KBS 1TV con la tecnologia «Puppet Master» per fornire espressioni e movimenti facciali naturali nell'aspetto degli attivisti per l'indipendenza lasciati solo nelle foto di «Okbaraji, il loro movimento per l'indipendenza», prodotto appositamente per commemorare il 15 agosto il Giorno dell'Indipendenza della Corea.
Abbiamo cercato di dare ai nostri discendenti e alle nostre generazioni l'opportunità di riflettere sul significato della storia e di trasmettere un impatto positivo permettendo ai personaggi storici che hanno lottato per l'indipendenza di respirare vivi.
DeepBrain AI ha recentemente partecipato alla produzione di una pubblicità che incarna il giocatore di football Cristiano Ronaldo con tecnologia deep fake. La tecnologia Deepfake sta diventando sempre più utilizzata in campi di intrattenimento come pubblicità e film poiché è difficile distinguerla dalle persone reali.
Un altro esempio è il lancio di un'applicazione mobile (APP) che si trasforma in una varietà di espressioni e movimenti facciali con una sola foto, offrendo piacere e attirando l'attenzione degli utenti stranieri
APP «Newface» con varie espressioni e movimenti facciali attraverso foto di DeepBrain AI.
Un altro vantaggio è che può essere utilizzato con tecnologie di identificazione come la ricerca di criminali e il blocco dei terroristi, l'individuazione e la prevenzione anticipata dei segni del cancro attraverso l'analisi dei dati di TC e RM e la riproduzione di persone che non sono più con noi.
Come abbiamo visto da alcuni degli esempi precedenti, la tecnologia deepfake non è solo una tecnologia negativa ma anche un aspetto positivo a seconda del suo utilizzo.
p.s: Se il viso, il corpo o la voce di una persona vengono modificati, sintetizzati, filmati o distribuiti contro la volontà dell'attuale crimine Deepfake, sarà soggetto a fino a cinque anni di carcere o a una multa fino a 50 milioni di won.