선의보다 악의가 더 많은 AI의 어두운 기술, 딥페이크(Deep Fake)

    한창 딥러닝 기술인 GAN(생성 적대 신경망, Generative Adversarial Networks)에 빠져 살 때가 있었다. 인공지능의 진정한 미래는 간이라는 생각에 회사에 접목할 부분이 없는지 고민을 했던 기억이 있다. 결과적으로는 간(GAN)을 써먹을 서비스(내가 다니는 회사에서)가 없다는 것에서 결론을 내고, 이 후 블록체인(Blockchain) 쪽으로 다시 연구를 턴(Turn)하였었다.


    그러나 블록체인과 인공지능의 인력 Pool의 차이가 컸는지 인공지능의 발전을 블록체인이 따라가지 못하는 것 같다. 이제 인공지능은 딥페이크라는 기술로 영상과 다른 사람의 이미지를 매우 쉽고 자연스럽게 합성 시켜버리는 상황까지 와버렸다.


    Deepfakes (a portmanteau of "deep learning" and "fake") are a branch of synthetic media in which a person in an existing image or video is replaced with someone else's likeness using artificial neural networks. They often combine and superimpose existing media onto source media using machine learning techniques known as autoencoders and generative adversarial networks (GANs).


    Deepfakes have garnered widespread attention for their uses in celebrity pornographic videos, revenge porn, fake news, hoaxes, and financial fraud. This has elicited responses from both industry and government to detect and limit their use.


    - Wikipedia, Deepfake 


    위키피디아의 내용을 보면 딥페이크는 GAN을 이용한 방법이라는 것을 알 수 있다. 사실 GAN 자체가 모조품을 생산해 낼 수 있는 기술이니 당연히 GAN의 발전은 딥페이크의 발전까지 연결될 수 있을 것이다. 문제는 딥페이크의 발전은 기존 인공지능 발전과는 다른 차원의 문제라는 것이다.


    source, https://medium.com/@jonathan_hui/how-deep-learning-fakes-videos-deepfakes-and-how-to-detect-it-c0b50fbf7cb9



    긍정적인 부분


    이 기술을 긍정적으로 생각하면 영화 산업과 같은 곳에 엄청난 영향과 아이디어를 주고, 제작비를 줄일 수 있을 것이다. 아래 영상을 한번 보도록 해보자



    아이언맨(Iron Man)의 영상에 톰크루즈(Tom Cruise)를 합성해서 재탄생한 것인데 부자연스러운 부분이 있지만 몇몇 부분들은 전혀 거부감이 없다. 딥페이크를 사용하게 되면 이렇게 쉽게 사람대 사람을 합성하기 쉬워서 저비용으로 영화 제작 탄력을 받을 수 있게 된다.



    그리고 영화 써니(Sunny)에 트와이스(Twice)와 레드벨벳(Red Velvet)을 합성한 이 영상은 합성만으로 웃음을 주며 컨텐츠가 매우 쉽게 재탄생 될 수 있다는 것을 보여준다(뜬금없는 정형돈). 딥페이크의 발전 속도는 이렇듯 엄청나게 빠르게 성장하고 있는 듯한 모습이다.


    써니 같은 경우 영화를 합성하여 화질이 좋기 때문에 부자연스러운 부분이 보이지만, 영상의 화질이 좋지 못하면 경계선이 잘 보이지 않아서 더욱 진짜같은 착각에 빠질 수 있을 정도다.



    악의적으로 더 많이 쓰일 비운의 기술


    그러나, 딥페이크라는 단어에 우리는 긍정적인 부분보단 부정적인 부분이 더욱 강하다. 실제 딥페이크로 만들어진 영상들의 대다수에 한국 연예인들이 중국 딥페이크 포르노 제작에 무차별 당하고 있으며, 국내에서 만들어진 공격이 아니기에 대응하기도 힘들다.


    화질이 나쁜 영상에 아이돌들을 합성하여 마치 해당 아이돌이 정말로 포르노를 찍은 것마냥 영상을 제작하고 해외 사이트에 뿌려버리는 행위로 현재 유명 여자 아이돌들은 대다수가 당했다고 보면 된다.


    네덜란드의 사이버 보안 연구 회사 딥트레이스(Deeptrace)의 보고서에 따르면 딥페이크 96프로가 포르노이고, 대상의 41프로는 미국, 한국은 25프로(대다수가 KPOP 걸그룹 아이돌)로 2위를 차지하였다. 


    이렇게 포르노만 만드는 것도 아니다. 국내 같은 경우 정치인들, 심하면 대통령까지도 합성하여 가짜뉴스를 만들 원동력이 될지 모른다. 특히 딥페이크에 대해서 무지한 노인들은 영상을 합성하여 유포할 경우 십중팔구 믿게 되며 영상의 화질을 흐리게 만들거나 어둡게 촬영한다면 속을 수 밖에 없다(일반인 마저도 속을 수 밖에 없다)


    문제는 정치권 뿐만 아니라, 딥페이크 기술을 이용해서 가짜 인질극같은 상황을 만들 수도 있다. 예를 들어 인질 영상에 일반인들을 합성시켜 마치 인질을 한 것처럼 속이고, 가족들에게 영상을 뿌려서 돈을 내놓으라는 보이스 피싱과 같은 범죄가 커질 가능성이 높다.


    이렇듯 딥페이크가 나쁜 쪽으로 더욱 성장하기 전에, 정부는 확실히 국제적으로 공조하여 유포하는 사람들을 잡아들이고 형량을 쎄게 해서 초장에 잡지 못한다면 보이스 피싱처럼 대책없이 커지는 상황이 발생할 지 모르겠다. 



    참고자료

    Wikipedia - Deepfake 

    오마이뉴스 - '딥페이크' 전쟁, 내가 아닌 나와 맞서다


    댓글

    Designed by JB FACTORY