상세 컨텐츠

본문 제목

Deepfake, 소셜 세상의 확실한 위험에 대응하는 방법은?

Artificial intellegence

by 무병장수권력자 2021. 3. 1. 13:14

본문

얼마 전 화제가 된 동영상입니다. AI 합성 기술을 활용해서 톰크루즈의 일상처럼 보이는 동영상이 Tiktok에 등록되었습니다. 잠깐 보시죠.... 엄청나네요. 모르고 보았다면 구분이 안될 수준이네요.

www.youtube.com/watch?v=e7Kv86E7680  

 

Deepfake는 이제 사람이 육안으로 구분하기는 어려운 수준까지 발전한 것 같습니다. 물론 긍정적인 활용도 가능하겠죠... '이 세상에 없는 보고 싶은 가족과의 대화', '엄마가 읽어주는 명작 동화' 같은 경우에 의미 있게 활용될 수도 있을 것입니다. 그런데... 아마도... 추측이지만 이 기능은 부정적인 곳에 훨씬 많이 사용될 것 같습니다. 연예인 포르노, 상대 후보 흑색선전 등 대중을 상대로 하는 불온한 선동에 사용될 가능성이 높지요. 아니.. 무궁무진합니다..

 

그런데 문제는... Deepfake를 방지하는 괜찮은 방법이 없다는 겁니다. Deepfake를 만드는 기술은 빛의 속도로 발전하는데... 방지/방어하는 기술은... 쫌 애매합니다.  

 

그 중 첫번째 방법은 사후에 변조를 감지하는 것입니다. (사후에 한다는 것이 중요합니다!) deepfake라는 것이 쉽게 생각하면 포토샵과 같은 툴로 원본을 변형한 것이기 때문에 픽셀 단위로 자세히 보면 자연스럽지 않은 부분이 있을 것이고, 바로 그런 어색한 부분을 또 다른 AI 기술로 찾아내는 것입니다. 

 

다음은 Microsoft가 자사의 블로그에서 해당 기술을 소개한 내용과 영상입니다.

출처: blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/

we’re announcing Microsoft Video Authenticator. Video Authenticator can analyze a still photo or video to provide a percentage chance, or confidence score, that the media is artificially manipulated. In the case of a video, it can provide this percentage in real-time on each frame as the video plays. It works by detecting the blending boundary of the deepfake and subtle fading or greyscale elements that might not be detectable by the human eye.

하지만 이 방식은 '100% 변조되었습니다'를 검출하는 접근이라기보다는 '87% 확률로 진짜입니다'를 알려주는 기술입니다. 경우에 따라 다르겠지만 보편적인 경우의 검출 능력이 그리 높지 않다고 합니다. (확실치 않지만 60~70% 정도라는 글을 본 기억이..) 이 방식은 deepfake를 만드는 AI가 지속적으로 발전하기 때문에 톰과 제리처럼 끝이 없는 싸움이 될 수밖에 없습니다. 탐지 기술이 deepfake를 탐지해 내면, deepfake 기술은 탐지 기술에 걸릴 만한 부분을 집중적으로 고도화하여 더욱 훌륭하게 가짜 같은 이미지나 동영상을 만들어낼 것이기 때문입니다.

 

다음은 조선일보 기사에서 발췌한 내용입니다. 딥페이크를 딥페이크 감지 기술로 대응하는 것은 완벽하기 어렵다는 이야기입니다.

미국 씽크탱크인 브루킹스 연구소의 알렉스 엥글러 선임연구원은 "MS, 구글, 페이스북 등 다수의 IT 기업과 연구기관이 딥페이크에 대항하기 위한 기술을 연구하고 있지만 (급속도로 진화하는 딥페이크와) ‘경쟁구도’로 보기는 어렵다"면서 "현재 AI 기술의 발전 속도를 봤을때 딥페이크는 현실과 거의 구분할 수 없는 가짜 영상·이미지를 만들어낼 것이다. 이를 기술적으로 탐지하는 것은 어려울 것"이라고 말했다.

출처: biz.chosun.com/site/data/html_dir/2020/10/05/2020100502248.html

 

이것을 조금 더 근본적으로 방지할 방법은 없는 걸까요? 음... 역시 완벽하지는 않지만 쪼금 더 근본적인 방식이 있기는 합니다. 두번째 방법은 컨텐츠 생성과 변조 시점에 서명 기술을 적용하는 것입니다. 어떤 사진이나 비디오가 촬영되는 시점에 사진이나 비디오가 가지은 특징점들을 추출하여 안전한 공간에 별도로 기록해 두는 것입니다. 예를 들면 사진 촬영 시점에 위치, 시간을 포함하는 exif와 전체 pixel의 hash값을 매우 안전한 공간(Secure cloud, Blockchain)에 저장해 둡니다. 해당 사진이 SNS에 게시될 때 해당 사진이 가지고 있는 정보가 앞서 말한 매우 안전한 공간에 저장된 정보와 일치하는 지를 확인하여 진짜인지를 알아낼 수 있게 됩니다. 엄밀하게는 가짜인지를 알아내는 방법이라기보다는 진짜인지를 알아내는 방법이라고 보는 것이 맞습니다. 

 

관련한 노력으로는 Adobe, BBC, Microsoft, New York time, Twitter 등이 참여하고 있는 CAI(Content Authenticity Initiative)를 들 수 있습니다. 컨텐츠 크리에이터들이 모인 언론사, 디지털 컨텐츠를 관리할 수 있는 IT기업과 컨텐츠가 유통되는 소셜미디어 등이 모여서 큰 일을 도모하고 있습니다.

사진을 찍을 때 블록체인 또는 안전한 곳에 정보를 기록합니다.
이 사진을 포토샵으로 편집하면 해당 정보 역시 같은 곳에 기록됩니다.
편집된 사진이 New York Times나 Twitter에 게시되면 해당 사진은 변형되지 않았다는 진본 표시와 함께 보이게 됩니다.

오~ 그럴듯하지 않나요? 근본적인 관점에서 매우 의미 있는 접근이라 생각됩니다. 시간은 매우 매우 매우 오래 걸리는 일이겠지만... 나름 덩어리가 큰 회사들이 참여하고 있기 때문에 기대가 됩니다. 

CAI 홈페이지: contentauthenticity.org/

 

이 접근방식에는 블록체인도 한 축을 담당하고 있습니다. CAI Member 중 Truepic이라는 업체가 관련한 기술을 가지고 있습니다. 블록체인을 활용한 deepfake 방지와 관련한 기사도 하나 함께 공유드립니다.

www.sciencetimes.co.kr/news/%EB%B8%94%EB%A1%9D%EC%B2%B4%EC%9D%B8%EC%9C%BC%EB%A1%9C-%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC-%EB%8C%80%EC%9D%91%ED%95%A0-%EC%88%98-%EC%9E%88%EC%96%B4/

 

Deepfake는 이제 걱정해야 할 수준으로 우리 주변에 다가와 있는 것 같습니다. 이번 톰크루즈의 경고는 처음이 아닙니다. 톰크루즈 대선 출마도 있었고, 가짜 트럼프도 있었습니다. 가짜를 만들어 내는 기술이 하루가 다르게 발전하고 있습니다. 유명 인사들의 fake 영상은... 많은 IT 전문가들이 진위 여부를 판별해 주면 될 것입니다. 하지만... 최근 들어 많이 사용하는 deepfake 앱이 만들어내는 일반인을 대상으로 하는 영상은... 걱정입니다. 헤어진 연인의 불편한 영상을 만들어서 인터넷에 배포한다던지...., 맘에 들지 않는 상사의 뇌물 영상을 만들어서 사내 인트라넷에 배포한다던지... IT에 익숙한 테키한 사람들 사이에서 그렇지 못한 대중들을 대상으로 손쉽지만 강력한 음해가 일어날 수 있을 것입니다.

 

예전에 컴퓨터 바이러스가 등장했을 때 퍼스널 컴퓨터를 보호하기 위해서 바이러스 백신이 발맞추어 발전하였기 때문에 일반인들이 안전하게 컴퓨터를 사용할 수 있었습니다. Deepfake는... 기계가 아니라 사람을 공격합니다. 한번 다치면 회복 하는 데 오랜 시간이 걸릴 수도 있기 때문에... 다치지 않게 하는 것이 최선입니다. Deepfake 분야에서도 백신과 같은 방지 기술들이 균형 있게 개발되어 더 큰 사회적 문제가 되지 않길 바랍니다.

 

고등학교 시절에 컴퓨터 바이러스라는 것에 처음 걸렸던 적이 있습니다. 머리가 삐쭉 서면서.. 두렵고... 이거 어떻게 하지... 불안해했던 생각이 납니다. 나름 컴퓨터 좀 만지던 아이였기 때문에 콘솔에서 여러 개의 백신을 동작시키며 이를 막아내려고 애썼던 생각이 납니다. 그 이후로 저는 습관이 하나 생겼습니다. 컴퓨터를 켰을 때 가장 먼저 하는 것은 백신 설치, 엔진 업데이트입니다. 모두가 이렇게 트라우마가 있지는 않겠지만, 지금은 지구 상의 모든 컴퓨터에 백신이 깔려 있는 것이 너무나도 익숙한 상황이지요. Deepfake도 그렇게 될지 모르겠습니다. 아마도... 정보가 넘쳐나는 가까운 미래의 세상에는 뭐가 사실이고 뭐가 거짓인지 알아보기 점점 어려워질 것이니까요.

반응형