AI가 학습하는 딥페이크(Deep fake)세계,
어떻게 극복할까요?

올해 초 챗GPT 개발사 오픈 AI는 문장으로 비디오를 만든다며 소라(Sora)를 선보였습니다. 그 누가 봐도 실물 영상과 구별하기 힘듭니다. 심지어 할리우드 모션 그래픽 디자이너로 활동하고 에미상까지 수상한 김그륜씨가 CG하는 전문가 입장에서도 너무나 완벽하다고 이야기할 정도입니다. AI를 이용하여 진짜 같은 생성이미지나 영상을 만드는 기술인 딥페이크(Deep fake)는 딥러닝(Deep learning)과 페이크(fake)의 합성어로 얼굴 이미지와 목소리를 합성하여 실제와 같은 이미지를 만드는 기술입니다. 이 기술에 대해 들었을 때 제일 먼저 드는 생각은 1)진짜 같은 가짜 영상, 이미지를 딥러닝(Deep learning)한 영상 콘텐츠를 믿을 수 있느냐와 2)이러한 점이 사회문제로 확산되는 것은 시간문제일 텐데 이것에 대한 대책이나 대안은 있느냐 였습니다.
가짜 사회의 사회문제
실재 세계는 영상 전문가의 손을 거쳐 촬영되고 편집되면 과포장 되기 십상입니다. 이러한 영상을 학습한 AI의 완성도가 높은 가짜 이미지, 뉴스, 영상은 더 악용될 경우가 많다는 것입니다. 사람들은 이러한 가짜 콘텐츠에 혹하고 빠져들게 되고 자기가 보는 것을 진짜로 생각하기 때문입니다. 가짜정보의 확산으로 여러 문제점 중의,
첫째는 범죄노출의 위험성과 사회적 혼란과 분열을 야기하게 될 것입니다.
둘째는 특정한 목적을 이용한 명예훼손과 사기범죄 등이 지금보다 더 늘어날 것입니다.
셋째는 일반 사람들은 가짜의 시각적 이미지, 영상 등을 믿을 수 없어 이에 당한 피해자는 일상생활이 무너집니다.
넷째는 사회 불신이 커지며 점차 약해져 가고 있는 사회 공동체의 분열을 가속화 할 것입니다.
구체적인 예를 들어 볼까요?
첫째, 배우 조인성과 송혜교가 출연해 자선 사업을 응원하며 동참하겠다는 식의 투자를 유도한 영상이 팩트 체크 결과, 광고와의 연관성을 전면 부인하고, 배우 조인성과 송혜교의 모습 역시 딥페이크 기술로 조작된 가짜였습니다. 안타깝게도, 이 광고의 사기성을 인지하지 못한 투자자들은 유명인의 추천에 속아 대포 통장으로 추정되는 계좌에 약 6,600여 만 원을 이체했으나 이 투자금 되찾기는 매우 어려울 것으로 전망하고 있습니다.
둘째, 올해 5월 세상을 떠들썩하게 한 S대 딥페이크 성범죄도 모든 사람이 타겟이 될 수 있음을 알게 했습니다. 하지만 점차 발달하고 있는 AI기술로 가짜 사진, 가짜 영상을 만드는 것은 너무 쉬어 우후죽순 딥페이크 음란물은 걷잡을 수 없이 많아질 것입니다. 더 큰 문제는 수사처벌도 녹록지 않다는 것입니다. 하지만 AI와의 공존과 불가피한 시대로 진입하는 가운데, 기술은 날이 갈수록 진화하여 우리의 삶에 필수적으로 사용될 텐데 피할 수 없다면 대안과 방책을 세워야지 않을까요?
현재 대안의 한계
물론 대안으로 딥페이크 감지기술을 개발하고, 대중들에게 딥페이크 기술이 위험하다는 인식과 윤리적인 교육을 하며, 딥페이크 기술을 활용하여 가짜정보로 피해자를 확산하는 것을 제재하는 법적 규제를 마련하는 것입니다. 하지만 이러한 대안은 초보적인 수준입니다. 심지어 가짜 이미지 영상의 폐해에 대해 인식을 바꾸는 것을 교육하는 것은 이미 영상의 세계에 젖어 있는 젊은층에게는 한계가 있습니다. 네이버의 ‘스노우’ 앱은 AI에 본인 얼굴을 10~20장 학습시키면, 말끔하게 보정된 사진을 만들어 주는 유료서비스입니다. 연매출 347억원을 올리고 있는 이 서비스는 그만큼 AI로 얼굴을 재창조하는 사람들이 많다는 이야기입니다. 젊은 층에서 여권이나 주민등록증을 만들 때 AI가 만들어 준 사진을 제출하는 경우가 많아 행안부에서 이를 금지할 때 불만을 쏟아내었습니다. 불만의 이유는 기존의 사진관에서 찍어도 포토샵 등을 이용해 보정을 한다는 것입니다. 하지만 기존 사진관은 원판이 본인의 얼굴이지만, AI가 학습하여 나온 얼굴은 원판이 가짜임에도 이에 따른 젊은 사람들의 인식은 사진관과 뭐가 다르냐며 단순하게 이야기하고 있습니다. 더구나 딥페이크 성범죄에서도 합성 사진과 영상을 보는 게 뭐가 문제냐, 다른 나라에서는 딥페이크는 범죄도 아니다 라는 등의 생각을 한다는 것입니다. 이러한 문제는 빙산의 일각에 불과할 것입니다. 설사 여러 대안을 마련한다 해도 다양한 변수로 많은 일이 일어날 것이고, 가장 심각한 사회적 신뢰를 무너뜨리는 문제를 근본적으로 막을 수 있을까요?
독자적인 ‘딥페이크 부’(Department of Deepfake) 설치는 어떨까요?
무엇보다 AI기술로 얻을 수 있는 것에 각 사람들의 기저에서 꿈틀대고 있는 비뚤어진 욕망을 막을 수 없을 것입니다. 하지만 강 건너 불구경만을 할 수 없는 상황이잖습니까? 가장 심각한 사회신뢰를 무너뜨리는 것을 막기 위해 개인, 기업, 정부 부문에 독자적인 전문부서인 ‘딥페이크 부’를 만드는 것은 어떨까요? 영국, 일본에서 고독과 자살자 예방을 위해 내각에 고독부(Ministry for Loneliness)를 설치한 것처럼 말입니다. 따라서 딥페이크 기술로 발생할 부작용을 줄일 수 있는 법적, 윤리적 제도와 이를 예방할 수 있는 사람들의 의식수준을 높이기 위한 교육을 어떻게 시행할 것인지 진지한 사회적 논의를 속히 서둘러야 합니다.
더불어 딥페이크 기술로 사회신뢰를 떨어뜨리는 사람들에게 무거운 책임을 부과해야 합니다. 지금과 같은 솜방망이 처벌로는 어림없습니다. 현재처럼 딥페이크로 만든 가짜 영상물을 ‘반포목적’의 유무에 초점을 맞추어 처벌한다면 이 법망을 교묘히 피해 갈 것입니다. 그러니 법을 더 예민하고 촘촘히 만들어야 합니다. 그렇지 않는다면 딥페이크는 더 악용될 것이기 때문입니다.
더 Culture 윤경선
dongnestory@naver.com