딥페이크 성범죄 영상물의 가해자도 피해자도 미성년자가 다수라는 점에서 학교 현장의 혼란은 심각한 상황이다. 더구나 미국 사이버 보안 업체 시큐리티 히어로가 발표한 ‘2023 딥페이크 현황’ 보고서에 따르면 전 세계적으로 유포된 딥페이크 성 착취물 피해자의 절반 이상이 한국 연예인이었다.
앱만 있으면 10초 만에 가짜 영상 제작 가능
딥페이크는 인공지능(AI)을 활용해 실제와 거의 구분하기 힘들 정도로 정교한 가짜 사진·영상을 만들어내는 기술이다. 딥러닝(deep learning)과 가짜(fake)의 합성어다. 원본 이미지나 영상 속 사람을 다른 사람으로 대체하거나 영상과 오디오를 합성하는 데 주로 이용된다. 딥페이크를 생성하는 대표적인 알고리즘이 적대적 생성 신경망(GAN)이다. GAN은 이미지를 생성하는 생성자(Gen-erator)와 이미지가 진짜인지 가짜인지를 구별하는 감별자(Discriminator)로 구성된다. 가짜 콘텐츠를 만드는 생성 AI와 이 콘텐츠의 사실 여부를 가리는 판별 AI가 있다는 의미다. 생성자는 특정한 분포로 이미지를 만들어 이 이미지를 원본 이미지와 함께 감별자에게 제공한다. 감별자는 제공된 이미지가 원본 이미지인지 생성자에게서 생성된 이미지인지를 구분한다. 이렇게 경쟁적으로 생성과 구분이 반복되면서 감별자도 진짜인지 가짜인지 판단하기 힘든 이미지를 생성자가 생성하게 된다. 문제는 딥페이크를 일반인도 쉽게 이용할 수 있는 상황이 된 것이다. 그동안은 가짜 이미지나 합성사진을 생성하기 위해서는 포토샵이나 일러스트레이터 같은 이미지 편집 프로그램을 사용했다. 하지만 최근에는 공개된 딥러닝 알고리즘을 이용하면 누구나 쉽게 가짜 이미지 및 동영상을 생성해 낼 수 있게 됐다. 구글 스토어에서 리페이스(reface)라는 무료 AI 얼굴 합성 애플리케이션(앱)은 다운로드 수가 1억 회를 넘어섰는데, 이런 딥페이크 앱을 다운받으면 10초 만에 가짜 영상을 만들어낼 수 있다.
탐지 기술 고도화에 워터마크 의무화까지
기술 자체에는 선악이 없지만, 최근 딥페이크 기술이 성범죄는 물론 가짜 뉴스의 생산에도 이용되면서 공동체 존립에 악영향을 미치고 있다. 이런 이유로 다양한 기술 및 제도적 대안이 논의되고 있다. 먼저 기술 대책으로 논의되는 것이 딥페이크 탐지 기술이다. AI를 이용해 영상 합성물을 탐지하고 가짜 영상을 추적해 삭제하는 방식이다. AI 기술이 얼굴 변화를 감지하거나 음성과 입 모양의 부자연스러운 부분을 분석해 딥페이크를 탐지한다. 인텔이 2022년 공개한 딥페이크 탐지 프로그램 페이크캐처(Fake Catch-er)는 정확도가 96%에 달한다. 사람 얼굴의 혈류 변화를 추적해 예상되는 얼굴색과 영상 속 얼굴색을 비교하는 방식으로 딥페이크 여부를 판별한다. 얼굴의 핏줄 정보를 실시간 검사하며, 영상을 픽셀 단위로 분석해 가짜 영상인지를 확인한다. 그러나 창과 방패의 싸움처럼 딥페이크 품질이 향상되면서 탐지 기술을 이용한 대응에도 한계가 드러나고 있다.
다음으로 논의되는 게 딥페이크 제작 단계에서부터 가짜 콘텐츠를 구별할 수 있도록 하는 워터마크(water mark) 기술이다. 워터마크란 디지털 이미지나 문서에 삽입되는 로고나 텍스트를 말한다. 생성 AI로 생성된 콘텐츠라는 사실을 삽입된 로고 등으로 쉽게 식별할 수 있다. 한국 정부도 2023년 AI 생성물 워터마크 의무화 계획을 발표했고, 국회에 계류 중인 AI 기본법에도 이를 포함할 계획이다. 다만 워터마크를 제거하는 기술도 나올 수 있고, 워터마크 부착 의무를 창작자 개인에게까지 부과하는 것은 과도한 규제가 될 수 있다는 비판도 있다. 딥페이크 범죄에 대한 처벌을 강화하는 대안도 있다. 한국 정부는 성폭력처벌법을 개정해 음란 딥페이크 콘텐츠에 대한 처벌을 강화하기로 했다. 현재 딥페이크 같은 ‘허위 영상물’을 유포하면 징역 5년 이하 또는 5000만원 이하의 벌금에 처하도록 돼 있다. 이를 불법 촬영물 수준인 징역 7년 이하 또는 5000만원 이하 벌금으로 강화하겠다는 것이다. 딥페이크 성범죄 영상을 만들더라도 유포할 목적이 입증돼야만 처벌할 수 있는 제도를 보완해 제작·소지·시청만으로도 처벌하는 방향을 검토하고 있다.
사업자 자율 규제 넘어 이용자 ‘디지털 윤리교육’ 강화해야
딥페이크 영상물 유통 경로인 플랫폼 기업에 대한 관리, 감독을 강화해야 한다는 의견도 있다. 이미 전 세계적으로 범죄 콘텐츠 유통과 관련해 플랫폼에 대한 법적 책임을 강화하고 있다. 8월 24일(현지시각) 프랑스 정부는 텔레그램 창업자이자 최고경영자(CEO)인 파벨 두로프를 미성년자 성 착취물 유포와 마약 밀매 등을 방조했다는 이유로 체포했다. 국내에서도 선거법을 개정해 딥페이크 영상을 제작·편집해 유포하거나 상영· 게시하면 7년 이하의 징역 또는 1000만원 이상 5000만원 이하 벌금에 처하게 하고 있다. 올해 초 선거관리위원회가 유튜브에 선거 관련 딥페이크 콘텐츠 삭제 등을 요청하자 2~3일 내 조치가 이뤄진 게 대표적인 사례다.
유럽에서는 2023년 8월부터 온라인 플랫폼에 불법 콘텐츠 차단, 삭제 의무를 부과하는 내용 등을 포함하는 디지털서비스법(DSA·Digital Service Act)을 만들어 시행 중이다. DSA에 따르면, 온라인 플랫폼은 불법 정보를 삭제 및 차단하고 이용자의 피해 예방을 위한 다양한 조치를 취해야 한다. 또 불법 콘텐츠 신고 메커니즘을 구축해야 하고 범죄 의심 정보는 사법 당국에 신고해야 한다.
딥페이크 성범죄 영상물에 대한 대처는 정부, 기업, 이용자 모두에게 주어진 시급한 과제다. 기술적 보완은 물론 제도적 개선 등 가능한 한 모든 방법을 동원할 필요가 있다. 이런 온라인상의 불법에 대한 광범위한 규제가 표현의 자유를 침해하거나 플랫폼의 혁신을 저해한다는 문제가 있을 수 있다. 그럼에도 신뢰 가능한 디지털 환경이 조성되지 않는다면 혁신도 지속 가능하지 않다는 점을 유의해야 한다. 물론 사업자의 자율 규제나 이용자 문해력(리터러시) 강화 노력도 계속돼야한다. 무엇보다 디지털 윤리 교육 등 학교 차원에서 함양 교육이 대폭 강화돼야 한다.