[생성 AI 길라잡이] 생성형AI의 양면성 '딥페이크', 왜 문제인가?
※생성 인공지능이 세계를 뜨겁게 달굽니다. 사람만큼, 더러는 사람보다 더 그림을 잘 그리고 글을 잘 쓰는 생성 인공지능. 생성 인공지능을 설치하고 활용하는 방법과 최신 소식을 매주 전합니다.
[IT동아 남시현 기자] 지난 9월 26일, 우리 국회가 딥페이크 성착취물에 대한 처벌을 강화하는 성폭력범죄처벌특례법 개정안을 통과시켰습니다. 성폭력처벌법 제14조의 2에는 허위 영상물을 소지·구입·저장 또는 시청할 경우 3년 이하의 징역 또는 3천만 원 이하의 벌금에 처하는 내용이 담겼습니다. 몇 년 새 딥러닝 기술이 발전하며 딥페이크 기술에 대한 완성도와 성능도 크게 진보했고, 이를 범죄에 악용하는 집단이 늘어난데 따른 조치입니다.
이런 움직임은 비단 우리나라만의 일은 아닙니다. 미국은 지난해 11월, 딥페이크 책임 법안(DEEPFAKES Accountability Act4)을 발의해 딥페이크 기술로 피해를 입은 피해자에게 법적 지원을 제공하기로 했고, 딥페이크 신용사기 방지법안(Preventing Deep Fake Scams Act)으로 금융 분야 기업 및 기관이 딥페이크에 대응하는 조직을 구성하고 대응에 나서도록 했습니다.
유럽연합은 디지털 서비스 법 개정을 통해 초대형 온라인 플랫폼 및 검색 엔진이 조작된 이미지, 오디오, 비디오가 실존과 유사하게 보이는 항목에 대해 식별할 수 있도록 표시해야 한다고 명시했습니다. 직접적으로 딥페이크를 명시하지는 않았으나, 구글, 유튜브, 페이스북 등 대형 검색엔진 및 서비스 기업이 딥페이크를 알아서 감지하고 차단하거나 표시하도록 한 셈이죠.
그렇다면 왜 전 세계적으로 딥페이크에 대한 제재에 들어가는 것일까요?
딥페이크, 첫 시작은 2017년 온라인 커뮤니티
딥페이크(deepfake)는 딥러닝(Deep learning)과 가짜(Fake)의 합성어로, 생성형AI 기술의 한 갈래인 생성형 적대 신경망(GAN) 기술을 활용해 기존의 사진이나 영상에 다른 데이터를 합성해 새로운 영상을 만드는 기술입니다. 생성형 적대 신경망 기술은 실제와 유사한 데이터를 만드는 생성자, 그리고 데이터의 진위 여부를 판별하는 판별자 입장의 신경망 두 개를 경쟁시켜, 생성자가 판별자를 속일 정도의 결과물을 만들어내는 방식입니다. 초기에는 GPU 성능의 한계로 결과물도 형편없었으나, 최근에는 소비자용 GPU 성능도 크게 발전하며 딥페이크의 품질도 일진보 했습니다.
사실 오래전부터 포토샵 등으로 이미지를 조작하거나 합성하는 건 가능했고, 이로 인해 사건 사고는 있어왔습니다. 하지만 영상은 이미지가 초당 수십 회 반복 재생되는 방식이어서 이미지와 달리 정교하게 합성하는 게 불가능해 조작이 어려운 영역으로 남아있었습니다. 그런데 지난 2017년, 미국의 온라인 커뮤니티 레딧에서 딥러닝 기술을 이용해 영상 결과물에 합성 데이터를 조합한 결과물이 올라오기 시작했고, 사용자들은 이를 활용해 포르노그래피나 영화배우 등을 합성한 결과물이 유행하기 시작합니다. 이것이 딥페이크의 시작입니다.
생성형AI의 암영을 모두 지닌 딥페이크, 현재 상황은?
첫 등장 이후 7년이 지난 지금, 딥페이크는 커뮤니티 이용자들의 짓궂은 장난 수준을 넘어 범죄의 영역으로 들어섰습니다. 올해 2월, 홍콩의 한 다국적 금융기업에서 약 340억 원 규모의 금융 피해가 발생했습니다. 담당자가 본사 재무최고책임자(CFO)로부터 자금 송출을 요청받았고, 이를 확인하고자 화상회의를 개설했습니다. 이때 CFO를 포함해 동료 직원들도 회의에 참석해 의심 없이 돈을 송금했지만, 본인을 제외한 모두가 딥페이크로 분장한 사기꾼들이었습니다.
해외에서는 유독 딥페이크를 활용한 금융, 정치 사건이 많습니다. 미국에서는 도널드 트럼프 미국 대선 후보가 흑인들과 함께 찍은 듯한 사진 및 영상을 배포하고, 이를 통해 팔로워를 늘려 선거 운동에 나서는 등의 사건이 있었습니다. 인도에서도 유명 배우들이 특정 정당을 지지하는 내용의 딥페이크 영상이 SNS로 유포되며 배우가 직접 가짜라고 입장을 밝히는 등의 사건이 있었죠.
긍정적인 사례도 없는 건 아닙니다. 영화 산업에서는 배우의 젊은 시절을 연기하거나, 이미 사망한 배우를 배역으로 내세우는 등의 기법으로 딥페이크를 활용합니다. 방송에서도 익명으로 인터뷰에 참여하는 사람을 위해 대역과 딥페이크를 동원해 얼굴과 목소리까지 합성한 방식으로 신원을 보호한 사례가 있습니다. 향후에는 교육이나 시뮬레이션, 예술 등의 분야에서도 폭넓게 쓰일 여지가 있습니다.
딥페이크, 악의적 활용 없애고 긍정적 가치에 집중해야
딥페이크를 악용하는 사례가 늘고 있지만, 해외에서는 이 기술에 대한 상업적 가치나 방향성을 부정하진 않습니다. 또 딥페이크를 무조건 금지하는 것만이 해답은 아니라는 시각도 있습니다. 지난 9월 미국 캘리포니아 주에서 대선 개입을 막기 위해 선거용 딥페이크를 방지하는 법안이 등장했습니다. 하지만 10월 3일, 미국 연방지방법원 판사는 인공지능과 딥페이크가 상당한 위험을 초래하지만 언론, 출판의 자유를 보장하는 수정헌법 제 1조를 위반할 수 있다며 법률의 효력을 상실시켰습니다.
판결문은 법안이 메스가 아닌 망치 역할을 하며, 미국 민주주의 토론에서 매우 중요하고 자유롭고 제약없는 사상의 교류를 위헌적으로 억압할 수 있다는 내용을 담았습니다. 즉 악의적 목적을 세밀하게 금지하지 않는다면, 절대적으로 금지하는 것은 국민의 목소리를 탄압할 수 있다는 의미입니다. 해당 논쟁은 현재 진행형이지만, 이번 판결로 인해 미국 대선에는 딥페이크를 활용한 풍자나 조작 등이 여전히 개입할 여지가 남게 됐고, 반대로 관련 기술은 더욱 발전하게 될 것으로 보입니다.
따라서 ‘딥페이크는 악마의 기술’로 호도할 것이 아니라, 기술의 긍정적인 면은 살리되 부정적인 면은 억제해야하는 것이 과제로 남습니다. 생성형 적대 신경망 기술 역시 생성형 AI 기술이며, 미래에는 고부가가치 산업이 될 것입니다. 주홍글씨는 지우고, 기술의 본질을 이해하고 살펴보는 시각이 필요합니다.
글 / IT동아 남시현 (sh@itdonga.com)