가짜뉴스 잡으려는 AI 업계…. 관건은 ‘정확도’

정연호 hoho@itdonga.com

[IT동아 정연호 기자] 명령어(프롬프트)를 입력하면 글과 사진 등 콘텐츠를 만드는 인공지능(이하 AI)이 세계 곳곳에서 인기다. 동시에 AI 콘텐츠로 만든 가짜뉴스를 우려하는 목소리도 커졌다. 실제로 최근에는 AI로 만든 정교한 가짜뉴스가 부쩍 늘었다. 이에 업계는 AI로 제작한 콘텐츠를 감별하는 기술들을 개발하지만, 완성도를 더 높여야 한다는 분석이 나온다.

글, 사진, 영상을 만드는 AI 기술은 빠른 속도로 발전한다. 이제 오픈AI의 챗GPT는 사람이 쓴 것 같은 글을 작성한다. 사진 제작 AI인 미드저니(Midjourney)의 결과물을 실제 사진으로 착각하는 사람도 있다. 비디오 제작 AI 기업 런웨이의 ‘젠-2’가 만든 영상은 아직 해상도가 낮고 피사체 움직임도 어색하다. 하지만, 글, 사진을 만드는 AI처럼 기술이 빠르게 발전할 것이라는 전망이 나온다.

이러한 AI 기술은 다양한 콘텐츠를 만들 때 진입 장벽을 낮춘다는 장점이 있지만, 단점도 있다. AI를 악용해 정교한 가짜뉴스를 만드는 것이 쉬워졌다. 실제로 AI로 만든 가짜뉴스들이 사회관계망서비스(SNS)에 범람하는 중이다.

지난 22일(현지시각) 트위터에 미국 펜타곤(국방부 청사)의 화재 사진이 올라왔다. AI로 제작한 가짜 사진으로 만든 가짜 뉴스였다. 러시아의 해외 선전매체인 RT와 유명 경제뉴스 계정들이 이 사진을 공유했다. 많은 사람들이 펜타곤 화재를 실제 상황으로 받아들였다.

트위터에 올라온 펜타곤 화재 사진, 출처=WhaleChart
트위터에 올라온 펜타곤 화재 사진, 출처=WhaleChart

이에 펜타곤 주변을 관할하는 버지니아주 알링턴카운티의 소방당국은 공식 트위터 계정에서 “펜타곤 근처에서 발생한 화재는 없다.”라고 밝혔다.

AI 전문가들은 이러한 가짜뉴스의 진위를 판별하려면 우선 디지털 포렌식(디지털 정보를 분석해 범죄 단서를 찾는 수사 기법)이 필요하다고 말한다. 글, 사진, 영상 속 조작의 흔적을 발견해야 한다는 것이다.

디지털 포렌식 전문가들은 펜타곤 화재 사진에도 AI가 만든 사진의 특성이 나타난다고 말한다. 사진을 살펴보면 어색한 부분이 보이는 것이다. 해니 파리드 버클리 캘리포니아대 교수는 AP통신에 “사진 속 울타리는 불규칙하게 배열됐고, 건물의 창문도 실제 펜타곤 건물의 창문과 다르다.”라고 말했다.

문제는 디지털 포렌식에 능한 사람이 많지 않다는 점이다. 게다가 AI 기술이 발전하면서, 가짜뉴스를 구별하는 것이 어려워졌다. 가짜뉴스의 폐해를 걱정하는 목소리가 나오는 이유다. 특정 집단이 AI로 만든 가짜뉴스로 선거를 포함한 중요한 행사에 조작을 가할 우려가 크다.

이러한 불안을 해소하기 위해서, 업계는 AI로 만든 콘텐츠를 감별하는 기술을 개발하고 있다. 콘텐츠를 AI와 사람 중 누가 만들었는지 알려주는 기술이다. 주로 사람과 AI의 콘텐츠가 어떻게 다른지 학습한 AI를 활용한다.

오픈AI는 챗GPT 감지기인 ‘클래시파이어’를 내놨다. 글을 입력하면, AI가 작성했을 가능성이 얼마나 되는지 알려준다. 다만, 아직 정확도가 낮다. 오픈AI 자체 테스트에 따르면, 클래시파이어는 AI가 쓴 글 가운데 26%만 ‘AI가 작성했을 가능성이 있다.’로 판단했다.

오픈AI의 클래시파이어, 출처=IT동아
오픈AI의 클래시파이어, 출처=IT동아

AI로 제작한 그림과 영상을 감별하는 기술도 있다. 미국의 AI기업 옵틱은 AI가 만든 사진인지를 판별해 주는 사이트(aiornot)를 공개했다. 역시 정확도는 높지 않다. AI로 만든 도널드 트럼프 전 미국 대통령의 사진을 ‘AI가 아닌 사람이 제작했다’라고 판단했다.

옵틱의 aiornot사이트, 출처=IT동아
옵틱의 aiornot사이트, 출처=IT동아

미국의 AI 기업 딥미디어는 영상을 분석해 화면, 음성에 조작이 있는지를 확인한다. 인텔도 가짜 영상을 탐지하는 ‘페이크캐쳐’를 개발했다. 영상 속 사람이 실제 사람이라는 ‘증거’, 예컨대 얼굴의 혈류가 진짜인지 확인하는 것이다.

이처럼 다양한 AI 감별 기술이 나왔지만, 대부분 정확도는 높지 않다. 이에 일부 AI 기업들은 정확도를 높일 방법으로 콘텐츠에 워터마크(기업의 상표를 숨겨두는 기술)를 삽입하는 기술을 개발한다. 워터마크는 사진과 영상 콘텐츠에만 대입 가능한 한계가 있지만, 그럼에도 지금 단계에서의 AI의 악용 사례를 줄이는 데에는 도움이 될 것이라는 분석이 나온다.

스타트업 프렌들리AI의 창업자인 전병곤 서울대학교 컴퓨터공학부 교수는 “특정 AI 기업의 기술로 콘텐츠를 만들었다는 워터마크를 넣는 것이 대안이다. 텍스트도 문장에 패턴을 넣는 식으로 워터마크를 넣는다. 이를 기본으로 AI로 만든 콘텐츠를 감별하는 기술의 정확도를 높일 수 있다.”라고 전했다.

글 / IT동아 정연호 (hoho@itdonga.com)

IT동아의 모든 콘텐츠(기사)는 Creative commons 저작자표시-비영리-변경금지 라이선스에 따라 이용할 수 있습니다.
의견은 IT동아(게임동아) 페이스북에서 덧글 또는 메신저로 남겨주세요.