[IT강의실] 생성형 AI의 최대 난제, '할루시네이션'
[IT동아 남시현 기자] 지난 3월 17일에서 21일 사이 미국 캘리포니아주 세너제이에서 엔비디아의 연례 개발자 회의 ‘GTC 2024’가 열렸다. 젠슨 황 엔비디아 최고경영자는 기자간담회에서 5년 내에 인간 수준의 인공지능(이하 AI)이 현실화할 것이라고 말해 주목을 받았고, AI의 할루시네이션(환각)에 대해서도 개발자의 코딩 문제이기 때문에 검색 강화 생성 절차로 해결될 것이라고 말했다.
앞서 GTC 2023에서 젠슨 황과 일리야 서츠케버 오픈AI 공동창업자는 대담에서 ‘환각 문제가 2년 안에 크게 줄어들 것’이라고 얘기했는데, 1년이 지난 지금은 많이 나아졌지만 여전히 해결의 실마리는 잡지 못한 상태다. 오늘날 AI 개발의 최대 난제로 떠오른 ‘할루시네이션’이란 무엇이며, 왜 AI는 환각을 일으킬까?
‘환각’ 의미하는 할루시네이션, 어떤 형태로 나타날까
할루시네이션은 환각 또는 망상 등으로 불리며, AI가 생성한 정보에 허위 또는 날조된 정보가 포함되는 현상이다. 할루시네이션은 실제 사실과 AI를 거친 정보가 다른 내재성 환각과 실제로 존재하지 않는 사실을 창작해서 제공하는 외재적 환각으로 나뉜다. 챗GPT에 질문을 했는데 역사적 사실을 왜곡하거나, 이미지 생성 시 현실 법칙에 위배된 이미지 등을 제공하는 게 할루시네이션의 영향이다.
예를 들어 지난해 2월 마이크로소프트가 빙 AI를 공개할 당시, 빙 AI에게 의류기업 갭(Gap)의 수익 보고서를 분석하라고 요청했다. 빙 AI는 갭의 영업이익률이 5.9%라고 답했는데, 보고서에 5.9%라는 수치는 없으며 실제 이익률은 4.6%였다. 또한 희석 주당 순이익도 0.42달러라고 말하고, 매출도 두 자릿수 증가할 수 있다고 말했다. 실제 보고서에는 0.42달러라는 단어가 없었고, 매출도 한 자릿수 중반으로 감소할 것이라는 내용이었다.
자연어 처리에서 할루시네이션이 발생하는 주된 이유는 데이터의 문제다. 수집한 데이터 자체가 잘못된 사실을 다루고 있거나, 데이터를 혼합하는 과정에서 문제가 생긴다. 대다수 생성형 AI는 사전에 훈련된 데이터를 바탕으로 응답하지만, 통계적으로 불완전한 모델이 생성되면서 할루시네이션이 나타날 수 있다. 이외에도 문장의 상관관계를 잘못 학습하면서 생기기도 하고, 내장된 지식 중 앞서 사용된 정보를 중복 사용하다가 꼬여서 생기기도 한다.
자연어 처리 넘어 어떤 분야든 발생하는 문제
할루시네이션은 자연어 처리를 넘어 거의 모든 AI 분야에서 발생한다. 예를 들어 사람이나 물체를 감지하는 AI가 사람을 전혀 다른 사물로 인지하거나, 제3의 사물을 사람으로 인식할 수 있다. 이런 문제는 단순히 오류에 가깝다. 반면 할루시네이션이 개입하면 존재하지 않는 객체를 인식한다거나, 피사체를 전혀 다른 물체로 판단해 오작동을 일으킬 수 있다.
최근 공개된 오픈AI의 텍스트-비디오 생성 AI ‘소라’에서도 할루시네이션이 관측된다. 해당 영상은 2층 지붕 위 1층을 내려다보며 등장인물들을 조명한다. 하지만 영상 초반에 원근법으로 층 수를 나눠놨지만, 물리적으로 구분되지 않아 주요 인물들이 시장 상인들보다 몇 배나 큰 거인이어야 가능한 영상이 만들어졌다. 아래 영상 역시 좌측 강변의 도로가 최소 네 번 이상 바뀌고, 주요 인물들 앞에 걷다가 가게로 들어가는 사람들과의 원근법도 맞지 않는다.
아직 오픈AI가 소라를 개발하는 단계라서 원근법 계산의 오류일 수 있으나, 지금 상황으로는 할루시네이션에 가깝다. 최근에는 동영상 생성형 AI로 학습 데이터를 만들어 비전 인식 AI를 고도화하려는 시도도 시작됐는데, 여기에 할루시네이션이 개입하면 오류 데이터로 학습될 여지도 있다. 그 자체로 예측할 수 없는 결과를 낳는 셈이다.
할루시네이션 줄이려면 RAG 등 출처 기반 작업해야
사용자 입장에서 외재성 환각은 구분하기 쉽지만, 교묘하게 숫자나 출처가 바뀐 내재성 환각은 구분이 어렵다. 앞서 갭 수익 보고서처럼 숫자만 다르거나, 요약하라고 하면 원본 데이터와 대조해보지 않고서는 사실 여부를 판단하기가 어렵다. 특히 GPT-3처럼 데이터가 한정된 생성형 AI일수록 할루시네이션 발생이 심하다.
지난해 3월 미국 맨해튼 연방법원에서도 변호사 두 명이 GPT로 조사한 판례를 제출했다가, 최소 6건이 실존하지 않는 사건인 게 드러나며 징계를 받았고, 한 미국의 응급의학 전문의는 챗GPT가 실존하는 학술지와 실존인물의 이름을 빌려 디지털 인증 번호까지 위조한 허위 논문을 생성해 제공한 사례를 공개했다. 전문가도 명백한 출처를 확인해야 할 정도다.
할루시네이션을 최대한 피하기 위해서는 데이터의 출처를 확실히 해야 한다. 유료 서비스인 GPT4는 웹 연동 서비스를 통해 매개변수를 포함한 웹 기반 데이터도 검색하는 기능이 있다. 또 GPT4에 내장된 컨센서스 등의 툴을 활용하면 논문 검색 시 실존하고 출처가 확실한 자료만으로 찾는다.
프롬프트를 정밀하게 입력하는 것도 도움이 된다. AI의 답변은 정보를 나열했을 뿐, 이해하고 제공하는 게 아니다. 따라서 질문할 때 ‘공식 보고서나 논문 검색 등을 인용해서’ 설명해 달라고 하거나, ‘최근 5년 간, 국내에서 기사로 확인할 수 있는 내용’ 같은 문장을 덧붙이면 정확성이 향상된다.
AI 처리 과정에서 발생, 앞으로도 큰 난제
안타깝게도 아직까지 AI에서 할루시네이션이 발생하는 원인은 완전히 파악되지 않았다. 심지어는 AI가 결과를 도출하는 과정도 미지수다. 우리가 AI에 주문을 내리면, 컴퓨터가 학습한 데이터로 연산을 처리한 뒤 결론을 도출한다. 문제는 어떤 데이터가 어떻게 상호 영향을 미쳤는지 인과관계를 파악하기 어렵고, 이 과정에서 할루시네이션이 발생한다.
제약 회사에서 AI를 활용해 혁신적인 신약 후보물질을 만들었다고 가정하자. 이때 신약 물질을 만드는 수식을 명령으로 내렸고, 신약 후보 물질의 구조를 만드는 것까지는 확인할 수 있다. 하지만 AI 내부에서 어떤 데이터를 활용하고 조합했을지까지는 완벽하게 분석할 수 없다. 이 문제를 블랙박스 현상이라고 하며, 최근에는 도출 과정까지 명확하게 확인할 수 있는 설명 가능한 AI(Explainable AI)에 대한 연구가 이어지고 있다.
할루시네이션은 AI를 신뢰하고 활용하기 위해 반드시 해결해야 할 과제다. 업계에서는 검증된 데이터만 사용해 정확하게 상황을 인식하고 응답하는 검색 증강 생성(RAG)이 답이 될 것으로 보며, 또 엔비디아 네모 가드레일처럼 부정확한 결과를 제외해 정확성을 끌어올리는 방식도 주목한다
할루시네이션은 AI의 구조적 문제이므로 해결되지 않을 것이라는 시각도 있고, 데이터 정렬과 수집을 통해 차츰 나아질 것이라는 시각도 있다. 확실한 것은 설명 가능한 AI가 발전해야 할루시네이션도 해결될 수 있다.
글 / IT동아 남시현 (sh@itdonga.com)