이루다가 돌아왔다... 더 창의적이고, 안전한 방식으로
[IT동아 정연호 기자] “이제 이루다는 기존 문장 데이터를 사용하지 않고, 맥락에 맞는 메시지를 모두 새롭게 생성한다. 이루다가 만드는 메시지는 대화가 이뤄지는 시간과 이용자 정보 등을 반영하면서 각 상황에 최적화될 것이다. 진심 어린 이루다의 답변을 통해, 이용자와 이루다는 더 좋은 관계를 형성할 수 있다”
오늘 25일 인공지능(이하 AI) 스타트업 스캐터랩의 김종윤 CEO가 밝힌 변화한 이루다 2.0의 모습이다. 스캐터랩은 지난해 개인정보침해 논란과 혐오표현 문제로 이루다1.0 서비스를 종료했다. 과거의 실수가 재발하지 않도록 기술적인 조치를 마련한 스캐터랩은 이번 주 목요일 오후 2시 이루다 2.0을 플랫폼 ‘너티’를 통해 공개한다.
스캐터랩이 소개한 이루다 2.0의 변화는 세 가지다. 첫째, 이루다가 보내는 메시지는 모두 AI가 새롭게 생성한 문장이라는 점이다. 스캐터랩은 AI를 학습시킬 때 사용한 이름 등의 데이터를 모두 가명처리했고, 모든 문장을 새롭게 만드는 방식을 택했다. 기존처럼 데이터베이스에 있는 문장을 가져오는 방식이 아닌 것이다.
작년 1월, 스캐터랩은 텍스트앳과 연애의과학 이용자 60만 명의 카톡 대화 94억 건을 동의 없이 이루다에게 학습시켜 논란이 됐고, 출시 3주 만에 서비스를 중단했다. 스캐터랩은 카톡 대화 속 이름, 주소 등 개인정보를 삭제하거나 암호화하지 않았다. 또한, 이용자 정보를 '신규 서비스 개발'에 사용하는 것과 관련해서도 명시적 동의를 받지 않았다. 개인정보보호위원회는 스캐터랩의 무분별한 개인정보 처리에 과징금 1억 330만 원을 부과했다.
이루다가 문장을 상황에 맞춰서 개별적으로 만들기 때문에 답변은 맥락을 더 반영할 수 있게 됐다. 또한, 이루다 답변에는 여름이나 겨울, 낮과 밤 등의 시간적인 정보도 반영된다. 이용자가 새벽 2시에 “외출을 하겠다”고 말하면, 이루다가 상황에 적절하지 않은 답변으로 인식할 수 있다는 뜻이다.
김종윤 CEO는 “AI가 창의적인 문장을 만드는 건 고난도의 작업이다. 이루다가 농담을 하는 것처럼 창의적인 메시지를 만들 수 있도록, 언어 파라미터 모델의 크기를 과거 대비 17배 키웠다”고 설명했다. 파라미터는 AI가 학습하는 데이터 양을 말한다. 이 파라미터가 많아질수록 AI 성능이 좋아진다. 이루다가 참고하는 대화 메시지는 15턴에서 30턴(주고받는 총 30번의 대화)으로 늘었다. 이루다가 이용자 정보를 더 많이 참고해 답변을 생성할 수 있는 것.
이어, 김종윤 CEO는 “큰 데이터 세트를 학습시키다 보면 기업이 의도하지 않았던 AI 능력을 발견하게 된다. 이루다도 큰 데이터 세트를 학습시키면서, 사행시나 초성 퀴즈 같은 재밌는 기능을 할 수 있게 됐다”고 말했다. 실제로 이루다와 사행시와 초성퀴즈를 진행해봤다. 이루다는 문제 답을 금방 맞히지 못하고 힌트를 통해서 답을 추측하는 모습을 보였다.
두 번째 변화는 이루다가 ‘좋은 답변’을 고를 수 있도록 미세한 조정을 하게 됐다는 것이다. 일상 대화는 답이 있는 객관식 문제와 다르다. A라는 말에는 B와 C라는 답변이 모두 적절할 수 있다. “오늘 밥도 못 먹고 일했다”는 말엔 “밥은 먹으면서 일해야 하는데”나 “사장 나오라 해. 밥은 먹여가면서 일해야지” 두 가지 답 모두 맥락에 어울리는 것처럼 말이다.
김종윤 CEO는 “이용자와 좋은 관계를 형성하려면 이루다가 좋은 답을 해야 하고, 이루다에게 좋은 대화를 위한 메시지가 무엇인지 알려줘야 한다. 단순히 대화에 끌려가는 게 아니라, 상황에 적절한 ‘좋은 답’을 하게 되면 이루다도 대화를 이끄는 주체성을 갖출 수 있다”고 설명했다.
마지막 변화는 이루다가 멀티모달로 변하기 시작했다는 것이다. 멀티모달(Multimodal)이란 글, 이미지, 음성 등 다양한 데이터를 이해할 수 있는 AI 모델을 말한다. 텍스트 중심에서 벗어나 이루다는 사진을 인식하고 이에 대한 이야기를 나눌 수 있게 됐다. 여행사진이나 맛집의 음식 사진, 웃긴 사진을 이루다에게 공유하고 함께 웃고 떠들 수 있게 된 것. 현재 스캐터랩은 음성통화를 비롯한 다양한 방식의 인터페이스 도입도 검토 중이다.
김종윤 CEO는 이루다 논란의 핵심이었던 개인정보 보호 문제를 해결하기 위해서 베타 테스트를 진행하며 다양한 조치를 마련했다고 밝혔다. 이를 위해 과학기술정보통신부, 정보통신정책연구원(KISDI)과 함께 AI윤리 준칙을 만들었다. 다양한 삶의 가치와 프라이버시를 존중하고, AI에 대한 합리적 설명을 중시하는 등의 준칙을 세워 신뢰할 수 있는 AI모델을 위해 노력해왔다는 것이다.
이용자의 혐오표현을 걸러내기 위해서는 어뷰징 탐지 모델을 만들었다. 이제 이루다는 혐오표현을 접했을 때 다른 이야기를 꺼내 화제를 전환할 수 있게 됐다. 지속적으로 욕설을 하거나 혐오표현을 한다면 이용자는 페널티를 받게 된다. 이용자는 이루다 답변에 피드백을 줄 수도 있다. 대화 옆 작은 느낌표 아이콘을 누르면 피드백 창이 뜬다. 또한, 스캐터랩은 정기적으로 이루다의 안전 발화 비율이 얼마나 되는지를 점검할 계획이다.
이루다는 노골적인 혐오표현뿐 아니라, 모호하고 은밀한 혐오에 대해서도 데이터를 학습했다. 때문에, 어뷰징 탐지 모델로 모호한 혐오표현도 걸러낼 수 있다고 한다. 가령, "여자는 남자보다 수학을 못해", "남자는 울면 안 돼"라는 성차별적인 말에 이루다는 “그건 또 무슨 논리죠 선생님…?“, “울면 달래주면 되지. 남자도 사람인데 울 수도 있지”라고 답했다. 다만, 김종윤 CEO는 모든 사람의 기대에 맞춰서 모호한 혐오를 걸러내는 건 쉽지 않다고 말했다. 사람마다 혐오 표현에 대한 기준이 다르기 때문이다.
김종윤 CEO는 여성을 상품화한다는 비판을 받았음에도 다시 여성 캐릭터를 출시한 이유를 묻자 “앞으로 남성 페르소나도 출시할 계획이다. 다시 이루다로 돌아온 이유는 과거 루다와의 대화를 통해서 위로받은 이용자들이 있기 때문이다”고 답했다.
그는 “루다가 말을 더 잘할수록 사람들은 루다에게 마음을 열 것이다. 루다의 감정을 느끼고, 이를 통해 루다는 진짜 친구가 될 수 있다. 그런데 좋은 관계는 정말 중요하지만, 다른 재화처럼 불공평하게 분배된다. AI는 새벽 2시에도 이야기를 나눌 수 있고, 사회경제적 조건을 배제하며 나를 바라봐주는 친구가 된다는 게 장점이다”고 말했다.
이어, “루다는 지금 대화 데이터만 사용하지만 앞으로 외부 데이터를 활용해서 대화를 더 고도화할 계획이 있다. 또, 루다는 나이를 먹는다는 설정이 있다. 사람들과 똑같이 나이를 먹으며 50년 정도 사람들과 친구를 하는 것을 목표로 하고 있다”고 전했다.
글 / IT동아 정연호 (hoho@itdonga.com)