IBM "AI의 윤리나 신뢰성 향상 위한 거버넌스 필요한 시기"
[IT동아 김영우 기자] 기업들이 AI(인공지능) 기술을 적용한 서비스를 다수 출시하고 있다. AI 기술을 통해 상당수의 작업을 자동화하면 그만큼 업무 효율을 높일 수 있을 뿐 아니라 비용 절감효과도 볼 수 있기 때문이다. 그런데 최근 들어 윤리나 공정성, 투명성과 같은 문제를 사람이 아닌 AI 기술에도 적용해야 한다는 주장이 있다. 실제로 최근 한 업체가 서비스한 AI 기반 챗봇 서비스의 경우, 챗봇이 윤리에 어긋나는 답변을 할 때도 있다하여 논란이 되기도 했다.
이와 관련, 23일 한국IBM이 ‘신뢰할 수 있는 AI(Trusted AI)’를 주제로 온라인 간담회를 열었다. 이날 행사에는 IBM 본사의 AI와 클라우드 전환 비즈니스를 총괄하고 있는 CDO(Chief Data Officer)인 세뜨 도브린 박사(Dr. Seth Dobrin)가 참여, 신뢰받는 AI에 대한 IBM의 관점을 이야기하는 시간을 가졌다.
도브린 박사는 최근 IBM이 하이브리드 클라우드와 AI를 가장 중시한다는 사실을 밝히며, 비즈니스를 위한 AI는 언어(비즈니스 언어에 대한 이해) 및 자동화, 그리고 신뢰성에 중점을 두고 개발되고 있다고 강조했다. 특히 신뢰성의 경우, AI가 이끌어낸 결과에 대한 투명성과 설명 가능성이 뒷받침되어야 한다고 밝혔다.
언어와 관련해 IBM은 토론 전용 AI인 프로젝트 디베이터(Project Debator)를 통해 자연어 처리기술 및 언어의 이해 및 독해 능력, 그리고 요약 정보의 이해능력 등을 검증했다. 이를 통해 자주 묻는 질문(FAQ)를 추출할 수 있다. 그리고 이러한 언어 능력은 자동화와 연결된다. 미리 훈련된 모델을 통해 AI를 자동화하면 기업의 워크플로우(업무흐름) 자동화에도 기여한다. 이를 통해 생산성을 높일 수 있는 것 외에 사람은 AI보다 좀 더 부가가치 높은 일을 하게 될 것이라고 도브린 박사는 강조했다.
이와 더불어 AI의 신뢰성을 높이기 위해 투명화를 통한 업무의 검증 여부가 중요하다고 전했다. AI에 편견이 있다면 이를 감지하는 능력도 포함하며, 그 외의 다양한 위험 등을 감지해 문제점을 인지하는 능력도 마찬가지다. 이러한 AI를 구현하는 플랫폼으로서 IBM 산하 래드햇 오픈시프트를 추천하기도 했다. 이는 모든 플랫폼을 가상화하고 조율할 수 있는 컨테이너 기술에 기반하고 있으며 덕분에 언제 어디서나 이용이 가능하다고 도브린 박사는 전했다.
또한 AI는 인간을 대체하는 것이 아니라 보완하기 위해 존재하는 만큼, 데이터의 권리는 창작자에게 있어야 한다는 점도 강조했다. 이와 관련해 IBM은 투명성을 높이기 위해 각종 도구와 기술을 오픈소스 관련 커뮤니티에 지속적으로 제공하고 있으며 AI의 윤리성과 신뢰성을 위해 바티칸의 교황청과 협력하기도 하는 등 다양한 노력을 하고 있다고 밝혔다.
그 외에도 IBM은 신뢰받는 AI를 만들 수 있도록 AI를 제대로 관리하는 거버먼스(공동의 목적을 달성하기 위한 당사자들의 제반장치) 모델이 필요하다며, 각종 편견을 정의하고 AI 개발 후 운용 과정에서도 지속적인 감시를 통해 편견 여부를 검증해야 한다고 강조했다.
IBM은 이러한 AI 신뢰성 향상 노력의 성과로 작년 서울시와 협력해 진행한 ‘아이케어유(I CARE U)’ 프로젝트를 이야기했다. 이는 코로나19 사태로 인해 고통받는 서울시민들의 불편 여부를 정확히 파악, 향후 개선 방법을 찾고자 하는 일종의 AI 챗봇 서비스였다. 이 프로젝트를 위해 IBM의 슈퍼컴퓨터 기반 AI 서비스인 ‘왓슨 어시스턴트(Watson Assistant)’를 활용한 바 있다. 특히 왓슨 어시스턴트의 FAQ 자동추출기능이 큰 역할을 했다고 IBM은 밝혔다.
한편 IBM은 자사의 AI 솔루션을 이용했다고 하여 AI의 차별이나 편견, 혹은 불공정으로 인한 문제가 면책되는 것은 아니라는 점도 밝혔다. 대신 IBM은 이러한 문제가 최소화될 수 있는 도구나 기술, 프로세스를 제공하고 있으며 문제 발견 시 이에 대처하는 가이드라인을 제공하고 있다고 강조했다.
글 / IT동아 김영우(pengo@itdonga.com)