IT DONGA

로봇과 사람의 공존을 위한 논의, AI 윤리헌장

권명관

[IT동아 권명관 기자] 지난 1월의 마지막날, 카카오가 국내 기업 중 최초로 ‘인공지능(AI) 기술 개발 및 윤리에 관한 알고리즘 규범(이하 AI 윤리헌장)’을 발표했다. 이날 발표한 카카오의 AI 윤리헌장은 아래와 같다.

1. (카카오 알고리즘의 기본 원칙) 카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한다.
2. (차별에 대한 경계) 알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다.
3. (학습 데이터 운영) 알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하여 수집∙분석∙활용한다.
4. (알고리즘의 독립성) 알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정하게 관리한다.
5. (알고리즘에 대한 설명) 이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에서 알고리즘에 대해 성실하게 설명한다.

‘기계 vs 인간’에 대한 우려

AI와 로봇, 빅데이터, IoT, 네트워크 등 발전하는 차세대 IT 기술의 등장은 우리네 생활 모습을 변화시키고 있다. 인공지능이 분석한 빅데이터를 바탕으로 의사가 환자를 진단(IBM 왓슨 헬스)하고, 범죄자의 재범 가능성 등을 판단한다. 금융 분야에서 SW 주식거래 등에 활발히 사용되고 있으며, 제조업 분야에서 공장자동화 등을 통해 효율성과 생산성을 높인다. 실시간 번역, 로봇을 활용한 언론 기사 작성 서비스(포브스, LA타임즈, 파이낸셜타임즈 등) 등 차세대 기술을 활용한 서비스는 앞으로도 계속 등장할 예정이다.

미래학자 레이 커즈와일은 자신이 작성한 ‘특이점이 온다’에서 AI를 앞세운 로봇공학을 언급했다. 그리고 그는 AI의 발달과 이를 기반한 새로운 기술 서비스는 기존 이해관계 당사자와 충돌을 야기할 수밖에 없으며, 당사자와 의견을 조율하는 절차를 마련해야 한다고 강조한다.

우려의 목소리다. 이는 기계의 지능이 인간을 뛰어넘어, 장기적으로 기계가 인간의 업무를 대체할 것이라는 예측에서 시작된 막연한 공포다. 쉽게 얘기해 영화 터미네이터에서 인간과 전쟁에 나서는 ‘스카이넷’을 방지하기 위한 윤리규정이 필요하다는 것. 인간이 기계를 제어할 수 있도록 마련하는 최소한의 안전 장치를 마련하자는 논의다.

AI 기술의 급격한 발전은 사람들에게 호기심과 동시에 거부감과 두려움을 선사한다. ‘언캐니 밸리’(불쾌한 골짜기)는 인간과 지나치게 유사한 AI 로봇에게서 느끼는 거부감을 뜻한다. AI를 둘러싼 다양한 스펙트럼의 비관론 역시 이와 맥을 함께 한다.

이에 카카오가 사회적 문제로 발전할 수 있는 우려와 걱정을 불식시키고자 알고리즘 윤리헌장을 발표한 것이다. 특히, 국내 기업 최초로 알고리즘 윤리헌장을 발표해 향후 사회적 규범을 형성하는 논의의 시발점으로 자리 잡기를 기대한다.

사실 카카오가 발표한 알고리즘 윤리헌장은 19년 전인 2007년 산업자원부(현 지식경제부)가 결성했던 ‘로봇윤리헌장 제정위원회’의 ‘로봇윤리헌장 초안’과 닮았다. 당시 로봇윤리헌장 초안은 로봇제조부터 사용자 등이 지켜야 할 기본 윤리규정을 담았다. 로봇이 일상에서 사용될 것을 대비해 논의를 진행한 것. 초안에는 ‘인간과 로봇은 상호간 생명의 존엄성과 정보, 공학적 윤리를 지켜야 한다’는 공동원칙에 따라 상호간 협력 유지, 공존공영 등 세부조항을 마련했다. 특히, 세계 최초로 정부가 민간 각계 전문가와 함께 논의했다는 것에 의미가 있었다.

카카오 윤리헌장

로봇과 사람은 공존할 수 있을까

로봇, AI에 대한 이 같은 논의는 국내뿐만 아니라 해외에서도 활발하다. 작년 7월 마이크로소프트(MS)는 내부 AI 연구 인력을 위한 ‘AI 윤리적 디자인 가이드’를 내놓으며, 도덕적 AI를 강조했다. 또한, 2016년에는 구글과 MS, 아마존, IBM, 페이스북 등은 AI 관련 윤리 문제를 해결하기 위해 비영리단체 ‘파트너십온 AI’를 결성하기도 했다.

논의는 기업에 한정되지 않는다. 2017년 1월, 미국의 AI 연구자들은 AI 연구를 지원하는 비영리단체 ‘퓨처 오브 라이프’가 주최한 컨퍼런스에서 AI 개발 목적, 윤리와 가치 등에 대해 개발자들이 지켜야하는 ‘아실로마 AI’ 원칙을 정했다. 해당 원칙은 총 23개항으로 AI의 잠재적 위험을 경계하고, 세계 개발자들이 인류를 위해 협력해야 한다는 내용 등을 담았다.

퓨처 오브 라이프의 자문을 맡고 있는 호킹 박사와 테슬라의 일론 머스크 CEO, 알파고를 개발한 딥마인드의 데미스 허사비스 CEO, 구글의 레이 커즈와일 기술이사, 영화배우 겸 감독인 조셉 고든 레빗 등 2, 000여명의 명사들이 이 준칙을 지지하고 있다.

또한, 유럽연합(EU) 의회에서 통과된 결의안은 AI 로봇의 법적 지위를 ‘전자 인간(electronic personhood)’으로 지정하는 결의안을 통과시키며, AI 로봇의 지위, 개발, 활용에 대한 기술적·윤리적 가이드라인을 제시했으며, 일본인공지능학회는 AI 윤리지침을 통해 AI로 인해 인간이 불평등을 겪거나, 격차를 느낄 수 있는 가능성을 최소화하는 방안에 집중했다.

로봇과 AI, 인간의 사회적 이해관계 충돌은 불가피하다. 지난 2015년 10월 22일, 미국 MIT테크놀로지리뷰는 돌발 상황 발생 시 ‘자율주행차의 AI는 보행자를 칠 것인가, 아니면 핸들을 꺾어 운전자를 희생할 것인가?’라는 논문을 소개한 바 있다. 이에 대한 논의는 지금도, 여전히 진행 중으로 명확한 해답을 찾기 어려운 상황이다.

다만, 근거 없는 예측과 상상으로 아직 다가오지 않은 미래를 걱정할 필요는 없다. 기술의 발전이 지향하는 바는 어디까지나 인간을 위한 것임을 기억해야 한다.

글 / IT동아 권명관(tornadosn@itdonga.com)

이전 다음