AI 판사는 정말로 '공정한 판결'을 내릴 수 있을까?

정연호 hoho@itdonga.com

[IT동아 정연호 기자]

“배고픔과 피곤함은 판사의 판결에 영향을 준다”

이스라엘 법원의 가석방 판례를 분석한 미국 컬럼비아대학 비즈니스 스쿨 조나단 레바브 (Jonathan Levav) 교수가 내린 결론이다. 연구를 진행한 레바브 교수는 “판사들은 반복적으로 판결을 할 때 현 상황을 유지하는 판결(가석방 불허)을 선호하는 것으로 나타났다. 그리고, 판사들이 점심을 먹기 위해서 잠시 쉬고 나면, 가석방을 인정할 가능성이 커졌다”고 말했다.

연구가 시사하는 바는 판사의 판결에는 다양한 변수가 영향을 미친다는 것이다. 판사가 정신적으로 지쳐 있다면 판결의 방향이 달라질 수 있다는 것. 실제로도 판사들은 중립적이지 않으며, 법원의 판단은 공정하지 않다는 연구 결과가 계속 나오고 있다. 판사의 편견에 따라 형량이 들쭉날쭉하다는 것은 이제 대중을 놀라게 할 특별한 뉴스가 아니다.

출처=셔터스톡
출처=셔터스톡

‘유전무죄, 무전유죄’라는 말에 엄청난 공감대가 형성돼 있듯, 한국 사회는 사법부에 대한 불신이 강하다. ‘2021 국민 법의식 실태조사’에 따르면, ‘법관의 재판은 외부에 영향을 받지 않는다’에 그렇지 않다(전혀 그렇지 않다+별로 그렇지 않다)고 답한 사람은 48.2%였다. 조사 대상자 중 절반은 사법부 판결이 외부 영향을 받는다고 생각한 것이다. 이들은 국회 및 국회의원, 사법행정권 내 상급자, 기업, 대통령, 언론이 재판에 영향을 준다고 답했다.

양승태 전 대법원장의 사법행정권 남용 사건에서 재판거래와 법관사찰 의혹이 드러나자, 청와대 국민청원 게시판에는 사람 대신 인공지능(이하 AI) 판사를 사용하자는 글들이 올라왔다. AI 판사는 외부 영향과 편견에서 자유로우니 공정한 판결이 가능할 것이란 이유에서다. 또한, 아동 성범죄 등 반인륜적 범죄자를 처벌할 때 형량이 너무 낮으니 중립적인 AI 판사가 판결하면 공정한 처벌이 가능할 것이란 기대도 있다.

사회적 분위기가 변하자 대법원 법원행정처는 지난 2020년 ‘손해배상 사건에서의 인공지능 활용방안’ 연구 용역을 맡겼다. 형사재판 대신 민사 손해배상 소송의 손해액 산정 등에 먼저 AI를 도입할 수 있을지를 검토하겠다는 취지였다.

해외에서는 실제로 AI 판사를 도입한 국가가 있다. 에스토니아는 소액 민사재판에 AI 판사를 시범적으로 도입했다. 국민들에게 신속한 법률 서비스를 제공하고, 판사들이 더 중요한 사건에 집중하도록 하기 위해서다. 소액 민사재판은 내용이 비슷하고, 법원의 판단도 정형화돼 있어서 자동화가 어렵지 않다고 한다.

미국에서는 재판 전 구금 및 가석방 심사, 양형 판단에서 AI 기반의 재범 예측 프로그램이 널리 쓰이고 있다. 대표적으로 민간기업 노스포인트사가 개발한 재범예측 프로그램인 ‘컴파스(COMPAS)’가 있다. 컴파스는 백여 개가 넘는 지표로 저위험, 중위험, 고위험 세 가지 위험도를 분류하고 재범가능성을 분석하도록 설계돼 있다. 피고인 및 피의자가 대답해야 하는 질문에는 “당신의 부모가 징역에 처한 사실이 있습니까?”, “당신의 친구 혹은 지인 중 마약을 불법적으로 먹은 이들이 몇 명입니까?” 등이 포함된다.

‘AI의 공정한 판결’을 기대했다면 실망할 수도…

다만, AI가 재판에 영향을 주면서 판결의 편향성이 문제시됐다. AI는 기존의 판결을 학습하기 때문에 판사의 편견을 그대로 학습한다는 것이다. 컴파스를 사용했던 법원 및 가석방 심사위원회의 판결을 분석한 미국 독립언론기관 프로퍼블리카(ProPublica)는 컴파스의 범죄 위험도 평가는 인종 차별적 결과를 초래한다는 보고서를 발표했다.

출처=셔터스톡
출처=셔터스톡

보고서에 따르면, 컴파스는 흑인의 재범 가능성을 백인보다 2배 이상 높다고 판단했다. 반대로, 컴파스에 의해 재범 위험성이 낮은 저위험으로 예측됐지만 실제 재범을 저지른 백인은 흑인보다 더 많았다.

세계적인 테크 매체인 MIT 테크놀로지 리뷰 (MIT Technology Review)는 컴파스의 편향성이 나타나는 이유가 백인과 흑인이 검거되는 비율이 다르기 때문이라고 보도했다. 미국 전역에선 흑인이 백인보다 더 많이 검거되는데, 이는 경찰이 흑인 등의 소수인종을 공격적으로 체포하기 때문이다. 컴파스는 ‘흑인이 더 높은 비율로 검거된다’는 데이터세트를 학습하게 된다. 흑인이 백인보다 높은 비율로 체포된다면 AI는 흑인을 더 위험한 집단이라고 학습할 수 있다. 이러한 학습 결과는 컴파스가 흑인의 재범 가능성을 판단할 때 영향을 준다.

법률 전문가들은 AI 판사의 한계는 기존 판결을 답습하는 것이라고 지적한다. 기존 판결에서 좋은 것만을 골라서 학습시킬 수는 없다. 결국, 판결에 있는 편견과 차별을 AI가 학습하게 될 가능성이 높다.

기존 결과를 답습하기 때문에 AI 판사는 변하는 사회 분위기에 맞춘 새로운 판결을 내놓지도 못한다. 가령, AI 판사는 ‘양심적 병역 거부 무죄’ 판결처럼 기존 판례를 뒤집는 전향적인 사례가 나올 수 없다는 분석이 나온다.

원광대학교 법학전문대학원 강승식 교수는 ‘인공지능 판사, 과연 가능한가?’ 논문에서 “판사의 사법권 기능은 분쟁을 해결하는 데 그치지 않고, 입법권과 같이 일정한 정책을 형성하는 데까지 확대될 수 있다”고 했다.

심급제도에서 2심과 3심은 개별적인 사건의 쟁점을 검토하는 것을 넘어서, 더 거시적인 관점에서 사회질서나 국가기능을 조절하는 역할을 수행한다. 양심적 병역 거부처럼 국가적으로 중요한 사안에서 입법에 준하는 기능을 수행하려면 판사에겐 사회의 분위기를 읽고, 가치적이고 정책적인 판단을 할 역량이 필요하다. AI가 이러한 판단을 하는 게 가능한지는 미지수다.

“사법부의 역할은 판결에 대한 신뢰를 주는 것”

일각에선 사람들이 AI 판사에게 중요한 판결을 맡기는 걸 선호하지 않을 것이라는 주장도 나온다. 눈에 보이지도 않는 AI가 내리는 판결에 사람들이 승복할 가능성도 크지 않다. 사법부에 대한 신뢰가 떨어진 것은 사실이나, 사람들이 재판에 승복하는 이유는 판사가 직업적 양심에 따라 재판을 할 것이란 믿음 때문이다.

AI가 내리는 결정의 과정을 설명하지 못하는 ‘블랙박스’ 문제는 상황을 더 복잡하게 만든다. AI 판사가 사용될 경우 결정 과정이 투명하게 설명돼야 한다. 문제는 AI 알고리즘이 기업의 영업비밀인 ‘자산’이라는 것. 만약, AI 알고리즘의 영업비밀을 보호하는 법체계가 만들어지면 AI의 판결에 승복하는 사람들은 그렇게 많지 않을 것으로 보인다.

게다가 AI는 컴파스처럼 통계학에 기반을 둔 결정을 한다. 흑인 집단의 검거율이 높으니, 흑인이 더 위험한 집단이라고 판단을 내리는 것처럼 말이다. 판결의 구체적인 쟁점을 따지지 않고, 통계학에 기대 양형을 결정하는 AI 판사를 사람들이 신뢰할 것이라고 기대하긴 어렵다.

AI 판사, 현재 단계에선 구현하기 어려운 기술

출처=셔터스톡
출처=셔터스톡

음주나 무면허 운전 등을 처리하는 전자약식 절차는 AI로 자동화하는 데 큰 무리가 없다. 음주운전의 경우 범죄 사실과 적용되는 법령을 기재하고, 이미 전자적으로 처리된 경찰의 피의자신문조서와 주취운전자 적발보고서 등의 범죄 정보를 알고리즘으로 자동으로 끌고 와 활용하면 된다.

다만, AI가 사실관계를 인정하고 법률을 적용하며, 양형을 결정하는 기능을 수행하는 것은 현재 단계에서 불가능하다는 지적이 나온다. 기술의 난도가 높아서 가까운 미래에도 구현하는 건 쉽지 않다.

복잡한 사건은 어떤 법조문이 적용되는지 판단하기도 어렵다. 사실 관계 패턴이 다양하고, 다양한 조문이 동시에 적용되기 때문이다. 영남대학교 법학전문대학원 양종모 교수는 ‘인공지능에 의한 판사의 대체 가능성 고찰’ 논문에서 “피고인의 자백에도 불구하고 이에 대한 사실관계 인정이 필요하며, 유죄라고 판단되면 확정된 사실관계를 기초로 법률을 적용하며 형량을 결정해야 한다. 이런 절차를 수행하려면 알고리즘의 복잡도는 상상을 초월할 정도로 늘어난다”고 지적했다.

이어, 양종모 교수는 “피고인이 자백해도 자백을 보강할 증거가 없으면 형사소송법에 의해 무죄판결이 선고돼야 하며, 자백의 신빙성도 판단해야 한다. 자백을 보강하는 증거가 있어도 위법하게 수집된 증거로서 증거능력이 부정되지는 않은지 모든 경우의 수를 그려야 한다”면서 “이러한 복잡도 증가의 문제는 AI 발전을 가로막는 중요한 장애 요인”이라고 했다.

다른 연구들도 AI는 법률 문서로부터 필요한 문구를 잘 추출하지 못하며, 판결의 근거를 세밀하게 만들어내지 못하고, 법규칙을 사실관계에 적용하는 추론 능력이 떨어진다고 지적한다. 이러한 이유로 AI 판사가 인간 판사를 대체하기는 힘들다는 게 학계의 공통적인 의견이다. 앞으로는 컴파스의 사례처럼 AI 판사가 만든 자료를 인간 판사가 활용하는 정도로 그칠 것으로 보인다.

다만, 기술 발전에 따라 AI 판사의 한계점들도 점진적으로 해결될 여지는 있다. 법무법인 민후의 김경환 변호사는 “법조계에서 AI 판사가 기술적으로 불가능한 영역이라고 생각하지는 않지만 전면 교체는 어렵다고 여기는 분위기”라고 말했다.

이어, 김경환 변호사는 “소액사건과 계약서가 명확하게 있는 것들은 대체가 가능한 것으로 보이지만, 계약서가 없거나 사회적으로 비중이 있는 것들은 어렵다는 의견이 많다. 아무래도 판례를 다 이해해야 하는데, AI가 판례의 취지를 다 이해하는 건 어렵다고 생각한다. 다만, 미래에 기술이 발전하면서 활용할 수 있는 영역은 더 넓어질 것”이라고 했다.

글 / IT동아 정연호 (hoho@itdonga.com)

IT동아의 모든 콘텐츠(기사)는 Creative commons 저작자표시-비영리-변경금지 라이선스에 따라 이용할 수 있습니다.
의견은 IT동아(게임동아) 페이스북에서 덧글 또는 메신저로 남겨주세요.