애플의 '아동보호 정책'은 왜 거센 반발에 직면했나

권택경 tk@itdonga.com

[IT동아 권택경 기자] 애플이 자사 제품에 아동 성착취물(Child Sexual Abuse Material)을 감지하는 시스템을 도입하기로 한 것을 놓고 논란이 불거지고 있다. 아동보호단체들은 환영의 뜻을 나타내고 있지만, 보안전문가들은 보안성 저하, 프라이버시 침해, 악용 가능성 등을 우려하고 있다.

지난 5일(현지시각) 애플은 아동 성착취를 예방하고, 성착취물 확산을 방지하기 위한 조치를 강화하는 정책을 발표했다. 이번 정책에 따라 올해 말 새 OS 업데이트에 관련 기능 세 가지가 추가될 예정이다.

출처=셔터스톡
출처=셔터스톡

첫 번째는 자체 검색 앱이나 시리에서 이용자가 아동 성착취 관련 주제를 검색하지 못하도록 막는 조치다. 이용자가 해당 주제를 검색할 경우 검색 결과를 노출하는 대신 이를 신고하거나 관련 도움을 받을 수 있는 기관 연락처 등을 제공한다. 자살 관련 정보를 검색할 경우 자살예방센터를 안내하는 것과 비슷한 조치다.

두 번째는 메시지 검열 기능이다. 아동이 성적인 노출이 있는 사진을 메시지로 받으면 시스템이 이를 감지해 이미지를 자동으로 숨긴다. 사진을 확인하려면 경고 메시지와 함께 사진을 볼지 말지 재차 확인하는 절차를 거쳐야 한다. 만약 아동이 경고를 무시하고 사진을 보기로 한다면, 부모에게도 이를 알리는 메시지가 발송된다. 사진을 보내는 경우도 마찬가지다.

마지막 세 번째는 아동 성착취물 감지 기능이다. 이를 위해 다음 OS 업데이트에 뉴럴매치(NeuralMatch)라는 소프트웨어가 포함된다. 뉴럴매치는 아이클라우드에 업로드되는 사진 중 아동 성착취물로 의심되는 이미지를 감지해낼 수 있다. 일정 수 이상 사례가 적발되면 애플 측 인력이 위법성을 확인해 이용자 계정 정지 후 관련 기관에 신고하는 조치가 이뤄진다. 다만 뉴럴매치는 미국 내에서 아이클라우드를 사용 중인 이용자를 대상으로만 제한적으로 작동한다. 사진이 아닌 동영상도 감지 대상에서 제외된다.

무엇이 문제가 됐나?

애플의 새 정책이 아동 성착취 근절에 도움이 될 것이란 사실은 의심의 여지가 없다. 아동보호단체들이 쌍수를 들고 환영하는 이유다. 그러나 보안 전문가, 프라이버시 보호론자들은 공개서한까지 발표하며 애플의 새 정책에 대한 우려를 나타냈다.

사실 이미지 해시를 분석해서 아동 성착취물을 감지하는 기술이 새로운 기술은 아니다. 이미 트위터, 페이스북 등 소셜 미디어 업체들도 해시 기반으로 아동 성착취물을 감지한 후 이를 관련 기관에 신고하는 조치를 취하고 있다. 오히려 애플의 행보가 다른 기업들에 비하면 늦었다고도 볼 수 있는 대목이다.

그런데도 애플만 유독 거센 반발에 직면한 건 이러한 감지 작업이 이용자 기기에서 이뤄진다는 점 때문이다. 서버에 업로드된 데이터를 원격으로 감지하는 일반적인 방식과는 다르다. 전문가들은 서버가 아닌 기기에서 감지가 이뤄지는 방식이 백도어로 작동할 수 있으며, 종단간 암호화를 무력화할 수 있다고 주장하고 있다.

보안 전문가, 프라이버시 보호론자 등 수천 명이 애플에 보내는 공개서한에 서명했다 (출처: Apple Privacy Letter 홈페이지 캡처)
보안 전문가, 프라이버시 보호론자 등 수천 명이 애플에 보내는 공개서한에 서명했다 (출처: Apple Privacy Letter 홈페이지 캡처)

종단간 암호화란 메시지를 전송할 때부터, 받을 때까지의 모든 과정을 암호화된 상태로 진행하는 방식을 말한다. 애플 기기에서 사용할 수 있는 ‘아이메시지’에 이 종단간 암호화가 적용돼 있다. 그런데 애플의 이번 메시지 검열 기능이 작동하려면 암호화 과정이 이뤄지기 전 메시지를 직접 들여보는 방식일 가능성이 높다는 게 전문가들 의견이다. 다만 애플은 이 기능이 작동하더라도 애플이나 사법 기관이 메시지 내용에 접근할 수 없으며, 종단간 암호화 보안성에도 문제가 없다는 입장이다.

애플은 이용자 기기에서 이미지 감지를 하는 방법에도 문제가 없다고 주장한다. 오히려 이 방법이 서버를 감지하는 방법에 비해 개인정보 침해를 최소화할 수 있다는 설명이다. 애플에 따르면 감지 대상이 되는 건 기기 전체 이미지가 아니라, 아이클라우드에 동기화되는 사진에 한정된다. 이미지 그 자체를 직접 들여다보는 것도 아니다. 어디까지나 해시 값을 들여다보는 방식이다. 해시는 이미지의 지문과도 같은 역할을 한다. 뉴럴매치가 이미지에서 추출한 해시를 미국실종학대아동방지센터(NCMEC)를 비롯해 관련 단체가 보유하고 있는 아동 성착취물 해시와 대조하는 방식으로 감지가 이뤄진다.

아동 보호정책에 따라 성적인 노출이 있는 이미지를 메시지에서 검열하는 기능이 추가된다
아동 보호정책에 따라 성적인 노출이 있는 이미지를 메시지에서 검열하는 기능이 추가된다

이 과정에서 아동 성착취물로 의심되는 이미지를 감지하면 시스템은 대조 결과와 해당 이미지를 ‘세이프티 바우처’라고 하는 별도 공간에 업로드한다. 세이프티 바우처에 의심 사례가 한두 개 저장된다고 하더라도 당장 조치가 이뤄지는 건 아니다. 내용물도 암호화된 상태라 평소에는 애플조차 이를 확인할 수 없다. 그러나 일정 개수 이상 의심 사례가 쌓이면 애플이 세이프티 바우처 내용물을 확인할 수 있게 된다. 애플에 따르면 세이프티 바우처 암호화가 해제되는 이 한계점(Threshold)은 매우 정교하게 설정되어 있어 무고한 사람을 지목하게 될 가능성이 1년에 1조 분의 1명일 정도라고 한다. 사실상 가능성이 0에 수렴한다는 뜻이다.

보안 전문가들은 이러한 감지 기술이 권위주의 정권에 의해 악용될 가능성을 우려한다. 가령 테러 방지를 빌미로 한 반정부인사 감시에 악용될 가능성을 생각해볼 수 있다. 애플의 이전 행보를 보면 의구심이 드는 것도 사실이다. 앞서 지난 5월 미국 뉴욕타임스는 애플이 중국에서는 당국 요구에 굴복해 중국 내 아이폰 고객 데이터를 중국 국영기업 서버에 옮기고, 사전검열을 허용했다는 주장을 보도한 바 있다. 물론 애플은 아동 성착취물 외 분야에 이미지 감지 기술을 적용할 계획은 없다고 밝혔다. 문제는 이러한 원칙을 어디서나, 언제까지나 지킬 수 있느냐는 것이다.

글 / IT동아 권택경 (tk@itdonga.com)

IT동아의 모든 콘텐츠(기사)는 Creative commons 저작자표시-비영리-변경금지 라이선스에 따라 이용할 수 있습니다.
의견은 IT동아(게임동아) 페이스북에서 덧글 또는 메신저로 남겨주세요.