역대급 돈벌이로 떠오른 챗GPT, 인공지능 악용 시작됐다

남시현 sh@itdonga.com

[IT동아 남시현 기자] 메타(Meta)의 수석 인공지능 개발자인 얀 르쿤은 지난 19일 인공지능 및 기계학습 협력체 콜렉티브[i]가 주최한 모임에서 “구글과 메타는 물론 적지 않은 스타트업들이 챗GPT와 기본적으로 매우 유사한 기술을 갖고 있다”라면서, “챗GPT는 이미 공개된 기술을 잘 갈무리한 결과물일 뿐, 숨겨진 비밀 같은 건 없다”라고 말했다. 챗GPT가 새로운 기술이 아님에도 세상이 혁신적으로 받아들이고 있다는 말도 덧붙였다.

챗GPT를 서비스하고 있는 오픈 AI 홈페이지. 출처=오픈AI
챗GPT를 서비스하고 있는 오픈 AI 홈페이지. 출처=오픈AI

얀 르쿤은 챗GPT를 ‘잘 정리한 방법’ 정도로 보았지만 세상은 이미 챗GPT에 열광하고 있다. 챗GPT가 혁신적이라는 평가를 받고 있는 이유는 누구나 접근 가능한 영역에서 손쉬운 방식으로 활용할 수 있기 때문이다. 구글이나 메타, 아마존 등 오랫동안 인공지능을 개발해 온 기업들은 인공지능의 무분별한 사용이 어떤 방향으로든 문제를 일으킬 수 있다는 전제를 두었기에 조용히 개발해 왔다. 반대로 오픈AI는 윤리적 문제보다는 기술의 대중화를 더 높은 가치로 보고 챗GPT를 공개했다. 모두가 모인 파티에서 혼자만 샴페인을 터뜨린 셈이다.

챗GPT, 장밋빛 전망과 디스토피아가 공존하는 장치

챗GPT는 대화형 인공지능으로, 단어가 아닌 문장을 통해 질문하면 대답을 내놓는다. 현재 1천750억 개 이상의 매개변수 데이터를 활용하고 있으며, 사람이 질문하는 내용을 이해하고 대답을 생성한다. 이미 단순 검색 수준이나 반복 작업을 넘어서 논술이나 문학 작품, 논문 등을 생성하고 수학, 코딩 등의 작업까지도 해낸다. 업계에서는 향후 몇 년내 사람이 직접 코딩하는 경우가 사라진다거나, 검색 엔진의 틀이 단어에서 문장으로 바뀔 것이라는 장밋빛 전망이 쏟아지고 있다. 마이크로소프트는 제작사인 오픈 AI에 100억 달러(약 12조 2천억 원)를 투자할 예정이며, 오는 3월에는 검색엔진인 빙(Bing)에 챗GPT를 적용할 예정이라서 기정 사실화하고 있다.

미래 인공지능 연구의 23가지 원칙 제정 당시 참여한 얀 르쿤. 출처=Future of Life Institute
미래 인공지능 연구의 23가지 원칙 제정 당시 참여한 얀 르쿤. 출처=Future of Life Institute

하지만 오픈AI의 과감한 행보가 긍정적인 것 만은 아니다. 2017년 1월, 미국 캘리포니아주 아실로마에서는 전 세계 유수의 인공지능 개발자 및 석학들이 모여 ‘이로운 인공지능 회의’(Beneficial AI conference)를 열고 다섯 가지의 연구 이슈와 열세 가지의 윤리 및 가치, 다섯 가지 장기적 이슈로 구성된 ‘미래 인공지능 연구의 23가지 원칙’을 제정했다. 23가지 원칙은 아실로마 인공지능 원칙으로 불리며 ‘인공지능 연구의 목적은 인간에게 유용하고 혜택을 줘야 하며, 인간의 존엄성과 권리, 자유, 이상 등과 양립하고 장기적으로 위험에 대응하며 공동의 이익을 위해 활용되어야 함’을 담고 있다.

오픈 AI는 몇몇 부분에서 이 원칙을 지키고 있다. 23가지 원칙 중 ▲ 고급 인공지능의 설계자는 오용 및 도덕적 영향을 미치는 이해관계자며 그에 따른 책임과 기회가 있다는 책임성 ▲ 많은 이들에게 혜택을 주는 공동 이익 ▲ 인공지능에 의해 만들어진 경제적 번영은 공유되어야 하는 공동 번영 ▲ 사회나 시민들의 프로세스를 뒤집는 게 아닌 개선에 쓰여야 한다는 비파괴 ▲ 인공지능이 초래하는 위험과 예상되는 영향에 맞춰 계획 및 완화 노력이 필요한 위험 ▲ 몇몇 국가나 조직이 아닌 모든 인류를 위해 개발되어야 한다는 공동의 선 등을 약한 단계에서 침해하고 있다.

구글 듀플렉스는 음성 인식으로 식당, 서비스 등을 예약하는 기능이다. 다만 첫 공개 당시 음성 비서의 목소리가 너무 인간적이라는 지적을 받아 지금은 기계적인 목소리로 서비스된다. 출처=구글
구글 듀플렉스는 음성 인식으로 식당, 서비스 등을 예약하는 기능이다. 다만 첫 공개 당시 음성 비서의 목소리가 너무 인간적이라는 지적을 받아 지금은 기계적인 목소리로 서비스된다. 출처=구글

구글이나 메타를 비롯한 많은 기업들이 인공지능을 조용히 개발해 온 이유가 책임 소재가 명확하지 않고, 이로 인한 오용 가능성 등을 막기 위해서였다. 2018년 구글의 인공지능 예약 서비스 듀플렉스는 인공지능 목소리가 지나치게 사람 같아서 악용될 수 있다는 지적을 받았고, 이후 덜 사람같고 기계적으로 바꾼 사례도 같은 맥락이다. 하지만 챗GPT는 누구나 사용할 수 있음을 전제로 사용자에게 책임 소재를 돌리고, 이로 인해 생길 수 있는 여러 문제들은 고려하지 않고 있다.

오픈AI가 손놓자, 돈벌이 수단으로 악용

챗GPT의 활용도는 무궁무진하다. 지난 1월 21일, 미국 와튼스쿨 맥 혁신경영 연구소는 ‘챗GPT가 와튼 MBA를 딸 수 있을까’라는 글을 통해 챗GPT가 ‘운영관리’ 기말 시험에서 B 또는 B-의 점수를 받을 수준이라고 밝혔다. 의료 스타트업 앤서블헬스는 챗GPT가 미국의사면허시험을 무난히 통과할 수 있는 수준이며, 보험사에게 보낼 문서를 작성하거나 영상의학 판독문 등을 작성할 수 있는 수준이라는 내용을 논문 사전공개 사이트 ‘바이오아카이브’에 게재했다. 실험적이지만 전문 영역의 업무를 대체할 수 있음이 확인된 것이다.

이미 유튜브에는 챗GPT로 가짜 정보를 만들어서 수익화하는 방안들이 퍼지고 있다. 출처=유튜브
이미 유튜브에는 챗GPT로 가짜 정보를 만들어서 수익화하는 방안들이 퍼지고 있다. 출처=유튜브

그리고 이런 챗GPT의 성능을 남용하는 사례가 점차 늘고 있다. 유튜브에 챗GPT로 블로그를 작성하는 방법 등을 검색하면 수십 개의 영상이 쏟아진다. 대부분의 내용은 블로그를 개설하고 챗GPT로 영문 스크립트를 작성한 뒤 복사 붙여 넣기 해서 만드는 내용이다. 이렇게 하면 전문적인 내용도 그럴싸하게 작성할 수 있고, 검색 유입을 통한 광고로 수익을 올릴 수 있게 된다. 블로그뿐 아니라 AI 기반으로 유튜브 영상 등을 생성해 내는 방식도 등장하고 있으며, 추후 어떤 방식으로 응용될지 알 수 없는 상황이다.

이런 사례가 늘어날수록 정보의 사실 여부를 검증하기가 어려워지고, 정보가 오염되면서 전반적인 신뢰도가 훼손되는 결과로 이어진다. 이미 네이처, 사이언스 등의 학술지들은 챗GPT로 생성한 논문의 저자 자격을 인정하지 않기로 결정했고, 미국 교육기관 등에서도 챗GPT 접속을 차단하고 나섰다. 오픈AI는 표절 등 부적절한 활용을 막기 위해 챗GPT가 쓴 문장을 감지하는 기술을 개발하고 있으나 명쾌한 결론에 이르지 못한다.

다크웹 상에서도 챗GPT를 활용해 멀웨어나 암호화 툴을 만드는 시도가 이어지고 있다. 출처=체크포인트리서치
다크웹 상에서도 챗GPT를 활용해 멀웨어나 암호화 툴을 만드는 시도가 이어지고 있다. 출처=체크포인트리서치

보안 업계에서는 더 큰 문제가 발생하고 있다. 보안연구기업 체크포인트는 지난 6일, 사이버 범죄자들이 챗GPT를 악용하기 시작했다고 경고했다. 한 사례에서는 연구 간행물에 멀웨어 변종을 심기 위해 챗GPT로 파이썬 기반 코드를 만드는 사례가 있었고, 챗GPT로 랜섬웨어로 전환할 수 있는 암호화 도구를 생성한다거나, 도난 계정이나 카드, 마약, 탄약 등을 거래하는 다크웹 마켓의 사이트를 챗GPT로 생성해내는 경우도 포착됐다. 아직까지는 챗GPT로 만든 코드 결과물을 실제로 쓰기엔 부족하다는 의견이 많지만, 코딩을 잘 모르는 사용자까지도 사이버 범죄를 쉽게 시작할 수 있는 도구로 악용될 것이라는 목소리가 커지고 있다.

챗GPT는 디지털 납, 무분별한 사용은 공동의 책임

처음 챗GPT가 등장할 때 업계는 검색 엔진의 패러다임이 구글에서 MS로 옮겨가는 정도만 예측했다. 그런데 현실은 챗GPT가 가짜 정보와 가짜 블로그, 스팸, 광고글을 무작위로 생성하고 이 데이터가 구글의 검색엔진에 쌓이면서 지금까지 쌓아온 신뢰성과 데이터가 훼손되는 결과를 낳고 있다. 구글뿐만 아니라 인터넷 상에 있는 모든 자료에 해당된다. 카카오 브런치나 네이버 블로그에 챗GPT가 작성한 글들이 구분할 수 없도록 섞여있다면, 누가 정성들여 글을 쓰고 또 누가 읽겠는가.

제약없는 챗GPT 사용이 어떤 결과를 초래할지는 그 어느 누구도 속단할 수 없다. 출처=오픈AI
제약없는 챗GPT 사용이 어떤 결과를 초래할지는 그 어느 누구도 속단할 수 없다. 출처=오픈AI

업계에서는 이미 챗 GPT로 생성한 문구를 걸러내는 등의 시도가 시작됐지만, 생성 속도가 빠르고 또 대비가 쉽지 않다. 오픈AI는 자료 출처가 인공지능임을 밝히는 워터마크를 삽입하겠다고 했으나, 사람이 문장을 다듬기만 해도 구분이 불가능해진다. 검색뿐만 아니라 학계나 언론, 교육, 예술 등 모든 분야에서 정보 오염이 발생할 수 있다. 인공지능으로 논문을 작성하거나, 실재하지 않는 역사를 사실인양 제공하고, 인공지능으로 그린 그림을 사람이 그린 것처럼 파는 일을 말이다. 챗GPT는 올해 안에 새 버전을 공개하고 서비스 확대 및 유료화에 박차를 가한다. 하지만 시작도 하기 전에 발생하고 있는 잡음들을 덮어두기만 한다면, 돈은 범죄자가 벌고 책임은 모두가 지는 상황이 벌어질 것이다.

글 / IT동아 남시현 (sh@itdonga.com)

IT동아의 모든 콘텐츠(기사)는 Creative commons 저작자표시-비영리-변경금지 라이선스에 따라 이용할 수 있습니다.
의견은 IT동아(게임동아) 페이스북에서 덧글 또는 메신저로 남겨주세요.