알파고, 챗GPT를 이을 ‘특이점’, AGI란 무엇?

김영우 pengo@itdonga.com

[IT동아 김영우 기자] ‘기술적 특이점(Technological Singularity)’이란 용어가 있다. 인공지능(이하 AI)이 비약적으로 발전해 인간의 지능을 뛰어넘는 기점, 그리하여 인류가 미래를 더 이상 예측하거나 통제할 수 없게 되는 상태를 뜻하는 말이다.

출처=제미나이로 생성한 이미지
출처=제미나이로 생성한 이미지

얼핏 들어선 공상과학 속의 이야기, 혹은 일부 전문가들만 논하는 개념 같다. 하지만 일부 전문가뿐 아니라 일반인들까지 이 ‘기술적 특이점’을 현실로 인식하게 된 계기가 있었다. 2016년 구글의 ‘알파고’가 이세돌 9단과의 바둑 대결에서 승리했을 때, 그리고 2022년 오픈AI가 ‘챗GPT’를 선보였을 때가 대표적이다.

이 두 사건은 대중들에게 기술적 특이점의 필수 요소인 ‘어제와 완전히 다른 내일’, 그리고 다시는 이전으로 돌아갈 수 없는 ‘돌이킬 수 없는 임계점’이 무엇인지 확실하게 느끼게 해 준 사건이었다.

하지만 전문가들은 "이것은 예고편일 뿐"이라고 말한다. 알파고와 챗GPT를 잇는 진짜 특이점, 바로 ‘범용 인공지능(AGI)’이 다가오고 있기 때문이다.

시키는 일만 하는 ‘도구’ vs 스스로 생각하는 ‘AGI’

그렇다면 AGI는 지금의 AI와 무엇이 다를까? 현재 우리가 쓰는 AI(Narrow AI, 좁은 인공지능)는 아무리 뛰어나도 결국은 ‘도구’다. 바둑 AI는 바둑만 잘 두고, 번역 AI는 번역만 잘한다. 사람이 목표를 정해주고 시키는 일만 수행한다.

반면 AGI(Artificial General Intelligence)는 말 그대로 ‘사람 같은’ 지능이다. AGI는 처음 마주하는 낯선 문제도 스스로 분석해 해결책을 찾아낸다. 예를 들어, "맛있는 저녁을 차려줘"라고 명령하면 지금의 AI는 레시피를 검색해서 보여주는 데 그친다. 하지만 AGI는 냉장고 속 재료를 파악해 메뉴를 정하고, 부족한 재료는 직접 주문하며, 요리 순서를 계획해 로봇 팔로 조리까지 해낼 수 있는 ‘응용력’과 ‘범용성’을 갖춘다. 시키지 않아도 스스로 계획을 세우고 수정하는 단계, 말하자면 ‘진짜 지능’에 가깝다.

AGI 시대, 불과 1년만 기다리면 온다?

이 엄청난 변화는 언제쯤 일어날까? 놀랍게도 불과 1년 뒤인 2027년이 그 기점이 될 것이라는 구체적인 전망이 나왔다.

전 오픈AI(OpenAI) 연구원 다니엘 코코타일로(Daniel Kokotajlo)가 이끄는 ‘AI Futures Project’팀이 지난해 4월 발표한 ‘AI 2027’ 보고서에 따르면, 2027년경에는 AI가 인간 연구원의 도움 없이 ‘스스로 AI를 연구하고 코딩하는 단계’에 도달할 것으로 예측된다. AI가 자신의 코드를 스스로 고쳐서 더 똑똑해지고, 그 똑똑해진 지능으로 또다시 자신을 업그레이드하는 이른바 ‘지능 폭발’이 일어나는 것이다. 이때가 되면 기술의 발전 속도는 인간이 상상할 수 없을 정도로 빨라진다.

심지어 올해 안에 AGI가 등장할 것이라는 전망도 나왔다. 일론 머스크 테슬라 CEO는 지난 1월 다보스 포럼 등에서 AGI의 등장 시점을 '이르면 올해(2026년) 안, 늦어도 2027년 초'로 공언해 업계에 파장을 일으켰다. 그는 한발 더 나아가 2030년경에는 AI의 지능이 전 인류 지능의 총합을 넘어설 것이라는 공격적인 관측을 내놓기도 했다.

일론 머스크는 단순한 연구자가 아닌 기업인이기도 한 만큼, 그의 말에는 어느 정도 과장이 섞여 있을 가능성도 배제할 수 없다. 하지만 AGI가 언젠가 반드시 등장할 것이며, 그 시기가 당초 우리가 생각했던 것보다 훨씬 더 빨리 다가올 것이라는 점에는 업계 내 이견이 거의 없는 분위기다.

그렇다면 현재 우리는 어디쯤 와 있을까? 구글 딥마인드는 AGI의 발전을 5단계로 나누는데, 챗GPT 같은 현재의 최첨단 AI들도 아직 ‘1단계(AGI의 싹이 트는 단계)’ 수준이다. 사람과 대화는 잘하지만, 복잡한 업무를 혼자서 책임지기엔 실수가 잦기 때문이다. 하지만 전문가들은 AI가 인간 성인 수준의 업무 능력을 갖추는 ‘2단계’에 진입하는 순간, 순식간에 인간을 초월하는 단계로 넘어갈 것이라고 경고한다.

‘모든 것의 해결책’ vs ‘통제 불가능한 위험’

물론 AGI의 도래가 두렵기만 한 것은 아니다. 낙관론자들은 AGI가 ‘인류 최후의 발명품’이 될 것이라 기대한다. 인간 지성으로 해결하지 못한 암이나 치매 같은 난치병을 정복하고, 핵융합 발전 상용화를 앞당겨 기후 위기를 해결하며, 전례 없는 경제적 풍요를 가져올 잠재력이 있기 때문이다. AGI가 인류를 단순 노동에서 해방시켜 진정한 창의성의 시대를 열어줄 것이라는 희망 섞인 관측도 나온다.

하지만 빛이 밝을수록 그림자도 짙은 법이다. AGI가 가져올 이 엄청난 혜택을 안전하게 누리기 위해서는, 기술이 인간의 통제를 벗어나는 최악의 상황을 막을 ‘확실한 안전장치’가 전제되어야 한다.

그래서 최근 대두되는 것이 바로 ‘감속(Slowdown)’을 위한 구체적인 안전 대책이다. 단순히 기술 개발을 막자는 것이 아니라, 브레이크 없는 스포츠카에 안전한 제동 장치를 달자는 논의다. ‘AI 2027’ 보고서 역시 인류가 파국을 피하고 AGI의 혜택을 누리기 위한 선결 조건으로 ‘감속 결말(Slowdown Ending)’ 시나리오를 제시하며, 다음과 같은 구체적인 안전 수칙들을 제안하고 있다.

첫째, ‘AI 하드웨어 추적 시스템’이다. 고성능 AI를 개발하려면 엔비디아(NVIDIA)의 ‘블랙웰(B200)’과 같은 최신 고성능 반도체(GPU)가 수만 개 필요하다. 보고서는 국제원자력기구(IAEA)가 우라늄의 이동을 감시하듯, 이러한 핵심 AI 칩이 어디서 어떻게 쓰이는지 국제적으로 추적하고 통제하여 위험한 AI 개발을 사전에 감지해야 한다고 제언한다.

둘째, ‘긴급 정지(Kill Switch)’ 시스템의 의무화다. AI가 인간을 속이려 하거나 위험한 징후를 보일 때 즉시 데이터센터의 전원을 내릴 수 있는 물리적 차단 장치에 대해 기업과 정부가 합의해야 한다고 강조한다. 위험성이 검증되지 않은 모델은 개발을 ‘일시 정지(Pause)’하는 국제적 공조 또한 필수적이다.

마지막으로 보고서가 강조하는 것은 ‘블랙박스’ 해독 기술이다. 현재의 AI는 결과만 내놓을 뿐, 왜 그런 결정을 내렸는지 인간이 알기 어렵다. AI의 사고 과정을 투명하게 들여다볼 수 있는 ‘해석 가능성(Interpretability)’ 기술이 확보되기 전까지는 AI에게 전력망 관리나 무기 통제 같은 중요한 결정권을 맡겨서는 안 된다는 것이다.

한국, ‘AI 기본법’ 본격 시행… AGI 시대 채비 나섰다

이처럼 세계 각국의 기관 및 기업들이 AGI 시대에 대비하는 가운데, 대한민국 역시 비교적 기민하게 움직이고 있다. 지난 1월 22일부터 본격 시행된 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 AI 기본법)’이 대표적인 사례다.

2024년 말 국회를 통과해 올해 시행에 들어간 AI 기본법은 산업 진흥뿐만 아니라, 향후 도래할 AGI 시대의 안전성을 담보할 제도적 기틀을 포함하고 있다. 특히 사람의 생명이나 안전에 중대한 영향을 미칠 수 있는 AI를 ‘고영향 인공지능’으로 정의하고, 사업자에게 신뢰성 확보와 사고 대응 의무를 부과한 조항을 눈여겨볼 만하다. 이는 AGI가 등장했을 때 이를 법적으로 관리하고 통제할 수 있는 최소한의 안전장치를 미리 마련해 두었다는 점에서 의미가 있다.

기술은 항상 인간의 예상보다 빠르게 발전해왔다. 바로 1년 이내에 닥칠지도 모르는 이 '기술적 특이점'에 대응하기 위해, AGI라는 거대한 파도가 우리를 덮치기 전에 튼튼한 방파제를 쌓는 일. 그것은 AGI가 가져올 풍요로운 미래를 안전하게 맞이하기 위한 필수 과제가 되고 있다.

IT동아 김영우 (pengo@itdonga.com)

IT동아의 모든 콘텐츠(기사)는 Creative commons 저작자표시-비영리-변경금지 라이선스에 따라 이용할 수 있습니다.
의견은 IT동아(게임동아) 페이스북에서 덧글 또는 메신저로 남겨주세요.