2025년 사이버 보안 위협…“양날의 검이 된 생성형 AI”
[IT동아 김예지 기자] 기술의 발전은 우리 삶을 편하게 해주지만, 동시에 새로운 문제를 가져온다. 생성형 인공지능(AI)은 등장 이후 급속도로 발전하며 전 산업에 걸쳐 적용됐으나, 이를 악용한 사례도 우후죽순 늘어나고 있다.
과학기술정보통신부(이하 과기정통부)와 한국인터넷진흥원(KISA)은 ‘2025년 사이버 위협 전망’에서 올해를 해커의 AI 활용이 본격화되는 해로 꼽았다. 이 리포트는 안랩, 지니언스, 이글루코퍼레이션, SK쉴더스, 구글, 마이크로소프트 등 국내외 정보보안 전문가와 함께 작성됐다. 지난해 사이버 위협 사례를 돌아보고, 올해 예측되는 위협에 대한 선제적 예방을 강조한다.
사이버 사기 증가…소프트웨어 공격 심화
과기정통부는 2024년 주요 사이버 위협 피해 사례로 ▲사이버 사기(스팸, 스미싱, 금융 사기, QR코드 사기 등) ▲소프트웨어 공급망 공격 ▲금품요구 악성 프로그램(랜섬웨어) 공격기법 고도화 등을 제시했다. SK쉴더스가 발표한 자료에 따르면, 제조업과 공공 분야 보안 사고가 각각 18%로 가장 높은 비중을 차지했다. 각각 15%를 기록한 금융, 교육 분야와 IT, 의료, 도소 유통 분야가 뒤를 이었다.
우선 지난해 전 국민을 대상으로, 티몬·위메프 사태 환불 미끼 문자 등 사회적 이슈를 이용한 금융 결제 사기가 대폭 증가했다. 청첩장, 부고 등의 일상 문자 형식을 악용한 스팸 및 스미싱 문자도 기승을 부렸다. 이에 정부는 지난해 11월 스팸 방지 종합대책을 발표한 바 있다.
디지털 전환이 가속화됨에 따라 소프트웨어 공급망 공격도 심화됐다. 악성코드는 오픈소스 플랫폼, 패키지 매니저 등 다양한 소프트웨어를 통해 취약점에 파고들었으며, 다수의 사용자를 노리는 공격이 발생했다. 또한 협력사, 서드파티를 통한 공격이 불거지며, 공급망 전체 보안이 핵심으로 떠올랐다.
한편, 지난해 7월 크라우드스트라이크(CrowdStrike)는 보안 소프트웨어 업데이트 중 발생한 오류로 세계 윈도우 시스템에서 블루스크린(BSOD)을 초래했다. 외부 공격은 아닌 것으로 드러났으나, 기업 소프트웨어 관리의 중요성과 단일 벤더의 위험성을 일깨운 사례다.
랜섬웨어도 여전히 골칫거리다. 지난해 상반기에만 평균 20억원의 피해액을 냈을 정도다. 랜섬웨어 기법은 진화되고 피해 규모도 날로 커지고 있다. 예컨대, 보안 솔루션 탐지 회피를 위해 정상 시스템 및 도구로 위장하는 방식이다. 공격 표적은 내부 시스템에 그치지 않고, 하이퍼바이저(물리적 하드웨어를 논리적으로 가상화하는 소프트웨어) 환경으로 확대되고 있다.
2025년 AI 기술 활용한 공격 본격화
과기정통부는 2025년 주요 사이버 위협으로 ▲생성형 AI 활용 본격 ▲디지털 융복합 체계 사이버 위협 증가 ▲국제 환경 변화에 따른 사이버 위협 증가 가능성 ▲디도스 공격 증가 예상 등을 전망했다.
주목할만한 부분은 AI다. 생성형 AI는 양날의 검으로 떠올랐다. 올해는 생성형 AI를 비롯한 다양한 AI 기술이 산업 전반에 확산되는 가운데, 이를 활용한 사이버 공격이 한층 더 고도화될 것으로 전망된다. 보안 전문가들은 “현시점에서 AI를 활용한 직접적인 공격은 어렵지만, 피싱 메일 작성, 악성 스크립트 제작, 취약점 탐색 등 해킹의 보조 수단으로 활발히 쓰인다”고 말했다.
지난해 크게 이슈로 떠오른 딥페이크 및 딥보이스 기술을 악용한 범죄가 대표적이다. 딥페이크 기술을 활용해 만든 성 착취물을 유포하고, 피해자에게 금전적 협박을 하는 디지털 성범죄가 확산됐다. 딥페이크는 해커뿐만 아니라 전문적인 지식이 없는 일반인조차 쉽게 AI 도구에 접근 및 활용할 수 있다. 본인 인증, 로그인 등에서 활용되는 안면 인식 기술이 고도화된 딥페이크로 우회가 가능하다는 점은 심각한 문제를 초래한다.
특히 안랩은 올해 AI 기반 사회공학 기법 활용이 증가할 것이라 내다봤다. 사회공학 기법이란 시스템 취약점보다 사람 또는 집단의 심리, 언어, 문화를 공략하는 공격 기법을 뜻한다. 안랩은 “AI를 이용해 타겟을 파악해 신뢰하는 인물로 사칭해 딥페이크 영상을 만들고, 내부 인력으로부터 민감 데이터를 유출하거나, 비즈니스 이메일을 침해하는 공격이 증가할 것”이라고 말했다.
이렇듯 생성형 AI를 활용한 사이버 공격의 진입장벽이 낮아지고 있다. 오픈AI의 챗GPT를 필두로 편의성을 제공하는 거대언어모델(LLM)이 늘어나는 반면, 악성 LLM 사례도 늘고 있다. 목적 자체가 불법적인 사기GPT(FruadGPT), 악성코드 생성하는 웜GPT(WormGPT) 등 사이버 범죄에 특화된 악성 AI 모형이 다크웹(기존 웹 브라우저와 검색 엔진으로 액세스할 수 없는 웹)에서 유통되고 있다.
보안 전문가들은 “생성형 AI를 이미 도입했거나, 도입을 앞둔 기업은 기술 도입 단계에서부터 데이터 보안을 내재화해야 한다. 생성형 AI가 사용되는 전 단계를 포괄하는 상시 모니터링 체계를 구축해 지속 점검하는 것이 중요하다”고 강조했다. 예컨대, AI 기반 보안 솔루션, 제로트러스트 보안 등의 채택이다. 정부는 AI 사이버 공격에 대한 선제 대응이 필수다. AI 오남용을 방지하기 위한 종합 법적 대응책을 마련하고, 딥페이크 등 신기술 악용 사례에 대한 엄격한 규제를 마련해야 한다.
IT동아 김예지 기자 (yj@itdonga.com)