개인정보위 “GPA 2025 오픈소스데이, AI 생태계 안전 청사진 그려”
[IT동아 김예지 기자] 에이전틱 인공지능(AI) 시대가 열리면서 낮은 비용으로 높은 성능을 구현할 수 있는 오픈소스 모델에 대한 산업 수요가 커졌다. 하지만 개방성은 동시에 개인정보 노출 및 오남용 등 새로운 위험을 초래할 수 있다. 개인정보보호위원회(위원장 고학수, 이하 개인정보위)가 제47차 글로벌 프라이버시 총회(GPA 2025) 개막에 앞서 9월 15일(월) 개최한 ‘오픈소스 데이’는 오픈소스의 순기능을 살리면서 개인정보 보호를 강화하기 위한 논의의 장으로 마련됐다.
9월 15일(월)부터 19일(금)까지 서울 그랜드 하얏트 호텔에서 5일간 열리는 GPA 2025는 세계 95개국 148개 감독기관 등이 참여하는 최대 규모 국제 협의체다. 이번 총회에서는 오픈소스 데이 등 부대행사를 비롯해 기조연설, 패널 토론, 기술 전시, 한국 문화 체험 프로그램 등을 병행하며 정책·기술·산업 현장의 교차점을 보여줄 전망이다.
개인정보위, GPA 2025서 오픈소스 데이 개최
오픈소스 데이는 GPA 2025의 주제인 ‘AI 시대 개인정보 이슈’ 논의의 연장선으로서 개최됐다. 구글, 마이크로소프트(Microsoft), 메타(Meta), 오픈AI, 네이버, 셀렉트스타(다투모) 등 글로벌 AI 빅테크와 국내 기업, 연구자, 해외 감독기구 관계자가 모여 안전한 오픈소스 AI 모델 활용 방안을 논의했다.
최장혁 개인정보보호위원회 부위원장은 개회사에서 “오픈소스 데이는 에이전틱 AI와 같은 혁신 서비스의 기반이 되는 오픈소스 AI 생태계와 개인정보 보호를 함께 고민하는 국내 첫 공개 논의의 장으로 의미가 크다”며, “기업과 연구자들이 안심하고 오픈소스를 활용할 수 있도록 현장의 목소리를 경청해 정책에 적극 반영하겠다”라고 강조했다.
이어 김휘강 개인정보보호위원회 비상임위원은 축사에서 “오픈소스 개방 문화가 최신 기술 혁신의 원동력이 되고 있지만, 개인정보 보호 측면에서 위험성이 존재한다”며, “리스크를 최소화하기 위한 심도 있는 논의가 필요할 때”라고 말했다. 또한 “개방적이면서 신뢰할 수 있는 AI 발전을 함께 모색하는 출발점이 되길 기대한다”고 덧붙였다.
글로벌 빅테크, 오픈소스 AI 활용 전략 공유
참여 기업들은 자사의 오픈소스 AI 모델 및 솔루션 최신 동향과 적용 전략을 발표하고, 국내 AI 기업과 협력해 오픈소스 모델을 적용한 사례, 그리고 도입 과정에서의 기술·사업 인사이트를 공유했다.
구글은 비용 효율적인 오픈소스 모델 운영을 위한 자사 플랫폼 ‘버텍스 AI(Vertex AI)’를 소개했다. 이와 함께 거대언어모델(LLM) 품질 평가 도구와 프롬프트 최적화 기능, 안전성 강화 도구 등 신뢰성·안전성 확보를 위한 도구 활용 방안을 공유했다. 김지혁 구글 클라우드 AI 제품 고객 엔지니어는 “LLM은 이제 표준 라이브러리처럼 자리잡아 에이전트·애플리케이션 개발로 확장되는 전환기에 있다”며, 구글의 하드웨어-미들웨어-모델을 아우르는 수직 통합적 접근이 성능·안정성·프라이버시를 모두 고려한 신뢰할 수 있는 오픈소스 AI 활용에 기여한다”고 말했다.
에임 인텔리전스(aim-intelligence)는 AI 서비스 운영 및 사내 AI 모델 활용 과정에서 기업이 겪는 정보 보안 과제를 공유했다. 김하늘 에임 인텔리전스 CFO는 “AI 에이전트를 도입하는 한국 기업들은 개인정보 보호와 산업별 규제를 준수해야 한다”고 강조했다. 그는 메타의 오픈소스 AI 필터링 모델 ‘라마 가드(Llama Guard)’를 고도화해 수상한 사례를 언급하며, ▲생성 AI 모델의 안전성을 자동 검증하는 ‘에임 레드(AIM Red)’ ▲실시간 필터링 솔루션 ‘에임 가드(AIM Guard)’를 시연했다.
마이크로소프트는 ‘애저 AI 파운더리(Azure AI Foundry)’를 기반으로 에이전트 AI를 구축한 고객사 사례를 제시하고, 에이전트 AI 구축을 위한 오픈소스 모델·도구를 소개했다. 곽필주 마이크로소프트 AI 앱 매니저는 “개발자는 단일 도구만으로는 충분하지 않으며, 애플리케이션과 에이전트를 통합적으로 구축해 비즈니스에 가치를 더해야 한다”며, “애저 AI 파운드리는 조직의 AI 작업 부하를 간소화하고 효율적으로 앱을 확장할 수 있도록 돕는다”고 말했다.
오픈AI는 새로운 자사 오픈소스 모델(gpt-oss-20b/120b)을 소개하며, 오픈소스 모델의 경제·사회적 가치와 함께 안전성 우려와 책임성, 글로벌 차원의 논의 필요성을 제기했다. 오픈AI는 “단순히 성능 경쟁에 그치지 않고, 안전장치 마련에도 앞장서 궁극적으로 범용 인공지능(AGI)이 모두에게 혜택을 줄 수 있도록 하겠다”며, “개방성은 책임감과 함께해야 하며, 오픈 모델은 신중하게 설계돼야 한다”고 주장했다.
국내 기업으로 네이버와 다투모(Datumo, 셀렉트스타의 글로벌 사명)도 참여했다. 네이버는 자사 오픈소스 모델(HyperClovaX Seed)과 공개 데이터셋과 벤치마크, AI 안전성 프레임워크 등 안전한 오픈소스 활용을 위한 도구를 소개했다. 정주환 네이버클라우드 이사는 “네이버는 다양한 서비스를 운영하며 쌓은 사용자 경험과 데이터를 기반으로 AI 기술을 발전시켜 왔다”고 말했다. 그는 독거노인 케어콜 등 AI의 사회적 활용 사례를 통해 “AI는 기술을 넘어 사회적 가치 창출에 기여해야 한다”며, “정부 주도의 국가 AI 파운데이션 모델 프로젝트에 참여했고, 향후 이를 통해 만들어질 모델은 오픈소스 공개를 목표하고 있다”고 덧붙였다.
다투모는 오픈소스 모델·기술을 활용해 개발한 AI 신뢰성 검증 솔루션 ‘다투모 이밸(DATUMO Eval)’을 소개하고, 오픈 데이터셋 및 신뢰성 평가 벤치마크 구축 사례를 제시했다. 다투모는 학습용 데이터셋 확보·전처리 과정에서 데이터 암호화와 프라이버시 보호를 핵심 원칙으로 삼으며, 도서·방송국과 협업해 고품질 텍스트 데이터셋을 구축해 왔다. 다투모는 “기업이 챗봇을 개발할 때 오픈소스든 폐쇄형 모델이든 실제 안전성과 품질을 보장하기는 어렵다”며, “환각 현상 방지, 시스템 안전 기준 충족, 적절한 데이터 기반 답변 보장이 핵심”이라고 강조했다. 또한 그는 “AI 신뢰성과 안전성을 담보하는 새로운 평가·검증 체계”의 필요성을 제기했다.
책임 있는 오픈소스 AI 생태계 공감대 형성
개인정보보호위원회는 영국, 이탈리아, 브라질 등 4개국 개인정보 감독기구(DPA)가 참여하는 라운드테이블을 진행했다. 이들은 오픈소스 AI 생태계에서 고려할 프라이버시 문제를 논의하고, 신뢰 가능한 AI 구현에 대한 공감대를 형성했다. 특히 이들은 에이전틱 AI가 발전하는 데 오픈소스 기술이 기반이 될 것이며, 에이전트가 상호작용할수록 프라이버시 중요성은 커진다는 점에 공감했다. 이에 따라 에이전틱 AI 시대의 도래와 함께 안전한 AI 생태계 구축을 위한 국제적 차원의 지속적인 논의와 협력 필요성에 뜻을 모았다.
크리스 테일러(Chris Taylor) 영국 정보위원회(ICO) 국제 규제 협력 이사는 “빠른 산업 발전 속도에 맞춰 규제기관도 빠르게 프라이버시 설계와 안전장치를 통합해야 한다. 오픈소스 AI 채택 위험 최소화는 국제 사회의 공동 목표”라고 강조하며, 영국의 규제 샌드박스 사례를 공유했다. 그는 “익명화된 데이터조차 재사용될 위험이 있다”며 협력의 필요성을 역설했다.
개인정보보호위원회는 오픈소스 생태계에서의 프라이버시 안전장치 논의를 지속해 왔다. 올해 초 AI 스타트업과 간담회를 개최해 오픈소스 모델에 대한 수요를 확인했고, 지난해부터 오픈소스 모델을 포함한 주요 LLM 사전 실태 점검을 통해 리스크를 파악했다. 이를 바탕으로 ‘AI 프라이버시 리스크 관리 모델’과 ‘생성형 AI 개인정보 처리 안내서’를 발간했다.
구민주 개인정보보호위원회 AI 프라이버시 팀장(서기관)은 “최근 글로벌 기업들의 오픈소스 AI 모델 개방은 단순한 사업성 추구보다는 생태계 주도권을 확보를 위한 경쟁”이라 분석하며, “한편으로 오픈소스는 역공격에 취약하고, 개인정보 탈취 위험이 있어 개인정보보호위원회는 이러한 문제의식을 바탕으로 오픈소스의 혁신을 장려하는 동시에 안전장치 마련의 중요성을 강조해왔다. 앞으로도 지침과 가이드라인을 제공하는 중요한 역할을 수행하겠다”고 말했다.
IT동아 김예지 기자 (yj@itdonga.com)