눈높이 높아진 AI 사용자들에겐 2% 부족한 '애플 인텔리전스'
[IT동아 남시현 기자] 애플 기기의 인공지능(이하 AI) 기능인 애플 인텔리전스가 4월 1일부로 우리나라에도 정식 서비스된다. 애플 인텔리전스는 애플 기기에 탑재된 뉴럴 엔진을 기반으로 수행되는 AI 서비스 전반을 가리키는 말로, 지난해 6월 개최된 애플 세계연례개발자회의(WWDC24)에서 처음 공개됐다. 당시 애플은 미국 영어 버전을 먼저 공개했으며, 다른 언어는 추후 서비스될 것을 고지한 바 있다.
지원 기기는 아이폰 iOS 18.4 버전을 지원하는 아이폰 15 프로 시리즈, 16 및 16 프로 시리즈, 아이폰 16SE가 해당된다. 아이폰 15는 해당되지 않는다. 아이패드는 M1 칩 이상이 탑재된 아이패드 및 아이패드 미니, 프로면서 iPadOS 18.4를 설치한 제품이 해당된다. 매킨토시는 애플 M1 칩 이상, 맥OS 세쿼이아 15.1 이상을 지원하는 환경에서 쓸 수 있다. 반년이 지나 국내에 정식 상륙한 애플 인텔리전스의 활용 방법, 그리고 의의에 대해 탐구해 봤다.
GPT같은 AI 보다는 실용성에 초점 맞춘 AI
오늘날 가장 주목받는 AI 서비스는 오픈AI의 GPT다. GPT는 다중언어모델(LLM) 방식의 인공지능으로 문맥을 이해하거나 자료를 설명하고, 텍스트를 정리하는 작업 등에 최적화돼있다. GPT-4o 이후부터는 멀티모달을 적용해 이미지나 도표 생성 같은 작업도 할 수 있다. 또한 API 지원으로 다른 서비스나 플랫폼과 연동해 챗봇 형식으로 만드는 등의 부가적인 활용도도 갖췄다. 이를 추종하는 딥시크, 재미나이, 라마, 퍼플렉시티 등의 AI가 모두 언어 기반 생성형 AI다.
애플 인텔리전스는 LLM보다는 사용자의 상황과 행동에 필요한AI를 모아놓은 서비스에 가깝다. 기술적으로도 UI/UX 등 사용자 화면을 복합적으로 인식하는 페렛-UI(Ferret-UI)가 적용됐고, 음성인식 비서인 시리와 결합해 이미지, 화면, 음성을 복합적으로 이해한 뒤 결과를 내놓는다. UX는 사용자의 반응과 행동 등을 고려한 ‘사용자 경험’을 뜻하며, UI는 화면의 배치나 직관적인 이용 등을 고려하는 ‘사용자 인터페이스’다. LLM의 핵심이 명령과 답변이라면, 애플 인텔리전스는 수행 보조와 효율성에 초점을 맞춘다.
지원 가능 기기는 바로 적용, 실제 사용해보니
애플 인텔리전스는 업데이트 후 바로 메뉴가 생성되며, 설정에서 켜고 끌 수 있다. 2025년 4월 17일 현재 기준 활용 가능은 텍스트를 사용하는 앱 전반에서 쓰기 및 개선 등 지원, 사진 앱에서 자연어 기반 검색과 이미지 제거 기능인 클린업 기능 추가, 대상을 더 잘 이해하고 성능이 높아진 인공지능 비서 시리 세 부류다. 영문 버전에서 제공되는 이미지 생성 기능인 이미지 플레이그라운드 및 이미지 마술봉, 이모지 생성 기능인 젠모지 등 이미지 생성 관련 기능은 한국어 서비스로는 아직 제공되지 않는다.
텍스트 기능인 ‘글쓰기 도구’는 웹브라우저나 문자 메시지 등 언어 기능을 쓰는 앱 전반에서 쓸 수 있다. 예를 들어 문장을 선택하면 복사하기 등과 함께 글쓰기 도구가 있다. 이를 선택하면 하단에 챗GPT 기반의 글쓰기 도구 창이 뜬다. 기능은 교정, 재작성은 물론 친근하게, 전문적으로, 간결하게 등이 있다. 본인이 필요한 다른 조건을 직접 설명할 수 있다. 요약하거나 핵심을 키포인트로 정리, 목록화, 표 생성 등도 지원한다. 챗GPT 기반이므로 향후 업데이트 등에 따라 성능은 변동될 수 있다.
이를 활용하면 기사나 이메일 내용을 요약하거나, 문자 메시지를 보내기 전에 글을 좀 더 다양한 문체로 교정, 수정할 수 있다. 이메일의 경우 오늘까지 답해야 하거나 바로 확인해야 하는 내용 등을 자동으로 인식해 우선순위로 노출하고, 메모 앱이나 통화 중 녹음 버튼을 누르면 내용이 텍스트로 입력 및 요약되기도 한다.
이미지 클린업은 기대 이상··· 한국어 미지원 기능 많아
이미지 기능 중 창작 기능인 이미지 플레이그라운드, 이미지 마술봉, 젠모지 등이 빠지다 보니 쓸 수 있는 기능이 많진 않다. 사진 앱으로 이동하면 이제 검색을 자연어로 찾을 수 있다. 과거에는 이미지의 날짜나 단어 등을 기반으로 찾아야 했는데, 이제는 AI가 문장과 이미지를 대조해서 찾는다. 가령 ‘공원에서 빨간색 옷을 입은 강아지와 노는 장면’을 검색하면 기존에는 공원, 강아지, 빨간색을 인식하고 직접 찾아야 했지만, 문장 자체를 입력해도 알아서 찾는다. 다만 검색 기능은 아직 완벽하지 않으며, 특징이 잘 드러나지 않는 단순한 이미지는 오히려 찾기 어렵다.
이미지 제거 기능인 클린업은 기대 이상이다. 클린업 기능은 이미지에서 원하는 부분을 선택해 지우는 기능인데, 이미지 선택의 정밀도도 높고 반응 속도도 빠르다. 삼성전자 갤럭시에 탑재된 이미지 부분 삭제 기능은 선택 후 삭제하는데 10초 정도 소요되는 반면, 클린업은 거의 즉시 반응한다. 너무 넓은 부분을 지울 수 없다는 한계는 있지만, 잘 나온 사진을 간단히 보정하는 수준으로는 활용도도 매우 좋다.
애플 시리가 인텔리전스에 통합되며 성능이 크게 업그레이드 됐지만, 활용도는 여전히 제한적이다. 시리의 언어 인식률이 높아져 말을 더듬거나, 내용을 번복해서 말하는 경우에도 최종 결론에 대한 명령을 수행하며, 목소리로 문자 등을 입력할 수 있다. 또 챗GPT와 연동해 음성으로 명령을 내리고, 앞서 명령어를 계속 인식하도록 해 연속성 있는 질문을 이어갈 수 있다. 하지만 시리 자체의 음성명령 기능의 활용도가 높지 않은 편이라 도입 자체의 의미가 크지 않다.
애플은 장기적으로는 화면 인지 기능과 개인적 맥락까지 이해하는 초 개인화 기능, 여러 앱을 넘나들며 시리가 명령을 수행하는 기능 등을 추가할 예정이지만 시기적으로 언제가 될지는 미지수다.
생태계 전반 확장 노리는 애플 AI, 고양이 손도 빌려와야
이달 초 애플 머신러닝 연구에 올라온 ‘페렛-UI 2: 다양한 플랫폼에서 범용 사용자 인터페이스 이해 통달하기’라는 문서를 살펴보면, 향후 애플이 꿈꾸는 애플 인텔리전스의 미래를 엿볼 수 있다. 페렛-UI 2는 아이폰, 아이패드 뿐만 아니라 애플 TV, 웹페이지, 안드로이드 기기에 이르는 모든 플랫폼을 이해하도록 설계됐다. 기능면에서는 해상도 가변에 따른 인식 기능, GPT-4o 기반의 고급 작업 생성, 시작적 프롬프트 생성 등이 특징이다. 애플은 머신러닝 연구를 전반적으로 추진 중이며, 플랫폼을 넘어서는 애플만의 AI 생태계 구축을 만들려 함을 알 수 있다.
한편 이를 달성하기 위해 꼭 자체 AI를 고집하지는 않을 것으로 보인다. 디 인포메이션은 크레이그 페더리기 소프트웨어 엔지니어링 수석 부사장이 시리 엔지니어들에게 ‘최고의 AI 기능을 구축하기 위해 필요한 모든 것을 하라’고 지시 내렸다고 보도했고, 업계에서는 이를 애플 자체 LLM이 아닌 오픈소스나 다른 소프트웨어도 활용하라는 것을 시사한다고 보고 있다. 이미 GPT 도입만으로도 가능성은 충분하다.
애플 인텔리전스가 비교적 늦게 출시된 만큼 시장의 반응도 미지근 하다. 시장의 기대치가 높았던 탓도 있다. 사전에 소개된 기능이 없었다거나, 기능이 과장됐다는 대외적인 논란도 이어지고 있다. 이런 논란들을 배제하고, 애플이 추구하는 생태계 확보와 기능적 우위를 모두 거두기 위해서는 지금보다 훨씬 더 파격적이고 혁신적인 대책이 필요해보인다.
IT동아 남시현 기자 (sh@itdonga.com)