직접 인공지능 그림 그려보니··· '문외한도 작가 됐다'

남시현 sh@itdonga.com

[IT동아 남시현 기자] 1956년, 미국의 인지심리학자이자 컴퓨터 공학자인 존 매카시(John McCarthy)는 다트머스 학회에서 처음으로 인공지능(Artificial Intelligent, AI)이라는 용어를 창안했다. 존 매카시는 인공지능을 ‘기계가 인간 행동의 지식에서와 같이 행동하게 만드는 것’으로 정의했으며, 1980년대 들어 존 설(John Searle) 교수에 의해 어떤 문제를 실제로 사고하고 해결할 수 있는 강인공지능과 미리 정의된 규칙을 이용해 지능을 흉내내는 약인공지능으로 구분되기 시작했다. 오늘날 모든 인공지능은 규정된 데이터 안에서 명령을 처리하는 약인공지능에 해당한다.

그런데 최근 몇 년 사이 컴퓨터 공학이나 학문 단계에 있던 인공지능이 갑작스럽게 대중화되기 시작했다. 게임이나 3D 연산 등을 처리하던 그래픽 카드의 GPU(Graphics Processing Unit)를 활용해 CPU의 연산을 처리하는 GPGPU(General-Purpose computing on GPU) 기술이 등장하면서 인공지능 개발 속도가 빨라진 것이다. 게다가 GPU가 대중적인 물건이다 보니 인공지능 개발 역시 보편화하기 시작했고, 올해부터 가시적인 성과들이 나타나고 있다. 그중에서도 이미지 처리는 한 두달 사이에 갑자기 등장해 논란의 중심에 서기 시작했다.

오픈 AI의 ‘DALL-E’, 새 지평 열었다

오픈 AI의 'DALL-E 2'를 활용해 생성해낸 이미지, 텍스트를 인공지능이 인식해 창조해낸 결과물들이다. 출처=오픈AI
오픈 AI의 'DALL-E 2'를 활용해 생성해낸 이미지, 텍스트를 인공지능이 인식해 창조해낸 결과물들이다. 출처=오픈AI

인공지능 기반의 이미지 처리 기술이 본격화한 것은 2015년 설립된 ‘오픈AI’부터다. 테슬라의 최고경영자 일론 머스크와 와이 콤비네이터 사장인 샘 알트만은 인류에게 도움을 주는 인공지능을 만들기 위해 오픈AI를 설립했다. 오픈AI는 특허와 연구를 대중에 공개하고, 자유로운 협업을 바탕으로 인공지능을 개발한다. 그리고 작년 1월, 오픈AI의 자연어 서술 인공지능을 통해 이미지를 생성하는 ‘DALL-E’라는 기술이 공개됐으며, 올해 4월 더욱 완성도를 높인 ‘DALL-E 2’가 비공개 서비스를 시작했다.

DALL-E는 현재 150만 명 이상이 하루 200만 개 이상의 이미지를 생산해내고 있으며, 단순히 이미지를 조합해내는 단계를 넘어 원본의 경계를 넘어서는 방식의 이미지를 제공한다. 가령 ‘사이버펑크 고양이, 90년대 일본 애니메이션 스타일’을 입력하면 당시 애니메이션 기법과 색감을 토대로 한 이미지를 생성해내고, ‘야생화, 풀밭, 가을의 리듬, 수채화’를 입력하면 수채화 느낌의 그림을 만든다. 이렇게 생성된 이미지는 현실에 이미 존재하는 작품이 아닌 새롭게 조합된 것이다.

크래용에 '미래 세계'라는 단어를 입력하자 나온 결과물. 출처=크래용
크래용에 '미래 세계'라는 단어를 입력하자 나온 결과물. 출처=크래용

이를 시작으로 오픈 AI 기반의 ‘크래용(craiyon)’이나 이미지 생성 인공지능 ‘스테이블 AI’ 기반의 ‘미드저니(Midjourney)’, 소설 및 애니메이션을 생성하는 ‘노블.AI’까지 각양각색의 서비스가 등장하기 시작했다. 대다수 서비스는 횟수 제한 무료 혹은 유료로 제공되지만, 시작 단계임에도 단어 몇 개나 문장 몇 개로 수준 급의 결과물을 만들어낼 수 있어서 업계에 큰 파장을 일으키고 있다. 실제로 지난 9월 미국 콜로라도 주립 박람회의 디지털 아트 부문에서 인공지능으로 미드저니로 생성한 이미지가 1위를 차지해 예술 업계 전반에 큰 파장을 일으키기도 했다.

미드 저니를 활용해 추상적인 메시지를 입력했는데, 인공지능이 예상한 것과 비슷한 이미지를 만들어냈다. 출처=IT동아
미드 저니를 활용해 추상적인 메시지를 입력했는데, 인공지능이 예상한 것과 비슷한 이미지를 만들어냈다. 출처=IT동아

‘디스코드’ 메신저를 활용하는 인공지능 이미지 처리 서비스, 미드저니를 직접 활용해봤다. 미드저니는 디스코드로 메시지를 보내면, 내용을 토대로 그림을 생성해낸다. 메시지에 ‘눈 오는 장면, 수평선은 끝이 없고, 나무는 울창하되 파랗게 불탄다, 숲 중간으로 빛나는 뿔을 가진 사슴이 아이와 함께 서 있다’라는 문장을 입력하고, 사실적이면서 몽환적으로 그려달라고 주문했다. 그 결과 총 네 개의 이미지가 자동으로 생성되었고, 첫 번째 그림을 선택한 다음 완성도를 끌어올려봤다.

미드저니로 만든 이미지를 재가공 혹은 고도화한 결과물들. 출처=IT동아
미드저니로 만든 이미지를 재가공 혹은 고도화한 결과물들. 출처=IT동아

결과물은 비교적 추상적이지만, 원하는 구도와 구성으로 제공됐다. 만약 예술가라면 이정도 그림을 그리는 데 상당한 시간이 소요되겠지만, 단지 텍스트만으로 이 정도 이미지를 만들어냈다는 점 자체가 인상적이다. 사용자가 문장을 정확하게 입력할수록 완성도는 상승하며, 수많은 반복과 세밀함을 반복해 품질을 끌어올릴 수 있다. 또한 그림이나 구도 등은 모두 자동으로 생성되고, 그림체나 형식에 대해서도 지시할 필요가 없었다. 대다수 서비스가 시작한 지 세 달도 되지 않았음에도 상업화가 논의될 정도로 빠르게 진보하고 있다.

그림에서 영상까지, 진보는 시작됐다

메타AI가 공개한 Make-A-Video 결과물, 텍스트로 창초해낸 비디오들이다. 출처=메타AI

이제 막 이미지 기반의 인공지능이 등장하면서 관련 업계를 달구고 있지만, 발전 속도는 예상보다 훨씬 빠르다. 메타(前 페이스북)은 지난 9월 29일(현지 시각), 텍스트에서 비디오를 만들어내는 인공지능까지 공개했다. ‘Make-A-Video’는 단 몇 단어 또는 텍스트를 추론해 존재하지 않는 형태의 동영상을 생성해내고, 실제로 존재하는 비디오를 입력하면 이를 토대로 유사한 다른 형태의 비디오를 만들어내기도 한다. 앞서 DALL-E나 미드저니와 다르게 시험 단계의 성격이 강하며 완성도가 떨어지지만, 인공지능이 지금 기술로도 충분히 동영상으로 구현될 수 있음을 보여준다.

발전 가능성은 무궁무진, 저작권이 문제

인공지능 기반의 이미지 처리 기술은 이제 막 선보이는 기술이지만, 이미 예술 시장 전반을 바꿔놓을 거란 우려를 낳고 있다. 전문가가 오랜 시간을 투자해야 만들 수 있는 결과물도 인공지능에 문장만 입력해 30초면 생성해낼 수 있기 때문이다. 인공지능 품질이 향상된다면 간단한 사진이나 일러스트레이트는 인공지능이 대체해버릴 수도 있다.

시장에서 우려하는 바도 적지 않다. 애니메이션을 생성하는 노블AI의 정식 서비스는 유료다. 문제는 노블AI의 데이터베이스가 원작자의 허락 없이도 이미지가 수집될 수 있는 ‘단보루(Danbooru)’라는 서비스를 데이터베이스로 삼고 있다는 점이다. 즉 노블AI를 활용해 이미지를 생성하는 과정 자체에서 원작자의 의사와 무관하게 저작권이 침해될 수 있다는 의미다. 이는 노블AI만의 문제점이 아닌 모든 인공지능 서비스에 해당하는 문제다.

인공지능의 품질은 데이터를 가공하는데 쓰이는 매개 변수를 얼마나 크고 효율적으로 운용하는가에 있다. 사용할 데이터가 적으면 그만큼 조합 가능한 수가 적어 품질은 떨어지고, 데이터가 많으면 그만큼 빠르게 발전한다. 앞으로 이 문제를 어떻게 해결하는가에 따라 전체 인공지능 시장의 성장세가 달렸다고 보면 된다.

글 / IT동아 남시현 (sh@itdonga.com)

IT동아의 모든 콘텐츠(기사)는 Creative commons 저작자표시-비영리-변경금지 라이선스에 따라 이용할 수 있습니다.
의견은 IT동아(게임동아) 페이스북에서 덧글 또는 메신저로 남겨주세요.