인공지능의 진화, 설명·목소리만 듣고 사진 한 장 뚝딱
[IT동아 차주경 기자] 나날이 발전하는 사진 인공지능 기술이 사람의 능력을 뛰어넘을 기세다. 문장 한두 마디를 듣고 그 설명을 고스란히 그림이나 사진으로 묘사하는 인공지능이 등장했다. 사람의 목소리를 들으면 그 사람의 얼굴 생김새를 추측해 그리는 인공지능도 주목 받는다.
미국 인공지능 개발 기업 ‘오픈AI(OpenAI)’가 개발한 사진 인공지능 ‘DALL-E 2’는 특정 문장 한두 마디를 입력하면 이를 토대로 사진이나 그림을 만든다.
위 그림과 사진은 DALL-E 2가 각각 ‘우주에서 고양이와 농구 하는 우주 비행사’와 ‘해변가에 앉은 웰시코기 강아지’를 듣고 만든 것이다. 앞서 인공지능 기술 개발 기업 엔비디아가 이와 비슷한 기술 ‘GauGAN2’를 공개했다. 문장을 듣고 그대로 사진으로 만드는 인공지능이다. 오픈AI의 DALL-E 2는 엔비디아의 GauGAN2보다 사진을 더 선명하게, 고해상도로 만든다. 배경 흐림, 빛 묘사 등 고급 사진 기술도 넣는다.
DALL-E 2는 문장을 듣고 사진에 피사체를 추가하거나, 사진의 구도를 바꾸는 능력도 가졌다. 방 사진을 인식한 후 DALL-E 2에게 ‘방 구석에 노란 색 소파’라고 입력하면 그대로 표현한다. ‘방 왼쪽 구석’을 입력하면 방 사진에는 없는 구석을 스스로 묘사한다. 단, 복잡한 문장이나 표현은 인식하지 못한다. 그림자나 빛의 방향을 다소 어색하게 표현할 때도 있다.
유사한 기술로, 앞서 미국 매사추세츠 공과대학교(MIT)의 컴퓨터 과학·인공지능 연구소(CSAIL) 소속 과학자들이 공개한 목소리 인식 인공지능 기술 ‘Speech2Face’가 화제가 됐었다. 이 인공지능은 사람의 목소리를 듣고 억양과 높낮이, 단어와 발음을 토대로 그 사람의 얼굴 생김새를 추론한다.
CSAIL 과학자들은 유튜브에 올라온 동영상 수백만 개를 활용해 사람 얼굴과 목소리의 특성, 관계를 연구했다. 그 결과, Speech2Face는 사람의 목소리만 듣고도 놀라울 정도로 정확하게 그 사람의 얼굴을 재현했다.
이 두 인공지능 기술도 일부 사진 인공지능 기술의 사례와 마찬가지로 나쁘게 쓰일 가능성이 제기됐다. 기술 개발자들은 여러 제한과 안전 장치를 둬서 부작용을 막는다고 밝혔다.
오픈AI는 DALL-E 2가 나쁘게 쓰이지 않도록 음란·폭력·증오 관련 단어와 문구를 데이터베이스에서 지웠다. 사람의 얼굴도 만들지 못하게 설계하고, 이 기술을 일반 소비자에게는 제공하지 않는다. CSAIL은 Speech2Face를 만들 때 유튜브의 동영상을 활용한 만큼, 데이터 분포가 균등하지 않다고 밝혔다. 이어 이 기술을 사람의 목소리의 특징을 연구하고 더 많은 응용 프로그램을 만들기 위해 개발했다고 강조했다.
글 / IT동아 차주경(racingcar@itdonga.com)