스마트 카·자율주행차의 핵심, 사람처럼 배우는 '딥 러닝'
[IT동아 강형석 기자] 사람이 특별한 조작을 하지 않아도 알아서 안전하게 목적지를 찾아가는 자율주행차, 내부 운전자 상태를 차량이 인지해 필요한 기능을 수행하는 차량 등 최근 자동차는 단순 이동 수단에 머물지 않고 다양한 기능을 수행하며 운전자에게 편리함을 제공하기 위해 준비 중이다. 스마트 카(Smart Car), 커넥티드 카(Connected Car), 자율주행차 등 용어는 차와 IT에 관심이 있는 사람이라면 더 이상 낯선 단어가 아니게 되었다.
아직도 그렇지만 우리가 자동차를 바라볼 때의 기준이 있다. 차량 디자인은 괜찮은지, 성능이나 기능은 좋은지, 공간은 충분한지, 안전한지 등 목적과 예산, 취향에 따라 다양한 방법으로 접근된다. 하지만 스마트 카 또는 자율주행차가 도입되는 시점에서는 기존 우리가 품은 기준들과 함께 또 다른 기준이 추가될지도 모른다. 바로 '얼마나 똑똑한가'다.
스마트 카, 자율주행차의 기본 '분석'과 '예측'
운전자가 스티어링 휠 조작 없이 자동차가 알아서 도로 위를 달리는 모습. 보통이라면 상상도 할 수 없는 이 모습이 현실이 되려면 자동차는 사람이 운전 중 해야 하는 모든 과정을 도맡아야 한다. 이것을 가능하게 만드는 것은 바로 '분석'과 '예측'이다. 자동차는 주변 환경을 분석하고 앞으로 벌어질 일을 예측해 차량을 목적지까지 안전하게 이동시켜야 한다.
이를 위해선 운전 행위를 대신할 기능을 구현해야 한다. 주변에 차량이 어떻게 접근하는지, 사람이나 고장난 차량 등 장애물이 놓여 있는지 등 도로의 환경을 확인하기 위한 카메라는 필수다. 카메라는 사람의 눈을 대신하는 부품이 되는 것이다. 거리를 측정하는 센서도 도움도 필요하다.
카메라가 사람의 눈을 대신하고 해상도가 향상되면서 기존 자동차에 달리는 거울의 대부분은 자취를 감출 것이다. BMW는 CES 2016에서 i8 미러리스(Mirrorless)를 공개했다. 이 차량은 기존 하이브리드 차량 i8과 달리 측면 거울이 없고, 그 자리를 카메라가 대신한다. 이 카메라는 주변 사물을 인지해 전달하는 역할 외에도 실내 디스플레이를 통해 측면 거울처럼 쓰기도 한다.
< BMW가 공개한 i8 미러리스. 좌우 측후면을 육안 관찰하기 위한 거울 대신 카메라 달렸다. >
아우디는 지난 CES 2015에서 자율주행 시스템을 탑재한 아우디 A7 차량을 샌프란시스코에서 라스베이거스까지 사람의 도움을 받지 않고 이동시킨 전례가 있다. 거리는 약 900km 가량이었다. 이전에도 무인 주행기술을 탑재한 RS7 차량으로 서킷에서 최고 240km를 기록하며 완주한 기록도 있다. 이 때 차량에는 코스를 기록하는 3D 카메라를 탑재했고, GPS와 와이파이(Wi-Fi)를 통해 코스를 분석한 데이터를 주고 받았다.
< 아우디는 발 빠르게 무인자동차 연구를 시작한 자동차 브랜드 중 하나다. >
중앙처리장치(프로세서)는 사람의 뇌 역할을 한다. 카메라나 센서가 보낸 정보를 바탕으로 차량이 속도를 바꾸거나 차로를 변경해야 하기 때문이다. 주변 정보를 빠르고 정확하게 처리할수록 더 안전한 자율주행이 가능해질 것이다.
엔비디아와 퀄컴은 이 시장을 놓고 경쟁하고 있다. 각각 고성능 프로세서를 통해 차량이 받아들이는 정보를 빠르게 처리할 수 있다고 공언한다. CES 2016에서 퀄컴은 스냅드래곤 820A와 스냅드래곤 820Am을 내세웠고, 엔비디아는 테그라와 최신 그래픽 프로세서를 두 개씩 탑재한 드라이브 PX2를 선보였다.
통신도 중요하다. 위성항법장치(GPS)나 무선통신 등은 필수로 자리잡을 전망이다. 위성항법장치는 차량 내 내비게이션과 위성 사이에서 위치를 주고 받으며 운전자를 목적지까지 정확히 안내하는 역할을 하게 될 것이다. 통신은 사고나 기타 요인에 의해 차량에 문제가 생겼을 때, 자동으로 구조 신호를 보낸다거나 차량 내에서 자유롭게 통화하는 역할로 쓰이는 형태로 나아갈 것으로 예상된다.
BMW는 차량과 전용 앱이 설치된 스마트폰을 연결해 놓으면 자체 진단을 활용한 서비스 주기 안내나 서비스 센터 예약은 물론이고 사고가 발생했을 때, 긴급 통화도 가능한 텔레서비스를 제공하고 있다. 향후 기술이 진화하면 여러 정보를 통신으로 주고 받으며 자율주행에 영향을 줄 가능성이 높다.
분석과 예측을 위한 '딥 러닝'
카메라나 센서로 도로 주변 상황을 전달하고, 관련 데이터를 처리한다는 것은 성능만 뛰어나면 어느 정도 해결될 일이다. 프로세서 성능이 향상되면 처리하는 양은 많아지고 자연스레 제공된 정보를 빠르게 처리 가능해진다. 문제는 여기에서 끝나지 않는다. 운전이라는게 나 혼자가 아니라 여러 운전자들이 동시에 도로 위를 함께 달리니 어떤 일이 벌어질지 알 수 없다. 변수가 많다는 얘기다.
이를 위해 IT와 자동차 업계가 떠올린 것은 바로 '딥 러닝(Deep Learning)'이다. 컴퓨터가 사람처럼 생각하고 배울 수 있는 기술인 딥 러닝은 운전자 외에 또 다른 사람이 의식을 갖고 차량을 조작하는 미래를 꿈꾼다.
딥 러닝은 데이터를 모으거나 세부 분류하는 것에 사용된다. 컴퓨터가 사람과 달리 입력된 값에 대해서만 결과를 도출하는 한계를 넘기 위해서다. 예를 들어, 사람은 생김새가 달라도 어떤 동물인지 구분할 수 있지만, 기계는 입력해주지 않으면 어떤 동물인지 모른다.
이런 특성을 극복하기 위해 데이터를 모아 비슷한 종류끼리 분류하는 머신 러닝(Machine Learning)이 개발됐다. 복잡한 데이터들을 입력하고 비슷하거나 유사한 내용을 컴퓨터가 능동적으로 분류하는 것이다. 딥 러닝은 머신 러닝의 여러 알고리즘 중 인공신경망(Artificial Neural Network)에서 왔다.
자동차와 딥 러닝은 필수불가결한 관계다. 자동차에 달린 센서는 단순 위치나 거리를 인지한다 하더라도, 카메라를 통해 기록되는 수많은 외부 요소는 철저히 분석하고 검증할 필요가 있다. 컴퓨터는 도로 위를 달리는 수많은 차량 디자인을 읽어 그들이 달리는 '자동차'라는 것을 알아차려야 한다. 자동차를 사람이나 동물로 인식하면 안 되니 말이다. 도로 또한 마찬가지다. 달리는 도로를 정확히 인지해야 혼돈과 사고 없이 주행 가능하다.
클라우드와 연계하면 딥 러닝은 더 발전할 수 있다. 컴퓨터가 주행하며 얻은 정보를 무선으로 서버에 보내고 이들을 다시 공유하는 것이다. 관련 데이터가 있으니 다른 기계는 직접 경험하지 않아도 앞으로 비슷한 상황이 발생하면 유연하게 대처할 확률이 높아진다. 데이터를 많이 수집할수록 자율주행차는 더 정확해진다.
국내외 여러 자동차 제조사는 2020년에서 2030년까지 완전 자율주행차를 내놓을 수 있을 것으로 보고 그에 따른 청사진을 제시했다. 반도체나 통신 업계와의 제휴도 활발해지는 분위기다. 과연 우리는 향후 4~5년 이후에 완벽한 자율주행차를 볼 수 있을까? 딥러닝이 어떻게 발전하는가에 따라 그 승패가 갈릴 것으로 전망된다.
글 / IT동아 강형석 (redbk@itdonga.com)