이준정 미래탐험연구소 대표 "이제는 대화체로 말해도 컴퓨터가 알아듣는 시대가 됐다"

"인공지능은 이제 우리의 친구이며, 우리가 배려해야할 대상으로 승격됐을수도"

이준정 미래탐험연구소 대표
[데일리한국 전문가칼럼=이준정 미래탐험연구소 대표] 구글 I/O 2017 행사의 첫날 주제 강연에 나선 CEO 선다 피차이는 “인간이 컴퓨터와 접촉하는 방식이 보다 더 자연스럽고 실감나게 변했다“고 소개했다.

구글은 피차이가 전면에 나서면서 ‘인공지능이 먼저다’라는 전략을 취해오고 있다. 모든 구글 서비스는 문장(text)과 이미지(image) 중심인데 인공지능을 접목해서 이들의 인식능력을 혁신적으로 높였다고 자랑했다. 인공지능 기술발전 덕분에 음성 인식률과 이미지 인식률이 모두가 사람보다 더 좋아졌다고 소개했다.

구글의 음성인식 인공지능인 구글 ‘놈’(Gnoum)은 신경망 딥 런닝 덕분에 거실에 있는 여러 가족원의 목소리를 모두 구분할 수 있게 됐으며 인식능력이 향상돼 목소리의 방향을 2개의 스피커만으로도 잘 파악할 수 있다는 점이 강점이라고 한다. 중요한 점은 이젠 대화체로 말해도 컴퓨터가 알아듣는 시대가 됐다는 사실이다.

인공지능의 기계학습은 시각인식능력에도 커다란 발전을 가져다 줬다. 구글의 시각인식 인공지능인 구글 ‘렌즈’(Lens)는 사진 중심에 있는 인물이나 물체뿐 아니라 배경 속에 흐릿하게 보이는 모든 물체나 사람을 구분해 인식하는 능력을 갖게 됐다고 발표했다.

스마트폰 카메라로 어떤 장면을 비춰도 물체를 구분해내고 카메라 화면에 포착된 장면을 이해하는 수준에 도달했을 정도다. 카메라 속의 장면을 이해한다는 의미는 대화자와 같은 장면을 보고 대화를 나눌 수가 있다는 말이며 상황인식이 같다고 가정하면 인공지능이 엉뚱한 대응을 하지 않고 이야기의 중심 주제를 이탈하지 않는다는 의미이다.

구글 ‘렌즈’의 소개 내용을 보면 질 낮은 해상도의 사진을 아주 선명한 사진으로 변환시켜주고, 사진 속의 중심인물을 가리는 장애물을 사진 속에서 지워주는 기능을 보여주기도 했다. 이젠 맘에 들지 않는 옛 애인이 있다면 그 사람을 선택적으로 사진 속에서 말끔히 지워줄 수가 있다는 의미로 보인다.

이뿐만이 아니다. 카메라로 꽃을 비추면 꽃 이름을 알려주고 근처 꽃집 위치도 알려준다. 앞으론 등반길에 만난 야생화나 야생버섯에 카메라로 비추면 이름은 물론이고 독성이나 약효를 알려줄 것 같다. 여행 중에 길가의 식당을 카메라로 비추면 식당 메뉴며 방문 소감들이 곧바로 화면에 등장하게 된다. 메뉴판에 적힌 모르는 외국어 문장도 내가 아는 한글로 자동 번역해주는 수준이 됐다.

여행 중에 만난 유적지를 비추면 자세한 설명이 화면에 등장하고 알고 싶은 정보나 지도 속에 위치도 알려준다. 구글 ‘렌즈’는 모든 상거래에도 쉽게 활용될 수 있다고 본다. 길거리에 지나치는 예쁜 아가씨가 입은 옷이나 신발을 카메라로 비추면 곧바로 그 상품을 판매하는 장소와 연결되고 구매 버튼을 눌러서 집에 배달시킬 수 가 있다. 낫선 장소에서 와이파이를 연결하려면 일일이 문장암호를 입력해 주지 않고 그저 카메라로 비추기만 하면 와이파이가 연결되는 호사를 누릴 것 같다.

인공지능의 기계학습은 두 가지 절차가 있다. 하나는 데이터 훈련이고 다른 하나는 보유한 데이터나 분석을 근거로 실시하는 추론작업이다. 구글은 클라우드에서 데이터 학습훈련과 추론작업을 모두 최적화 시킬 수 있는 기계학습 전용 TPU(Tensorflow Processing Unit)를 개발해서 클라우드에서 사용해 왔다. 작년에 알파고 지원 슈퍼컴퓨터에도 사용했던 칩이다.

이번엔 인공지능의 학습속도를 전문적으로 높이기 위해 인공지능 학습전용 슈퍼컴퓨터를 설계해서 모든 서비스에 사용하고 있다고 소개했다. 구글이 개발한 텐서플로우 칩 모듈인 TPU를 64개씩 묶어서 TPU Pod를 만들고 다시 32개의 Pod를 모아 한 대의 슈퍼컴퓨터를 만들었는데 그 성능이 무려 11.5 페타플롭스(petaflops, 백만 기가플롭스)이다.

속도 성능으로만 보면 세계에서 6번째 인데 그 크기는 월등히 작은 규모다. 피차이 발표 중에 특이한 점은 기계학습 모델을 개발하기엔 전문가도 적고 시간도 많이 걸리는 작업인데 이를 극복하기 위해서 학습을 위한 학습(OTO) 즉 자동학습 방법 AutoML을 개발했다는 내용이다. 후보 신경망들을 작동시켜서 가장 유능한 신경망을 골라내서 개발시간을 단축하는 효과가 있다고 한다. 이는 앞으로 소프트웨어도 일부는 컴퓨터가 개발하는 상황이 될 것이라고 암시한다.

구글이 가장 역점을 둔 서비스는 인공지능 비서인 구글 ‘어씨스턴트’(Assistant)이다. 스마트폰에 앱으로 삽입하기도 하고 가정용 사물인터넷 중심으로 시판 중인 구글 ‘홈’에도 삽입돼 있다.

아마존은 이미 2년 전부터 인공지능 ‘알렉사’를 제3자 비즈니스에 제공해온 결과 1만여 사례 이상의 생태계를 구축해 놓았는데 이를 상대로 구글도 인공지능 ‘어씨스턴트’를 제3자에게 제공하여 생태계를 새롭게 구축하고 자 이번에 API를 공개하고 있다.

이젠 누구나 구글의 인공지능비서를 자기 상품에 삽입해서 사용할 수가 있다. 구글 인공지능 ‘어씨스턴트’는 구글‘놈’과 구글‘렌즈’의 막강한 지원을 받으며 인공지능의 맹주로 등장하게 될 것 같다. 앞으로 스마트폰에 대고 자연어로 상품을 검색하고 인공지능이 추천한 상품을 스마트폰에서 결재하면 집으로 바로 탁송되는 그림이 그려진다.

구글은 증강현실 기술도 스마트폰에서 구현할 수 있는 엑스페디션(Expeditions)을 소개했다. 교실에서 화산이 폭발하는 모습을 스마트폰으로 보며 신기해하는 학생들을 소개했다. 이는 학생들이 교실에서 벌어지는 학습활동을 좀 더 실감나는 경험할 수 있는 길을 제시한다고 본다.

이밖에 온라인 사진저장 서비스인 구글 ‘포토’(Photoes)에서 잔뜩 쌓인 사진들 중에서 특별한 사진을 자동 검색해 내는 기능이나 사람을 지정해서 사신을 같이 공유하는 기능 그리고 특별한 사진들만을 모아서 사진첩으로 출판해주는 서비스도 공개했다.

또한 유튜브 동영상에서 특정 내용을 검색해내는 기능은 앞으로 막강하게 활용 될 수 있는 기술이다. 구글은 또 실내에서 위치를 수십 센티미터 정확도로 그려낼 수 있는 앱도 등장시켰다. 구글 ‘렌즈’를 활용한 기술인데 실내 지도 즉 VPS(Vision Positioning Service)로 복잡한 지하상가나 백화점 건물 내에서 방향을 잃지 않고 목적지를 찾아 갈 수 있는 기술을 서비스할 수 있다고 한다.

피차이 발표내용 중엔 분자화합물을 인공지능으로 분자설계하여 새로운 물질을 만들 수 있다는 언급도 있는데 이는 현실적으로도 시간이 좀 걸릴 뿐 실현 가능한 시나리오라고 판단한다.

구글이 제공한 짧은 개발 보고내용을 보고 느낀 소감은 앞으로 인공지능은 거창한 것이기 전에 우리 삶의 작은 불편요소들을 낱낱이 제거해 주는 훌륭한 편의 수단이라고 다시금 느끼게 한다. 이런 편리한 기능을 사용하는 사람과 이를 모르고 지내는 사람사이에는 세상에 적응하는 면에서 엄청난 차이가 발생할 수밖에 없다.

앞으로 누구나 자신이 처한 어려움을 극복해 나가는 데 인공지능은 매우 소중한 도구가 될 것임이 분명하다. 거창한 인류의 문제가 아니더라도 내 앞가림을 위해서라도 반드시 인공지능의 유용한 기능들에 익숙해지도록 더욱 노력해야 한다. 인공지능은 이제 우리의 친구이며, 우리가 배려해야할 대상으로 승격됐는지도 모른다.

■ 이준정 미래탐험연구소 대표 : 미래에 대한 혜안과 통찰력이 뛰어나 '미래탐험가'로 불린다. 성균관대학교 신소재공학과를 졸업하고, KAIST 재료공학과에서 석·박사를 취득했다. POSCO그룹 연구소장과 지식경제부 기술지원(금속부문)단장을 역임했으며, 서울대 재료공학과 객원교수로 활동했으며, 미래탐험연구소 등을 운영하며 과학칼럼니스트로 활동하고 있다.

저작권자 © 데일리한국 무단전재 및 재배포 금지