이준정 서울대 객원교수 "인공지능에 대한 막연한 공포나 과도한 상상 모두 극복해야"

이준정 서울대 재료공학부 객원교수
[데일리한국 전문가 칼럼 = 이준정 서울대 재료공학부 객원교수]

상상에는 커트라인이 없다. 하지만 최근 인공지능에 관련된 신문기사나 강연내용을 들여다보면 과도해 보이는 상상이 넘쳐나는듯 싶다.

'포스트 휴먼시대, 초인공지능 곧 등장' 숨 넘어 갈 듯 다그치면서 머지않아 인간두뇌는 인공지능에 의해 해야 할 일들을 모두 빼앗길 것 같은 공포감을 조성한다.

인공지능을 의인화시키거나 인간과 배척관계로 해석해 일자리를 대체하는 자동화 기계쯤으로 여기기도 한다. 특히 안타까운 점은 국내에선 인공지능기술을 어떻게 활용하고 그 기술의 한계와 미래 가능성을 어떻게 확장시켜야 할지에 대한 진지한 논의는 없고 대중을 선동하는 매스컴의 이벤트몰이만 엿보인다는 점이다.

매스컴이나 공상과학 영화에 세뇌되면 인공지능의 기술수준이나 진화방향에 대해 오해하기 쉽다. 심지어 ‘인류의 안전을 위해’ 인공지능 기술개발을 멈춰야 한다고 주장하는 사람도 있다.

대중들이 인공지능을 거론할 때마다 등장하는 가장 큰 우려는 인공지능이 인간을 능가해 우리를 지배하거나 일자리를 모두 사라지게 만든다는 불안감이다.

인공지능 알렌 연구소 대표인 오렌 에찌오니(Oren Etzioni)의 말을 빌리면 현재 우리 인공지능기술 수준은 잘 짜여진 보드게임이나 고속도로와 같이 틀이 정해진 용도에서 잘 적용될 뿐 일반적인 기계학습 수준은 아직 암흑기라고 한다.

사실 컴퓨터의 시각 인지능력은 거의 장님수준이다. 고밀도 사진을 찍는다고 물체를 인지하는 것이 아니다. 동시에 여러 소리가 들리면 개별 소리를 구분해 내지 못한다.

따라서 인공지능기술이 주체적으로 일을 처리하기 보다는 인간이 가치판단을 잘 할 수 있게 도움을 줄 수 있는 협동방식을 찾아내야 한다.

예를 들면 병원에선 오진으로 많은 환자들이 원인도 모르고 사망하는데 인공지능이 의사의 진단에 도움이 될 수 있도록 적절한 역할을 하는 것이 최상의 활용법이다.

그래도 문제는 남아 있다. 인공지능이 특정 전문분야에 대해 신뢰할만한 판단을 내릴 수 있으려면 사전에 충분히 신뢰할만한 데이터로 다각도로 학습해 줘야만 한다.

인공지능 전문가들은 인공지능이 인간처럼 모든 영역에서 지적능력을 갖추게 된다고 주장하지는 않는다. 그리고 비전문가들, 예를 들면 스티븐 호킹이나 엘론 머스크 그리고 다른 사람들이 지적하듯이 인공지능이 인간세계에 위협적 존재라고 판단하면 그런 기술은 개발하면 안 된다고 단호히 말한다.

인공지능 개발자들은 인공지능이 인류에게 도움을 줄 수 있는 방법에 관심이 있을 뿐 인간을 대체할 기술에 대한 관심은 없다.

인공지능을 개발하는 목적은 인간의 두뇌만으론 해결하지 못하는 문제를 해결하는 방법을 찾고자 한다. 인공지능의 도움으로 세상이 더 나은 단계로 발전해 가길 원한다.

컴퓨터가 인간의 두뇌를 대신할 수 있을 것이라는 기대는 수십 년째 해오지만 아직도 컴퓨터의 지능은 인간의 보편적 지능에 비하면 까마득하다는 게 전문가들의 판단이다.

물론 인공지능 알파고(AlphaGo)를 통해 미처 몰랐던 가능성을 봤지만 아직은 정해진 게임의 틀 안에서 승패를 확률적으로 판단하고 정해진 시간 내에 고속으로 계산해 검증해보는 능력으로 치부한다.

컴퓨터 성능이 아무리 빨라지고 또 인공지능 알고리즘이 똑똑해져도 데이터를 학습하는 기능은 99%가 사람의 독창성과 노력에 의한다고 할 수 있다. 사람들은 지능과 자동화가 같은 의미로 혼돈하지만 컴퓨터에선 지능이란 말이 사실상 어울리지는 않는다.

인공지능기술을 개발하는 관점은 두 가지 있다. 하나는 상식과 자연언어를 컴퓨터가 처리할 수 있도록 훈련하는 방식이 있고, 다른 하나는 데이터를 심화학습 즉 두뇌 뇌신경망을 연구하고 패턴-인식 알고리즘을 만드는 딥런닝 방식이 있다.

이렇게 개발된 인공지능 알고리즘을 이용해서 특정문제를 해석하기 위해선 많은 데이터가 필요하다. 이때 개발자는 데이터가 어떤 의미를 갖는지 범주를 규정하고 특징을 부여해서 알고리즘을 사전훈련 시키게 된다.

기계가 제대로 학습하려면 다량의 데이터로 검증과정을 거쳐야 한다. 만약 기술자들이나 설계자들이 데이터에 대한 기존의 편견을 가지고 이런 일을 하게 되면 인공지능이 구조적으로 한쪽으로 치우치게 된다. 그래서 데이터 입력과 설계단계에서 혼입될 수 있는 인간의 오류가능성을 없애는 것이 매우 중요하다.

미국 백악관은 인공지능기술이 서서히 모멘텀을 가지고 발전하기 시작하고 민간투자도 활발하다는 점을 인정하고 정부입장에서 인공지능의 미래를 대비하는 정책적 수단을 발굴하고자 인공지능 개발 전문가들과 인공지능 워크샵을 네 차례에 걸쳐 치르고 있다.

현재까지 두 차례를 마쳤으며 나머지 두 차례가 남았다. 실무적으로 무엇이 가능하고 무엇이 문제인지 점검하는 의미도 있다고 본다. 인공지능이 똑똑해질수록 어떻게 하면 안전하고, 제어가능하고, 그리고 예측의 신뢰도가 높아질지에 대해 광범위하게 점검하고 행정적인 규제의 필요성 여부를 검토하기 위한 과정으로 보인다.

물론 대중에게 현재 인공지능 기술이 어느 수준이고 어디로 향하고 가는 지 알려줄 필요도 있다고 말하고 있다. 정부가 인공지능을 하겠다거나 규제하겠다는 생각이 아니라 여러 기관들 간 협동하고 기술을 정부에서 활용하는 방법은 없는지 여러 수단을 점검하는 기회라고 설명한다.

그래서 백악관 과학기술보좌관실이 주관하고 인공지능기술개발 전문가들이 발표에 참여한다. 네 차례 워크샵 주제는 ‘인공지능의 법률 및 지배구조 시사점’, ‘선한 사회를 위한 인공지능’, ‘인공지능의 안전과 제어’, 그리고 ‘단기적 관점에서 본 인공지능의 사회경제적 의미’ 등이다.

인공지능 기술은 대한민국이 안고 있는 문제들을 해결할 수 있는 훌륭한 기술수단임에도 불구하고 이를 공공부문 문제해결을 위한 정책수립이나 시스템 개선에 활용한다는 생각은 거의 안하는 것 같다.

다행히 정부 3.0 사업을 추진해 오면서 다양한 행정 데이터베이스가 구축돼 있다. 그 데이터 베이스를 근간으로 삼아 우리사회가 안고 있는 사회 부조리를 개선하고, 범죄를 차단하고, 고령화 사회나 빈부격차 나아가 국가예산 투입의 효율성 등을 개선하는 인공지능 알고리즘을 개발하고 잘 활용한다면 우리사회의 고질적인 문제들을 해결할 수 있는 명쾌한 해답을 찾아낼 수가 있을 것이다.

*미래탐험가 이준정 박사는 과학기술칼럼니스트로 현재 서울대학교 재료공학부 객원교수다. 첨단기술들이 몰고 올 미래사회의 변화를 과학기술적 통찰로 분석해 미래에 대비하는 기업 및 개인에게 강연을 통해 상상력을 전해주는 '미래 전도사' 역할을 하고 있다.

저작권자 © 데일리한국 무단전재 및 재배포 금지