이준정 과학기술칼럼니스트 "왓슨은 조력자일뿐 경쟁자는 아니다"


인간지능, 아무리 똑똑해도 인간의 호기심까지 대신하진 못해

이준정 서울대 객원교수
[데일리한국 전문가 칼럼= 이준정 과학기술칼럼니스트] 가천대 길병원은 지난해 IBM 인공지능 ‘왓슨 포 온콜로지(Watson for Oncology)’를 국내에 처음 도입해 환자 진료에 활용 중이다. 이를 도입한 목적은 의사들이 환자를 진료할 때 직관적 판단 보다 객관적 근거에 의거해 치료 효과를 높이려는데 있다.

길병원측은 ‘암 치료에 왓슨을 적용하고 암환자 진단에도 참고하지만 기본적으로 최종 결정은 의사들이 한다’는 말도 잊지 않았다. ‘왓슨은 어디까지나 자문 역할’로 한정했다는 뜻이다.

하지만 인공지능 왓슨을 실제로 활용해 본지 한 달여 지난 지금 다시 들리는 소식은 좀 상황이 달라졌다는 느낌이다.

암 치료를 위해 수술을 먼저 한 후, 화학적 요법으로 치료할 지 아니면 방사선 요법으로 치료할 지를 결정하는 데 왓슨과 경험 많은 교수진의 판단이 다른 경우가 많이 발생하는 등 고민이 커지고 있다는 것이다.

“환자의 전자 차트기록을 스스로 분석하고 판단하는 왓슨의 능력을 이길만한 의사가 없겠다는 공포감이 든다”는 의료진의 촌평이 문제의 본질을 압축적으로 표현하고 있다. 현재 의료진이 미처 알지 못했던 판단 자료를 왓슨이 척척 제공함에 따라 경험 많은 전문의들의 관록과 경험 그리고 노하우를 한없이 움츠러들게 만들고 있다는 얘기다.

필자는 그런데 “의사들이 왓슨 처방에 맞서려고 집단지성 방식으로 여러 과의 의사들이 모여 협동진료하는 다학제 진료가 활성화되고 있다”는 설명에 이의를 제기하고 싶다. 어째서 인간이 인공지능인 왓슨과 맞서려는지 알다가도 모를 일이다. ‘왓슨 포 온콜로지’는 의료진이 극복해야 할 게임의 상대가 아니라 환자의 치료효과를 높여줄 훌륭한 조력자이기 때문이다.

이세돌 9단과 바둑대결을 펼쳤던 알파고와 왓슨은 엄연히 다르다. 알파고는 인간과의 대결을 통해 누가 우월한지 가리는 게임의 성격이 강했다. 하지만 왓슨은 인간을 치료하는데 있어 사람 즉 전문의가 간과하거나 잘못 적용할 수 있는 문제점들을 찾아내 지원하는 조력자라는 점에서 경쟁상대는 결코 아니기 때문이다.

인공지능은 앞으로 인류가 부딪힐 수많은 도전과제들을 극복하는데 필수적인 도구이며 수단이다. 인공지능을 신뢰하는 이유는 인간이 처리할 수 없는 수많은 데이터를 빠른 속도로 검색하고 정리해 의사결정의 근거로 제시해 주는 역할을 해낼 수 있기 때문이다.

하지만 방대한 데이터 속에 수많은 오류가 포함될 수 있다는 점에서 우리는 인공지능이 제시하는 해답을 맹목적으로 추종해선 안된다. 아울러 왜 그런 결정에 이르게 되었는지를 먼저 이해해야만 한다.

암 진단만 해도 그렇다. 질병이란 환자에 따라 원인과 증상이 크게 다를 수 있다. 인종에 따라서도 다르게 나타날뿐 아니라 식생활에 따라서도 발병 과정이 다를 수 있다. 같은 증상이라도 치료 효과가 사람에 따라 달라져야 하는 이유다.

그래서 전문가의 식견이 중요한 법이다. 왓슨이 활용한 배경 지식을 의사가 신뢰할 수 있다면 왓슨의 권고를 따르는 게 정상이다. 하지만 의사의 경험적 판단으로 왓슨의 의사결정 과정이나 배경 지식이 비합리적이라고 판단되면 의사의 고집대로 환자를 치료하는 게 맞을수도 있다.

최근 환자가 의료진의 의학적 판단과 인공지능의 판단을 상호 비교한 뒤 최종적으로 치료방법을 직접 선택하도록 한다는 표현을 국내 언론에서 접하고 의아하다는 느낌을 받은 적이 있다. 정말로 의사와 인공지능인 왓슨이 서로 경쟁하고 있다는 말인가?

인공지능을 활용하면 적은 노력으로 커다란 성과를 얻을 수 있는 장점이 있다. 사람의 힘으로 처리하기 힘든 엄청난 양의 데이터를 단기간에 학습해 어려운 문제들을 해결할 실마리를 찾아내 주는 훌륭한 도구이기에 가능한 일이다.

하지만 잠재적인 위험요소들도 두루 포함하고 있다는 점을 결코 간과해선 안 된다. 언제든지 예기치 않은 여건 변화나 사건발생, 악의적인 사용, 잘못된 시스템 설계, 그릇된 관리나 오용 등으로 인해 개인의 안전과 보안에 위험을 초래할 가능성이 있다.

다시 말하면, 인공지능의 의사결정 과정을 전문적 식견으로 제대로 이해하지 못한다면 또 정확한 분야에 적용하지 않는다면 인공지능의 제안 내용이 틀릴 수도 있다.

특히 인간의 생명과 관련해 인공지능을 활용하는 경우에는 사전에 충분히 적용 시험을 거쳐 먼저 신뢰성을 확보해야만 한다. 그런 신뢰성 판단은 전문가들에 의해 이뤄져야 한다. 그런데 전문가들이 인공지능의 판단에 굴복하게 되면 만약의 위험사태에 대해 누가 책임을 진다는 말인가?

더욱이 인터넷에는 조작된 데이터가 많다는 점에서 검색결과에 대한 신뢰성에 신중을 기할 필요가 있다. 가짜 정보가 판치고 있어도 인공지능은 가짜와 진짜를 구분할만한 충분한 지혜가 없기 때문에 데이터 빈도를 판단의 기준으로 삼는다.

또한 의료 정보 자체에도 데이터의 오류가 있을 수 있다. 예를 들면, 인체를 촬영하는 CT, MRI, PET 등 영상장비들도 인체 내부를 헤집고 들어가 세포를 직접 관찰한 게 아니고 외부에서 방사선을 투과시켜서 발생한 신호변화를 컴퓨터 이미지로 변환시켜 영상을 만든 것이므로 미세한 부분까지 100% 실제와 일치한다고 보장할 수 없다.

그런 영상정보를 기준으로 인공지능이 미세한 암세포가 잔존할 가능성이 있다고 논한다면 일단은 의심해봐야 한다. 진료를 책임진 의사는 인공지능 왓슨이 내린 판단의 근거를 먼저 이해한 상태에서 스스로 최종 판결을 내려야 한다. 물론 그 결과도 스스로 책임을 져야 한다.

그래서 인공지능 왓슨의 도움을 받는 것과 인공지능을 신뢰하는 것은 다른 이야기다. 인공지능이 좋은 협진 파트너일 수는 있어도 의사의 권위를 모두 떠안을만한 자격은 없다는 뜻이다.

인공지능에 굴복해 의사가 자신의 판단을 굽힌다면 그 의사는 더 이상 자신의 전문성을 깊게 파고들 기회를 상실하게 되는 셈이다.

금년엔 대화형 인공지능이 의료진단 영역뿐 아니라 투자영역, 컨설팅 영역, 콜센터 등 대민업무 등에 이르기까지 상당한 사회적 변화를 일으킬 것으로 판단된다. 인공지능이 실제로 전문가들의 영역을 많이 침범해 올 것이 불보듯 뻔하다.

하지만 전문가의 역할이 완전히 사라지지는 않을 것이다. 그 이유는 컴퓨터 인공지능이란 반복해서 발생하는 일처리는 잘 할 수 있지만 부정기적이고 규격화 되지 않은 일이나 예기치 않은 돌발 사태 등에 대해선 제대로 대처할 능력이 없기 때문이다.

인공지능은 충분한 시행착오를 거치면서 학습을 한 이후에야 업무를 전담할 수 있다. 특히 커다란 위험이나 사고로 이어질만한 가능성이 있는 업무라면 반드시 전문가와 함께 업무를 처리해야만 한다.

인공지능은 일반인에게 전문가적 경험과 식견을 제공해 주겠지만 전문가를 대체하지는 못한다. 그래서 인공지능 시대에도 전문가는 계속 지식과 전문성을 높이면서 새로운 시대를 개척하는 첨병 노릇을 하게 될 수밖에 없다.

컴퓨터는 반복되는 일에는 숙달되겠지만 주어진 영역의 새로운 발전에는 기여하지 못한다. 어느 영역이든지 새로운 발전방향을 모색하는 일은 결국 전문가의 몫으로 돌아가게 마련이다. 인공지능이 인간의 호기심까지 대신하지는 못할 것이기 때문이다.

■ 이준정 서울대 객원교수: 미래예 대한 혜안과 통찰력이 있어 '미래탐험가'로 불린다. 성균관대학교 신소재공학과를 졸업하고, KAIST 재료공학과에서 석·박사를 취득했다. POSCO그룹 연구소장과 지식경제부 기술지원(금속부문)단장을 역임했으며, 서울대 재료공학과 객원교수로 활동중이다.

저작권자 © 데일리한국 무단전재 및 재배포 금지