"사람의 힘으로 통제 불가능한 시점 빠르게 오고 있어"

"진화하는 AI가 인간 능가 새로운 형태의 생물체 될 것"

"AI 통제위한 '세계 정부' 구성… 활용 지침 만들어야"

스티븐 호킹 박사. 사진=EPA/연합뉴스
[데일리한국 전현정 기자] 세계적인 물리학자인 스티븐 호킹 박사가 "인공지능(AI) 기술이 인류 문명사에서 최악의 사건이 될 수 있다"고 경고했다.

6일(현지시간) 미국 CNBC 방송은 호킹 박사가 포르투갈 리스본에서 열린 '웹 서밋 기술 콘퍼런스'에서 이같이 밝혔다고 전했다.

호킹 박사는 "이론적으로 본다면 컴퓨터가 인간의 지능을 모방하고, 나아가 뛰어넘을 수 있다"며 이같이 우려했다.

그는 "인류가 그 위험에 대처하는 방법을 익히지 못한다면, AI는 인류 문명에 최악의 사건이 될 것"이라며 "자율적으로 작동하는 AI 무기의 위험성은 물론이거니와 우리 경제도 파괴할 수 있다"고 지적했다.

호킹 박사는 "AI가 선(善)을 위해 일하고 인류와 조화를 이룰 수 있다는 낙관론을 믿고 있다"면서도 "인류는 AI의 위험성을 반드시 인지해야 한다"고 거듭 강조했다.

호킹 박사가 AI의 위험성을 경고한 것은 이번이 처음이 아니다.

호킹 박사는 지난 2일에도 미국 IT 잡지인 '와이어드' 인터뷰에서 AI가 인간을 대체하는 날이 올지도 모른다고 경고했다.

영국 일간지 인디펜던트에 따르면 호킹 박사는 "사람들이 컴퓨터 바이러스를 만들었다면, 누군가는 스스로 진화하고 복제하는 AI를 만들 것"이라면서 "이는 인간을 능가하는 새로운 형태의 생물체가 될 것"이라고 주장했다.

호킹 박사는 올해 초에는 영국 '더타임스' 인터뷰에서도 "AI 통제를 위한 세계 정부를 구성하는 것이 시급하다"고 강조했다.

그는 당시 "인공지능의 급성장으로 사람의 힘으로 통제 불가능한 시점이 빠르게 다가오고 있다"면서 "사람의 힘으로 통제 가능한 지금 시점에 AI 기술을 통해 발생할 수 있는 잠재적인 위협을 규정하고 세부적인 지침을 만들어야 한다"고 밝혔다.

한편 올 초 호킹 박사와 전기차회사 테슬라의 최고경영자 일론 머스크를 비롯한 과학자와 AI 관련 테크 업체 CEO 등 2000여 명은 'AI 기반 무기경쟁을 피해야 한다' 등 AI 기술에 대한 23개 원칙에 서명하기도 했다.

저작권자 © 데일리한국 무단전재 및 재배포 금지