• 사진=연합뉴스
[데일리한국 강영임 기자] 인공지능(AI)을 활용해 사진 속 여성을 나체로 만들어주는 텔레그램 대화방이 버젓이 운영되고 있는 것으로 드러났다.

이를 통해 지난 1년간 온라인에서 가짜 나체 사진이 유포된 피해 여성이 10만명이 넘는다.

연합뉴스에 따르면 민간 정보업체 센시티가 최근 이 같은 내용의 보고서를 발간했다.

보고서에 따르면 문제의 대화방은 사람들이 여성 사진을 전달하면 '딥페이크 봇'(딥페이크를 만드는 인공지능)이 옷을 삭제해주는 서비스를 제공한다.

딥페이크란 실존 인물의 얼굴이나 신체를 인공지능 기술을 이용해 다른 인물과 합성한 편집물이다.

해당 대화방은 사진을 받고 수 분 만에 편집을 완료하며 비용도 청구하지 않는다고 보고서는 전했다.

지난해 7월부터 1년간 약 10만4852명의 여성이 이 대화방을 통해 가짜 나체 사진이 유포되는 피해를 본 것으로 파악됐다.

조지오 파트리니 센시티 대표는 "사진이 노출된 사회관계망서비스(SNS) 계정만 있다면 충분히 공격 대상이 될 수 있다"고 경고했다.

문제의 서비스는 특히 러시아 SNS 사이트인 VK에서 많이 광고되고, 이용자 대다수가 러시아 등 구소련 국가 출신이라고 보고서는 밝혔다.

전문가들은 이처럼 딥페이크를 활용한 범죄가 증가하고 있지만 이를 규제할 법적 장치는 미비하다고 지적한다.

책 '딥페이크와 인포컬립스'의 저자 니나 식은 "딥페이크물이 더욱 정교해지는 건 시간 문제"라며 "우리의 법 제도는 이 문제를 해결하기에 적합하지 않다"고 지적했다.

그는 "페이크 포르노 피해자들을 생각하면 절망적인 상황"이라며 "이들은 사생활 침해와 모욕감으로 인생이 완전히 뒤집힐 수 있다"고 우려했다.

기자소개 강영임 기자 다른기사보기
데일리한국 뉴스스탠드
본 기사의 저작권은 한국미디어네트워크에 있습니다. 무단전재 및 재배포 금지
입력시간 : 2020/10/21 13:15:53 수정시간 : 2020/10/21 13:15:53
SNS 소비자가 뽑은 2020 올해의 차