사이버괴롭힘 방지하기 위해 AI 기술도 도입

안전 기능으로 이용자가 스스로 대처할 수 있는 도구도 마련

사진=인스타그램
[데일리한국 장정우 기자] 인스타그램이 사회관계망서비스(SNS)에서 발생하는 '사이버괴롭힘 인식 재고 및 포용적인 인터넷 문화 고취'를 위한 온라인 간담회를 15일 개최했다. 이날 간담회에선 안전한 SNS 환경을 만들기 위한 인스타그램의 노력들이 소개됐다.

필립 추아 인스타그램 정책 APAC 총괄은 “지난 10일은 세계 자살예방의 날이었고 내달 10일은 세계 정신 건강의 날”이라며 “이런 중요한 시기에 인스타그램은 이용자의 안전과 웰빙을 최우선으로 생각하고 있다”고 밝혔다.

인스타그램은 커뮤니티 가이드라인, 신고하기 & 콘텐츠 리뷰, 안전 기능 3가지를 통해 사이버괴롭힘을 막고 안전한 SNS 환경을 만들기위해 노력하고 있다.

커뮤니티 가이드라인은 페이스북 정책 조직 및 정책 관련 전문가와 긴밀히 협력해 설정한 글로벌 정책으로 운영된다. 이용자에게 부정적인 영향을 비칠 수 있는 콘텐츠를 선별해 삭제하거나 다른 이용자에게 노출되지 않도록 조치한다. 대표적으로 자살 및 자해 콘텐츠는 긍정적인 메시지를 담더라도 제한받을 수 있다.

신고하기 & 콘텐츠 리뷰에서는 전문 리뷰팀이 신고된 콘텐츠 정책위반 여부를 확인한다. 신고자와 신고 당한 이용자의 개인정보를 가린 채 리뷰가 진행되고 콘텐츠가 삭제되더라도 재검토를 요청할 수 있다.

인공지능(AI)를 이용한 리뷰도 진행된다. AI의 신뢰수준을 넘은 콘텐츠가 발견되면 리뷰팀에게 전달된다. 나체 이미지와 같은 간단한 유해 콘텐츠를 넘어 협박, 모욕, 배신 등 다양한 유형의 사이버괴롭힘도 찾을 수 있도록 AI의 기계학습이 진행되고 있다.

안전 기능은 댓글관리, 제한하기, 태그 및 언급 관리 등의 도구를 이용해 사이버괴롭힘을 방지하는 기술이다. 댓글관리를 이용해 악의적인 댓글을 남기는 계정을 제한하거나 태그 및 언급 관리로 이용자가 직접 타인에게 자신을 언급할 수 없도록 관리할 수 있다.

남지희 인스타그램 파트너십 APAC총괄은 “사이버괴롭힘의 유형은 국가별로 큰 차이를 보이지 않지만 부정적인 댓글에 이용자가 상처 받는 것은 비슷하다”며 “다양한 유형을 파악해 적극적으로 대처방안을 마련하도록 노력하겠다”고 밝혔다.

저작권자 © 데일리한국 무단전재 및 재배포 금지