‘딥페이크’등 디지털성범죄 피해영상물이 유통되는 국내외 플랫폼에 대한 방송통신심의위원회의 심의 건수가 올해에만 벌써 5만 건을 넘긴 것으로 나타났다. 이는 ‘N번방 사태’ 가 발생한 2021년 한 해 2만6000건의 2배가 넘는 수치다.
국회 문화체육관광위원회 소속 강유정 더불어민주당 의원이 방송통신심의위원회로부터 제출받은 지난 2018년부터 올해 8월까지의 '디지털성범죄 심의 현황'을 분석한 결과, 방심위는 N번방 사태가 발생한 지난 2021년에는 2만6000건을 심의해 이 중 2만5847건은 '접속 차단', 32건은 '삭제' 조치 했다.
2022년 5만5287건(이하 접속차단 5만4553건·삭제 440건) △2023년 6만7102(6만6909건·11건)으로 집계 됐으며, 올해의 경우에는 8월까지 총 5만96건을 심의하고 이 중 접속차단 5만18건, 삭제 조치는 단 '3건'에 불과했다.
디지털성범죄 영상 피해가 급증한 것은, 사회적 경각심으로 인한 신고 증가 외에도 실제 디지털성범죄가 사회 저변으로 확대되었기 때문이다. 기술발전으로 인해 ‘딥페이크’를 활용한 성범죄가 등장하고, 가해자 연령층 또한 10대로 확장되고 있으나 이를 제지할 수 있는 입법 논의는 n번방 사태 이후 사라졌다.
이에 강유정 국회의원은 딥페이크 등 성피해 영상물의 신속히 삭제하는 디지털성법죄 응급조치 3법을 대표발의했다. (『성폭력범죄의 처벌 등에 관한 특례법 일부개정법률안』·『아동·청소년의 성보호에 관한 법률』·『전기통신사업법』 첨부)
현행법 상 피해 영상물의 삭제·차단 주체는 해당 영상물이 유통된 플랫폼이다. 피해 영상물의 삭제요청 권한은 피해자·피해자 지원기관(한국여성인권진흥원 등)·방송통신심의위원회에 있는데 이들이 피해 영상물이 업로드된 플랫폼 사업자에 삭제요청을 할 경우 플랫폼은 즉시 피해 영상물을 삭제해야 한다.
그러나 정작 수사기관은 피해 영상물을 발견해도 플랫폼 사업자에 직접 삭제·차단을 요청할 수 있는 권한이 없다. 수사기관이 피해자의 신고로 사건 초기에 피해사실을 인지한다 해도 즉각적인 조치 권한이 없기 때문에 방송통신심의위원회에 피해영상물 삭제·차단을 요청, 이후 방심위가 플랫폼사업자에 자율규제를 요청하는 과정을 거쳐야 한다. 이 과정에서 신속성이 저해되어 삭제·차단 절차가 진행되는 중에도 피해 영상물이 유포된다는 지적이 제기되어 왔다.
또한 디지털성범죄는 피해자가 신고 또는 삭제 요청 시 기초 자료를 제공해야 하는데 피해영상물을 직접 수집하는 과정에서 따르는 피해자의 정신적 고통이 상당하다. 법무부에 의하면 사설업체에 모니터링을 따로 의뢰할 경우 월 50만원에서 300만원 이상의 의뢰비용을 감당해야 한다.
이에 강유정 의원이 발의한 디지털성범죄 응급조치 3법은 수사기관이 직접 플랫폼사업자에 피해영상물을 삭제차단요청 할 수 있도록 하고, 피해영상물에 관한 자료를 확보하도록 하며, 플랫폼사업자가 수사기관의 삭제 요청에 불응할 경우 처벌하도록 하는 내용을 담고 있다. 개정안이 통과되면 피해영상 유포 초기에 신속한 영상 삭제가 가능해진다. 이에 피해 실태 확인 과정에서 피해자가 직접 피해영상물을 찾아야 하는 정신적·경제적 고통이 경감될 것으로 보인다.
강유정 의원은 “디지털 성범죄는 특성상 피해 종결이 없다. 유포 직후 골든타임 24시간을 넘기면 어딘가에 불씨가 남아 피해자는 영구적 불안감에 시달린다.”라며 “디지털성범죄가 딥페이크 등 기술 진화로 모습을 달리해 신종 범죄로 발전하고 있음에도 윤석열 정부 집권 이후 입법 논의는 제자리 상태다. 범정부 차원의 공식적인 대책이 필요한 상황”이라고 주문했다.