페이스북, 2500만 건 이상 혐오 발언 콘텐츠 제재…사전탐지 비율 23.6→97%

입력 2021-05-21 12:58

  • 작게보기

  • 기본크기

  • 크게보기

(사진제공=페이스북)

올해 1분기 페이스북이 2500만 건 이상의 혐오 발언 콘텐츠를 제재한 것으로 나타났다.

페이스북은 ‘2021년 1분기 커뮤니티 규정 집행 보고서’를 통해 올 1분기 2520만 건의 혐오 발언 콘텐츠에 조치했다고 21일 밝혔다. 인스타그램의 경우 630만 건 혐오 발언 콘텐츠를 제재했다.

페이스북의 조치는 콘텐츠 삭제, 경고장 추가, 계정 삭제 등을 포괄한다.

조직적인 혐오 콘텐츠의 경우 페이스북은 980만 건에, 인스타그램은 32만4500건이다.

페이스북 내 혐오 발언 콘텐츠 노출 비율은 0.05~0.06%였다.

페이스북은 이에 대해 “조회 수 1만 회당 혐오 발언 콘텐츠는 5~6건에 불과했음을 뜻한다”며 “혐오 발언 콘텐츠의 경우 처음 수치를 공개했던 2017년 4분기에는 누군가 신고하기 전 페이스북이 사전에 탐지한 비율은 23.6%였지만, 현재는 약 97%를 이용자 신고 전에 미리 탐지하고 있다”고 덧붙였다.

1분기 페이스북과 인스타그램에서 성인 나체 관련 콘텐츠에 이용자들이 노출된 횟수 비율은 0.03~0.04% 수준으로 나타났다.

페이스북과 인스타그램은 또 올해 4월까지 코로나19 관련 잘못된 정보를 확산한 콘텐츠 1800만 건을 삭제했다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0
주요뉴스
댓글
0 / 300
e스튜디오
많이 본 뉴스
뉴스발전소