[노트북 너머] 딥페이크 사태 예견 못 했다면 거짓말

입력 2024-09-09 05:00

  • 작게보기

  • 기본크기

  • 크게보기

▲미래IT부 김나리 기자
우리나라는 반박할 수 없는 딥페이크(허위 영상물) 공화국이다. 전 세계 딥페이크 성착취물에 등장하는 피해자 절반 이상이 한국인이라는 미국 사이버보안업체 조사 결과는 한국이 딥페이크 성착취물에 취약한 국가라는 의미를 내포한다.

세계 인구에서 한국이 차지하는 비율이 0.6%인 점을 감안했을 때 딥페이크 성착취물의 피해자 53%가 한국인이라는 점은 ‘엄청난’ 수치다.

우리나라에서 유독 딥페이크 성범죄가 활개를 치는 이유가 뭘까. 신기술인 인공지능(AI)을 받아들이기엔 기술의 발전 속도가 너무나 빨랐던 것일까. 아니면 예견된 인재일까.

올해 1월 팝스타 테일러 스위프트의 사진이 합성된 성착취물 이미지가 온라인상에서 확산되면서 전 세계가 발칵 뒤집힌 사건이 있었다. 세계적으로 AI 부작용에 대한 규제 필요성이 대두했으나 정부와 정치권은 안일했다. 정부에서는 현행법으로도 충분히 제재가 가능하다는 입장을 표명할 뿐 특별한 대책은 나오지 않았다.

당시 한 정부 관계자는 “테일러 스위프트의 딥페이크 성착취물이 이슈가 되면서 규제를 해야 한다는 목소리가 나오지만 우리나라는 이런 직접적인 피해는 없지 않나”라고 반문했다. 연초에는 오히려 4월 제22대 총선을 앞두고 딥페이크를 활용한 가짜뉴스와의 전쟁에만 혈안이 돼 있었다.

딥페이크 성범죄가 인류가 처음 겪는 새로운 형태의 범죄라서 피해를 막지 못했을까. 그것도 아니다. 이미 우리는 ‘소라넷’, ‘N번방 사태’를 경험했다. 국민적 피해를 입은 디지털 성범죄를 겪으면서 이를 바로 잡을 기회는 많았지만 소를 수차례 잃고도 외양간을 고치지 않았다.

딥페이크 성범죄를 바라보며 가장 우려스러운 부분은 청소들이 사회관계망서비스(SNS)에 올라온 타인의 사진을 무단으로 저장한 후 나체 사진과 합성해 불법 합성물을 만드는 것이 범죄라고 인지하지 못한다는 점이다. 이를 교육해야 할 어른들은 두말할 필요도 없다. 생성형 AI를 활용할 줄 모르는 성인들이 수두룩한 데 어떻게 스마트 기기에 친숙한 청소년들을 가르칠 수 있을까. 경쟁에서 우위를 선점하기 위해 AI 분야 3대 강국(G3)로 도약하는 것도 중요하지만 당장 AI 시대에 사는 국민이 기술의 노예가 아닌, 주인의 삶을 살도록 AI에 대한 윤리 교육부터 실천하길 바란다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0
주요뉴스
댓글
0 / 300
e스튜디오
많이 본 뉴스
뉴스발전소