[논현광장] ‘성인지 감수성’ 과할수록 좋아

입력 2024-09-05 10:19

  • 작게보기

  • 기본크기

  • 크게보기

홍윤희 협동조합 무의 이사장

2004년 미국 대선 민주당 후보였던 존 케리 상원의원과 제인 폰다가 한 자리에 있는 사진이 소셜미디어를 통해 순식간에 퍼져 나갔다. 베트남전 참전군인인 존 케리가 반전운동으로 유명한 폰다와 반전집회에 참석하는 듯한 사진은 순식간에 케리의 참전용사 이미지를 훼손시켰다. 사실 이 사진은 두 사람이 서로 다른 장소에서 찍힌 사진을 포토샵으로 합성한 것이었다. 정교한 기술을 사용한 것도 아니었다. 그런데도 케리의 ‘전쟁 영웅’이미지에는 흠이 갔고 대선에서 조지 W 부시에게 패배했다. 공영방송 NPR의 출구조사 인터뷰에서 한 유권자는 이렇게 말했다. “케리에게 투표할 수가 없었다. 그 사진이 가짜라는 걸 알고 있는데도 머리에서 떠나지가 않더라.”

이처럼 가짜 이미지가 한 번 만들어져 확산되면 이미지에 등장한 인물에게 치명적인 해를 입힌다. 2024년에는 사진 1장만 있어도 AI로 순식간에 딥페이크 동영상을 만들어낼 수 있다. 텔레그램과 같은 비밀 소셜미디어 안에서 확산되는 딥페이크 영상은 심각한 디지털 성범죄가 됐다. 한 중학생이 ‘딥페이크 피해 학교 지도’를 만들어냈을 정도다.

딥페이크 피해자들을 가장 괴롭히는 건 피해신고와 보상이 불가능에 가까울 만큼 어렵다는 것이다. 성착취 영상물을 직접 찾아내 신고하고서도 제작자나 유포자를 잡아내기도, 영상을 완전히 없애기도, 처벌하기도 쉽지 않았다. 결국 주무부처인 여성가족부가 다른 부처들과 협업해 공동대응에 나섰고 국회에서 20여 건의 관련 법안이 쏟아질 정도로 정부도 뒤늦게 대처에 나서는 모양새다.

AI 생성물에 워터마크를 박는 등 기술적 방안도 논의되고 있지만 사진 한 장으로 딥페이크물을 손쉽게 만들 수 있는 상태에서 이미 만들어진 성착취물 확산을 기술적으로 완전하게 막는 건 불가능하다. 우선은 성착취물을 생성하고 유포하며 이를 방조하는 것이 명백하게 중범죄가 되는 처벌 기반을 마련하는 게 시급하겠지만 근본적으로는 성착취물이 오락이 되는 왜곡된 성문화부터 바로잡아야 한다.

왜곡된 성문화는 텔레그램 방에서 극대화될 뿐이지 실은 일상적 대화에도 녹아 있다. 딥페이크 뉴스가 터진 다음 날, 딸이 학교에 가기 싫다며 이렇게 말했다. “여자애들이 경악하고 있는데, 거기에다가 남자애들이 이러더라고. 너네는 예쁘지 않아서 그런 데 안 올라간다고.” 딸의 얘기를 들으며 어린 시절에 듣던 말들이 생각났다. “(성희롱을 당한 여성에게) 그러게 여자가 그렇게 짧은 치마를 입거나 밤에 늦게 다니면 안 돼.” 폭력적인 성인지 문화는 과거부터 이어진 것이다. 왜곡된 성인지 인식을 가진 이들에게 포토샵을 쥐어주면 가짜 이미지를, AI를 쥐어주면 딥페이크를 만드는 것이다.

이런 성인지 인식을 바꾸기 위해 기업들도 할 일이 있다. 기업의 얼굴인 광고, 홍보 이미지와 문구에서 그 누구건 ‘대상화’해서는 안 된다는 룰을 지나칠 정도로 엄격하게 적용하자는 것이다. 올 초 한 글로벌 의류업체가 호주 광고에서 7세가량 여자아이들이 교복을 단정하게 차려입은 사진에 ‘눈을 사로잡아라(Make those heads turn)’라는 카피를 달아 뭇매를 맞았다.

아름다운 여성에게 눈이 돌아간다는 성적 이끌림의 문구를 아동에게 카피로 적용해서다. 해당 업체는 광고를 내렸다. 과하다고 생각하는가? 이젠 20년 전과는 달리 이 아이들의 얼굴을 따서 당장이라도 딥페이크 성착취물로 만들 이들이 텔레그램 비밀방에만 20만 명이 넘는다. 과민할 정도로 ‘인간을 비인간화하는’ 모든 말과 이미지를 조심해야 한다. 대중을 타깃해 무엇을 팔려고 하는 광고나 홍보물이라면 더더욱 그렇다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0
주요뉴스
댓글
0 / 300
e스튜디오
많이 본 뉴스
뉴스발전소