6·3 대통령 선거를 앞두고 딥페이크 등 인공지능(AI) 기술을 활용한 조작물이 악용될 우려가 커져 주의가 필요할 것으로 보인다.
이재명 더불어민주당 대선 예비후보 선거대책위원회는 지난 11일 이 후보가 김혜경 여사에게 욕을 하는 내용의 딥페이크 영상을 접수받은 것과 관련해 "영상이 유포된다면, 즉시 유포중지 가처분 및 고발 등 모든 수단을 동원해 법적 책임을 묻겠다"고 밝혔다.
박 단장은 "제보된 딥페이크 영상을 비롯해 허위조작 정보는 국민의 올바른 선택을 방해하는 민주주의 적"이라며 "선대위는 제보된 딥페이크 영상이 유포된다면, 즉시 유포중지 가처분 및 고발 등 모든 수단을 동원해 법적 책임을 묻겠다"고 말했다.
최근 사회관계망(SNS)이나 인터넷 커뮤니티에는 AI를 활용한 가짜 영상들이 급속도로 확산하고 있다. 이 대표를 겨냥한 욕설 영상을 비롯해 대선 후보가 수의를 입은 영상 등 악의적인 조작물이 주를 이룬다.
앞서 지난해 치러진 4·10 총선 당시에도 딥페이크 문제가 우려됐지만 1년 사이 생성형 AI 기술 등이 급격히 발달하면서 더 교묘하게 꾸며진 가짜뉴스가 확산할 가능성이 더 커진 것으로 전문가들은 보고 있다.
현행 공직선거법상 선거운동을 위한 딥페이크 영상의 제작 및 유포 등은 선거 90일 전부터 금지된다. 2023년 개정돼 지난해 총선 때 처음으로 적용됐다.
경찰은 지난해 총선 당시엔 해당 법 규정으로 처벌한 사례가 없지만 기술 개발 속도가 워낙 빠른 데다 대선이라는 무게감이 큰 선거인 만큼 이번엔 다를 수 있다고 판단하고 있다. 경찰은 전국 278개 경찰서에 설치한 선거사범 수사상황실을 통해 관련 범죄를 집중 단속할 방침이다. 딥페이크나 AI 생성물로 대선 후보자의 허위 사실을 공표하거나 비방하면 형사 처벌까지 가능할 것으로 경찰은 보고 있다.