오픈AI, 챗GPT 부정 이용 감지 기술 개발…“2년간 공개 안해”

입력 2024-08-05 08:22

  • 작게보기

  • 기본크기

  • 크게보기

워터마크 식별 방식으로 부정행위 탐지
기술 악용 등 우려해 2년간 공개 논의

▲오픈AI 로고 뒤 챗GPT 화면이 켜져 있다. 보스턴(미국)/AP뉴시스

챗GPT 개발사 오픈AI가 과제나 논문에 챗GPT를 사용했는지 식별할 수 있는 기술을 개발했지만 공개하지 않고 있는 것으로 알려졌다.

4일(현지시간) 월스트리트저널(WSJ)은 익명의 소식틍을 인용해 해당 기술은 약 1년 전부터 출시될 준비가 되어 있었다고 보도했다. 그러면서 오픈AI 내부에서 공개 여부를 놓고 2년간 논쟁하고 있지만, 당장에라도 출시 버튼을 누르면 된다고 전했다.

WSJ에 따르면 이 기술은 이용자에게는 보이지 않지만 챗GPT가 생성한 콘텐츠에 워터마크가 표시된다. 이에 따라 논문에 챗GPT의 콘텐츠가 얼마나 인용했는지 구별할 수 있다. 이 기술은 전체 문서에 워터마크 비중이 얼마나 되는지를 제공하며, 기술의 정확도는 99.9%에 달한다.

다만, 오픈AI는 기술 공개를 두고 2년간 내부 논쟁에 휩싸여 있다. 오픈AI가 생성형 AI의 투명성과 더 많은 사용자 유치 사이에 고민하고 있다고 WSJ가 설명했다.

오픈AI의 한 설문조사에 따르면 챗GPT를 자주 사용하는 이용자의 3분의 1이 이 부정행위 감지 기술이 도입되면 챗GPT를 사용하지 않을 것이라고 답했다. 또한, 오픈AI 측은 이 기술이 영어가 모국어가 아닌 사람들에게 불균형적으로 영향을 미칠 수 있다는 우려를 표했다.

오픈AI 대변인은 WSJ에 "우리가 개발 중인 텍스트 워터마킹 방법은 기술적으로 유망하지만, 대안을 연구하는 동안 중요한 위험을 고려하고 있다"고 말했다. 이어 "이 기술을 악용해 특정 사람이나 그룹을 공격할 수도 있다"고 전했다.

그러나 생성형 AI로 단 몇 초 만에 논문 등을 작성해낼 수 있는 상황에서, AI 부정행위를 막기 위한 기술 도입이 불가피하다는 목소리도 나온다. 비영리 단체인 민주주의 기술 센터의 최근 조사에 따르면 학생들이 AI를 이용해 과제를 했다고 생각하는 미국 중고등학교 교사는 59%에 달했다. 이는 지난해보다 17포인트(p) 상승한 수치다.

WSJ는 부정행위 방지 기술의 효과는 입증됐지만, 오픈AI는 이용자들의 반발과 기술의 악용 가능성 등을 고려해 아직 공개 여부를 결정하지 못하고 있다고 설명했다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0
주요뉴스
댓글
0 / 300
e스튜디오
많이 본 뉴스
뉴스발전소