[챗GPT 사용지침上] “글로벌 삼킨 챗GPT…인간의 집단지성은 못 넘을 것”

입력 2023-04-17 05:00수정 2023-04-17 08:39

  • 작게보기

  • 기본크기

  • 크게보기

허위정보, 사실정보 인식해 답변
기밀유출 우려, 글로벌 규제나서
인공지능 한계 진단한 전문가들
"AI, 단순지능 인간보다 높지만
윤리ㆍ가치관 등 사회문제 우려"

“결국, 인간 집단의 능력을 추월하는 AI모델의 등장은 가능치 않다.”

인간의 언어를 구사하는 컴퓨터 챗GPT(자동 회귀 언어모델)의 등장으로 AI(인공지능) 열풍이 전 세계를 덮친 상황에서 그 ‘한계’를 진단하는 전문가 예측에 시선이 집중된다. 챗GPT라는 새로운 AI를 바라보는 현재 우리들의 시선이 과장됐다는 분석이지만, 분명한 것은 생성 AI 등장에 인류는 ‘충격’에 휩싸였다는 점이다. 글, 사진, 음악, 영상 등을 바로 만들어주는 생성 AI 등장으로 인간의 사무공간에서 ‘혁명’이 일어나고 있다. 전문가들은 챗GPT에 대한 인류의 관심도가 2016년의 ‘알파고’와 2021년의 ‘메타버스’를 뛰어넘었다고 평가한다.

챗GPT의 장점은 명확하다. AI가 스스로 학습해 이용자의 질문에 완벽한 답변을 내놓는다. 학습된 데이터를 통해 결과물을 만들어내기 때문에 단기간에 사람보다 완벽한 답을 내는 것이다. 이러한 인공지능 기술의 발전은 단기간에 일궈낸 성과는 아니다. 챗GPT 기술은 2017년 구글에서 어텐션(Attention) 메커니즘을 발표한 이후 구글과 MS, 메타 등 글로벌 AI기술을 선도하는 기업들이 오랜 시간 집중적인 투자를 진행한 결과물이다.

성원용 서울대 전기·전자공학부 명예교수는 “챗GPT의 혁신은 인공신경망 모델이 커지면서 복잡한 언어 등 다양하게 처리할 수 있는 능력이 생긴 것”이라고 평가했다.

하지만 챗GPT와 관련한 한계점도 꾸준히 제기되고 있다. 당장 ‘기업 기밀’ 유출을 우려하는 글로벌 기업들이 규제의 덫을 놓기 시작했다. 부작용을 우려하며 개발을 잠시 멈추자는 의견도 힘을 얻고 있다. 가장 큰 문제는 아이러니컬하게도 ‘모르는 것이 없다는 점’이다. 잘못된 답을 정답이라고 인식하고 대답할 가능성이 있다. 잘못된 정보를 거르지 못하고 이를 주장하기 때문에 이용자들 입장에서는 오답에 대한 검증이 불가능하다는 점이 문제점으로 꼽힌다.

무엇보다 챗GPT에 대한 과도한 낙관론 뒤에 사회적 손실과 회의감이 반복될 것이란 진단도 주목된다. 이현규 정보통신기획평가원 인공지능사업단장은 “AI로 구현하는 데 어려운 것은 인간미, 상식 개념, 인간이 갖고 있는 감정이나 정서와 같은 미묘한 변화가 발생하는 상황 등 여러 가지가 있다”며 “기술이 인간을 넘어서는 걸 특이점(singularity)이라 하는데, 현재 AI에 대해서는 단순하게 학습으로 해결할 수 있는 부분이 아니다”고 말했다.

홍충선 경희대 컴퓨터공학부 교수는 “인간의 인지능력을 추월하는 AI가 등장하기는 어렵지만, 통합적으로 문제를 해결하는 능력 측면에서는 개별 인간보다는 AI모델이 우수하다”며 “하지만 결국 인간 집단의 능력을 추월하는 AI모델의 등장은 가능치 않다고 생각한다”고 말했다.

반면 신사임 한국전자기술연구원 인공지능연구센터장은 “인간의 평균 효율성을 AI가 넘어설 것”이라며 “기술의 활용 과정에서 사회문제화되지 않으려면 인간보다 높은 기준치의 윤리와 가치관, 교감성을 AI가 확립하고 의사결정을 내릴 수 있어야 한다”고 강조했다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0
주요뉴스
댓글
0 / 300
e스튜디오
많이 본 뉴스
뉴스발전소