
팀네이버는 이번 학회에서 ‘From Research to Reality’를 주제로 리서치에서부터 자체 초거대 AI 모델인 하이퍼클로바X, 네이버의 온서비스 AI 및 산업특화 버티컬 서비스로 이어지는 팀네이버만이 구현할 수 있는 AI 풀스택 전략을 세계 우수 연구 인재들과 공유했다.
올해 채택된 논문 10편은 AI 풀스택 기술을 실제 서비스와 산업현장에서 효율적이고 안전하게 적용하기 위한 실용적인 내용들로 △초거대 AI의 효율적 운용(Efficiency) △생성형 AI의 안전성 강화(Controllability & Safety) △물리 세계와 로보틱스로의 확장(Physical AI) 등 크게 3가지 기술 분야의 혁신을 담았다.
먼저 거대언어모델(LLM)의 서비스 비용 절감과 속도 향상을 위한 핵심 기술로는 LLM의 긴 문맥 처리 시 중요한 데이터를 선별적으로 압축해 성능 저하 없이 메모리를 최대 4배 절약하고 속도를 2배 향상시키는 캐시 압축 기술, LLM이 복잡한 문제를 풀 때 생성하는 사고과정(CoT) 중 불필요한 중간단계를 제거해도 정답률은 유지됨을 증명하며 연산 효율을 높인 연구 등이 발표됐다.
또한 AI가 생성한 결과물의 품질을 높이고 안전하게 제어하는 연구도 주목받았다. 대화형 검색 환경에서 콘텐츠 품질을 정교하게 평가할 수 있는 새로운 벤치마크를 제안한 연구, 이미지 생성 과정에서 사용자의 의도를 더 정확히 반영하도록 하는 텍스트 임베딩 기술, 별도 재학습 없이 유해한 콘텐츠 생성을 억제하는 안전 제어 기술 등이 발표됐다.
AI를 실세계로 확장하는 연구도 소개됐다. 로봇이나 비디오처럼 시간의 연속성이 중요한 환경에서 장면 정보를 병목 토큰으로 압축해 학습 효율을 높이는 방법과 로봇이 변화하는 공간을 기억하고 경로를 스스로 찾을 수 있도록 돕는 모델 구조를 제시한 논문이 대표적이다.
팀네이버는 올해 뉴립스에서 글로벌 인재들과의 네트워크 구축에도 적극 나섰다. 학회 기간 중 2만9000명이 넘는 전 세계 AI 연구자들이 참석한 가운데 통합 부스를 운영하며 주요 연구 성과와 AI 기술을 선보였다. 또한 밋업 행사(Meet the NAVER AI Team)를 열고 국내외 AI 연구진 80여 명과 함께 기술 비전과 철학을 공유하며 글로벌 네트워크 현장에서 존재감을 드러냈다.
네이버클라우드 관계자는 “논문 채택률이 약 25%에 불과한 NeurIPS에서 팀네이버의 10편의 논문이 채택됐다는 점은 팀네이버의 연구 역량과 기술력이 세계적으로 인정받은 것”이라며 “앞으로도 글로벌 AI 생태계를 확장하고 AI가 실제 서비스와 산업에 구현될 수 있도록 연구 역량을 끌어올리겠다”고 말했다.











