
글로벌 빅테크들이 자체 칩 개발을 선언하며 ‘탈엔비디아’ 움직임을 가속화하고 있다. 엔비디아 그래픽처리장치(GPU) 의존성을 낮추고 장기적으로 생태계 주도권을 가져가기 위한 전략이라는 분석이 나온다. 모델 성능이 상향 평준화되면서 전력 효율과 운영비 절감을 중심으로 한 인프라 경쟁으로 재편되는 흐름이다.
13일 인공지능(AI) 업계에 따르면 앤스로픽은 자체 AI 칩 설계를 검토하고 있다. 지난해 10월 오픈AI가 브로드컴과 맞춤형 칩 개발 협력을 공식화한 데 이어 메타는 지난달 6개월 주기로 자체 칩을 출시하겠다고 선언했다. 아마존은 자사 데이터센터에서만 사용하던 ‘트레이니엄’ ‘인퍼런시아’ 등의 자체 AI 칩을 다른 기업에 판매하는 방안을 고려 중이다.
앤디 재시 아마존 최고경영자(CEO)는 9일(현지시간) 연례 주주서한에서 “당사 칩에 대한 수요가 매우 높아 향후 제3자에게 대량으로 판매할 가능성이 충분하다”며 “올해 생산된 칩을 외부에 판매한다면 연간 매출액은 약 500억달러(약 74조원)에 달할 것”이라고 밝혔다.
엔비디아는 데이터센터 GPU 시장에서 약 86%의 매출 점유율을 확보하고 있다. 소프트웨어정책연구소(SPRi)는 9일 발간한 ‘AI 인프라 경쟁에서 소프트웨어의 구조적 역할’ 보고서에서 이 같은 압도적 지위가 단순히 하드웨어 성능 때문이 아니라 2006년 쿠다(CUDA) 출시 이후 약 20년간 축적된 SW 생태계에서 비롯됐다고 분석했다.
연내 상장을 준비 중인 앤스로픽과 오픈AI는 수익성과 엔비디아로부터의 독립성 확보가 과제로 꼽힌다. 최병호 고려대 휴먼인스파이어드 AI연구원 연구교수는 “에이전틱 AI의 발전으로 생태계 전환이 쉬워지고, 쿠다 중심의 락인 효과가 약해졌다”며 “엔비디아로부터 주도권을 빼앗기지 않으려는 생태계 싸움”이라고 말했다.
모델 성능 격차가 줄어들면서 AI 산업의 경쟁 축은 학습에서 추론으로 바뀌고 있다. 추론은 AI 모델을 실제 서비스에 적용하는 단계로 24시간 지속적으로 운영된다. 문제는 범용 고성능 연산에 강점을 가지는 GPU는 전력 소모와 비용이 높다는 것이다.
최재식 KAIST 김재철AI대학원 교수는 “추론용 AI 칩은 대용량 데이터를 빠르게 처리할 수 있고 전력 효율성도 높다”며 “GPU에 비해 초기 투자 비용이 상대적으로 적어 빅테크들이 전략적으로 접근하는 것”이라고 말했다.
빅테크들이 참고할 수 있는 성공적인 선례도 존재한다. 구글은 자체 추론 칩 텐서처리장치(TPU) 개발에 이어 지난달 25일 메모리 사용량을 최대 6배까지 줄일 수 있는 ‘터보퀀트’ 기술을 공개했다.
국내에서도 연산 인프라 대응이 본격화되고 있다. SK텔레콤은 최근 영국 반도체 설계 기업 암(Arm), 국내 AI 반도체 스타트업 리벨리온과 협력해 추론 최적화 인프라 구축에 나섰다. ‘암 AGI CPU’와 리벨리온이 올해 3분기 출시 예정인 ‘리벨카드’를 서버에 함께 탑재하고 SKT AI 데이터센터에서 실증하는 방식이다.
두 칩을 하나의 서버에 결합하면 CPU는 데이터 처리와 시스템 운영 등 범용 연산을 담당하고, 신경망처리장치(NPU)는 AI 추론 연산을 전담하는 구조로 전력 효율을 높이고 운영 비용을 절감할 수 있다.
다만 빅테크의 칩 내재화 흐름이 본격화될 경우 국내 NPU 스타트업이 글로벌 시장에서 설 자리가 좁아질 수 있다는 우려가 나온다. 최재식 교수는 “그동안 퓨리오사AI, 리벨리온 같은 기업이 엔비디아 의존도를 낮추는 대안으로 NPU 시장을 공략해 왔다”며 “빅테크가 자체 칩을 개발하면서 수출 시장이 축소될 가능성이 있다”고 지적했다.




