오픈소스 AI, 판이 바뀌다: 자선사업에서 전략으로
.jpg?width=3333&height=2333&name=1222(BLOG).jpg)
지난 12월 5일, 엔비디아는 Nemotron 3를 공식 발표했습니다. 이번 릴리스는 3조 개 토큰 규모의 사전 학습·사후 학습·강화 학습 데이터 세트와 함께, 오픈소스 강화 학습 환경 및 라이브러리를 포괄적으로 공개한 것이 특징입니다. 엔비디아는 이를 통해 "고정밀, 고효율 및 특화된 AI 에이전트 구축을 위한 완벽한 모델, 데이터 및 도구 모음을 제공하는 최초의 기업"으로 자리매김했으며, 이번 릴리즈는 업계로부터 긍정적인 반응을 얻었습니다.
그러나 이번 발표는 단순한 기술 공개로만 해석되지는 않습니다. 전 세계 AI 칩셋 시장을 장악한 하드웨어 거인 엔비디아가 왜 이 시점에, 이 정도 수준의 오픈소스 AI를 전면에 내세웠을까요? 이는 단순한 생태계 기여가 아니라, 계산된 전략적 선택으로 보는 것이 타당합니다. 이번 글에서는 그 배경을 좀 더 자세히 살펴보겠습니다.
Meta의 몰락과 미국 리더십의 위기
불과 1년 전까지만 해도 오픈소스 AI 담론의 중심에는 Meta의 Llama가 있었습니다. Llama는 접근성과 품질을 동시에 갖춘 모델로 평가받으며, 고급 AI 기능을 소수 기업의 독점에서 해방시키는 상징적 존재였습니다. 중국 오픈소스 AI가 빠르게 성장하는 상황에서도, 시장은 Meta가 차세대 Llama 4를 통해 다시 한 번 리더십을 입증할 것이라 기대했습니다.
그러나 4월 공개된 Llama 4 Scout와 Maverick 모델은 이러한 기대에 부응하지 못했습니다. 초기 벤치마크 결과는 경쟁 모델 대비 성능 열위를 명확히 보여주었고, 특히 긴 컨텍스트 처리와 복잡한 추론 작업에서 구조적 한계가 드러났습니다. 여기에 더해, 성능 평가용 테스트 세트를 학습 과정에 활용했다는 벤치마크 조작 의혹까지 제기되며 신뢰도에 타격을 입었습니다.
결정적인 차이는 추론 패러다임에서 나타났습니다. DeepSeek R1은 OpenAI의 o1과 유사한 확장된 사고 연쇄 기반 추론 방식을 도입한 반면, Llama 4는 명시적 ‘사고’ 구조를 갖추지 못한 전통적 아키텍처에 머물렀습니다. 수학적 추론과 코딩 작업 전반에서 DeepSeek가 일관된 우위를 보인 이유입니다.
결국 Meta는 Llama 4 제품군의 최상위 모델이자 2조 개 매개변수를 갖춘 Behemoth 모델의 출시를 무기한 연기했습니다. 당초 4월 출시 예정이었던 일정은 6월, 이후 가을로 연기되었으며, 현재까지도 공식 출시되지 않았습니다. 7월 이후에는 Meta가 Behemoth 개발 자체를 재검토하며 오픈소스 전략 전반을 수정하고 있다는 보도도 이어졌습니다.
안정적이고 점진적인 개선을 이어가던 이른바 ‘Llama 시대’가 막을 내리면서, 개발자 커뮤니티는 Meta의 오픈소스에 대한 장기적 헌신과 더 나아가 미국 오픈소스 AI 리더십 자체에 대해 불확실성을 느끼기 시작했습니다.
중국의 공습: 공백을 파고든 전략적 개방
미국의 오픈소스 AI 리더십이 흔들리는 사이, 중국 연구소와 기업들은 그 공백을 빠르게 메웠습니다. 이들은 오픈소스가 글로벌 생태계 확산의 가장 효과적인 수단이라는 점을 정확히 인식했고, 지리적·비용적 제약으로 최신 GPT 계열 모델에 접근하기 어려웠던 개발자들을 흡수하는 데 성공했습니다.
2025년 1월 20일 공개된 DeepSeek R1은 추론 작업에서 OpenAI의 o1과 유사한 성능을 달성하며 시장에 큰 충격을 주었습니다. 주목할 점은 단순한 성능 향상이 아니었습니다. DeepSeek는 모델 가중치와 학습 방법론을 완전히 오픈소스로 공개했으며, 연구 성과를 Nature에 발표함으로써 최첨단 추론 기술 역시 대중화될 수 있음을 입증했습니다.
알리바바의 Qwen 역시 이 흐름을 전략적으로 활용했습니다. 2025년 말 기준, Qwen은 총 다운로드 수와 파인튜닝 활용도에서 Llama를 앞질렀으며, 200개 이상의 모델 변형을 통해 코딩·다국어·전문 영역 전반을 아우르는 포트폴리오를 구축했습니다. 타임지는 이러한 영향력을 인정해 알리바바를 ‘가장 영향력 있는 100대 기업’으로 선정했습니다.
문샷 AI, 지푸 AI 등 다른 중국 기업들 역시 빠르게 존재감을 확대했습니다. LM 아레나가 집계한 글로벌 오픈소스 AI 모델 선호도 순위에서도, 지난해 중반까지 상위권을 차지하던 구글·엔비디아·메타는 올해 들어 중국 기업들에게 자리를 내주었습니다. 글로벌 오픈소스 AI 시장에서 중국이 사실상 주도권을 확보했다는 평가가 나오는 배경입니다.
엔비디아의 계산된 개입
이러한 환경 속에서 엔비디아의 움직임은 단순한 참여가 아니라, 시장 구조 자체를 재편하려는 개입에 가깝습니다.
Meta는 사실상 개방형 전략에서 후퇴했고, 중국 오픈소스 AI는 보안과 지정학적 우려로 인해 서구권 기업들이 전면 도입하기엔 한계가 있습니다. 이러한 상황에서 엔비디아가 직접 공개한 Nemotron 3는 글로벌 기업들이 선택할 수 있는 현실적인 대안으로 부상할 가능성이 높습니다.
Nemotron 3는 Meta의 Llama와는 근본적으로 다른 오픈소스 철학을 보여줍니다. Meta가 생태계 확산과 독점 모델 견제를 주요 목적으로 삼았다면, 엔비디아의 목표는 명확합니다. 자사 하드웨어에서의 컴퓨팅 활용도를 극대화하는 것입니다. 하이브리드 맘바-트랜스포머 구조와 잠재적 전문가 혼합(MoE) 아키텍처는 처리량을 최대 4배까지 향상시키지만, 이 성능은 엔비디아 칩셋에서 최적으로 발휘되도록 설계되었습니다. 엔비디아는 3조 개 학습 토큰, 1,800만 개의 사후 학습 샘플, 오픈소스 강화 학습 환경인 NeMo Gym을 공개했지만, 모든 최적화의 종착지는 엔비디아 인프라입니다. 로컬 환경에서도 실험은 가능하지만, 성능 격차는 엔비디아 GPU에서만 온전히 구현됩니다.
결국 개방형 모델과 관리 도구를 무료로 제공하는 이유는 분명합니다. 개발자들이 엔비디아의 생태계 안에서 실험하고 구축하게 함으로써, 결과적으로 자사 GPU에 대한 의존도를 심화시키는 '하드웨어 락인(Lock-in)' 전략입니다. 이는 오픈소스라는 명분을 얻으면서 실리(GPU 판매)를 챙기는 고도의 비즈니스 모델입니다.
오픈소스 AI 시장에 던지는 질문
현재의 판도는 우리에게 세 가지 중요한 교훈을 남깁니다.
첫째, 리더십에는 지속적인 헌신이 필요합니다. Meta가 Behemoth 모델을 무기한 연기하고 오픈소스 전략의 지속 여부를 고민하는 사이, 중국은 기회를 선점했습니다. 오픈소스는 부분적으로만 수용하거나 독점 소프트웨어 경쟁에 대한 방어 수단으로만 활용할 수 없습니다.
둘째, ‘오픈’은 이제 이분법이 아니라 스펙트럼으로 존재합니다. DeepSeek는 완전한 투명성을 지향하고, Llama 4는 제한적인 라이선스와 비공개적인 학습 세부 정보를 제공합니다. NVIDIA는 하드웨어 의존적인 모델을 공개함으로써 개방성과 전략적 통제가 어떻게 공존할 수 있는지를 보여주고 있습니다.
셋째, 기술보다 중요한 것은 동기입니다. Meta의 오픈소스 전략은 규제 대응과 경쟁 유지라는 불분명한 목적 아래 추진되었고, 그 결과 신뢰를 잃었습니다. 반면 중국 연구소들은 지정학적 제약을 돌파하기 위해, 엔비디아는 컴퓨팅 수요 확대를 위해 오픈소스를 활용하고 있습니다. 2025년 말 기준 Hugging Face에 등록된 220만 개 이상의 모델 가운데, 엔비디아는 650개 이상의 모델과 250개 이상의 데이터셋을 공개하며 가장 많은 기여를 한 기업으로 군림하고 있습니다.
빅테크의 ‘자선사업적 오픈소스’ 시대는 끝났습니다. 이제 오픈소스 AI는 하드웨어 중심 전략의 핵심 요소가 되었습니다. 기업들은 최고의 소프트웨어를 얻기 위해 엔비디아 인프라를 수용할 것인지, 아니면 노후화된 모델로 파편화된 경쟁을 지속할 것인지 선택해야 합니다.
이 변화는 오픈소스를 이념에서 아키텍처로 재정의합니다. 개방성은 더 이상 중립성이나 독립성을 보장하지 않습니다. 그것은 의도를 반영합니다. NVIDIA는 컴퓨팅 수요 확장을 위해 개방했습니다. 중국 연구기관들은 지정학적 병목 현상을 우회하고 글로벌 시장 점유율을 확보하기 위해 개방했습니다. Meta는 명확한 최종 목표 없이 개방했고, 그 결과 위기에 직면했습니다.
이제 남은 질문은 개발자와 기업에게 돌아옵니다. 최적화의 경로를 통제하는 것은 누구입니까? 5년 뒤에 발생할 기술 종속(Dependency)의 위험은 누가 감당합니까? 그리고 성능, 도구, 데이터 파이프라인이 단일 하드웨어 스택(NVIDIA)을 중심으로 수렴될 때, 그 결과로 형성된 생태계를 실제로 얼마나 '개방적'이라고 부를 수 있겠습니까? 함께 고민해야 할 지점입니다.
Writer: Turing Post - Ksenia Se & Ben Eum
Edit: Metanet (원문 링크)
