DeepSeek 이후, 한국 오픈소스 AI 생태계의 형성과 과제

DeepSeek 이후, 한국 오픈소스 AI 생태계의 형성과 과제
Photo by Jongsun Lee / Unsplash

모델 공개에서 시스템 가동으로

2025년 이후 글로벌 오픈소스 AI 생태계의 가장 중요한 변화는 단일 모델의 성능 향상이 아니라, 오픈소스가 시스템 설계의 기본 전제로 자리 잡았다는 점에 있습니다.
DeepSeek R1 이후 중국 사례에서 확인되었듯, 모델은 더 이상 완결된 산출물이 아니라 재사용과 조합 및 배포가 가능한 엔지니어링 구성 요소로 인식되기 시작했습니다. 이 변화는 Hugging Face의 The Future of the Global Open-Source AI Ecosystem: From DeepSeek to AI+ 에서 확인할 수 있습니다. 이 글의 핵심 인사이트는 다음 네 가지로 정리할 수 있습니다.

  1. 오픈소스는 더 이상 선택지가 아니라 시스템 설계의 기본값입니다.
  2. DeepSeek 모멘트의 본질은 성능 돌파가 아니라 생태계 전환입니다.
  3. 경쟁의 단위가 모델에서 전체 체인으로 이동했습니다.
  4. 중국의 AI 전략은 AGI 경쟁이 아니라 AI+ (대규모 적용) 입니다.

한 문장으로 요약하면 이 Hugging Face 블로그의 핵심 인사이트는 다음과 같습니다.

DeepSeek 이후의 AI 경쟁은 ‘누가 가장 강한 모델을 만들었는가’가 아니라, ‘누가 오픈소스를 기반으로 실제로 작동하는 AI 시스템 전체를 구축했는가’의 문제로 전환되었다는 점입니다.

그리고 이 전환은 단발적 사건이 아니라, 스스로 굴러가기 시작한 생태계의 상태 변화라는 것이 이 글이 전달하는 가장 중요한 메시지입니다.

이러한 흐름 속에서 한국 역시 유사한 방향의 구조적 전환을 시도하고 있습니다. 그 중심에 위치한 정책적 실험이 바로 독파모라고 생각합니다. 독파모는 글로벌 수준의 파운데이션 모델을 국내에서 확보하는 동시에, 그 결과물을 오픈 웨이트 형태로 공개하여 생태계 전반의 재사용을 촉진하는 것을 목표로 하고 있습니다. 이는 “소버린 AI”와 “오픈소스 확산”이라는 두 목표를 동시에 달성하려는 시도로 평가할 수 있습니다.


한국 오픈소스 AI 생태계

1. 모델 공개에서 확산으로 이어지는 선순환 구조

한국의 주요 AI 기업들은 최근 1~2년 사이 오픈소스 전략을 보다 명확히 하기 시작했습니다. 예를 들어, NAVER는 HyperCLOVA X SEED 계열을 통해 비교적 소형 파라미터 모델을 공개하고, 단기간에 수십만 건 이상의 다운로드와 다수의 파생 모델 생성을 유도하였습니다. 이는 오픈소스 모델의 성공 지표가 최초 성능(rank‑1 성능)이 아니라, 재사용 빈도와 파생 생태계의 크기로 이동하고 있음을 보여줍니다.

또한 LG AI Research, SK Telecom, Upstage 등도 각기 다른 전략으로 모델과 아티팩트를 공개하며, 한국어 중심의 오픈소스 자산을 점진적으로 축적하고 있습니다. 이러한 흐름은 단일 기업 차원을 넘어, 국내 언어/도메인 특화 모델 풀을 형성하는 데 기여하고 있습니다.

2. 독파모를 통한 경쟁 구조와 컴퓨팅 자원 집중

물론 이러한 민간 주도의 움직임만으로 대규모 파운데이션 모델을 지속적으로 개발하기에는 한계가 존재합니다. 이 지점에서 독파모는 중요한 촉매 역할을 수행합니다. 독파모는 평가 경쟁을 통해 소수의 정예 팀을 선정하고, 대규모 GPU 자원과 데이터 접근 권한을 집중 지원함으로써, 국내에서도 from‑scratch 학습이 가능한 환경을 실험하고 있습니다.

이 과정에서 정부는 성능, 활용 가능성, 파급 효과를 종합적으로 평가 기준에 포함시켜, 단순한 벤치마크 경쟁을 넘어 실제 배포 가능성을 강조하고 있습니다. 이는 중국의 “AI+” 전략과 유사하게, 모델을 산업과 공공 영역에 연결하려는 시도로 해석할 수 있습니다.

3. 한국어 평가 벤치마크 인프라의 점진적 확충

또한 한국 오픈소스 생태계의 중요한 강점 중 하나는 한국어 특화 평가 체계가 점차 자리를 잡고 있다는 점입니다. KoBEST, KMMLU, Open Ko‑LLM Leaderboard와 같은 벤치마크 및 리더보드는, 영어 중심 평가의 단순 번역을 넘어 한국어 추론/지식/문화적 맥락을 측정하려는 시도를 보여줍니다.

이는 장기적으로 한국어 모델의 품질을 지속적으로 개선하고, 공공, 금융, 의료 등 로컬 도메인에 적용 가능한 기준선을 제공한다는 점에서 의미가 있습니다.


구조적 한계와 긴장 요인

1. 독자성 기준과 오픈소스 재사용 간의 충돌

독파모 과정에서 가장 논쟁적인 지점은 독자성 판단 기준입니다. 정부는 오픈소스 활용 자체는 인정하되, 최소한 가중치 초기화 이후의 학습 과정은 국내에서 수행되어야 한다는 입장을 취하고 있습니다. 이 기준은 기술 주권 관점에서는 타당성이 있으나, 한편으로는 글로벌 오픈소스 생태계의 핵심 메커니즘인 재사용과 조합을 제약할 가능성도 내포하고 있습니다.

실제로 일부 기업은 이러한 기준의 해석 문제로 인해 프로젝트 참여에서 불확실성을 경험하였고, 이는 정책 예측 가능성 측면에서 개선이 필요한 지점으로 지적됩니다.

[단독] 국대AI 탈락한 네이버, 글로벌 성능 평가선 3등 ‘합격’ | 중앙일보
28일 글로벌 AI 성능 평가 솔루션업체 W&B(웨이트앤바이어스)가 독자 AI 파운데이션 모델 개발 프로젝트(이하 독파모)에 참여한 AI 모델 5개를 평가한 결과, 네이버의 모델이 63.3점(100점 만점)으로 5개 회사 중 3위를 기록했다. 독파모 1차 평가에서 탈락한 네이버의 AI 모델이 다음 라운드에 진출한 업스테이지의 AI보다 성능이 좋다는 결과를 두고 AI 업계에선 독파모 평가 기준에 대한 논란이 커지고 있다. 과기정통부는 W&B 벤치마크 결과에 대해 ”평가 기준을 만들 때 선발전 참여 기업과 충분히 논의해서 적용했기 때문에 형평성과 객관성을 확보했다”며 ”글로벌 벤치마크 하나(W&B)만으로 AI모델의 순위를 정하면 객관성이 부족하다 판단했다”고 설명했다.

2. 생태계 확장성 측면의 불균형

또한 현재 한국의 오픈소스 AI 활동은 대기업 및 일부 스타트업에 상대적으로 집중되어 있습니다. 연구기관, 중소 개발팀, 개인 연구자의 참여를 구조적으로 확대할 수 있는 지속적 지원, 평가, 인프라 접근성은 아직 초기 단계에 머물러 있습니다.

중국 사례에서 확인되듯, 생태계의 장기적 확장성은 단일 프로젝트의 성과가 아니라, 도구 체인-데이터-평가-배포 인프라가 유기적으로 연결되는 구조에서 비롯됩니다. 이 점에서 한국은 아직 체인의 일부 링크를 강화하는 단계에 있다고 볼 수 있습니다.

모델 → 파생 모델 → 배포 → 하드웨어 → 거버넌스까지 연결된 체인

3. 글로벌 파급력 측면에서의 제한

마지막으로, 한국 오픈소스 모델들은 주로 한국어와 국내 활용을 중심으로 설계되어 있어, 글로벌 개발자 커뮤니티에서의 파급력은 제한적인 편입니다. 이는 장점이자 동시에 한계입니다. 로컬 최적화는 경쟁력이 될 수 있으나, 국제 표준이나 다국어 확장 전략이 병행되지 않을 경우, 글로벌 오픈소스 담론에서의 영향력은 제한될 수 있습니다.


결론적으로

한국 오픈소스 AI 생태계는 모델 공개 → 평가 → 배포 → 정책 지원으로 이어지는 초기 체인을 형성하는 데에는 성공하고 있습니다. 특히 독파모는 컴퓨팅 병목을 단기적으로 완화하고, 국내 역량을 가시화하는 데 기여하고 있습니다.

물론, 향후에는 다음과 같은 보완이 필요합니다.
첫째, 독자성과 오픈소스 재사용 간의 경계를 보다 명확히 정의하여, 정책의 예측 가능성을 높여야 합니다.
둘째, 대기업 중심 구조를 넘어, 연구기관과 중소 개발자까지 포괄하는 참여 모델을 설계해야 합니다.
셋째, 한국어 중심 자산을 유지하되, 글로벌 오픈소스 생태계와의 연결성을 강화하는 전략이 요구됩니다.

결론적으로, DeepSeek 이후의 글로벌 흐름은 최고 성능 모델 하나가 아니라, 실제로 돌아가는 오픈소스 시스템이 경쟁력을 만든다는 점을 분명히 보여주고 있습니다. 한국 역시 독파모를 계기로, 모델 개발을 넘어 생태계 운영 능력을 시험하는 단계에 진입하였습니다.

이 실험이 단기 성과에 그치지 않고, 지속 가능한 오픈소스 AI 체인으로 발전할 수 있을지 여부는, 앞으로의 정책 정합성과 생태계 설계에 달려 있다고 평가할 수 있습니다.