최근 오픈소스(Open Source) 생태계가 인공지능(AI) 기술 혁신과 인공지능 전환(AX, AI Transformation)의 기술적 기반을 제공하면서 오픈소스AI가 크게 주목받고 있다. 주요 딥러닝 프레임워크 28개 중 25개가 오픈소스 기술로 AI 개발 편의성을 향상시키며 모델 대형화를 촉발시켰으며 트랜스포머(LLM 기반 구조), BERT(사전 학습 패러다임 확립) 등의 오픈소스 모델들은 AI 기술의 빠른 확산을 가능하게 하며 오픈소스AI라는 새로운 개념이 등장하였다.
하지만, 오픈소스AI에 대한 명확한 개념이 존재하지 않아 발생하는 혼동을 해결하고자 OSI(Open Source Initiative)은 오픈소스AI 정의(Open Source AI Definition)를 발표하였고, 리눅스 재단은 와 모델 개방성 프레임워크(Model Openness Framework)를 발표하였다. 이들은 공통적으로 오픈소스AI를 4가지 자유(사용, 연구, 수정, 공유)가 허용된 AI로 정의하고 공개 범위를 데이터, 모델, SW(코드)로 구분하고 있다. 두 개념 사이에 일부 차이점이 있지만, 이들은 오픈소스AI와 오픈소스 모델에 대한 명확한 개념을 제시한다는 점에서 큰 의미가 있다.
최근 오픈소스AI 동향을 보면, 깃허브의 AI 관련 프로젝트와 허깅페이스 중심의 오픈소스 모델 개발이 빠르게 증가하고 있다. ’24년 기준 깃허브의 AI 프로젝트 수는 432만개 이며, 25년 12월 기준 허깅페이스의 오픈소스 모델 수는 225만개를 넘어섰다. 그리고, 기업의 89%가 AI 개발 과정에 오픈소스 기술을 활용하고 있으며, 63%가 오픈소스 모델을 활용하고 있는데, 그 이유는 혁신(67%), 시장 표준(67%), 생산성(50%), 개발 비용 절감(49%) 때문이다.
EpochAI의 유명 AI 모델(Notable AI Models) 분석에서 ’18년부터 오픈소스 모델 공개가 증가하여 ‘18년 이후 유명 AI 모델의 47.3%가 오픈소스 모델이었다. 오픈소스 모델 공개를 주도하는 국가는 미국과 중국이며, 개발 참여 기관들의 다수는 산업계와 학계이었다. 그리고 공개되는 모델의 주요 유형은 언어 모델, 비전 모델, 멀티 모달이었다. 그리고, 오픈소스 모델 공개 확산의 이면에는 미·중의 AI 주도권 경쟁이 있으며, 초기 오픈소스AI 생태계가 미국 기업들(메타, 구글 등)이 주도하였다면, ’25년 부터 딥시크, 알리바바 같은 중국 기업들의 우수한 성능과 낮은 비용 기반의 오픈소스 모델을 적극 공개하며 영향력을 빠르게 확산하고 있다. 이들 기업은 오픈소스 모델과 연계한 자사 제품·서비스의 지능화를 통해 고객 만족도 향상과 생산성 향상을 추진하고 추가 수익 창출을 위해 오픈소스 모델 연계 신규 서비스 출시를 전략적으로 추진하고 있다.
이러한 글로벌 오픈소스AI 동향을 보면, AI 3대 강국 도약이라는 국가적 과제 추진을 위해서 오픈소스AI 생태계의 전략적 가치에 대한 재인식이 필요하다. 미국과 중국 기업들에게 글로벌 오픈소스AI 생태계는 기술 확보(초기 딥시크의 라마 모델 구조 활용, 라마의 MoE(딥시크) 수용) 수단, 우수한 기술의 개방형 검증을 통한 기술 신뢰성 확보 수단, 기술 공개 및 무료 사용 허용을 통한 생태계 저변 확대 수단으로 활용되고 있다. 따라서, AI 3강 도약을 위해서는 전략적 오픈소스AI 활용이 중요해지고 있다. 우선 오픈소스AI는 전략적 기술 원천으로써 가치가 있기 때문에 AI 기술 주권 확보를 위해 선진 오픈소스AI 기반 R&D 추진을 통해 원천AI 기술 역량 내재화 및 산업 특화 AI 기술 확보가 필요하다. 그리고 범국가 AI 대전환을 위한 전략적 기술 도구로써 가치가 있기 때문에 오픈소스AI 활용 확산을 위한 기반(생태계) 조성 및 인재 양성이 필요하다.
Recently, the open source ecosystem has been drawing significant attention as it provides the technological foundation for innovation in artificial intelligence (AI) and for AI transformation (AX, AI Transformation). Among 28 major deep learning frameworks, 25 are open source technologies, which have improved the ease of AI development and accelerated the scaling-up of models. In addition, open source models such as the Transformer (the architecture underlying LLMs) and BERT (which established the pre-training paradigm) have enabled the rapid diffusion of AI technology, giving rise to the new concept of Open Source AI.
However, in order to address the confusion caused by the absence of a clear concept of Open Source AI, the Open Source Initiative (OSI) published the Open Source AI Definition, and the Linux Foundation released the Model Openness Framework (MOF). Both frameworks commonly define Open Source AI as AI that permits four freedoms (use, study, modify, and share) and distinguish the scope of disclosure into data, the model, and software (code). Although there are some differences between the two, they are meaningful in that they present clearer concepts of Open Source AI and open models.
Looking at recent Open Source AI trends, AI-related projects on GitHub and open model development centered on Hugging Face are increasing rapidly. As of 2024, the number of AI projects on GitHub reached 4.32 million, and as of December 2025, the number of open source models on Hugging Face surpassed 2.25 million. In addition, 89% of companies use open source technologies in the AI development process, and 63% use open models. The main reasons are innovation (67%), market standards (67%), productivity (50%), and development cost reduction (49%).
According to Epoch AI’s analysis of Notable AI Models, releases of open source models have increased since 2018, and 47.3% of notable AI models released after 2018 were open source. The countries leading open model releases are the United States and China, and the majority of participating organizations are from industry and academia. The primary types of released models are language models, vision models, and multimodal models. Behind the expansion of open model releases lies the U.S.–China competition for AI leadership. While the early Open Source AI ecosystem was led largely by U.S. companies (such as Meta and Google), since 2025 Chinese companies such as DeepSeek and Alibaba have been rapidly expanding their influence by actively releasing open models that combine strong performance with low cost. These companies are pursuing higher customer satisfaction and productivity by enhancing the intelligence of their products and services in conjunction with open models, and they are strategically driving the launch of new services linked to open models in order to generate additional revenue.
Considering these global trends in open-source AI, there is a need to reassess the strategic value of the open-source AI ecosystem in advancing the national objective of becoming one of the world’s top three AI powers. For U.S. and Chinese firms, the global open-source AI ecosystem is being leveraged as a means of securing technological capabilities (e.g., early DeepSeek’s use of the LLaMA model architecture and the adoption of LLaMA’s Mixture-of-Experts (MoE) approach by DeepSeek), as a mechanism for establishing technological credibility through open and transparent validation of high-quality technologies, and as a tool for broadening the ecosystem base by disclosing technologies and allowing free use. Accordingly, strategic utilization of open-source AI is becoming increasingly important for achieving top-three AI status.
First, because open-source AI holds value as a strategic source of technology, it is necessary to internalize core AI capabilities and secure industry-specific AI technologies by promoting advanced open-source-AI-based R&D to strengthen AI technological sovereignty. Second, because open-source AI also has value as a strategic technological instrument for a nationwide AI transformation, it is essential to build the foundations (ecosystem) for expanding the use of open source AI and to cultivate specialized human resources.