3월
인공지능 산업의 최신 동향
2026년 1월호
월간AI모델현황
  2026년 2월 월간 AI 모델 현황1
정책
법제
 앤트로픽·국방부(DoW) AI 가드레일 갈등                         
 미국 캘리포니아주 상원, AI 안전 표준 수립 법안 가결
 영국 정부, 2026년 국제 AI 안전 보고서 발간
 미국 노동부, AI 리터러시 프레임워크 발표
∙ OECD, EU 핵심 산업 분야의 AI 도입 현황과 과제 분석
 인도 정부, 글로벌 AI 정상회의 ‘AI 임팩트 서밋’ 개최
3
4
5
6
7
8
기업
산업
 마이크로소프트, 차세대 AI 추론 칩 ‘마이아 200’ 공개
 중국 AI 기업들의 최신 AI 모델 출시 동향
 오픈AI, 연구 논문 작성과 협업 촉진하는 AI 워크스페이스 ‘프리즘’ 출시
 앤트로픽, 에이전트 협업 기능 강화한 ‘Claude Opus 4.6’ 출시      
∙ TSMC, 일본 구마모토현에서 3나노급 반도체 공장 건설 계획
 오픈AI, 에이전트형 코딩 AI 모델 ‘GPT-5.3-Codex’ 공개
 마이크로소프트, AI 에이전트 보안을 위한 가시성 확보 강조
10
11
12
13
14
15
16
기술
연구
 앤트로픽 연구 결과, 개발자의 AI 사용은 실력 향상에는 역효과
 네이처, 과학 출판에서 책임 있는 AI 활용 가이드라인 제시
 앤트로픽, 책임 있는 확장 정책을 3.0 버전으로 업데이트
18
19
20
인력
교육
 AI 채용의 부정적 영향과 개선 방안
∙ AI 시대 근로자의 판단력 향상을 위해 업무 방식의 재설계 필요
∙ AI 확산에 직면해 기술·현장직으로 전환하는 사무직 근로자 증가
∙ 로버트 라이시 前 미국 노동부 장관, AI로 인한 불평등 확산 경고
22
23
24
25
주요행사일정
  2026년 국내외 인공지능 주요 행사26
2026년 3월호
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
1
2026년 2월 월간 AI 모델 동향
주요 모델 출시 타임라인
2/5 Claude Opus 4.6, GPT-5.3 Codex  2/11 Gemini 3.1 Pro Preview
2/12 GLM-5, MiniMax M2.5 Gemini 3 Deep Think 2/16 Qwen 3.5  2/17 Grok 4.2(Beta)  
2/19 Tri 21B 2/24 Seedance 2.0
LLM간 성능 비교(Artificial Analysis Intelligence Index 4.0)
모델
출시일
Index
Price
($/1m Token)
Speed
Context
Window
회사
Input
Output
 Gemini 3.1 Pro Preview(high)
26.2.11
57
2
12
93.5
1m
 Google
② GPT 5.3 Codex
25.2.5
54
1.75
14
75
400k
 OpenAI
 Claude Opus 4.6 (max)
25.2.5
53
5
25
78.3
200k
Anthropic
 Claude Sonnet 4.6 (max)
25.2.17
52
3
15
54.1
200k
 
Anthropic
GPT 5.2 (xhigh)
25.12.11
51
1.75
14
88.8
400k
 OpenAI
* 출처 : Artificial Analysis 평가체계 : Agents 25%, Coding 25%, General 25% Scientific 25% (10개 벤치마크 종합)
이미지 생성 모델
영상 생성 모델
모델
출시일
ELO
회사
모델
출시일
ELO
회사
 GPT Image 
1.5(high)
25.12.16
1268
 ByteDance
 Kling 3.0 Pro
26.2.5
1336
xAI
 Nano Banana 
Pro(Gemini 3 
ProImage)
25.11.20
1220
 Google
 PixVerse V5.6
26.1.9
1302
   PixVerse
 FLUX.2 [max]
25.11.25
1206
 Black 
Forest Labs
 Kling 3.0 
OmniPro
26.2.5
1298
  
 Kling
한국 AI 모델 현황
트릴리온랩스, 세계 최초 모바일 월드 모델 gWorld-32B와 추론 AI 모델 Tri 21B 출시
gWorld-32B(2.11)- 웹 코드 기반 모바일 월드 모델로, GUI 예측에서 Llama-4-402B를 상회
Tri 21B(2.19)- Artificial Intelligence Index 19점으로 유사 크기 모델 평균(14점)을 훨씬 상회
주요 포인트 : 
Alibaba, Zhipu AI, MiniMax 등 중국 AI 기업들, 미국 프런티어 AI 모델에 근접한 성능의 개방형 가중치 모델 출시 
SPRi AI Brief
 2026년  3월호
2
미국 뉴욕주, 프런티어 AI 모델 규제를 위한 「RAISE 법」 최종 서명
미국 캘리포니아주 상원, AI 안전 표준 수립 법안 가결
정책
법제
2026년 3월호
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
3
앤트로픽·미국 국방부(DoW) AI 가드레일 갈등
KEY Contents
26.2월, AI 기업 앤트로픽과 미 국방부(Department of War, DoW) 간 군사용 AI 사용 제한 조건을 
둘러싼 갈등이 전면 충돌로 격화
앤트로픽은 자사 AI 모델의 자율무기 및 대규모 국내 감시 활용에 대한 가드레일 요구, 국방부는 
합법적 용도에 대한 무제한 접근 주장, 앤트로픽 불수용 후 대대적 제제
앤트로픽의 안전 중심 기업 정체성과 트럼프 행정부의 규제 완화 기조 간 구조적 충돌
(갈등 배경) 앤트로픽*의 안전 중심 기업 정체성과 트럼프 행정부의 AI 탈규제 기조가 
구조적으로 충돌, 두 가지 레드라인을 둘러싼 계약 조건 대립으로 표면화
 AI 안전을 핵심 가치로 '21년 OpenAI 출신 연구진이 독립 설립, AI 안전 연구와 상용화를 동시에 추구하는 기업
'24년 말 군사 데이터 분석 기업 팔란티어와 파트너십을 체결하여 美군사 기밀망에 AI 모델을 배치한
최초의 민간 AI 기업이며, '25.7월에는 국방부와 2억$ 규모의 국가안보 AI 역량 개발 계약을 체결
'26.1월 베네수엘라 마두로 대통령 체포 작전에서 클로드가 활용된 것으로 보도되면서, 군사 작전 
현장에서의 AI 활용 범위와 한계를 둘러싼 양 측 간 긴장이 본격적으로 고조
앤트로픽은 ①미국 시민 대상 대규모 감시에 클로드 활용 금지 ②인간 개입 없는 완전 자율무기 
의사결정에 클로드 활용 금지, 두 가지 가드레일을 계약에 명시할 것을 요구
국방부는 '모든 합법적 목적(all lawful purposes)'에 대한 무제한 접근을 주장하며, 기업 측 
가드레일이 긴급 상황에서의 군사 작전 수행을 저해할 수 있다고 반박
최후통첩→거부→제재→오픈AI 대체 계약으로 이어진 급속한 확전
미 국방부는 앤트로픽에 무제한 사용을 요구하는 최후통첩을 보냈으나 앤트로픽은 불수용, 이후 
오픈AI가 기밀망 배치 합의를 발표하며 앤트로픽이 요구한 두 가지 레드라인이 포함
'26.2.24 헤그세스 국방장관이 2.27 오후 5시 1분까지 '모든 합법적 용도'에 대한 무제한 사용 수용을 
요구하는 최후통첩을 발송했으나, 2.26 앤트로픽이 공식 성명을 통해 최후통첩 거부를 선언
2.27 트럼프 대통령이 연방기관의 앤트로픽 제품 즉시 사용 중단을 지시하고 기밀망 운용 기관에는 
6개월 단계적 폐기 기한을 부여*, 헤그세스 장관은 앤트로픽을 '국가안보 공급망 리스크'**로 지정
  6개월 유예는 공급망 리스크 지정과 본질적으로 모순되며, 즉시 대체가 불가능한 운영 종속성을 역설적으로 입증
 ** FASCSA 체계 하 ①신규 계약 시 해당 기업 제품의 연방기관 납품 금지 ②기존 계약 수행 과정에서의 사용 금지, 미국 기업에 
적용된 최초 사례
퇴출 당일 밤 오픈AI가 국방부와 기밀 네트워크 모델 배치 합의를 발표했으며, 앤트로픽이 요구한 
것과 동일한 두 가지 레드라인이 계약에 포함된 것으로 공개, 국방부가 이를 수용한 배경은 불명확
앤트로픽이 현행법 미비 영역(공개정보 기반 감시 등)까지 계약상 명시적 금지를 요구한 반면, 
오픈AI는 기존 법률 체계를 수용하고 자체 안전 스택 등 기술적 보완장치로 대체한 차이가 존재
출처 | The New York Times, How Talks Between Anthropic and the Defense Dept. Fell Apart, 2026.1.27.
SPRi AI Brief
 2026년  3월호
4
미국 캘리포니아주 상원, AI 안전 표준 수립 법안 가결
KEY Contents
미국 캘리포니아주 상원이 책임 있는 AI 개발을 지원하기 위해 AI 전문가, 학계 인사, 정부 관계자 
등으로 구성된 독립 위원회를 설치해 AI 표준 수립을 요구하는 「SB 813」 법안을 가결
법안에 따르면 위원회는 의료, 에너지, 교육 등 산업별 표준화 기구에 해당하는 ‘독립 검증 
기구(IVO)’를 지정할 수 있으며, IVO는 분야별 표준을 수립해 AI 기업에 자율적 인증을 발급
「SB 813」, 독립 위원회를 설립해 분야별 AI 안전 표준 수립 추진
미국 캘리포니아주 상원이 AI 표준을 통한 책임 있는 AI 개발을 지원하기 위해 독립 위원회를 구성해 
분야별 AI 안전 표준을 마련하고 업계의 자발적 인증을 유도하는 「SB 813」법안을 가결
 Bill Title: California AI Standards and Safety Commission: independent verification organizations
동 법안은 상원에서 찬성 31표, 반대 7표로 초당적 승인을 얻어 하원의 투표 절차를 남겨둔 상태 
안을 발의한 제리 맥너니(Jerry McNerney) 의원은 “충분한 안전장치가 없는 AI는 심각한 위험을 
끼칠 수 있다”며, 동 법안이 책임 있는 AI 개발을 위한 강력하고 자발적인 기준을 마련할 것으로 기대 
그에 따르면 빠르게 발전하는 AI는 아동에 대한 심리적 피해, 편향 내재, 환각, 사이버 사기, 사이버 
조작, 허위 정보, 딥페이크, 광범위한 일자리 감소 등 상당한 위험을 내포해 안전장치 마련이 필수
의료, 에너지, 교육 등 산업별 표준화 기구를 통해 AI 기업의 자율 인증 추진
동 법안은 캘리포니아주 정부에 AI 전문가, 시민사회 대표, 교육·연구기관 대표, 기술윤리 전문가, 
정부 관계자 등으로 구성된 ‘캘리포니아 AI 표준안전위원회’를 설치할 것을 요구 
위원회는 AI를 배포 또는 조달하는 주 정부 기관과 공식적인 협력관계 유지 및 AI 기술 전문 지식 제공, 
AI 위험 평가 등의 임무를 수행하며, 표준 수립을 위한 독립 검증 기구(IVO)*를 하나 이상 지정 필요
  Independent Verification Organization 
AI 산업계, 학계 인사, 공무원으로 구성된 IVO는 의료, 에너지, 교육 등 산업별 표준을 수립하는 
표준화 기구 역할을 담당하며, AI 개발 기업들은 IVO로부터 자율적으로 인증을 획득 가능 
IVO로 지정되기 위해서는 전문 분야별 위험 완화 방식, 수용 가능한 위험 수준에 대한 정의와 
측정 지표, 목표 수치와 평가 프로토콜, 인증 범위와 기간 등을 포함하는 계획서를 제출 필요
IVO의 임기는 3년 후 만료되고 만료 후 새로 신청할 수 있으며, 위원회는 IVO가 계획을 체계적으로 
이행하지 못하거나 IVO가 검증한 AI 모델이나 앱이 실질적 피해를 초래한 경우 지정을 취소 가능
IVO는 규정된 요건을 충족하는 적격 AI 모델과 앱을 인증하고, 해당 요건을 충족하지 않는 AI 모델 
또는 앱의 인증을 취소할 수 있으며, 매년 입법부와 위원회에 연례 보고서*를 제출 필요
  AI 모델 기능에 대한 종합 정보, 위험 완화 조치의 적절성, 인증 현황, 인증 평가의 종합 결과 등을 기술 
출처 | Senator Mcnerney, CA Senate Approves McNerney’s Bill to Establish Safety Standards for Artificial Intelligence, 2026.1.27.
Legiscan, Bill Text: CA SB813 | 2025-2026 | Regular Session | Amended, 2026.01.27.
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
5
영국 정부, 2026년 국제 AI 안전 보고서 발간
KEY Contents
2026년 국제 AI 안전 보고서에 따르면 범용 AI의 성능은 지난 1년간 수학, SW 엔지니어링, 
과학 분야의 복잡한 추론 작업을 중심으로 대폭 향상되었으나 여전히 불균형한 상태
범용 AI는 악의적 사용, 오작동, 시스템적 위험의 세 가지 범주에서 위험이 확대되는 추세로, 
더욱 강력한 위험 관리를 위해서는 기술적·제도적 측면에서 다양한 관리 수단을 병행 필요
2026년 국제 AI 안전 보고서, 범용 AI 시스템의 성능과 위험성, 위험 관리 방안 제시
영국이 2026년 2월 3일 30개국 이상의 국가 및 EU·OECD·UN 등 국제기구의 추천을 받은 
독립 전문가 100여 명의 자문을 통해 작성된 ‘2026년 국제 AI 안전 보고서’를 발간
동 보고서는 범용 AI 시스템의 성능과 위험성, 해당 위험을 관리하는 방안을 제시하고 있으며, 프런티어 
범용 AI 시스템과 관련된 새로운 위험에 초점을 맞추어 정책 입안자의 선제 대응을 모색
(성능) 범용 AI의 성능은 지난 1년 사이 초기 학습 후 성능을 향상하는 ‘추론 시간 확장’ 기법에 
힘입어 수학, 소프트웨어 엔지니어링, 과학 분야의 복잡한 추론 작업을 중심으로 대폭 향상
그러나 AI의 성능은 여전히 불균형적으로, 최첨단 AI 시스템이라도 이미지 속 객체 수 세기, 물리적 
공간 추론, 복잡한 작업흐름에서 기본적 오류 복구 등의 비교적 간단한 작업에는 취약
2030년까지 AI의 발전 궤적은 불확실하나 현재 추세는 지속적인 발전이 예상되며, AI 기업들은 
컴퓨팅 파워가 AI 발전의 핵심 요소가 될 것이라며 수천억 달러 규모의 데이터센터 투자를 예고
(주요 위험) 범용 AI의 위험은 ①악의적 사용 ②오작동 ③시스템적 위험의 세 가지 범주로 구분
(악의적 사용) AI 생성물을 이용한 사기, 금융 범죄, 동의 없는 성적 이미지 제작 등의 범죄와 AI를 
이용한 여론 조작, AI를 이용한 사이버 공격, 생물학적·화학적 무기 개발 등의 위험이 대두
(오작동) 허위 정보 생성, 오류 코드 작성, 잘못된 조언과 같은 오류로 인한 신뢰성 문제와 함께, 
AI 시스템의 자율성이 점차 높아지면서 향후 AI 시스템에 대한 통제력을 상실할 가능성도 제기
(시스템적 위험) 범용 AI는 지식노동 분야를 중심으로 광범위한 인지 업무를 자동화할 가능성이 
높으며, AI 도구 의존도가 높아지면서 비판적 사고 능력이 약화하고 사회적 교류가 감소할 위험도 증가
(위험 관리 방안) 기술적·제도적으로 다양한 접근 방식을 결합해 더욱 강력한 위험 관리를 제안  
AI 기업들은 범용 AI의 위험 관리 활동으로 취약점을 파악하기 위한 위협 모델링, 잠재적으로 위험한 
행동을 평가하는 성능 평가, 증거 수집을 위한 사건 보고 등을 자발적으로 시행
최근에는 악성 출력을 유도하는 공격이 한층 어려워지는 등, 기술적 안전장치가 개선되고 있으나 여전히 
상당한 한계가 있으며, 여러 안전장치를 중첩하는 방식으로 더욱 견고한 방어 태세 필요
개방형 가중치 모델은 연구나 상업적 측면의 이점에도 불구하고, 일단 출시되면 회수가 불가능하고 
안전장치를 쉽게 제거할 수 있으며 감시 환경을 벗어난 오용의 예방과 추적이 어렵다는 어려움을 내포
AI 관련 피해 발생 시 충격을 흡수하고 회복하는 사회적 복원력을 갖추기 위해서는 핵심 인프라 강화, 
AI 생성물 탐지 도구 개발, 새로운 위험에 대응할 수 있는 제도적 구축이 필요   
출처 | International AI Safety Report.org, International AI Safety Report 2026, 2026.2.3.
SPRi AI Brief
 2026년  3월호
6
미국 노동부, AI 리터러시 프레임워크 발표
KEY Contents
미국 노동부가 ‘AI 리터러시 프레임워크’를 발표하고 AI 원리 이해와 활용 탐색, 효과적 지시, 
산출물 평가, 책임 있는 AI 활용을 AI 리터러시의 핵심 내용 영역으로 제시
AI 리터러시의 효과적 전달 원칙으로 실습 활성화, 맥락 기반 학습 설계, 보완적 역량 구축, 
AI 리터러시 전제조건 충족, 지속 학습 경로 마련, 지원 역할의 준비, 민첩성 기반 설계를 제시 
AI 리터러시 프로그램의 설계와 실행을 위한 핵심 내용과 전달 원칙 제시
미국 노동부가 2026년 2월 13일 미국 전역의 노동과 교육 시스템 전반에 걸친 AI 리터러시 향상을 
위한 토대를 제공하고자 ‘AI 리터러시 프레임워크(AI Literacy Framework)’를 발표  
이 프레임워크는 AI 리터러시의 5가지 기본 핵심 내용과 7가지 전달 원칙을 제시함으로써, AI 리터러시 
프로그램의 설계와 실행을 안내하는 자료로 활용될 수 있도록 고안
(핵심 내용) ①AI의 원리 이해 ②AI 활용 탐색 ③효과적 지시 ④AI 산출물 평가 ⑤책임 있는 활용 
(AI 원리 이해) 기술적 전문 지식이 없어도 AI의 패턴 인식과 확률적 출력, 훈련과 추론 과정, 환각과 
정확성의 한계 등을 포함한 AI 핵심 개념과 기능, 한계를 이해하여 효과적 활용을 위한 토대를 마련
(AI 활용 탐색) 생산성 도구 활용, 정보 탐색 지원, 초안 생성, 업무별 특화 적용 등 실제 사용 환경에서 
AI의 응용 사례를 폭넓게 다루고 AI가 어떻게 인간의 전문성을 보완할 수 있는지를 이해
(효과적 지시) 유용한 결과를 도출하기 위해 AI 시스템과 상호작용을 하는 방법을 습득해야 하며, 관련 
데이터 제공, 반복적 출력 개선, 모호한 지시 회피 등으로 AI에 적절한 맥락을 제공 필요
(AI 산출물 평가) 사실 정확성의 검증, 완결성과 명확성 평가, 논리적 오류 탐지, 전략적 목적과의 
부합성 판단, 인간 판단력의 적용 등을 통해 AI가 생성한 결과물을 비판적으로 검토
(책임 있는 활용) 민감한 정보 보호, 직장 내 정책·규정 준수, 오남용 방지, 상황별 위험 관리, 인간의 
최종 책임 유지 등 AI 도구를 윤리적이고 안전한 방식으로 사용
(전달 원칙) ①실습 활성화 ②맥락 기반 학습 설계 ③보완적 역량 구축 ④AI 리터러시 
전제조건 충족 ⑤지속 학습 경로 마련 ⑥지원 역할의 준비 ⑦민첩성 기반 설계 
(체험학습 활성화) 실제 상황에서 AI 도구를 직접 적용하는 실습 중심 교육을 통해 AI 리터러시 확보
(맥락 기반 학습 설계) 산업별·직종별 맞춤 사례를 기존 교육 과정에 통합하여 현장 적용성을 확대
(보완적 역량 구축) 비판적 사고, 창의성, 커뮤니케이션 능력, 문제 해결 능력, 전문 지식 등 AI로 
보완될 수 있는 인간 고유의 역량을 함양 
(AI 리터러시 전제조건 충족) 디지털 리터러시 부족, 광대역 인터넷망과 디지털 기기의 접근성, 
인터넷 사용 환경 등 AI 리터러시 교육 참여에 필요한 선결 조건을 사전에 파악하고 지원
(지속 학습 경로) 기초 교육에서 심화 역량으로 이어지는 단계적 학습 경로와 AI 관련 직종 전환을 지원
(지원 역할 준비) 관리자, 진로 상담사, 교사 등 지원 역할을 담당하는 인력을 위한 교육을 별도 설계
(민첩성 기반 설계) 빠르게 변화하는 AI에 대응해 교육 내용을 신속히 업데이트하고 유연성을 확보
출처 | Ministry of Labor, The U.S. Department of Labor’s Artificial Intelligence Literacy Framework, 2026.2.13.
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
7
OECD, EU 핵심 산업 분야의 AI 도입 현황과 과제 분석
KEY Contents
OECD에 따르면 EU 경제의 핵심 축을 차지하는 농업, 의료, 제조업, 모빌리티 영역의 AI 
도입은 일부 기능에 국한되거나 시범 단계에 머물러 있는 상태
AI 전문 인력의 부족과 함께 대규모 고품질 데이터셋의 부족 및 데이터 공유 관련 법적 문제가 
4개 산업에서 모두 AI 도입을 저해하고 있어 시장 환경 개선을 위한 정책적 조치 필요
2024년 기준 EU 내 농업·의료·제조업·모빌리티 분야의 AI 도입은 초기 단계
OECD가 2026년 2월 18일 유럽연합(EU) 내 농업, 의료, 제조업, 모빌리티 분야에서 AI 도입 
현황과 AI 확산을 저해하는 주요 도전 과제를 분석한 보고서를 발간
보고서에 따르면 AI는 정보 기반 의사 결정 지원, 복잡한 프로세스의 자동화, 질병 진단, 예측 유지보수 
등에 다양하게 활용될 수 있으며, 인력 부족, 인프라 노후화, 환경 문제 등의 과제 해결을 지원 가능 
(AI 도입 현황) 4개 산업에서 AI 도입은 주로 일부 기능에 국한되거나 시범 단계에 머무른 상태 
2024년 기준 EU 지역 운송과 제조업 분야의 AI 도입률은 각각 8%와 11%로, EU 전체 평균인 13%보다 
낮은 수준으로, 의료 및 농업 분야는 비교 가능한 수치가 없으나 역시 AI 도입은 제한적으로 추정
현재 AI 도입은 텍스트 마이닝이나 기본적인 자동화 같은 협소한 기능에 국한되거나 시범 단계에 머물러 
있으며, 핵심 운영 프로세스에 대규모로 AI를 통합한 조직은 소수에 불과
일반적으로 자원이 풍부한 대기업이 AI 도입을 주도하고 있으나, 디지털화에 전반적으로 뒤처진 
중소기업은 인프라와 기술, 투자 역량의 부족으로 AI 도입 격차를 줄이는 데 어려움을 겪는 상황 
(산업별 활용 사례) 4개 산업에서 모두 AI는 운영 및 서비스 제공 방식을 혁신할 수 있는 역량 보유
(농업) AI 기반 정밀 농업, 로보틱스, 예측 분석, 모니터링을 통해 수확량 증가와 투입 자원 최적화 가능
(보건의료) AI로 고급 수준의 진단과 병원 운영의 예측적 관리, 행정 업무 자동화 등을 지원 
(제조) 예측 유지보수, 품질 보증, 공급망 최적화가 가장 영향력 있는 응용 분야로 부상
(모빌리티) 자율주행, AI 기반 대중교통 관리, 지능형 물류를 통해 안전하고 효율적인 운송 체계 구현
(도전 과제) 제조, 운송, 의료 분야에서 다양한 차세대 응용 기술이 부상하고 있지만, AI 전문 
인력 부족, 데이터 가용성·품질·상호운용성 부족 등이 AI 확산을 가로막는 주요 장벽을 형성
(AI 전문 인력 부족) AI 도입을 위해서는 기술 전문성과 해당 분야 지식을 모두 갖춘 인력이 
필수적이나, 전 분야에서 AI 관련 인재와 기술이 부족한 상황으로, 특히 중소기업은 전문 인력 확보와 
유지에 어려움 호소
(데이터 이슈) 4개 분야 전체에서 대규모의 고품질 데이터셋 부족과 데이터 인프라 파편화, 일관성 없는 
표준, 데이터 공유 관련 법적 문제 등이 주요 과제로 부상
(정책 방향) EU 경제의 핵심 산업에서 AI의 잠재력을 최대한 발휘하려면 인프라와 기술, R&D 
역량 강화를 위한 지속적 노력과 함께 데이터 거버넌스와 상호운용성 및 시장 경쟁력 강화 필요
출처 | OECD, Progress in Implementing the European Union Coordinated Plan on Artificial Intelligence (Volume 2)
          Uptake in High-Impact Sectors, 2026.2.18.
SPRi AI Brief
 2026년  3월호
8
인도 정부, 글로벌 AI 정상회의 ‘AI 임팩트 서밋’ 개최
KEY Contents
인도 정부가 주요국 정상과 기술 기업 대표들이 대거 참석한 ‘인도 AI 임팩트 서밋’을 개최하고 
인간 중심적 비전을 제시하는 한편, 현실 문제 해결을 위한 실질적 AI 적용을 강조
이번 서밋에서 인도 정부의 AI 지원 의지와 함께 주요 기술 기업들이 데이터센터를 포함한 AI 
역량 구축에 대규모 투자를 약속하며 인도는 글로벌 AI 투자와 비즈니스의 중심지로 부상 
인도 AI 임팩트 서밋, 투자 유치와 AI를 이용한 현실 문제 해결에 초점
인도 정부가 2026년 2월 16~20일에 걸쳐 뉴델리에서 주요국 정상과 글로벌 기술 기업들 대표들이 
참석한 대규모 정상회의 ‘인도 AI 임팩트 서밋(India AI Impact Summit) 2026’을 개최
나렌드라 모디(Narendra Modi) 총리는 기술 발전과 사회적 가치가 조화를 이루는 인간 중심적 비전을 
제시하며, AI의 윤리성, 책임 있는 거버넌스, 국가 주권, 접근성과 포용성, 합법성을 강조
영국에서 2023년 처음 열린 AI 국제 정상회의와 그 후속으로 서울과 파리에서 열린 회의가 AI의 
위험성에 대응한 안전 규제에 집중했다면, 이번 서밋은 투자 유치와 현실적 문제 해결에 초점   
인도는 민간 부문의 이익에 집중하는 미국이나 국가 통제를 강화하는 중국과 구별되는 인도의 독자적 
AI 발전 방향을 지향하며, 특히 의료, 농업, 교육, 공공 서비스 분야에서의 실질적 적용을 강조
인도 정부가 이번 서밋에 참여한 주요 AI 기업들과 함께 발표한 ‘뉴델리 프런티어 AI 임팩트 약속’ 
역시 첫 번째 과제로 “실제 AI 활용에 대한 이해 증진”을 제시 
익명화된 데이터를 통해 실제 AI 활용 현황을 파악하고, AI가 일자리와 기술, 생산성 및 경제 변화에 
미치는 영향에 대한 근거를 마련해 정보에 입각한 정책 결정을 뒷받침할 계획
두 번째 과제로 언어, 문화, 실제 활용 사례 전반에서 AI의 실효성을 보장할 수 있도록 참여사들은 정부 및 
지역 생태계와 협력해 소수 언어 및 문화적 맥락을 반영한 데이터셋과 벤치마크를 개발할 계획 
인도, 글로벌 AI 투자와 비즈니스의 중심지로 부상
이번 행사에서는 인도 정부의 AI 산업 발전 의지와 함께 거대한 소비 시장과 풍부한 인재를 갖춘 
인도 시장을 낙관한 주요 기술 기업들이 수천억 달러 규모의 대규모 투자를 약속
인도 IT 기업 릴라이언스(Reliance)는 데이터센터와 기타 인프라에 1,100억 달러 투자 계획을 밝혔고, 
아다니(Adani) 그룹 역시 향후 10년간 1,000억 달러 규모의 AI 데이터센터 구축 계획을 발표
마이크로소프트는 오픈AI 및 AMD와 함께 2030년까지 개발도상국의 AI 분야에 500억 달러를 투자하기로 
했으며, AI 역량 구축을 위해 인도 타타(Tata) 그룹 및 미국 자산운용사 블랙스톤(Blackstone)과 제휴
인도는 이번 서밋에서 미국 주도의 AI 공급망 동맹 ‘팍스 실리카’ 협정에 서명하면서 미국과의 
기술 협력 관계를 강화했으며, 반도체 기업 엔비디아도 인도 벤처캐피털과의 파트너십 확대 계획을 발표
출처 | Ministry of Electronics & IT, Championing Inclusive and Multilingual AI for the Global South, India Unveils New Delhi Frontier 
AI Commitments, 2026.2.19.
New York Times, Money Talks as India Searches for Its Place in Global A.I., 2026.02.19.
         CNBC, Tech giants commit billions to Indian AI as New Delhi pushes for superpower status, 2026.2.21.
기업
산업
2026년 3월호
SPRi AI Brief
 2026년  3월호
10
마이크로소프트, 차세대 AI 추론 칩 ‘마이아 200’ 공개
KEY Contents
마이크로소프트가 FP8/FP4 성능에서 경쟁사의 제품을 능가하는 추론 특화 차세대 
AI 칩 ‘마이아 200’을 공개하고 자사 데이터센터에 이미 도입을 시작했다고 발표
최신 하드웨어 대비 가격 대비 성능이 30% 개선된 마이아 200은 오픈AI의 GPT-5.2를 
비롯한 다양한 AI 모델에 최적화된 추론 성능을 제공
마이크로소프트, AI 모델에 최적화된 추론 성능 지원하는 마이아 200 배포 개시
마이크로소프트(이하 MS)가 2026년 1월 26일 추론에 특화된 AI 칩 ‘마이아 200(Maia 200)’을 
공개하고 미국 아이오와주 데이터센터를 시작으로 지속적으로 배치를 확대할 계획
TSMC의 3나노 공정으로 제작된 마이아 200은 AWS 트레이니엄 3 대비 3배 우수한 FP4* 성능 및 구글 
7세대 TPU를 웃도는 FP8* 성능을 갖췄으며, 가격 대비 성능도 MS 보유 최신 하드웨어 대비 30% 우수
  *  학습·추론에서 연산을 더 빠르게 하고 메모리와 대역폭 사용을 줄이기 위해 사용되는 저정밀 수치 형식으로 FP8은 
      8비트, FP4는 4비트. 비트 수가 낮은 FP4가 연산량이 줄어 속도가 빠르나 정확도는 FP8이 더 높음 
MS는 마이아 200이 오픈AI의 GPT-5.2 모델을 비롯한 다양한 모델에 최적화된 추론 성능을 제공하며, 
MS 클라우드 환경에서 더욱 빠르고 경제적인 AI 모델 구동을 지원한다고 강조
MS 슈퍼인텔리전스 팀은 차세대 사내 모델 개선을 위한 합성 데이터 생성과 강화학습에 마이아 200을 
투입할 계획으로, 해당 칩은 고품질 데이터 생성과 필터링을 가속화하는 핵심 역할을 담당할 전망
마이아 200은 1,400억 개 이상의 트랜지스터를 탑재해 대규모 AI 워크로드 처리에 특화되었으며, 대규모 
클러스터 환경에서도 통합 네트워킹을 구현해 시스템 운영 효율을 개선 
그림
  ‘마이아 200’과 경쟁사 AI 칩의 스펙 비교
한편, MS는 학계와 개발자, 오픈소스 프로젝트 기여자 등이 모델과 워크로드를 조기에 최적화할 
수 있도록 ‘마이아 200 소프트웨어 개발 키트(SDK)’ 프리뷰도 공개
이 SDK는 오픈소스 프로그래밍 도구 Triton 컴파일러, 오픈소스 머신러닝 라이브러리 Pytorch를 포함하며, 
개발 초기 단계부터 운영 효율성을 최적화할 수 있는 시뮬레이터와 비용 계산기도 지원
출처 | Microsoft, Maia 200: The AI accelerator built for inference, 2026.1.26.
Microsoft, Deep dive into the Maia 200 architecture, 2026.1.26.
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
11
중국 AI 기업들의 최신 AI 모델 출시 동향
KEY Contents
알리바바는 매개변수 1조 개의 최신 추론 모델 ‘Qwen3-Max-Thinking’을, 문샷 AI는 
시각적 코딩과 에이전트 군집 제어를 지원하는 ‘Kimi K2.5’를 출시
지푸 AI는 ‘GLM-5’를 공개하며 기존 오픈소스 최고 모델 Kimi K2.5를 능가했으며, 미니맥스는 
비용 효율적이면서도 실제 업무 생산성 향상에 최적화된 ‘MiniMax M2.5’를 공개
알리바바·문샷 AI·지푸 AI·미니맥스의 AI 모델, 폐쇄형 프런티어 모델 성능에 근접
알리바바(Alibaba)는 2026년 1월 26일 최신 추론 모델 ‘Qwen3-Max-Thinking’을 공개  
이 모델은 매개변수를 1조 개로 확장하고 대규모 컴퓨팅 자원을 활용한 강화학습으로 사실적 지식 처리, 
복잡한 추론, 지시이행, 인간 선호도 반영, 에이전트 기능 등 다양한 측면에서 성능 향상을 달성
과학, 수학, 코딩, 추론을 포함한 19개 주요 벤치마크 평가에서 GPT-5.2-Thinking, Claude Opus 4.5, 
Gemini 3 Pro 등 최신 폐쇄형 프런티어 모델과 비교해 경쟁력 있는 성능을 입증
이 모델은 적응형 도구 사용을 지원해 상황에 따라 검색과 메모리, 코드 인터프리터를 자동으로 실행하며, 
고도화된 테스트 시간 스케일링* 기법으로 토큰 소비량을 줄이면서 성능을 개선
  AI 모델의 성능 향상을 위해 추론 과정에서 컴퓨팅 자원을 추가적으로 할당하는 기법 
문샷 AI(Moonsot AI)는 2026년 1월 27일 ‘Kimi K2(2025년 7월 출시)’을 기반으로 시각·텍스트 
혼합 토큰 약 15조 개의 사전학습을 통해 개발된 멀티모달 모델 ‘Kimi K2.5’를 오픈소스로 공개 
Kimi K2.5는 프런트엔드 개발과 같은 실제 소프트웨어 엔지니어링 작업에 뛰어나며, 텍스트뿐 아니라 
이미지나 비디오와 같은 시각 정보를 활용한 코딩에도 탁월한 성능을 발휘
최대 100개의 하위 에이전트로 구성된 에이전트 군집을 자율적으로 관리하고 동시에 최대 1,500회의 도구 
호출을 병렬로 수행하는 ‘K2.5 에이전트 스웜(Agent Swarm)’ 도 연구용 프리뷰로 출시
지푸 AI(Zhipu AI)는 2025년 2월 12일 모델 크기 확대 및 강화학습 개선으로 복잡한 코딩과 
장기 에이전트 작업에 최적화된 플래그십 AI 모델 ‘GLM-5’를 출시하고 가중치를 오픈소스로 공개
GLM-5는 GLM-4.5(3,550억 개, 활성 3,200만 개) 대비 매개변수가 7,440억 개(활성 4,000만 개)가 
2배 증가하고 사전학습 데이터 토큰 수도 23조 개에서 28.5조 개로 확대 
학습 처리량과 효율성을 크게 높이고 더욱 세밀한 사후 학습을 반복하게 하는 새로운 강화학습 기법인 
‘slime’을 적용해 추론과 코딩 및 에이전트 작업에서 오픈소스 AI 모델 중 최고 수준의 성능을 달성*
  AI 분석 플랫폼 아티피셜 애널리시스(Artificial Analysis)의 인텔리전스 인덱스에서 기존 최고 모델 Kimi K.2.5를 능가
미니맥스(MiniMax)는 2026년 2월 12일 복잡한 실제 환경에서 진행된 광범위한 강화학습을 통해 
업무 생산성을 실질적으로 높일 수 있도록 설계된 ‘MiniMax M2.5’를 출시
MiniMax M2.5는 코딩, 도구 활용과 탐색, 사무 업무 등에서 최고 수준의 성능을 기록했으며 초당 100 
토큰 처리 시 1시간 연속 구동 비용이 1달러에 불과한 비용 효율적 모델로 설계
출처 | Qwen, Pushing Qwen3-Max-Thinking Beyond its Limits, 2026.1.26. Kimi, Kimi K2.5: Visual Agentic Intelligence, 2026.1.27.  
Zhipu AI, GLM-5: From Vibe Coding to Agentic Engineering, 2026.2.12. MiniMax, MiniMax M2.5: Built for Real-World 
Productivity., 2026.2.12.
SPRi AI Brief
 2026년  3월호
12
오픈AI, 연구 논문 작성과 협업 촉진하는 AI 워크스페이스 ‘프리즘’ 출시
KEY Contents
오픈AI가 클라우드 환경에서 과학자들의 공동 연구와 논문 작성을 지원하는 GPT-5.2 기반의 AI 
워크스페이스 서비스 ‘프리즘’을 무료로 출시
연구자들은 프리즘을 통해 초안 작성과 수정, 출판 준비 등의 모든 과정을 공동 연구자와 협업하
 클라우드 기반 LaTeX 워크스페이스에서 처리 가능
프리즘, 클라우드 기반 LaTeX 플랫폼과 GPT-5.2를 결합해 논문 작성과 협업 지원
오픈AI(OpenAI)가 2026년 1월 27일 과학자들의 공동 연구와 논문 작성을 지원하는 
GPT-5.2 기반의 무료 AI 워크스페이스 ‘프리즘(Prism)’을 출시 
오픈AI에 따르면 AI는 다양한 분야의 과학 연구에서 실질적 변화를 만들어 내고 있으나, 논문 초안 
작성과 수정, 수식과 인용 정리, 공동 연구자와의 협업과 같은 일상 작업은 여러 도구로 파편화된 상황
문서 편집기와 PDF, 참고문헌 관리 도구, LaTeX* 처리 도구, 별도의 채팅 화면 등을 오가며 이루어지는 
작업으로 인해 연구 작업의 흐름이 자주 끊기는 문제를 해결하는 첫 단계로서 프리즘을 개발
  논문이나 출판물 등 특수 형식의 문서 작성에 사용되는 프로그램
그림 
  오픈AI ‘프리즘’의 사용 예시
리즘은 오픈AI가 인수한 클라우드 기반 LaTeX 플랫폼 ‘Crixet’을 발전시킨 것으로, 기존의 
문서 작성 및 협업 환경에 GPT-5.2를 결합하여 AI 기반의 논문 작성 작업을 지원
연구자는 논문 초안 작성과 수정, 협업, 출판 준비를 포함한 모든 과정을 이 작업 공간에서 처리할 수
 있으며, GPT-5.2는 논문 구조와 수식, 참고문헌, 주변 맥락을 이해하여 작업을 지원
무제한 공동 작업자를 지원하며, 클라우드 기반으로 제공되어 로컬 LaTeX 설치나 환경 관리가 불필요
오픈AI는 작업 예시로 GPT-5.2 Thinking과의 대화, 문서 전체를 맥락으로 활용한 논문 작성과 수정, 
관련 문헌 검색, 수식·인용·그림 생성 및 분석, 실시간 협업, 음성 기반 편집 등을 제시 
출처 | OpenAI, Prism을 소개합니다, 2026.1.27.
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
13
앤트로픽, 에이전트 협업 기능 강화한 ‘Claude Opus 4.6’ 출시
KEY Contents
앤트로픽의 최신 AI 모델 ‘Claude Opus 4.6’은 100만 토큰 규모의 컨텍스트 창을 지원하고 
코딩과 에이전트의 장기 작업 유지 성능이 향상되었으며 주요 벤치마크에서 최고점을 달성
앤트로픽은 ‘클로드 코드’에 에이전트 간 협업을 지원하는 ‘에이전트 팀’ 기능을 연구용 
프리뷰로 출시하는 등 개발자를 위한 기능 업데이트도 발표 
Claude Opus 4.6, 에이전트 코딩과 추론 등 주요 벤치마크에서 최고점 달성
앤트로픽(Anthropic)이 2026년 2월 5일 100만 토큰의 컨텍스트 창을 지원하면서 코딩 성능과 
에이전트의 장기 작업 유지 기능이 개선된 최신 AI 모델 ‘Claude Opus 4.6’을 출시   
클로드 오퍼스 4.6은 더욱 정교한 계획 수립, 에이전틱 작업의 장시간 유지, 대규모 코드베이스에서의 
안정적인 동작이 가능하도록 설계되었으며, 향상된 코드 검토 기능으로 자체 오류도 조기에 발견
오퍼스 계열 모델 최초로 베타 버전 기준 100만 토큰 규모의 컨텍스트 창을 지원하며, 향상된 성능으로 
재무 분석, 조사, 문서·스프레드시트·프레젠테이션 작성 등 다양한 일상 업무를 수행 가능
Claude Opus 4.6은 주요 벤치마크에서 최고 성능을 기록했으며, 일례로 Terminal-Bench 2.0
(에이전트 코딩)과 복잡한 추론 과제를 다루는 ‘인류의 마지막 시험(HLE)’에서 최고점을 달성* 
  Terminal-Bench 2.0 기준 Opus 4.6: 65.4%, GPT-5.2: 64.7%, Gemini 3 Pro: 56.2%
     Humanity’s Last Exam(with tools) 기준 Opus 4.6: 53.0%, GPT-5.2: 50.0%, Gemini 3 Pro: 45.8%
금융·법률 등 경제적 가치가 높은 지식 작업 수행 능력을 평가하는 GDPval-AA에서는 기존 최고 
점수 모델 GPT-5.2보다 약 144 엘로(Elo) 포인트*, 이전 모델인 오퍼스 4.5보다 190 엘로 포인트 우세 
  경쟁자의 상대적 실력을 수치화해 승패를 평가하는 순위 체계
방대한 텍스트에서 숨겨진 정보를 찾아내는 모델의 능력을 평가하는 MRCR v2(100만 토큰, 
8-니들 변형) 평가에서도 76%를 기록해 18.5%에 그친 소네트 4.5(Sonnet 4.5)를 크게 능가
앤트로픽은 Claude Opus 4.6의 성능 향상에도 안전성은 유지되고 있다며, 모델 정렬에서 가장 
어난 모델인 Claude Opus 4.5와 동등한 수준의 정렬 성능을 나타냈다고 강조 
클로드 코드에서 AI 에이전트 협업 기능 ‘에이전트 팀’ 연구용 프리뷰 출시
이번 업데이트에서는 클로드 코드(Claude Code)에서 여러 에이전트가 병렬로 조정·협업하는 
‘에이전트 팀(Agent Team)’ 기능을 비롯한 개발자를 위한 기능도 대폭 강화
연구용 프리뷰로 제공되는 에이전트 팀 기능은 하나의 에이전트가 순차적으로 작업을 처리하는 대신 
복잡한 작업을 세분화해 복수의 에이전트가 개별 작업을 처리하고 다른 에이전트와 직접 협업도 가능 
API에서는 압축(Compaction) 기능을 통해 자체 문맥을 요약하고 시간의 제한 없이 장시간 실행되는 
작업을 수행할 수 있으며, 모델이 상황에 따라 추론 수준을 조절하는 ‘적응형 사고’ 기능도 지원
출처 | Anthropic, Introducing Claude Opus 4.6, 2026.2.5.
SPRi AI Brief
 2026년  3월호
14
TSMC, 일본 구마모토현에서 3나노급 반도체 공장 건설 계획  
KEY Contents
세계 최대 파운드리 기업 TSMC가 일본 구마모토현에 건설 중인 공장에서 원래 계획한 
6/7나노급 구형 칩 대신 AI 등의 첨단 산업에 사용되는 3나노급을 생산하겠다고 발표 
이는 일본 최초의 3나노급 반도체 양산 계획으로, TSMC는 공정 변경에 따라 이번 공장에 대한 
자본 투자를 기존 122억 달러에서 170억 달러로 확대할 계획  
다카이치 내각과 만난 TSMC 회장, 일본 최초의 3나노급 공정 생산 계획 발표
대만 TSMC가 2026년 2월 5일 일본 구마모토현에서 3나노 칩을 대량 생산할 계획이라고 발표
이는 일본 내 최초의 3나노급 반도체 양산 계획으로, 일본을 방문한 TSMC의 웨이저자(魏哲家) 회장은 
다카이치 사나에 일본 총리와 회담을 갖고 이번 계획을 공개 
다카이치 총리는 일본 정부가 위기관리와 경제 성장을 뒷받침할 AI와 반도체 투자에 집중하고 있는 
상황에서 이번 TSMC의 결정이 매우 고무적이라며, 경제 안보 측면에서 중요한 이번 계획에 기대를 표시
2024년 말 양산을 시작한 구마모토 제1공장은 구형 칩을 생산 중으로, 제2공장에서 생산되는 첨단 칩은 
다카이치 내각이 전략적 중요 분야로 지정한 AI와 로봇공학, 자율주행 분야에 사용될 전망
이번 계획으로 일본 내 반도체의 안정적 공급이 가능해질 전망으로, 반도체, AI, 디지털 분야에 대한 
투자를 우선시하는 일본 정부는 보조금과 기타 인센티브를 통해 일본 내 공장 유치에 노력을 집중 
TSMC는 구마모토현에 건설하는 제2공장에서 2027년 말 가동을 목표로 구형 6/7나노급 칩을 
생산할 예정이었으나, 전 세계적인 AI 칩 수요 급증에 따라 3나노급 공정으로 변경
최근 엔비디아(NVIDIA), 애플(Apple) 등 TSMC의 주요 고객사들이 첨단 AI 수요에 대응해 첨단 반도체 
 공정으로 전환을 가속화하면서 6/7나노 칩에 대한 수요가 급감
TSMC는 2025년 12월 초 수요 변화에 대응한 공장 재설계를 위해 제2공장 건설을 중단했으며, 당시 언론 
보도에 따르면 TSMC는 4나노급으로 공정 변경을 고려했으나 3나노급으로 최종 결정 
이번 계획 변경에 따라 TSMC는 제2공장에 대한 자본 투자를 기존 122억 달러에서 170억 달러로 확대할 
계획이며, 계획 변경을 공식적으로 결정한 후 경제산업성과 협의를 진행할 예정 
TSMC, AI 버블 우려에도 자본 지출을 늘려 3나노 칩 제조 확대 계획
TSMC는 현재 대만에서 3나노 칩을 생산하고 있으며, 2027년에는 미국 애리조나에 새로 건설하는 
공장에서도 생산을 시작할 계획으로, AI 버블 우려에도 TSMC는 AI 수요 증가가 현실이라고 강조 
TSMC는 2026년 1월 AI 수요 증가에 따른 매출 확대에 따라 2026년 자본 지출을 최대 40%가량 늘릴 
계획이라고 밝혔으며, 이에 따라 2025년 400억 달러에서 올해는 최대 560억 달러로 증가 전망
출처 | The Washington Post, TSMC to make advanced AI semiconductors in Japan in boost for its chipmaking ambitions, 2026.2.5.
The Japan News, TSMC to Produce 3-Nanometer Semiconductors in Japan’s Kumamoto Pref.; Takaichi Pledges Support in 
Meeting with Executives, 2026.2.5.
Semicon Eletronics, TSMC's Kumamoto Second Plant Halted Work: Upgrade to 4nm Technology, 2025.12.15.
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
15
오픈AI, 에이전트형 코딩 AI 모델 ‘GPT-5.3-Codex’ 공개 
KEY Contents
오픈AI가 이전 버전 대비 처리 속도가 25% 개선되고 최첨단 코딩 성능과 추론 능력을 
갖춘 에이전트형 코딩 모델 ‘GPT-5.3-Codex’를 출시
GPT-5.3-Codex는 실제 소프트웨어 엔지니어링을 다루는 벤치마크에서 최고점을 달성했으며, 
코딩 작업뿐 아니라 소프트웨어 개발 수명주기 전반의 작업을 지원  
GPT-5.3-Codex, 코딩을 넘어 소프트웨어 개발 수명주기 전반의 작업 지원
오픈AI가 2026년 2월 5일 GPT-5.2의 추론 및 전문 지식 역량과 GPT-5.2-Codex의 최첨단 
코딩 성능을 하나로 결합하고 처리 속도도 25% 개선된 ‘GPT-5.3-Codex’를 출시
이 모델은 단순한 코드 작성을 넘어 리서치, 도구 활용, 복잡한 작업 등을 장시간에 걸쳐 처리할 수 있으며 
개발자와의 상호작용을 강화해 동료와 협업하듯이 작업 방향을 유연하게 조율 가능
GPT-5.3-Codex는 코딩과 에이전트 작업, 실제 업무 역량을 평가하는 벤치마크에서 최고 수준의 성능을 
달성했으며*, 특히 코딩 작업 시 이전 모델보다 더 적은 코딩으로 동일한 성과를 기록
  SWE-Bench Pro(Public) 기준 GPT-5.3-Codex(xhigh): 56.8%, GPT-5.2-Codex(xhigh): 56.4%
오픈AI는 모델 훈련 과정과 데이터 파이프라 구축에 GPT-5.3-Codex를 활용해 개발 속도를 크게 개선 
오픈AI는 이번 모델이 단순히 코드를 작성하고 검토하는 에이전트를 넘어 개발자와 전문 
직군이 컴퓨터에서 수행하는 거의 모든 작업을 처리하는 에이전트로 확장되었다고 강조  
최첨단 코딩 성능뿐 아니라 시각적 완성도를 높이고 장시간 작업을 효율적으로 이어가는 능력이 
향상되어 며칠에 걸쳐 복잡하고 기능적인 게임과 앱을 처음부터 구현 가능
일상적 웹사이트 제작 요청 시에도 GPT-5.2-Codex보다 사용자의 의도를 더 정확히 이해하여 
단순한 지시를 받아도 더욱 완성도가 높고 실제 서비스에 바로 활용할 수 있는 페이지를 제작 
디버깅, 배포, 모니터링, 카피 수정, 사용자 리서치, 테스트 등 소프트웨어 개발 수명주기 전반의 
작업을 지원하도록 설계되어, 슬라이드 자료 제작이나 데이터 분석 등의 다양한 작업도 수행 가능
소프트웨어 취약점을 식별하도록 직접 훈련되어 사이버 보안 역량 강화
GPT-5.3-Codex는 오픈AI의 ‘준비성 평가 프레임워크*’의 사이버 보안 관련 작업 항목에서 
‘고급’ 수준의 역량을 최초로 달성했으며 SW 취약점을 식별하도록 훈련되어 사이버 방어 역량을 강화
  * Preparedness Framework: AI 모델이 사회에 미칠 수 있는 위험을 사전에 평가·관리하기 위한 내부 안전 기준체계
아직 사이버 공격을 처음부터 끝까지 자동화할 수 있다는 뚜렷한 증거는 없으나, 예방적 접근을 위해 
안전성 학습, 모니터링 자동화, 고급 기능에 대한 신뢰 기반 접근 제어 등 종합적인 사이버 보안 
체계를 적용
오픈AI는 방어와 공격에 모두 사용될 수 있는 사이버 보안 기술의 이중적 성격을 고려해, 증거 기반의 
반복적 접근 방식을 채택해 방어 측의 취약점 탐지와 개선 역량을 강화하고 오용을 억제할 방침 
출처 | OpenAI, GPT‑5.3‑Codex 소개, 2026.2.5.
SPRi AI Brief
 2026년  3월호
16
마이크로소프트, AI 에이전트 보안을 위한 가시성 확보 강조
KEY Contents
마이크로소프트가 AI 보안 보고서 ‘사이버 펄스’를 통해 AI 에이전트의 급격한 확산에 
따라 보안 및 컴플라이언스 통제 수준을 넘어서는 가시성 격차를 새로운 비즈니스 위험으로 제시
마이크로소프트는 AI 에이전트 가시성 확보를 위해 레지스트리 ▲접근 제어 ▲시각화 
▲상호운용성 ▲보안의 5대 핵심 역량의 구축이 중요하다고 강조
AI 에이전트의 급격한 확산으로 가시성을 벗어나 운용될 위험 증가
마이크로소프트(이하 MS)가 2026년 2월 10일 AI 보안 보고서 ‘사이버 펄스(Cyber Pulse)’를 
공개하고, AI 에이전트의 급격한 확산으로 가시성 격차라는 신규 비즈니스 위험이 등장했다고 분석
MS에 따르면 전 세계적으로 사람과 에이전트가 협업하는 트렌드가 확산하고 있으며, 실제로 포춘 500대 
기업의 80% 이상이 로우코드/노코드 도구로 에이전트를 구축해 운영 중인 것으로 확인
지역별 활성 에이전트 비중은  유럽·중동·아프리카 42%, 미국 29%, 아시아 19%, 아메리카 10% 순으로 
나타났고, 산업별로는 소프트웨어·기술 16%, 제조업 13%, 금융 서비스 11%, 리테일 9%의 비중을 기록
에이전트의 확산으로 보안 및 컴플라이언스 통제 수준을 넘어서는 사례가 증가하면서, 
IT나 보안팀의 가시성을 벗어나 운용되는 ‘섀도우 IT(Shadow IT)’ 리스크가 확대
MS가 의뢰한 조사에 따르면 직원의 29%가 미승인 AI 에이전트를 업무에 사용한 경험이 있다고 답했으며, 
생성형 AI 보안 통제를 도입한 조직은 47%에 불과해 가시성이 부족한 상태
악의적 행위자가 에이전트의 접근 권한과 범위를 악용할 경우, 조직 내 보안 취약점으로 작용할 수 
있으며, 실제로 MS AI 레드팀은 인터페이스 조작을 통해 에이전트가 유해한 지침을 따르는 
사례를 파악
AI 에이전트 보안의 출발점인 가시성 확보를 위한 핵심 역량과 실행 과제 제안
선도 기업들은 AI 에이전트 도입을 계기로 거버넌스 현대화 및 불필요한 데이터 공유의 
최소화와 함께 전사적 통제 체계를 단계적으로 강화함으로써 에이전트 보안을 경쟁우위로 전환
에이전트 보안의 출발점인 가시성은 ▲에이전트를 식별·관리하는 ‘레지스트리’ ▲최소 권한 원칙을 
적용하는 ‘접근 제어’ ▲리스크와 행위를 실시간 모니터링하는 ‘시각화’ ▲플랫폼 간 일관된 운영을 
지원하는 ‘상호 운용성’ ▲내·외부 위협으로부터 에이전트를 보호하는 ‘보안’ 등 5가지 핵심 영역으로 구성
에이전트 위험을 최소화하기 위해서는 AI 에이전트별 운영 범위 정의, 데이터 보호 체계 강화, 승인된 
AI 플랫폼의 제공, 사고 대응 계획 수립, 규제 준수계획 수립, 전사 통합 리스크 관리 등도 추진 필요 
MS는 AI 에이전트 도입 경쟁에서 앞서 나가려면 조직 전반이 협력해 가시성·거버넌스·보안을 
중심에 두고 이를 유기적으로 실행하는 체계를 갖추어야 한다고 강조
특히 모든 에이전트를 단일한 중앙 제어 평면에서 일관되게 관리 및 관측할 수 있는 환경 조성 필요 
출처 | Microsoft, Cyber Pulse: An AI Security Report, 2026.2.10.
Microsoft, 80% of Fortune 500 use active AI Agents: Observability, governance, and security shape the new frontier, 2026.2.10.
기술
연구
2026년 3월호
SPRi AI Brief
 2026년  3월호
18
앤트로픽 연구 결과, 개발자의 AI 사용은 실력 향상에는 역효과
KEY Contents
앤트로픽의 연구에 따르면 코딩 과제에 AI를 활용한 개발자들은 이해도 평가 시험에서 AI를 
활용하지 않은 개발자보다 17%p 낮은 점수를 기록했으며 특히 디버깅 영역에서 점수 차가 최대
앤트로픽은 기업의 성과 압박을 받는 개발자들이 AI를 이용한 빠른 작업 완료에만 집중하면 
AI로 작성된 코드 검증에 필요한 역량 향상이 저해될 수 있다고 지적
AI 사용 그룹, 과제 이해도 평가에서 AI 비사용 그룹보다 17%p 낮은 점수 기록  
앤트로픽이 소프트웨어 개발자를 AI 사용 그룹과 비사용 그룹으로 나누어 코딩 과제를 수행하게 
한 뒤, 이해도 평가를 통해 AI 사용이 인간의 실력 향상에 미치는 영향을 연구한 논문을 발표 
코딩 과제로는 실험 참가자들에게 익숙하지 않은 파이썬 라이브러리 Trio를 사용한 두 가지 기능의 
코딩을 요구했으며, 코딩 과제를 최대한 빨리 완료하도록 한 후 이해도 평가 시험*을 실시 
  디버깅, 코드 읽기, 코드 작성, 개념 이해의 네 가지 유형으로 구성
실험 결과, 코딩 과제에 AI를 사용한 그룹은 AI 비사용 그룹보다 평균 약 2분 더 빨리 과제를 
완료했으나 통계적으로 유의미한 차이는 없었으나, 시험 점수에서는 유의미한 차이를 기록  
AI 사용 그룹의 평균 점수는 50%였으나 AI 비사용 그룹의 점수는 67%를 기록해 17%p 차이를 나타냈으며, 
특히 두 그룹 간 점수가 가장 크게 벌어진 영역은 디버깅으로 확인 
AI 사용 그룹 중 평균 점수 40% 미만의 낮은 점수를 받은 참가자들은 코드 생성이나 디버깅에서 AI에 
과도하게 의존하는 경향을 보였으며, 이는 독립적 사고력과 이해 부족을 반영
AI 사용 그룹 중 평균 점수 65% 이상의 높은 점수를 받은 참가자들은 코드 생성과 개념적 질문에 모두 
AI를 활용했으며, 일례로 AI 개념적 질문만 하고 과제를 이해해 스스로 풀고 오류도 직접 해결 
그림
  코딩과 이해도 퀴즈에서 AI 사용의 영향 실험 결과 요약 
앤트로픽은 이번 연구 결과에 대해, 기업의 실적 압박으로 개발자가 AI에 의존해 최대한 빠르게 
작업을 끝내는 데 집중할 경우, AI로 작성된 코드 검증에 필요한 기술 역량이 희생될 수 있다고 경고  
기업들은 AI 도구의 대규모 도입 방식을 신중하게 고려해야 하며, 개발자들이 업무를 수행하는 과정에서 
지속적으로 역량을 쌓고 자신들이 구축한 시스템을 제대로 감독할 수 있는 설계 방식을 고려 필요 
출처 | Anthropic, How AI assistance impacts the formation of coding skills, 2026.01.29.
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
19
네이처, 과학 출판에서 책임 있는 AI 활용 가이드라인 제시
KEY Contents
네이처는 과학 연구에서 생성형 AI 사용이 늘어남에 따라 책임 있는 AI 활용을 위한 가이드라인을 
마련하고, AI 저작권에 대하여 LLM은 저자가 될 수 없고 사람이 최종 책임을 진다고 강조
생성형 AI 이미지나 동영상은 원칙적으로 허용하지 않으며, 동료 평가 시에도 생성형 AI의 한계 
및 원고에 포함된 민감한 내용을 고려해 원고를 생성형 AI 도구에 입력해서는 안 된다고 규정 
네이처, AI 저작권과 AI 생성 이미지 사용, 동료 심사에서 AI 사용 기준 마련
국제 학술지 네이처(Nature)가 2026년 2월 11일 사설을 통해 과학 출판에서 AI를 책임 있게 
활용하기 위한 가이드라인을 제시하고 생성형 AI의 투명한 사용을 강조
실재하지 않는 정보를 그럴듯하게 만들어 내는 환각, 편향되거나 부정확한 학습과 같은 생성형 AI의 
위험은 이미 반복적으로 제기되어 왔으나, 이러한 단점에도 불구하고 생성형 AI는 수많은 장점을 보유
언어나 글쓰기에 어려움을 겪는 과학자들에게는 논문 작성과 의사소통 개선에 도움을 줄 수 있으며, 
연구에 더 많은 시간을 투입할 수 있도록 반복적인 코드 작성과 같은 지루한 작업의 자동화를 지원
이에 네이처는 과학 논문 출판에서 AI 사용이 불가피한 흐름임을 인식하고, ①AI 저작권 ②생성형 AI 
이미지 ③동료 평가자의 AI 활용 ④편집의 네 가지 영역에서 AI 사용 가이드라인을 제시  
(AI 저작권) 생성형 AI는 책임의 주체가 될 수 없어 저자로 등재할 수 없으며, LLM 사용 시에는 방법론  
섹션에 적절히 문서화하되, 단순한 원고 교정 용도로 사용 시에는 명시 불필요  
AI를 이용한 교정에 텍스트의 단어 선택이나 서식 변경 등은 포함될 수 있지만 자율적인 콘텐츠 생성은 
포함되지 않으며, 모든 경우에 최종 텍스트 버전에 대한 책임은 사람에게 있음을 강조 
(생성형 AI 이미지) 출판사로서 현행 저작권법과 출판 윤리에 관한 모범 사례를 엄격히 준수하며, 
법적 문제가 아직 해결되지 않은 상황에서 AI 생성 이미지와 동영상의 사용은 허용 불가
단, 네이처와 계약된 기관에서 법적으로 허용 가능한 방식으로 제작된 이미지는 예외로 하며, AI 자체를 
주제로 하는 기사에서 다루는 이미지 및 동영상은 개별 사례별로 검토할 방침*
  모든 예외 사항은 이미지 영역 내에 AI로 생성되었음을 명확히 표시 필요
특정 과학 데이터셋을 기반으로 개발된 생성형 AI 도구의 사용 시에는 해당 데이터의 정확성을 검증 및 
확인할 수 있어야 하며, 윤리와 저작권 및 사용 약관의 제한 사항을 모두 준수 필요 
(동료 평가자의 AI 활용생성형 AI 도구의 한계(최신 정보 부족, 편향성 등) 및 외부에 공개해서는 
안 되는 민감하거나 독점적인 내용을 고려해 동료 평가자는 원고를 생성형 AI에 업로드 불가 
원고 검토 시 AI 도구를 사용한 평가자는 평가 보고서에 해당 도구의 사용 사실을 투명하게 명시해야 하며, 
네이처는 동료 평가자에게 안전한 AI 도구를 제공할 방안을 모색할 방침 
(편집 용도) 네이처는 요약이나 요점과 같은 부가 콘텐츠 생성을 위해 자체 개발한 도구를 사용할 수 
있으며, 이 경우 출판 기준을 충족하기 위해 저자나 편집자가 항상 사실 확인을 진행
출처 | Nature, Using AI responsibly in scientific publishing, 2026.2.11.
SPRi AI Brief
 2026년  3월호
20
앤트로픽, 책임 있는 확장 정책을 3.0 버전으로 업데이트
KEY Contents
앤트로픽의 ‘책임 있는 확장 정책(RSP) 3.0’은 AI 위험 관리에서 단독 기업의 한계를 인정하고 
자체 안전 계획과 업계 전반을 향한 권고를 분리해 더욱 현실적인 안전 거버넌스를 추진
프런티어 안전 로드맵을 통해 투명성을 확보하고 자발적 책임을 강화하는 한편, 정기적인 
리스크 보고서 발간과 외부 전문가 집단을 통한 검증을 제도화
2년 반의 시행을 통해 확인된 성과와 한계를 바탕으로 RSP 개정 추진
앤트로픽은 2026년 2월 24일 자사의 자발적 AI 안전 관리 체계인 ‘책임 있는 확장 
정책(Responsible Scaling Policy, RSP)의 세 번째 개정판을 발표
2023년 9월 처음으로 RSP를 도입한 이래 2년 반 동안의 시행 과정에서 얻은 교훈을 바탕으로 기존 정책을 
통한 성과를 강화하고 단점을 개선하며, 의사 결정 과정의 투명성과 책임성을 높이고자 정책을 개정
(기존 정책의 성과) RSP의 핵심 원칙은 AI 모델의 성능이 특정 임계치를 초과하면 그에 상응하는 
더욱 엄격한 안전 조치를 의무화하는 방식으로, 이를 ‘AI 안전 등급(AI Safety Level)*’으로 구현
  ASL-1은 기본적 기능만 갖춘 시스템, ASL-2는 대부분 현행 모델에 해당하며 실질적 위협은 낮은 수준, ASL-3은 
화학·생물학적 위험에 대응하는 강화된 안전장치가 필요한 단계로 규정   
앤트로픽은 RSP를 통해 내부적으로 강력한 안전장치의 탑재를 제도화했으며, 오픈AI와 구글 등 다른 AI 
기업들의 유사한 안전 프레임워크 채택 및 주요국 정부의 AI 정책 개발에도 이바지
(한계) RSP 성능 임계치의 모호성과 정부 규제의 지체 등으로 인해 기존 정책의 한계도 확인
모델 성능이 임계치에 근접하더라도 이를 명확히 초과했는지 판단하기 어려운 모호성이 있으며, 일례로 
현행 모델은 생물학 지식 측면에서 단순 테스트를 통고할 수 있지만 실제 위험 수준을 단정할 
증거는 부족
지난 3년간 AI 성능의 급속한 발전에도 불구하고 정부의 AI 안전 정책은 더디게 진행되고 있으며, 오히려 
정책 기조의 방향은 AI 경쟁력과 경제 성장을 우선시하는 방향으로 기울어진 상태
또한 ASL-3 수준의 보안 조치는 회사 내부적으로 구현할 수 있지만, 그보다 상위 수준의 ASL은 아직 
명확히 정의되지 않은 상태로 단일 기업 차원을 넘어 업계 전반의 공동 대응이 불가피할 전망
프런티어 안전 로드맵 도입 및 리스크 보고서 발간으로 투명성과 안전 책임 강화
앤트로픽은 이러한 한계를 반영하여 세 가지 구조적 변화를 도입하는 방향으로 RSP를 재구성
(위험 완화 방안의 분리) 기존 RSP가 앤트로픽의 자체 의무와 업계 전반에 대한 권고가 혼재된 
구조였던 반면, 개정판은 독자적으로 이행할 조치와 AI 업계 전반이 협력해 대응할 수 있는 포괄적 
권고안을 구분
(프런티어 안전 로드맵의 도입) 투명성 확보와 자발적 책임 강화를 위해 보안, 정렬, 안전장치, 정책의 4개 
영역에 걸쳐 구체적이고 측정 가능한 목표를 공개적으로 설정하고 이행 현황을 공개
(리스크 보고서 및 외부 검토) 매 3~6개월마다 모델의 성능, 위협 모델, 위험 완화 조치를 종합한 리스크 
보고서를 발간하고, AI 안전 연구에 정통한 외부의 전문가 집단이 보고서를 검증
출처 | Anthropic, Anthropic’s Responsible Scaling Policy: Version 3.0, 2026.2.24.
인력
교육
2026년 3월호
SPRi AI Brief
 2026년  3월호
22
AI 채용의 부정적 영향과 개선 방안
KEY Contents
고용주의 약 90%가 1차 후보자에 AI를 활용하는 한편, 구직자들도 이력서와 자기소개서
 작성, 면접 준비에 AI를 사용하면서 부정적 영향도 확대
AI 채용의 목표는 인간을 완전히 배제하는 것이 아니라 인간과 AI 간 협력 체계의 구현으로, |
의미 파악과 동기 평가, 윤리적 판단 등 인간 고유의 역할은 대체 불가능 
채용 시장에서 기업과 구직자의 AI 활용의 보편화로 부정적 영향도 확대
세계경제포럼(WEF)의 2025년 8월 발표에 따르면 고용주의 약 90%가 1차 후보자 선별에 
AI를 활용하는 등 채용 분야에서 AI가 광범위하게 활용되는 추세
일례로 레스토랑 체인 치폴레(Chipotle)는 대화형 AI를 활용해 채용 속도를 약 75% 높였으며, 아마존은 
자체 개발 AI 알고리즘을 바탕으로 지원자의 전문 역량과 소프트 스킬, 이력서를 기반으로 인재를 선별
링크드인(LinkedIn), 몬스터(Monstoer), 집리크루터(ZipRecruiter) 등의 주요 채용 플랫폼도 AI 기반 
알고리즘을 광범위하게 활용해 기업에 적합한 후보자를 추천
구직자들도 대부분 생성형 AI를 활용해 맞춤형 이력서와 자기소개서를 작성하고 면접 답변을 준비하며, 
알고리즘을 통해 몇 시간 만에 수백 개의 채용 공고에 지원하면서 채용 시장은 자동화 경쟁의 장으로 변모 
그러나 AI가 채용 시장을 획기적으로 변화시킬 것이라는 기대와 달리, 현재의 채용 시장은 
여전히 비효율적이며 AI 채용의 영향으로 인한 부정적 영향도 다수 확인   
AI가 외형만 그럴듯하게 포장된 후보자를 대량 생산하는 데 일조하면서, 기업들은 지원자뿐 아니라 자체 
선별 시스템 자체도 불신하게 되어 오히려 대면 면접과 추천 등 과거의 채용 방식으로 회귀
AI는 대규모 후보자 집단을 빠르고 효율적으로 처리할 수 있지만 정확성과 예측 타당성 측면에서 기존의 
평가 도구를 능가한다는 설득력 있는 증거는 부재하며, 대부분 중요 직무에서 인간의 판단이 필수적
채용 분야에서 예측형 AI의 엄격하고 객관적인 성과 데이터도 부족하며, AI 모델은 최고의 성과를 내는 
사람을 식별하기보다는 인간의 선호도에 부합하는 사람을 학습하는 경우가 더 일반적
적절한 감독 없이 AI를 도입할 경우, 과거 채용이나 승진 데이터를 기반으로 학습된 모델은 의도치 않게 
불평등한 패턴을 학습해 기존 규범에서 벗어난 지원자에게 불이익을 줄 가능성도 제기
채용 절차에서 인간을 배제하는 대신, 인간의 판단을 보완하는 역할로 AI 사용 필요 
AI의 여러 단점에도 불구하고, 과학적 엄밀성과 명확한 의도를 바탕으로 AI 사용 시 인간의 |
판단을 보완해 일관된 기준을 적용함으로써 채용 절차에서 건설적 역할을 발휘 가능  
AI는 채용 절차에서 대규모 지원자 선별과 1차 면접 절차의 표준화, 부적합 지원자 판별 등에 사용될 수 
있으나 의미 해석, 동기 평가, 윤리적 판단, 문화적 해석 등 인간의 고유한 역할은 대체 불가
AI 채용의 목표는 인간을 완전히 배제하는 것이 아니라 인간의 역할을 더욱 지능적으로 배치하는 것으로, 
AI로 절약된 시간을 심도 있는 대화와 평가 개선, 책임 있는 의사 결정에 재투자 필요       
출처 | Harvard Business Review, AI Has Made Hiring Worse—But It Can Still Help, 2026.1.26.
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
23
AI 시대 근로자의 판단력 향상을 위해 업무 방식의 재설계 필요
KEY Contents
판단력 함양에 필수적인 단순 반복 업무를 생성형 AI가 처리하게 되면서, 경험이 부족한 
신입 직원들은 AI가 생성한 결과물 판별에 필수적인 판단력을 기를 기회를 상실
AI 시대의 조직들은 근로자의 판단력을 의도적으로 발달시킬 수 있도록 의사 결정권을 명확히 
하고 결과에 대한 책임을 부여하는 등 업무 방식의 재설계에 나설 필요 
생성형 AI 도입으로 판단력을 기르는 데 필요한 경험의 기회 축소
생성형 AI 기술이 업무 흐름의 상당 부분을 자동화하는 오늘날의 업무 환경에서 근로자의 판단력을 
어떻게 유지하고 함양할 것인지는 기업의 장기적 생존과 직결되는 중대한 과제로 부상 
대부분 조직에서 판단력은 직접 가르치는 것이 아니라 업무 구조의 부산물로 자연스럽게 생겨나며, 가령 
신입 직원은 다양한 업무를 수행하는 과정에서 관리자의 피드백과 코칭으로 판단력을 함양
그러나 AI의 확산으로 신입 직원들은 AI를 활용해 업무의 상당 부분을 빠르고 대량으로 처리할 수 있게 
되었으며, 결과물을 직접 작성하기보다는 검토만 하는 경우가 일반적
판단력을 기르기 위한 업무 구조의 핵심 특징은 의사 결정에 대한 실질적 책임과 반복이지만, 
AI가 대신하는 업무가 갈수록 많아지면서 판단력을 기르는 데 필요한 경험이 사라지는 추세 
생성형 AI를 활용해 좋은 결과를 얻으려면 AI의 응답을 지속적으로 평가하고 수정하는 과정을 거쳐야 
하지만, AI는 판단의 필요성을 증가시키는 동시에 판단을 내리는 데 필요한 경험을 약화시키는 경향
이에 따라 풍부한 경험을 갖춘 숙련자들은 AI 생성물의 오류를 즉각 식별하고 교정하여 생산성을 크게 
높일 수 있지만, 실무 경험이 부족한 신입 직원들은 생성형 AI의 응답을 검증하기 어려움
조직 전체적으로 볼 때, 신입 직원은 판단력 훈련을 위한 어려운 실무 경험을 하지 못하고, 중간 
관리자들은 제대로 배우지 못한 업무를 감독하게 되면서 불확실한 상황에 대응할 판단력을 발휘할 
직원이 감소
특히 AI가 핵심 업무를 자동화하면서 풍부한 경험을 갖춘 소수의 고위 경영진에게 판단을 의존하게 되고, 
차세대 리더 중 상당수는 이러한 능력을 갖추지 못하면서 리더십 파이프라인도 약화 우려 
근로자의 판단력 함양을 위해서는 인간의 참여 보장을 넘어 업무 방식의 재설계 필요
AI 시대의 조직은 단순히 근로자를 의사 결정 절차에 포함하는 수준을 넘어, 근로자의 판단력을 
의도적으로 발달시킬 수 있도록 업무 방식의 재설계에 나설 필요 
다수의 조직이 자동화 우려에 대응해 ‘인간의 참여 유지’라는 원칙에 집중하고 있으나, 이는 위험 관리에 
최적화된 방식으로, 판단력이 발달할 수 있는 환경을 조성하는 근본적인 문제 해결에는 한계
실제 중요한 결정을 내리는 사람이 누구인지를 분명히 하고, 직원들에게 선택에 대한 책임을 지도록 하며, 
판단력을 키우는 데 도움이 되는 직무를 확인해 판단력을 체계적으로 함양 필요   
출처 | Harvard Business Review, How Do Workers Develop Good Judgment in the AI Era?, 2026.2.3.
SPRi AI Brief
 2026년  3월호
24
AI 확산에 직면해 기술·현장직으로 전환하는 사무직 근로자 증가
KEY Contents
생성형 AI에 의한 일자리 대체 우려로 인해 작가나 편집자 등의 사무직 종사자들이 자동화 
가능성이 상대적으로 낮은 기술직이나 현장직으로 전환하는 사례가 증가 추세
학계에서는 장기적으로는 AI가 기술직을 포함한 광범위한 직종에 영향을 미칠 것으로 
예상하는 한편, AI로 인한 대규모 실업이 일어날 가능성은 희박하다며 과도한 우려를 경계
일부 사무직 종사자들, AI로 자동화될 가능성 낮은 직종으로 전환 모색 
생성형 AI의 확산으로 사무직 근로자들 사이에서 업무 대체 및 임금·고용 불안이 가시화되면서 
일부 근로자들이 기술직이나 현장직 등 상대적으로 자동화 가능성이 낮은 분야로 전환하는 추세
작가, 학술 편집자, 안전 관리자 등의 화이트칼라 전문직 종사자들은 AI 도입으로 인한 일자리 위협을 
느끼면서 심리치료사, 제빵사, 전기기술직 등으로 직종을 변경하거나 변경을 고려 
미국 캘리포니아에 거주하는 한 프리랜서 작가는 AI 확산으로 일거리가 급감한 한편, AI가 
작성한 콘텐츠를 수정하는 편집 작업을 맡으면서 소득 대비 업무 부담은 가중되어 직업 전환을 모색
AI가 작성한 콘텐츠 편집에 낮은 단가가 책정되었으나 작성된 내용의 사실 여부를 일일이 확인하느라 작업 
시간은 오히려 두 배로 늘었다며 안정적인 생계유지를 위해 대학에서 심리치료사 교육을 받는 중
미국 출신으로 현재 스웨덴에 거주하는 52세의 학술 편집자 역시 AI로 인한 변화에 대응해 제빵사로 전직
영국 런던의 직업교육기관 캐피털 시티 칼리지에 따르면 전기 기술자, 요리, 보육 등의 분야에서 
전문 자격증을 취득하려는 사람들이 모든 연령대에서 꾸준히 증가 추세 
최근 대학을 졸업한 청년층을 중심으로 실업률이 증가하는 가운데, AI가 대체할 수 없는 일자리를 
찾는 사람들이 늘어나면서 기존 직업 경로에서 벗어나 새로운 직업을 추구하는 흐름이 대두
AI는 아직 초급 일자리에만 일부 영향, 미래에도 전문가의 가치는 유지 전망
옥스퍼드 인터넷 연구소는 이러한 추세와 관련해, 현장 업무의 자동화가 상대적으로 어렵다는 점을 
인정하면서도 장기적으로 AI가 기술직을 포함한 광범위한 산업에 영향을 미칠 것으로 예측
현재까지는 AI로 인한 대규모 일자리 대체보다는 일부 초급 일자리를 중심으로 영향이 나타나는 단계로, 
미리 AI에 대체될 것이라는 두려움을 느낄 필요는 없다고 지적 
또한 현재 AI의 영향을 상대적으로 적게 받는 직종의 대부분은 육체적으로 고된 노동을 감당해야 하므로 
이미 나이가 든 근로자들에게는 신체 부담에 적응해야 하는 또 다른 문제도 야기 
스 칼리지 런던의 부케 클라인 티스링크(Bouke Klein Teeselink) 박사는 역사적으로 기술 발전이 
있을 때마다 대규모 실업에 대한 우려가 있었지만 실제로 발생한 적은 없었다고 강조
그는 AI가 전문가의 지식을 무용지물로 만들 것이라는 시각에 반대하며, AI가 원하는 작업을 수행하도록 
이끌기 위해서는 전문 지식이 필요하다는 점에서 전문가의 가치는 계속 유지될 것으로 예측
출처 | The Guardian, The big AI job swap: why white-collar workers are ditching their careers, 2026.2.11.
1 정책・법제
2 기업・산업
3 기술・연구
4 인력・교육
25
로버트 라이시 前 미국 노동부 장관, AI로 인한 불평등 확산 경고
KEY Contents
미국 경제학자 로버트 라이시는 AI를 통해 주 3~4일 근무제가 도입되고 근로자의 삶이 개선될 
것이라는 기술업계의 주장에 반박하며 역사적으로 부유층이 생산성 이득을 독점했다고 지적
그는 모든 국민이 AI를 통한 생산성 향상 효과를 누리기 위해서는 노동조합의 부활을 통한 
교섭력 강화, 보편적 기본소득이나 부유세 도입과 같은 정책 대응이 필요하다고 강조    
AI 도입에 따른 근무시간 단축과 근로자의 삶 개선 주장은 허구
미국 노동부 장관을 지낸 경제학자 로버트 라이시(Robert Reich)가 2026년 2월 11일 기고문을 
통해 AI의 혜택이 소수에게 집중되면 대다수 근로자의 생활 수준이 악화될 수 있다고 경고
그는 미국 경제의 순조로운 성장 및 주식 시장의 급등과 대조적으로, 일자리는 의료와 건설 등 일부 산업을 
제외하면 대부분 정체된 상태로 고용률은 10년 만에 최저 수준에 근접하고 있다고 지적
기업 경영진과 기술 업계의 주요 인사들은 AI로 인해 주 3~4일 근무제가 보편화되며 근로자의 삶을 
개선하리라는 장밋빛 전망을 잇달아 내놓고 있지만 필자는 이러한 주장이 순전한 허구라고 반박
그는 노동 생산성이 수년간 꾸준히 증가해 왔지만, 물가상승률을 고려하면 실질 중위 임금은 거의 오르지 
않았으며, 주 4일 근무제가 도입되면 기업들은 4일에 해당하는 급여만 지급할 것이라고 지적  
역사적으로도 2030년까지 기술을 통한 생산성 향상으로 인류가 풍요의 시대를 누리게 될 것이라는 
20세기 경제학자 케인스의 예측과 달리 현실은 정반대의 방향으로 전개 
새로운 기술의 발전은 풍요의 시대 대신 극소수의 초부유층과 생계를 간신히 유지하는 다수로 구성된 
양극화 사회를 만들어 내는 데 일조했으며, AI는 이러한 불평등을 더욱 심화시킬 가능성이 높음
2026년 2월 들어 다우존스 산업평균지수가 사상 처음 5만을 돌파한 가운데, AI 관련 직종을 중심으로 
해고가 증가하고 구인 공고가 급감하는 등, 이미 AI로 인한 불평등은 현실화되는 추세 
AI 기반 생산성 이득을 모든 국민이 누릴 수 있도록 정책적 대응 필요
로버트 라이시는 생산성 향상은 분명한 이점이지만 정작 중요한 과제는 생산성 이익의 분배라며, 
지난 40년간 생산성 향상으로 인한 혜택은 대부분 상위 10% 부유층에게 돌아갔다고 지적
AI는 이제 수백만 명에 달하는 미국 사무직 종사자의 일자리를 위협하고 있으며, 아무런 조치가 없다면 
사무직 일자리는 줄어드는 가운데 생산성 향상으로 인한 혜택은 상위 0.1%가 독점할 위험 
그는 이러한 결말을 막기 위해서는 대부분 미국인이 AI를 통한 생산성 향상 이득을 분배받기 
위한 협상력을 갖추어야 한다며 노동조합의 부활 및 법안 제정 등을 통한 정책적 대응을 강조
양대 정당은 보편적 기본소득, 부유세를 재원으로 한 보육과 노인 돌봄, 보편적 의료 관련 입법을 추진 필요
AI 기반 생산성 향상의 최대 수혜자인 기업 역시 AI 제품과 서비스를 구매할 대중의 구매력 유지에 
경제적 이해관계를 갖는다는 점에서 공정한 분배는 시장의 지속 가능성 유지에 필수적 
출처 | Robert Reich, AI and the Coming Jobless Economy, 2026.2.11.
SPRi AI Brief
 2026년  3월호
26
주요행사일정
기간
행사명
장소
홈페이지
3월
2~5일
MWC26 
 스페인, 바르셀로나
www.mwcbarcelona.com
16~19일
NVIDIA GTC
미국, 산호세
www.nvidia.com/ko-kr/gtc
16~17일
AI Standards Hub Global Summit 2026
스코틀랜드, 글래스고
aistandardshub.org/global-sum
mit-2026
21~22일
AIMLA 2026
호주, 시드니
ccnet2026.org/aimla
4월
21~23일
Microsoft 365 Conference
미국, 플로리다
m365conf.com
23~27일
ICLR 2026
브라질, 
리우데자네이루
iclr.cc
5월
8~10일
IEEE CAI 2026
스페인, 그라나다
www.ieeesmc.org/cai-2026
6월
1~5일
IEEE ICRA 2026
오스트리아, 빈
2026.ieee-icra.org
2~5일
COMPUTEX TAIPEI
대만, 타이베이
computextaipei.com.tw/en
3~7일
CVPR 2026
미국, 콜로라도
cvpr.thecvf.com
8일
WWDC26
미국, 쿠퍼티노
ios27beta.com/wwdc-2026
22~24일
AAAI 2026
서울, 중구
aaai.org/conference/summersy
mposia/suss26
7월
7~10일
[ITU]AI for Good Global Summit
스위스, 제네바
aiforgood.itu.int
8월
15~21일
IJCAI
독일, 베를린
2026.ijcai.org
10월
7~8일
World Summit AI
네덜란드, 암스테르담
worldsummit.ai
11월
17~20일
Microsoft Ignite
미국, 샌프란시스코
ignite.microsoft.com
12월
6~12일
NeurIPS 2026
호주, 시드니
neurips.cc
’27. 1월
6~9일
CES 2027
미국, 라스베이거스
www.ces.tech
26~28일
IEEE AI X VR 2026
일본, 오사카
aivr.science.uu.nl/2026
’27. 2월
3~4일
AI & Big Data Expo Global 2027
영국, 런던
www.ai-expo.net/global
11~12일
WAICF 2026
프랑스, 칸
www.worldaicannes.com
27