오늘 하루 이 창을 열지 않음 X

2025 SW산업전망 컨퍼런스
2024년 12월 3일(화) 13:20~17:20 코엑스 402호

국가 소프트웨어 정책 Think Tank

SPRI 소프트웨어정책연구소








e-book 보기







	
	
	이슈 ISSUE

	
	
		유럽연합 인공지능법(EU AI Act)의 주요내용 및 시사점
		책임 있는 AI를 위한 기업의 노력과 시사점
	
	
	
	
	
	
	포토에세이 PHOTO ESSAY
	
	
		중간-이호준
	
	
	
	
	
	
	포커스 FOCUS

	
	
		디지털 무역 현황 및 이슈
		AI 거버넌스의 글로벌 지형 : AI 선도국 및 글로벌 사우스 국가의 거버넌스 전략 탐색
SW중심사회
<p>목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미국 민권위원회, 연방정부의 얼굴인식 기술 사용에 따른 민권 영향 분석 ▹ 미국 백악관 예산관리국, 정부의 책임 있는 AI 조달을 위한 지침 발표 ▹ 유로폴, 법 집행에서 AI의 이점과 과제를 다룬 보고서 발간 ▹ OECD, 공공 부문의 AI 도입을 위한 G7 툴킷 발표 ▹ 세계경제포럼, 생성AI 시대의 거버넌스 프레임워크 제시 2. 기업/산업 ▹ CB인사이츠 분석 결과, 2024년 3분기 벤처 투자 31%가 AI 스타트업에 집중 ▹ 메타, 동영상 생성AI 도구 ‘메타 무비 젠’ 공개 ▹ 메타, 이미지와 텍스트 처리하는 첫 멀티모달 AI 모델 ‘라마 3.2’ 공개 ▹ 앨런AI연구소, 벤치마크 평가에서 GPT-4o 능가하는 성능의 오픈소스 LLM ‘몰모’ 공개 ▹ 미스트랄AI, 온디바이스용 AI 모델 ‘레 미니스트로’ 공개 ▹ 카카오, 통합 AI 브랜드 겸 신규 AI 서비스 ‘카나나’ 공개 3. 기술/연구 ▹ 2024년 노벨 물리학상과 화학상, AI 관련 연구자들이 수상 ▹ 미국 국무부, AI 연구에서 국제협력을 위한 ‘글로벌 AI 연구 의제’ 발표 ▹ 일본 AI안전연구소, AI 안전성에 대한 평가 관점 가이드 발간 ▹ 구글 딥마인드, 반도체 칩 레이아웃 설계하는 AI 모델 ‘알파칩’ 발표 ▹ AI21 CEO, AI 에이전트에 트랜스포머 아키텍처의 대안 필요성 강조 4. 인력/교육 ▹ MIT 산업성과센터, 근로자 관점에서 자동화 기술의 영향 조사 ▹ 다이스 조사, AI 전문가의 73%는 2025년 중 이직 고려 ▹ 가트너 예측, AI로 인해 엔지니어링 인력의 80%가 역량 향상 필요 ▹ 인디드 조사 결과, 생성AI가 인간 근로자 대체할 가능성은 희박 Ⅱ. 주요 행사 ▹NeurIPS 2024 ▹GenAI Summit Maroc 2024 ▹AI Summit Seoul 2024</p>
AI 브리프
<p>최근 몇 년간 인공지능(AI) 기술의 발전은 챗GPT의 출시 이후 거대 언어 모델(LLM) 개발 경쟁을 거치며 가속화되었다. 현재 공개된 AI 모델들의 성능은 특정 분야에서는 이미 인간의 능력을 뛰어넘었고, 이에 따라 활용 범위 또한 급격히 확장되었다. 특히 생성 AI를 기반으로 하는 범용 AI는 제조, 의료, 금융, 교육 등의 여러 산업 분야에서 활용되고 있다. 하지만, AI 기반의 서비스들이 다양한 이점을 제공하는 한편, 고성능 AI에 대한 접근성의 향상으로 인해 새로운 위험에 대한 우려 또한 증가했다. 이에 따라, 기존 AI 신뢰성, 책임성, 윤리 등의 논의와 더불어, ‘AI 안전’이 더욱 중요해졌다. 악의적인 사용, 오작동과 같은 위험들이 실제 피해까지 야기하고 있는 만큼, AI의 안전 확보를 위한 대응책 마련이 시급해진 상황이다. 앞으로 등장할 더 강력한 성능을 가진 프론티어 AI 모델은 의도치 않은 결과의 도출, 제어 불가, 사회적 악영향 등 여러 잠재적인 위험을 포함할 가능성이 높아, 규제와 지침 마련을 비롯하여 다양한 국제적 노력이 이루어지고 있다. 각 국의 정부, 기업 등 이해관계자들은 AI의 안전성을 확보하기 위해, 위험을 식별하여 평가 기준을 마련하고, 안전한 AI 개발 및 배포와 위험 대응책을 마련하기 위해 노력하고 있다. 최근 연구들에서는 사고 사례나 발생 가능한 시나리오에 따른 위험들을 분류하여 제시하고 있다. 하지만, 연구마다 다양한 위험 분류 체계를 제시하고 있어, 합의된 AI 안전 평가 체계를 마련하기에는 아직 더 많은 논의가 필요한 상황이다. 미국, 영국, 일본 등은 AI 시스템의 안전성 확보를 위해 AI 안전연구소를 통해 AI 안전 및 위험 연구, 위험성 평가, 안전한 AI 개발·구현을 위한 기준 마련 등의 기능을 수행 중이다. 대표적으로 AI 위험 관리 프레임워크(美), AI 안전에 관한 과학 보고서(英) 등을 통해 AI의 위험에 대한 대응 방안을 제시하고 있으며, 한국도 설립될 AI 안전연구소를 통해 AI 안전 수요에 대응할 예정이다. 본 보고서에서는 AI 안전과 관련된 개념을 정리하고, 최근 수행된 연구들이 제시하고 있는 AI 위험 유형 및 요인을 정리하여, 사례와 함께 분석함으로써 앞으로의 AI 위험 대응에 관한 정책적 시사점을 제공하고자 한다. Executive Summary Advancements in artificial intelligence (AI) technology have accelerated, particularly following the launch of ChatGPT, which has triggered a competitive race in the development of large language models (LLMs). The performance of currently available AI models has already surpassed human capabilities in certain domains, leading to a rapid expansion in their areas of application. General-purpose AI, especially those based on generative AI, is now being utilized across various industries, including manufacturing, healthcare, finance, and education. However, while AI-based services offer numerous benefits, the increased accessibility of high-performance AI has also raised concerns about new risks. As a result, alongside existing discussions on AI reliability, accountability, and ethics, ">
이슈리포트
2023 SW산업 실태조사 과학기술정보통신부, SPRi 소프트웨어정책연구소 Software Policy & Research Institute
승인통계보고서