• 2024.08.13
    • 2072

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 국제통화기금(IMF), 세계 AI 준비 현황지도 공개 ▹ OECD, AI 분야의 데이터 거버넌스와 개인정보보호 협력 연구 ▹ 글로벌 AI 파트너십(GPAI), OECD-GPAI 통합 운영에 합의 ▹ 과학기술정보통신부, AI 분야 규제샌드박스 과제 적극 발굴 추진 ▹ 프랑스 경쟁관리국, 생성 AI 분야의 경쟁 활성화를 위한 권고사항 제시 ▹ 중국 정부, AI 표준화 체계 구축 지침 발표 ▹ 대만 국가과학기술위원회, AI 기본법 초안 발표 2. 기업/산업 ▹ EU 경쟁 당국, 구글-삼성 AI 협업에 반독점 조사 검토 ▹ 2024년 상반기 유럽 생성 AI 스타트업 투자 규모 19억 유로 ▹ 구글, 제미나이 1.5 플래시 및 오픈소스 모델 젬마 2 정식 출시 ▹ 오픈AI, 비용 효율적인 소형 AI 모델 ‘GPT-4o 미니’ 출시 ▹ 바이두, 최신 AI 모델 ‘어니 4.0 터보’ 공개 ▹ 중국 상하이市 법학회, 세계인공지능대회에서 휴머노이드 로봇 거버넌스 지침 발표 ▹ LG AI연구원, 오픈소스 AI 모델 ‘엑사원(EXAONE) 3.0’ 공개 3. 기술/연구 ▹ 세계경제포럼, 과학적 발견을 위한 AI 등 10대 신흥기술 선정 ▹ ETRI, 데이터 분석 및 머신러닝을 위한 데이터 품질 국제표준 제정 ▹ 구글 딥마인드, 제미나이를 활용한 자연어 기반 로봇 학습 연구 결과 공개 4. 인력/교육 ▹ SAS 조사, 생성 AI 사용은 중국이 가장 앞서나 성숙도는 미국이 우위 Ⅱ. 주요 행사 ▹ECCV 2024 ▹World Summit AI ▹AI WORLD 2024

  • 최근 전 산업과 일상에서 AI의 활용이 폭넓게 이뤄지고 있으나, 한편으로는 AI 위험에 대한 우려 및 AI로 인한 사건 수가 증가하면서 AI 위험 대응 요구도 확대되고 있다. 이에 따라 각국 정부와 학계, 업계 등 이해당사자가 AI의 위험을 방지하고 안전하고 신뢰할 수 있는 AI를 개발 및 도입하기 위해 노력하고 있다. 본 보고서에서는 액센츄어와 스탠퍼드 대학교가 실시한 글로벌 기업의 책임 있는 AI에 대한 조치 인식 조사를 인용하여 책임 있는 AI 영역별 대응 수준을 진단하고, 주요 기업별 전담 조직 및 AI 안전 프레임워크 현황 사례를 조사하여 기업의 구체적인 책임 있는 AI에 관한 노력에 대해 살펴보았다. 액센츄어와 스탠퍼드 대학교의 조사 결과, 기업은 개인정보 보호 및 데이터 거버넌스, 신뢰성 및 보안, 투명성 및 설명 가능성, 공정성 등 책임 있는 AI의 요인별 대응을 추진하고 있으며, 개인정보 보호 및 데이터 거버넌스 측면의 대응 수준이 가장 높게 진단되었다. 그러나, AI 모델 발전에 따른 결과 설명의 어려움, 국가별 공정성의 기준에 대한 차이 등의 사유로 투명성 및 설명 가능성, 공정성 부문에 대한 향후 조치를 향상시킬 필요가 있다. 국내외 기업별 사례 조사 결과, 주요 기업들은 AI 모델의 평가와 개발·배포 여부에 대한 의사결정을 할 수 있는 전담 조직을 설립하고, 전담 조직에 의해 AI의 위험성을 정의하고 평가하는 체계를 구축하고 있다. 국내 기업은 계열사 간 컨센서스를 위한 협의체를 운영하는 특징이 있으며, 산업으로의 AI 적용을 위한 과제별 위험 요인을 분류하고 평가하는 체계를 도입하고 있다. 글로벌 조사와 유사하게, 공정성 부문은 제도적인 가이드라인 수준으로 기업의 실질적인 조치가 미흡한 상황으로 향후 개선이 필요하다. 본 보고서의 결과는 각국 정부가 AI 규제에 관한 논의와 실행을 본격화되는 가운데, 기업들이 전담 조직을 구축하고, AI 안전 프레임워크를 수립 및 준수함으로써 책임 있는 AI를 정착시키기 위해 노력하고 있음을 보여준다. 앞으로 국내외 기업들의 안전하고 책임 있는 AI 개발 및 사용을 위한 지속적인 노력이 요구된다. Executive Summary Recently, AI has been widely utilized in all industries and daily life, but on the other hand, as concerns about AI risks and the number of incidents caused by AI increase, the demand for AI risk response is also expanding. Consequently, all stakeholders, including governments, academia, and industry, are working to prevent AI risks and ensure the development and implementation of safe and trustworthy AI. This report cites a survey of global companies' awareness of responsible AI measures conducted by Accenture and Stanford University to diagnose the level of response in each area of responsible AI, and investigates case studies of dedicated organizations and frameworks in major companies to explore specific efforts towards responsible AI. According to research conducted by Accenture and Stanford University, Global survey results show that companies are pursuing responses to responsible AI factors such as privacy protection and data governance; reliability and security; transparency and explainability; and fairness. The response level in privacy protection and data governance was diagnosed as the highest. However, due to difficulties in explaining the result of advanced AI models, challenges in processing different languages, and differences in fairness standards across countries, there is a need for improved measures in transparency, explainability, and fairness in the future. As a result of the survey of domestic and global companies, major companies are establishing dedicated organizations capable of evaluating AI models and making decisions on whether to develop and distribute them, and are establishing a system to define and evaluate the risks of AI through dedicated organizations. Domestic companies are characterized by operating a consultative body for consensus among affiliates, and are introducing a system to classify and evaluate risk factors for each task for applying AI to the industry. Similar to the Accenture survey, the fairness sector is at the level of institutional guidelines, and actual measures by companies are insufficient, so it can be said that improvement is needed in the future. The results of this report show that while governments around the world are discussing and implementing AI regulations, companies are making efforts to establish responsible AI by establishing dedicated organizations and establishing and complying with frameworks. In the future, efforts will be required to develop and use safe AI technology across the entire AI ecosystem.

  • 유럽연합(EU)의 인공지능법(AI Act)은 AI 기술의 급속한 발전과 광범위한 적용에 따른 윤리적, 법적, 사회적 영향에 대응하기 위해 마련된 최초의 포괄적인 AI 규제 법안이다. 이 법은 2024년 3월 유럽의회에서 통과된 이후 5월 유럽이사회에서 최종 승인했으며, 6개월에서 36개월 후부터 단계적으로 시행될 예정이다. EU AI 법은 AI 시스템을 위험 수준에 따라 분류하는 것이 주요 특징이며, 이 보고서는 AI의 분류의 정의 및 예시와 이에 따르는 의무 사항들을 정리한다. '수용 불가 위험 AI 시스템'은 인간의 존엄성, 자유, 평등, 차별금지, 민주주의 및 법치와 같은 EU의 기본 가치를 위반하는 경우 사용이 전면 금지된다. '고위험 AI 시스템'은 생체인식, 중요 인프라, 교육, 필수 서비스 등 사회적으로 민감한 분야에 사용될 때 높은 수준의 규제를 받게 되며, '제한된 위험성을 갖는 AI 시스템'은 비교적 낮은 위험을 가지고 있지만, 사용자와의 상호작용 과정에서 일정한 투명성이 요구된다. 마지막으로, '저위험 AI 시스템'은 일상적인 상업적 또는 개인적 용도로 사용되며, 비교적 낮은 위험성을 지녀 규제 부담이 최소화된다. 이 법안은 AI 정책 표준을 설정하고, 기업들의 AI 개발 방식을 변화시키며, 윤리적이고 책임 있는 AI 발전에 영향을 미칠 것으로 예상된다. EU의 규제는 종종 글로벌 표준이 되는 경향이 있어, AI 법이 전 세계 AI 정책에 미칠 영향이 클 것이다. 기업 차원에서는, EU 내에 법인이나 사무소를 두고 있지 않은 기업도 EU에서 AI 시스템이 이용될 경우 이 법 규제사항을 적용을 받게 되며, 공급자뿐만 아니라 배포자, 수입업자, 유통업자에게도 의무가 부과되어 광범위한 기업에 영향을 미칠 것으로 예상되어 면밀한 검토와 대비책이 필요할 것이다. Executive Summary The European Union (EU) Artificial Intelligence Act is the first comprehensive AI regulatory bill designed to address the ethical, legal, and social impacts resulting from the rapid development and widespread application of AI technologies. Passed by the European Parliament in March 2024 and subsequently approved by the European Council in May 2024, the Act is set to be implemented in stages, starting between six and thirty-six months from its approval. A key feature of the EU AI Act is the classification of AI systems based on their risk levels. This report outlines the definitions and examples of these classifications, along with the corresponding obligations. AI systems that pose an "unacceptable risk" are banned entirely if they violate fundamental EU values such as human dignity, freedom, equality, non-discrimination, democracy, and the rule of law. "high-risk AI systems" are subject to stringent regulations when used in socially sensitive areas such as biometric identification, critical infrastructure, education, and essential services. "limited-risk AI systems" carry relatively lower risk but require a certain level of transparency in their interaction with users. Finally, "low-risk AI systems" are used for everyday commercial or personal purposes, involve minimal regulatory burden, and are considered to have relatively low risk. This Act is expected to set AI policy standards, alter corporate AI development practices, and influence the ethical and responsible advancement of AI. The EU's regulations often become global benchmarks, meaning the AI Act could significantly impact AI policies worldwide. For corporations, even those without a physical presence in the EU, compliance with these regulations will be necessary if their AI systems are used within the EU. Obligations are not only imposed on providers but also on distributors, importers, and other entities, necessitating thorough review and proactive measures by a wide range of businesses.

    • 2024.07.30
    • 1455
    • 접수기간 : 2024년 7월 30일 ~ 2024년 8월 13일 17시까지 (정시 마감)
    • 접수방법 : 소프트웨어정책연구소 채용 홈페이지(spri.brms.kr)에서 온라인 작성
    • 2024.07.30
    • 1258
    • 접수기간 : 2024년 7월 30일 ~ 2024년 8월 13일 17시까지 (정시 마감)
    • 접수방법 : 소프트웨어정책연구소 채용 홈페이지(spri.brms.kr)에서 온라인 작성
    • 2024.07.25
    • 3882

    디지털 녹색 혁명, SW로 여는 탄소중립의 길 디지털 녹색 혁명, SW로 여는 탄소중립의 길 발표자료 [download id=23513] [download id=23514]

  • 생성AI의 확산과 함께 인공지능 기술이 가진 잠재적 위험에 대한 우려가 고조되고 있다. 생성AI의 부정확성, 결과 해석을 어렵게 하는 블랙박스 모델과 같은 기술적 한계와 딥페이크, 사이버 공격 등 기술 오용으로 인한 사회적 피해에 대한 긴장이 높아지고 있다. 산학계의 인공지능 전문가들조차 인공지능이 인간이 이해할 수 없는 초지능으로 급속히 발전하면 자율 성장, 통제 상실 가능성이 높아져 인류의 실존을 위협할 수 있다고 경고한다. 이러한 상황에서 유럽연합은 2024년 5월 세계 최초로 인공지능 규제법인 인공지능법을 제정하였고, 미국은 2023년 10월 행정명령을 발동해 인공지능의 안전한 개발과 보급을 유도하고 있다. 2023년 11월 영국에서 세계 최초로 개최된 인공지능 안전성 정상회의는 인공지능 안전성 확보를 위한 국제 사회의 동참을 만들어 내는 계기가 되었다. 구체적으로 영국, 미국, 일본은 AI안전연구소를 설립하고, 첨단 AI의 안전성 테스트를 위한 프레임워크 개발과 정보, 인력 교류, 표준화에 상호 협력하기로 했다. 2024년 5월 제1차 인공지능 안전성 정상회의 후속으로 진행된 한국-영국 공동 주최 AI 서울 정상회의에서는 우리 정부도 AI 안전연구소 설립을 공식화하고 주요국과 함께 AI 안전성 확보를 위한 국제협력에 적극적 의지를 표명하였다. 향후 AI 안전 확보를 위한 정부의 역할이 더욱 중요해질 것으로 예상되는 가운데, AI 안전연구소는 AI 안전성 테스트 방법 및 프레임워크 개발, AI 안전성 확보를 위한 원천기술 개발 및 표준화, 그리고 이를 위한 정책연구와 민관협력, 국제 교류를 추진해 나갈 것으로 예상된다. 민간의 혁신을 저해하지 않고 사회와 산업에 안전한 인공지능을 도입·활용을 위해 AI안전연구소의 기능과 역할 정립이 요구되는 시점으로, 이 보고서에서는 영국, 미국, 일본 등 주요국의 AI안전연구소의 추진 동향을 살펴보고 국내 AI안전연구소의 역할을 모색한다. Executive Summary With the proliferation of generative AI, concerns about the potential risks of artificial intelligence technologies are mounting. The technical limitations of generative AI, such as hallucinations and black-box models that complicate result interpretation, along with the societal harm caused by the misuse of technologies like deepfakes and cyberattacks, are increasing tensions. AI experts in academia and industry warn that rapid advancements toward superintelligent AI, which humans cannot comprehend, may lead to autonomous growth and loss of control, potentially threatening human existence.In response to these concerns, the European Union enacted the world's first AI regulatory law, the Artificial Intelligence Act, in May 2024. Meanwhile, the United States issued an executive order in October 2023 to guide the safe development and dissemination of AI. The first AI Safety Summit, held in the UK in November 2023, marked a pivotal moment, fostering international collaboration to ensure AI safety. Specifically, the UK, the US, and Japan have agreed to establish AI Safety Institutes, develop frameworks for testing advanced AI safety, and cooperate on information exchange, personnel training, and standardization. Following the first AI Safety Summit in May 2024, the AI Seoul Summit, co-hosted by Korea and the UK, saw Korea committing to establishing an AI Safety Institute and expressing a strong intention to participate in international cooperation for AI safety with other major countries. As the role of the government in ensuring AI safety becomes increasingly important, the AI Safety Institute will focus on developing AI safety testing methods and frameworks, creating foundational technologies for AI safety, and promoting standardization. This will include policy research, private sector collaboration, and international exchanges. To introduce and utilize AI safely in society and industry without hindering private innovation, it is essential to define the functions and roles of the AI Safety Institute. This report examines the trends and initiatives of AI Safety Institutes in key countries, including the UK, the US, and Japan, and explores the potential roles of the Korean AI Safety Institute.

    • 2024.07.19
    • 2565

    e-book 보기 이슈 ISSUE SW로 탄소중립을 지원하는 기후기술·기업 사례 연구 포토에세이 PHOTO ESSAY 중간-이호준 포커스 FOCUS 양자 거북이와 고전 토끼 UN 글로벌 디지털 협약(Global Digital Compact);

    • 2024.07.17
    • 2037

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ AI 서울 정상회의, AI 안전•혁신•포용 강조한 서울 선언 채택 ▹ 대한민국 정보, 범부처 합동 새로운 디지털 질서 정립 추진계획 발표 ▹ 유럽연합 집행위원회, 'AI 법' 집행기관으로 AI 사무국 운영 ▹ 유럽개인정보보호감독기구, EU 기관 대상 생성 AI 지침 발간 ▹ EU AI 법의 법적 불확실성과 과잉 규제에 대한 우려 제기돼 ▹ 미국 법무부와 연방거래위원회, AI 기업 반독점 조사에 착수 2. 기업/산업 ▹ OECD, ‘디지털경제전망 2024’ 보고서에서 AI의 현황과 미래 전망 제시 ▹ 구글과 인텔 등 8개 빅테크, AI 칩의 상호연결을 위한 통신 표준 개발에 합의 ▹ 애플, WWDC 2024에서 AI 신기능 ‘애플 인텔리전스’ 공개 ▹ 앤스로픽, 최신 AI 모델 ‘클로드 3.5 소네트’ 출시 ▹ 프랑스의 미스트랄AI, 6억 유로 규모의 투자 유치 ▹ 오픈AI, 데이터 분석 기업 록셋 인수 3. 기술/연구 ▹ 영국 AI 안전연구소, 첨단 AI 모델의 안전 테스트 결과 공개 ▹ 중국 정부, AI와 컴퓨팅 표준화를 위한 3개년 계획 발표 ▹ 중국 표준화기술위원회, 생성 AI 보안 요구사항 표준 초안 공개 ▹ 오픈AI, GPT-4의 신경망 패턴을 파악해 해석 가능성 높여 ▹ 구글 딥마인드, 영상에 어울리는 오디오를 생성하는 V2A 기술 공개 ▹ MIT 연구진, 동영상 시청만으로 언어를 학습하는 알고리즘 개발 4. 인력/교육 ▹ 전미경제연구소 연구, 미국에서 10년간 AI로 인한 GDP 증가는 1% 내외 ▹ 방통위 조사 결과, 2023년 국민 10명 중 1명이 생성 AI 이용 ▹ 서울시, AI 분야 산‧학‧연 협력 거점으로 ‘서울 AI 허브’ 개관 ▹ 아마존, 글로벌 생성 AI 스타트업 활성화에 2억 3천만 달러 지원 ▹ 푸단⼤ 등 중국 대학들, 전교생 대상 AI 교육과정 확대 Ⅱ. 주요 행사 ▹ACL 2024 ▹IJCAI-24 ▹ICANN 2024

    • 2024.07.15
    • 887
    • 입찰마감 : 2024.07.26.(금) 12:00까지
    • 서류접수 : 나라장터 e-발주시스템(http://rfp.g2b.go.kr/)
  • 제 1 장 조사 개요 01. 조사 목적 02. 조사 개요 03. 표본 설계 04. 조사 완료 및 유효표본 05. 주요 조사 내용 제 2 장 조사 결과 01. 일반 현황 및 재무 현황 02. 인력 현황 03. SW 기술 04. 디지털전환 도입 및 수준 현황 05. 데이터 현황 부록 01. 용어 정의 02. 조사 결과 부록표 03. 주요 항목 상대표준오차 04. 조사표

  • 2023 SW산업 실태조사 과학기술정보통신부, SPRi 소프트웨어정책연구소 Software Policy & Research Institute

  • 최근 디지털 전환이 가속화되고 국내 SW융합인력 수요가 급증하면서 자동차, 의료, 도소매업 등 타 산업에서 SW융합인력에게 원하는 역할과 요구사항의 범위가 확대되고 있다. SW융합인력이 방대한 양의 데이터 분석, 제조 공정·보험 설계 등 도메인 지식이 필요한 업무의 디지털화, ChatGPT, 딥러닝과 같은 신기술의 적용 분야에서 활동하고 있다. 본고는 지속 성장할 것으로 예상되는 국내 SW융합인력 양성을 위한 시의적절한 정책 수립에 도움이 될 수 있도록, 1) 관련 현황 및 문제점을 파악하고 2) 채용공고 데이터 기반의 SW융합인력 수요분석 정보를 제공하며 3) 분석 결과에 따른 시사점을 제시하고자 한다. SW융합인력이란, “SW융합인력에 대해 한국표준산업분류에서 SW산업을 제외한 산업에서 SW융합 활동이 있는 기업에 재직하는 SW인력”으로 정의하였다. 연구진은 온라인 채용정보 데이터를 활용하여 산업별, 지역별, 경력별, 학력별, 직무별, 기술 스택별 SW융합인력의 수요를 분석하였다. 단, 채용인원을 정확히 제시하지 않는 온라인 채용공고 데이터의 한계로, 채용공고 건수를 기준으로 수요를 파악하였다. SW융합인력의 수요가 많은 산업은 전자 부품·컴퓨터, 의료, 자동차, 도매 및 상품 중개업 순이었다. SW 융합인력은 3년 이상의 경력자에 대한 수요가 가장 많았으며, 신입에 대한 수요는 12%에 불과하였다. SW산업과 SW융합산업에서 요구하는 경력별, 학력별, 지역별, 직무별 인력 수요는 다소 차이가 있으며, 이에 따라 요구되는 기술 스택도 상이한 것으로 분석되었다. SW융합인력의 수요 증가에 대응하여 SW융합인력의 범위, 양성 방향 등에 대한 관련 산업계·학계·연구계의 사회적 합의 도출과 이에 따른 체계적 양성이 시급하다. SW융합인력 수급 지속가능성 제고를 위해 SW융합인력 양성 교육의 실무 적합성과 시의성을 개선, SW융합인력의 장기적 성장 지원체계를 구축해야 한다. SW융합인력에 대한 면밀한 수요분석을 통해, SW융합인력에 대한 수요가 상대적으로 큰 도메인, 직무 등을 중심으로 전략적으로 양성하는 것이 우선되어야 한다. 수도권 외 지역에 대한 SW융합인력의 원활한 수급을 위해, 지역별 특화산업과 연계된 SW융합인력 양성방안도 고려해야 한다. Executive Summary As digital transformation accelerates and the demand for software convergence workers in Korea is glowing rapidly in recent years, the range of roles for software convergence workers in other industries such as automotive, healthcare, and wholesale and retail is expanding. In order to help establish timely policies to foster software convergence workforce in Korea, which is expected to continue to grow, this paper aims to 1) Identify relevant status and problems, 2) Provide information on demand analysis of software convergence workforce based on job postings data, and 3) Present implications based on the analysis results. Software convergence workforce is defined as “Software talent who are employed in companies with SW convergence activities in industries other than the SW industry in the Korean Standard Industrial Classification.” The researchers analyzed the demand for software convergence workers by industry, region, experience, education, job function, and technology stack using online recruitment data. The industries with the highest demand for software convergence workers are electronics&computers, healthcare, automotive, and wholesale. Software convergence workers were most in demand for those with more than 3 years of experience, while only 12% of new employees were hired. In response to the increasing demand for software convergence manpower, it is urgent to derive a social consensus among related industries, academia, and research institute on the scope and direction of manpower and systematic training is urgently needed. To improve the sustainability of manpower supply and demand, it is necessary to improve the practical relevance and timeliness of software convergence manpower training and establish a support system for the long-term growth of manpower. Through a careful analysis of the demand for manpower, it should be prioritized to strategically cultivate software convergence manpower centered on domains and jobs that have a relatively large demand for software convergence manpower.
  • 자료) 유럽연합 통계청(Eurostat) Annual detailed enterprise statistics for services(2023.3)
    주1) SW개발 및 공급업 : 컴퓨터 게임 출판, 기타 소프트웨어 출판
    주2) 컴퓨터 프로그래밍 및 컨설팅 : 컴퓨터 프로그래밍, 컴퓨터 시설관리, 기타 정보기술 및 컴퓨터 서비스

  • 자료) 과학기술정보통신부 SW산업실태조사(2023.4)
    주1) 신SW 진출 기업 대상으로 한 결과임
    주2) 상대표준오차(RSE)의 범위가 30%~60%인 경우(*로 표시)는 주의와 함께 이용 가능한 수치이며, 60% 이상인 경우(**로 표시)는 이용에 주의가 필요

  • 자료) 과학기술정보통신부 ICT주요품목동향조사(2023.2)
    주1) 월별 수치는 잠정치로 추후 연간조사를 통해 확정치로 대체될 예정
    주2) SW산업 생산 통계는 SW기업이 판매한 SW제품 매출을 집계한 금액으로 기업의 총 매출액과는 차이 있음(예, 기업의 총 매출이 100이고 그 중 SW제품 매출이 60, 비SW제품 매출이 40 일 경우 SW생산액은 60)

  • 자료) 한국교육개발원 고등교육기관 졸업자 취업통계조사(2022.12)
    주1) 졸업자는 기능대학, 전문대학, 산업대학, 대학, 일반대학원 모두를 포함
    주2) 응용SW공학 : 응용소프트웨어공학과, 게임개발학과 등 253개 학과
    주3) 전산・컴퓨터공학 : 전산정보학과, 컴퓨터공학과, 디지털콘텐츠학과 등 380개 학과
    주4) 정보・통신공학 : 정보공학과, 전자통신공학과 등 595개 학과(‘2022년 학과(전공)분류자료집’ 참조)
    주5) SW전공 : 응용SW공학, 전산・컴퓨터공학, 정보・통신공학

  • 자료) KOSA SW기술자 임금실태조사(2022.12)
    주1) 응답업체수 : 1,092업체
    주2) SW기술자 평균임금은 기본급+제수당+상여금+퇴직급여충당금+법인부담금을 모두 포함
    주3) 시간평균임금은 일평균÷8시간, 일평균임금은 월평균÷근무일수(20.6일)로 각각 산정함
    주4) 연평균 임금은 월평균 임금을 12개월로 계산한 수치임

  • 자료) 통계청 서비스업 조사(2023.3)
    주1) 평균급여액은 전체종사자를 기준으로 산출(급여총액/종사자수)
    주2) 패키지SW : 시스템·응용 소프트웨어 개발 및 공급업(58220)
    주3) IT서비스 : 컴퓨터 프로그래밍, 시스템 통합 및 관리업(620)
    주4) 게임SW : 게임 소프트웨어 개발 및 공급업(58210)
    주5) 인터넷SW(정보서비스) : 자료 처리, 호스팅 및 관련 서비스업(63110), 포털 및 기타 인터넷 정보매개 서비스업(63120), 그 외 기타 정보 서비스업(63990)