SI 태그를 찾았습니다.
  • 본 연구에서는 최근 부상하고 있는 피지컬 AI의 기술적·산업적 확산에 주목하여, 피지컬 AI의 정의와 특성, 유형 그리고 주요 사례 및 관련 이슈를 살펴보고 정책적 시사점을 제언하고자 하였다. 분석 결과, 피지컬 AI는 AI 기반모델(두뇌), 컴퓨터 비전·센서(감각), 엣지 컴퓨팅 및 네트워크 인프라(연결), 제어 및 액추에이터(행동) 등의 첨단기술 융합을 통해 인간처럼 현실 세계를 인식하고, 자율적으로 판단·행동함으로써 환경과 유기적으로 상호작용할 수 있는 시스템으로 정의된다. 주요 기술 수준과 형태에 따라 △ 휴머노이드형 △ 자율주행차형 △ 드론형 △ AGV & AMR형으로 분류되어 다양한 산업 환경에 특화된 형태로 활용되며, 산업 전반의 자동화·지능화 수요를 중심으로 새로운 융합 생태계를 형성하는 기반으로 작용하고 있었다. 다만, 피지컬 AI는 확산 과정에서 막대한 연산 자원과 개발 비용, 물리 환경 적용의 기술적 제약, 노동시장 구조 변화, 법적 책임과 윤리 기준의 미비 등 복합적인 장애 요인을 동반하고 있는 상황이다. 이를 해결하기 위해 미국, 중국, EU, 일본 등 주요국은 피지컬 AI를 국가 전략기술로 간주하고 다양한 정책을 선제적으로 마련해 경쟁력 확보에 나서고 있으며, 이에 발맞춰 우리나라도 피지컬 AI 경쟁력 강화를 위한 연구개발, 산업 생태계 및 인력양성, 법제 정비 및 국제 협력 차원에서 국가 전략을 수립해야 할 시점이다. Executive Summary This study focuses on the recent emergence and expansion of Physical AI in both technological and industrial contexts. It examines the definition, characteristics, typologies, representative use cases, and associated challenges of Physical AI, ultimately deriving relevant policy implications. The analysis defines Physical AI as an integrated system that combines advanced technologies such as AI foundation models (cognitive control), computer vision and sensors (perception), edge computing and network infrastructure (connectivity), and control systems with actuators (mobility), enabling machines to perceive, reason, and act autonomously in the physical world. Based on key technological configurations and implementation forms, Physical AI can be categorized into humanoid-type, autonomous vehicle-type, drone-type, and AGV & AMR-type systems, each tailored to specific industrial environments and contributing to the formation of a new convergence ecosystem centered on the growing demand for automation and intelligence across industries. However, the diffusion of Physical AI entails a range of complex barriers, including high computational requirements, significant development costs, technical limitations in real-world deployment, structural impacts on the labor market, and a lack of legal accountability frameworks and ethical standards. In response, major countries such as the United States, China, the EU, and Japan are recognizing Physical AI as a strategic national technology and are actively formulating policies to secure technological leadership. In this context, Korea must also develop a national strategy encompassing R&D, industrial ecosystem development, talent cultivation, regulatory reform, and international cooperation to strengthen its competitiveness in the emerging Physical AI landscape.

  • ISSUE REPORT 2024.5.3. IS-171 A Study on the Development of The Industrial Classification System of Metaverse Sang-Yeal Han, Yiseul Jeon, Nayeon Kwak, and Seulki Lee SPRi 소프트웨어정책연구소 Software Policy & Research Institute
  • 생성AI의 확산과 함께 인공지능 기술이 가진 잠재적 위험에 대한 우려가 고조되고 있다. 생성AI의 부정확성, 결과 해석을 어렵게 하는 블랙박스 모델과 같은 기술적 한계와 딥페이크, 사이버 공격 등 기술 오용으로 인한 사회적 피해에 대한 긴장이 높아지고 있다. 산학계의 인공지능 전문가들조차 인공지능이 인간이 이해할 수 없는 초지능으로 급속히 발전하면 자율 성장, 통제 상실 가능성이 높아져 인류의 실존을 위협할 수 있다고 경고한다. 이러한 상황에서 유럽연합은 2024년 5월 세계 최초로 인공지능 규제법인 인공지능법을 제정하였고, 미국은 2023년 10월 행정명령을 발동해 인공지능의 안전한 개발과 보급을 유도하고 있다. 2023년 11월 영국에서 세계 최초로 개최된 인공지능 안전성 정상회의는 인공지능 안전성 확보를 위한 국제 사회의 동참을 만들어 내는 계기가 되었다. 구체적으로 영국, 미국, 일본은 AI안전연구소를 설립하고, 첨단 AI의 안전성 테스트를 위한 프레임워크 개발과 정보, 인력 교류, 표준화에 상호 협력하기로 했다. 2024년 5월 제1차 인공지능 안전성 정상회의 후속으로 진행된 한국-영국 공동 주최 AI 서울 정상회의에서는 우리 정부도 AI 안전연구소 설립을 공식화하고 주요국과 함께 AI 안전성 확보를 위한 국제협력에 적극적 의지를 표명하였다. 향후 AI 안전 확보를 위한 정부의 역할이 더욱 중요해질 것으로 예상되는 가운데, AI 안전연구소는 AI 안전성 테스트 방법 및 프레임워크 개발, AI 안전성 확보를 위한 원천기술 개발 및 표준화, 그리고 이를 위한 정책연구와 민관협력, 국제 교류를 추진해 나갈 것으로 예상된다. 민간의 혁신을 저해하지 않고 사회와 산업에 안전한 인공지능을 도입·활용을 위해 AI안전연구소의 기능과 역할 정립이 요구되는 시점으로, 이 보고서에서는 영국, 미국, 일본 등 주요국의 AI안전연구소의 추진 동향을 살펴보고 국내 AI안전연구소의 역할을 모색한다. Executive Summary With the proliferation of generative AI, concerns about the potential risks of artificial intelligence technologies are mounting. The technical limitations of generative AI, such as hallucinations and black-box models that complicate result interpretation, along with the societal harm caused by the misuse of technologies like deepfakes and cyberattacks, are increasing tensions. AI experts in academia and industry warn that rapid advancements toward superintelligent AI, which humans cannot comprehend, may lead to autonomous growth and loss of control, potentially threatening human existence.In response to these concerns, the European Union enacted the world's first AI regulatory law, the Artificial Intelligence Act, in May 2024. Meanwhile, the United States issued an executive order in October 2023 to guide the safe development and dissemination of AI. The first AI Safety Summit, held in the UK in November 2023, marked a pivotal moment, fostering international collaboration to ensure AI safety. Specifically, the UK, the US, and Japan have agreed to establish AI Safety Institutes, develop frameworks for testing advanced AI safety, and cooperate on information exchange, personnel training, and standardization. Following the first AI Safety Summit in May 2024, the AI Seoul Summit, co-hosted by Korea and the UK, saw Korea committing to establishing an AI Safety Institute and expressing a strong intention to participate in international cooperation for AI safety with other major countries. As the role of the government in ensuring AI safety becomes increasingly important, the AI Safety Institute will focus on developing AI safety testing methods and frameworks, creating foundational technologies for AI safety, and promoting standardization. This will include policy research, private sector collaboration, and international exchanges. To introduce and utilize AI safely in society and industry without hindering private innovation, it is essential to define the functions and roles of the AI Safety Institute. This report examines the trends and initiatives of AI Safety Institutes in key countries, including the UK, the US, and Japan, and explores the potential roles of the Korean AI Safety Institute.

    • 2021.06.07
    • 10773

    As artificial intelligence (“AI”) has been attracting attention as an innovative growth engine that will drive future industries and societies, strengthening the research capacity for AI is becoming a bottom-line issue. Research capacity is the most crucial intangible activity for technological innovation. It is key to achieving the best performance in the upcoming technology market. Therefore, we, in this article, sought to develop an AI Research Index that could measure the research capacity for AI for universities around the world and draw implications...

  • 그간 공공 SW사업 발주제도와 관련해 소프트웨어산업진흥법을 수차례 개정 하면서 공정한 경쟁체계를 확립하고 이를 통해 국내 SW산업 발전을 도모하고자 노력하였고, 그 결과로 중견 및 중소 소프트웨어기업들의 공공 SW사업 참여를 확대한 바 있으나 참여기업에 대한 적정대가 보상 문제와 더불어 정보시스템의 저조한 활용률 등은 여전히 미해결 과제로 남아 있음 (후략)

    • 2017.12.28
    • 13716

    기본 소득(Basisinkomen)이라는 말은 네덜란드 노동당에서 활동한 노벨 경제학상 수상자 틴버겐이 1934년 최초로 사용했다. (후략)

    • 2016.09.21
    • 22799

    ■ 대기업 참여하한제 시행 이후 신규 진입한 중견SI기업도 적자 행진
    ■ 중견ㆍ중소 SI기업의 위험관리 강화로 공공SI사업 유찰율 급증

    • 2016.04.11
    • 5098
    [embedyt alt="SW엔지니어링 기업 육성 필요성 - SI산업 경쟁력 제고방안"]http://www.youtube.com/watch?v=QksDGIeaxjs[/embedyt] - 설계능력 부재로 조선, 건설산업 위기 - 설계역량의 핵심, 엔지니어링 기업 - 4차 산업혁명 시대의 SW엔지니어링 중요성 - 국내 SW산업은 SW엔지니어링 전문기업의 기반이 부재 - SW엔지니어링 전문기업 육성 방안 - SW엔지니어링 전문기업 육성 방안 - 기대효과 [ 소프트웨어정책연구소 유호석 선임연구원 | hsy@spri.kr ]
    • 2015.05.04
    • 9149

    디자인적 사고(Design Thinking)의 힘: 창조적 자신감(Creative Confidence)을 되찾아라, by IDEO 창업자 David Kelly