최근 전 산업과 일상에서 AI의 활용이 폭넓게 이뤄지고 있으나, 한편으로는 AI 위험에 대한 우려 및 AI로 인한 사건 수가 증가하면서 AI 위험 대응 요구도 확대되고 있다. 이에 따라 각국 정부와 학계, 업계 등 이해당사자가 AI의 위험을 방지하고 안전하고 신뢰할 수 있는 AI를 개발 및 도입하기 위해 노력하고 있다. 본 보고서에서는 액센츄어와 스탠퍼드 대학교가 실시한 글로벌 기업의 책임 있는 AI에 대한 조치 인식 조사를 인용하여 책임 있는 AI 영역별 대응 수준을 진단하고, 주요 기업별 전담 조직 및 AI 안전 프레임워크 현황 사례를 조사하여 기업의 구체적인 책임 있는 AI에 관한 노력에 대해 살펴보았다. 액센츄어와 스탠퍼드 대학교의 조사 결과, 기업은 개인정보 보호 및 데이터 거버넌스, 신뢰성 및 보안, 투명성 및 설명 가능성, 공정성 등 책임 있는 AI의 요인별 대응을 추진하고 있으며, 개인정보 보호 및 데이터 거버넌스 측면의 대응 수준이 가장 높게 진단되었다. 그러나, AI 모델 발전에 따른 결과 설명의 어려움, 국가별 공정성의 기준에 대한 차이 등의 사유로 투명성 및 설명 가능성, 공정성 부문에 대한 향후 조치를 향상시킬 필요가 있다. 국내외 기업별 사례 조사 결과, 주요 기업들은 AI 모델의 평가와 개발·배포 여부에 대한 의사결정을 할 수 있는 전담 조직을 설립하고, 전담 조직에 의해 AI의 위험성을 정의하고 평가하는 체계를 구축하고 있다. 국내 기업은 계열사 간 컨센서스를 위한 협의체를 운영하는 특징이 있으며, 산업으로의 AI 적용을 위한 과제별 위험 요인을 분류하고 평가하는 체계를 도입하고 있다. 글로벌 조사와 유사하게, 공정성 부문은 제도적인 가이드라인 수준으로 기업의 실질적인 조치가 미흡한 상황으로 향후 개선이 필요하다. 본 보고서의 결과는 각국 정부가 AI 규제에 관한 논의와 실행을 본격화되는 가운데, 기업들이 전담 조직을 구축하고, AI 안전 프레임워크를 수립 및 준수함으로써 책임 있는 AI를 정착시키기 위해 노력하고 있음을 보여준다. 앞으로 국내외 기업들의 안전하고 책임 있는 AI 개발 및 사용을 위한 지속적인 노력이 요구된다. Executive Summary Recently, AI has been widely utilized in all industries and daily life, but on the other hand, as concerns about AI risks and the number of incidents caused by AI increase, the demand for AI risk response is also expanding. Consequently, all stakeholders, including governments, academia, and industry, are working to prevent AI risks and ensure the development and implementation of safe and trustworthy AI. This report cites a survey of global companies' awareness of responsible AI measures conducted by Accenture and Stanford University to diagnose the level of response in each area of responsible AI, and investigates case studies of dedicated organizations and frameworks in major companies to explore specific efforts towards responsible AI. According to research conducted by Accenture and Stanford University, Global survey results show that companies are pursuing responses to responsible AI factors such as privacy protection and data governance; reliability and security; transparency and explainability; and fairness. The response level in privacy protection and data governance was diagnosed as the highest. However, due to difficulties in explaining the result of advanced AI models, challenges in processing different languages, and differences in fairness standards across countries, there is a need for improved measures in transparency, explainability, and fairness in the future. As a result of the survey of domestic and global companies, major companies are establishing dedicated organizations capable of evaluating AI models and making decisions on whether to develop and distribute them, and are establishing a system to define and evaluate the risks of AI through dedicated organizations. Domestic companies are characterized by operating a consultative body for consensus among affiliates, and are introducing a system to classify and evaluate risk factors for each task for applying AI to the industry. Similar to the Accenture survey, the fairness sector is at the level of institutional guidelines, and actual measures by companies are insufficient, so it can be said that improvement is needed in the future. The results of this report show that while governments around the world are discussing and implementing AI regulations, companies are making efforts to establish responsible AI by establishing dedicated organizations and establishing and complying with frameworks. In the future, efforts will be required to develop and use safe AI technology across the entire AI ecosystem.