ISSUE REPORT l 2025.11.26 IS-212
테슬라 오토파일럿 판결로 보는 
SW안전 시사점
Software Safety Implications of the Tesla Autopilot Court Decision
이중엽 / 박태형
이 보고서는 「과학기술정보통신부 정보통신진흥기금」에서 지원받아 제작한 것으로 
과학기술정보통신부의 공식의견과 다를 수 있습니다.
이 보고서의 내용은 연구진의 개인 견해이며, 본 보고서와 관련한 의문 사항 또는 수정·보완할 
필요가 있는 경우에는 아래 연락처로 연락해 주시기 바랍니다.
소프트웨어정책연구소 산업정책연구실
이중엽 책임연구원 ilovebiz@spri.kr
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
  CONTENT
Ⅰ. 논의 배경
P.1
Ⅱ. 플로리다 오토파일럿 판결(2025) 분석
P.3
III. 자율주행 관련 표준 및 제도 현황
P.7
III. 결론 및 제언
P.12
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
4
요 약 문
본 보고서는 소프트웨어 정의 차량(SDV)과 자율주행 기술 확산에 따라, 자동차 안전의 중심이 
기계적 하드웨어에서 소프트웨어 및 데이터로 급격히 이동하고 있다는 점에 주목한다. 특히 자율
주행 및 첨단 운전자 보조 시스템(ADAS)의 상용화가 가속화되면서 전통적인 소프트웨어 기능안
전 영역의 확대·재편성되고 있음을 확인한다.
연구는 대표적 자율주행 보조 시스템인 테슬라 오토파일럿(Autopilot) 을 핵심 사례로 삼아, 
2019년 플로리다주의 정지 차량 충돌 사고와 이에 대한 2025년 플로리다 남부연방지방법원의 
손해배상 판결(Barrett v. Tesla, Inc., Case No. 1:21-cv-21940-BB)을 분석하였다. 사고 당시 
차량은 오토파일럿 모드로 주행 중이었으나 정지 차량을 인식하지 못했고, 자동긴급제동(AEB)이 
작동하지 못한 상태에서 운전자의 부주의가 겹치며 제3자 보행자 사망 및 중상 피해가 발생하였
다. 배심원단은 운전자 과실 67%, 테슬라 과실 33%를 인정하는 한편, 사고 데이터 미제출·은폐 
의혹, 과장된 마케팅 등을 근거로 2억 달러의 징벌적 손해배상을 추가로 부과하였다. 이는 SAE 
기준상 레벨 2(운전자 보조) 시스템에 대해서도 제조사가 예측 가능한 오사용 방지 의무와 정보 
제공·데이터 투명성 의무 부담을 명시적으로 확인한 첫 사례라는 점에서 의미가 크다.
보고서는 오토파일럿 사고의 쟁점을 ISO 26262(기능안전), ISO 21448(SOTIF), ISO/PAS 
8800(AI 안전) 등 국제 표준의 관점에서 해석한다. ISO 26262는 E/E 시스템 고장(Fault)을 전
제로 안전무결성을 관리하는 반면, SOTIF는 센서 인식 한계·환경적 모호성·사용자 오용 등 결함 
없는 상태에서도 발생하는 위험을 다루며, ISO/PAS 8800은 AI·ML 기반 알고리즘의 데이터 품
질·모델 불확실성을 포괄하는 안전 프레임워크를 제시한다. 아울러 보고서는 UNECE 
R157(ALKS), R171(DCAS) 등 국제 규정도 함께 검토하였다. 
결론적으로, 테슬라 오토파일럿 판결은 소프트웨어 안전이 더 이상 기술 내부의 “품질 이슈”가 
아니라, 제조물 책임·징벌적 손해배상·데이터 투명성·AI 안전을 아우르는 종합적 리스크 관리 대
상임을 보여준다. 생명·신체와 직결된 산업 전반에서 디지털 전환이 가속화될 때 최소 공통 SW 
안전 요구사항으로서 「소프트웨어 안전에 관한 고시」와 같은 지침을 참고해야 할 것이며 나아가 
Safety-Security 연계하는 ‘디지털 안전’ 차원의 거버넌스 검토 등을 시사점으로 제시한다.
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
Executive Summary 
This report examines how the transition toward Software-Defined Vehicles (SDVs) 
and the growing adoption of autonomous driving and ADAS technologies are shifting 
automotive safety requirements from hardware-centered control to software- and 
data-driven risk management. As these systems expand in scope and complexity, 
software functional safety is being reorganized to address perception limits, human 
misuse, algorithmic uncertainty, and system-level interactions.
The study analyzes Tesla’s Autopilot as a representative Level 2 driver-assistance 
system, focusing on the 2019 rear-end collision in Florida and the subsequent 2025 
verdict by the U.S. District Court for the Southern District of Florida (Barrett v. 
Tesla, Inc., Case No. 1:21-cv-21940-BB). The Autopilot system failed to detect a 
stationary vehicle and the AEB did not activate, while the driver was momentarily 
inattentive, resulting in the death and injury of third-party pedestrians. The jury 
assigned 67% negligence to the driver and 33% to Tesla, and imposed punitive 
damages due to concerns regarding withheld crash data and misleading marketing. 
This case is significant as one of the first to affirm that even SAE Level 2 systems 
impose obligations on manufacturers regarding foreseeable misuse, adequate 
warnings, and operational transparency.
The report interprets the case findings through international standards including 
ISO 26262 (Functional Safety), ISO 21448 (SOTIF), and ISO/PAS 8800 (AI Safety). ISO 
26262 focuses on E/E system faults, SOTIF addresses risks that arise from 
functional insufficiencies without faults, and ISO/PAS 8800 extends safety 
management to AI/ML-based perception and decision models. The analysis also 
references relevant global regulations such as UNECE R157 (ALKS) and R171 (DCAS).
Overall, the Autopilot verdict highlights that software safety has become a legal 
and regulatory issue linked to product liability, punitive damages, data transparency, 
and AI governance. As digital transformation accelerates in safety-critical sectors, it 
is essential to establish baseline software safety requirements?such as Korea’s 
“Guidelines for Assuring Software Safety” and to advance integrated Safety-Security 
governance frameworks that support emerging digital risks.
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
1
I. 논의 배경
1. 연구 배경 및 목적
최근 자동차 산업은 SDV(Software Defined Vehicle, 소프트웨어 정의 차
량)로 전환되면서, 차량의 기능이 기계적 하드웨어가 아닌 소프트웨어와 데이
터를 중심으로 재정립되는 추세
특히, 자율주행 기술과 첨단 운전자 보조 시스템(ADAS, Advanced Driver 
Assistance System)은 빠르게 상용화되어 글로벌 시장에서 확산 중
또한 무선 업데이트(OTA, Over-The-Air)와 클라우드 기반 제어를 통해 지
속적으로 성능을 개선·진화하며 이동성 혁신과 사용자 편의 향상을 동시에 이
끌 수 있는 기반 마련
이러한 변화는 글로벌 차원에서 진행되는 세 가지 전환 축, GX(Green 
Transformation: 녹색 전환), DX(Digital Transformation: 디지털 전환), 
AX(AI Transformation: 인공지능 전환)와 긴밀히 연결
GX: 탄소중립과 지속가능성 요구에 따라 내연기관에서 전기차·수소차 등 친
환경차 중심으로 급속히 이동
DX: 커넥티드카, 자율주행, 데이터 기반 서비스 확산을 통한 차량·모빌리티 
서비스의 디지털 전환
AX: 인공지능 기술의 비약적 발전으로 자율주행 판단·제어 시스템, 운전자 모
니터링, 예측 유지보수 등 AI 기반 기능 강화
자율주행기술 발전과 함께 안전성과 법적 책임에 대한 기준이 논란이 되는 가
운데 SW 기능안전과 보안이라는 다차원적 위험 관리가 요구
기존 자동차 안전 규제는 기계적 결함을 전제로 했으나, SDV와 자율주행에서
는 소프트웨어 인지 오류, 센서 한계, 운전자 오용, 사이버 위협 등 새로운 위
험 요인이 등장
이에 대응해 국제적으로 ISO 26262(기능안전), ISO 21448(SOTIF), 
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
2
ISO/PAS 8800(AI 안전) 등 표준 등이 마련되어 있으며 표준의 준수 여부와 
구체적 적용 수준이 핵심 쟁점으로 부상
2. 연구 내용 및 방법
본 연구는 자율주행차의 SW 안전 쟁점을 분석하기 위해, 테슬라 오토파일럿을 
핵심 사례로 선정하여 살펴보고 SW안전 관점의 시사점을 검토
테슬라 오토파일럿은 2015년 이후 상용차량에 적용되어 다수의 실제 운행 
데이터와 사고 사례가 축적
오토파일럿 관련 사고와 소송이 여러 국가에서 진행되는 가운데 처음으로 징벌적 
손해배상(미국 플로리다 남부연방지방법원, 20205.8.1.) 판결
본 고에서는 판결에서 지적된 설계결함, 경고 의무 위반, ODD(운행설계영역, 
Operational Design Domain) 관리 미흡 등을 표준(ISO 26262, SOTIF 
등)의 관점에서 해석
이와 함께, 자율주행과 같이 디지털 전환이 확산되는 과정에서 SW 안전 확보 
측면에서 쟁점을 명확히하고 기존의 SW안전을 재정립하는 관점에서 시사점 제시
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
3
Ⅱ. 플로리다 오토파일럿 판결(2025) 분석
테슬라 모델 S차량 운전자가 오토파일럿(Autopilot) 모드를 사용 중 전방  정
지 차량을 들이받은 사건 발생(2019.04.25.)
  * Barrett v. Tesla, Inc. (U.S. District Court, S.D. Florida, Case No. 
1:21-cv-21940-BB, Aug 2025)
운전자는 주행 중 휴대폰을 집으려고 한 순간 전방 도로 상황을 놓쳤고, 정지
신호들을 무시한 채 갓길에 정차 중이던 쉐보레 차량을 시속 약 90km로 충
돌. 이에 밀린 쉐보레 차량이 인근 보행자를 덮쳐 사망자와 중상자가 발생
당시 테슬라 차량은 오토파일럿이 차량제어를 수행하고 있었으나 자동긴급제
동 시스템(AEB, Autonomous Emergency Breaking)이 작동하지 못한 가
운데, 운전자의 부주의까지 겹쳐 사고가 발생
출처: System Plus Consulting
[그림 
7
] 테슬라 차량의 센서와 AEB 역할
센서 종류
주요 기능
AEB에서의 역할
전방 카메라(Forward 
Cameras)
원거리·근거리 시야 확보 
(3중 카메라)
전방 물체(차량·보행자·장애물) 인식 및 거리 
계산. AEB의 핵심 인식 장치.
측면 카메라(Side 
Cameras)
좌우 A필러, 펜더 부근 
위치하여 좌우 감지
교차로 진입 시 좌우 접근 차량 탐지. AEB 
활성 시 주변 교통 감시.
초음파 센서(Ultrasonic 
Sensors)(HW3 이전)
근거리 물체 감지 
(주차·저속 충돌 방지)
저속 주행 시 근접 장애물 감지 및 저속 
AEB 활성. (HW4부터는 카메라로 대체)
레이더(Front 
Radar)(2021년 이전)
160m 전방 감지, 
날씨·조명 무관 탐지
시야 불량 시 전방 차량 거리 판단 보조. 
2021년 이후 Tesla Vision 체계에서는 제거
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
4
주요 쟁점은 테슬라 오토파일럿 시스템의 사고 원인에 대한 책임 여부
원고(희생자의 유가족)는 테슬라가 “오토파일럿의 성능을 과장해 소비자를 현
혹했고, 정지차량을 인식하지 못하는 결함이 있는 시스템을 판매했다”고 주장
  엄격한 제조물 책임, 오토파일럿 시스템의 결함(제조 및 설계상 결함 – 정지차량 인식 
실패, 긴급제동 부재, 운전자 모니터링 미흡)과 경고의무 위반 등에 대한 손해배상 청구
피고인 테슬라 측은 사고의 근본 원인은 “운전자의 부주의”라고 맞서며 “당시 
차량과 오토파일럿 시스템은 최첨단 기술 수준이었고 결함이 없다”고 반박
쟁점
원고 측 주장
피고 측 주장
설계 결함 
유무
(Design 
Defect)
- 오토파일럿 시스템은 비상 상황에서 정지 
차량과 트레일러를 인식하지 못하도록 설계
- 카메라·레이더 융합 설계가 불완전하고, 
차선 유지·속도 조절 알고리즘이 불안정함
- 차량이 트레일러 하단을 감지하지 못해 치
명적 충돌로 이어짐
시스템은 SAE(Society of Automotive 
Engineers) Level 2 운전자 보조기
능으로 설계 기준에 부합
- 완전 자율주행이 아님을 명확히 안내
- 시스템은 정상 작동했으며, 운전자의 
부주의가 사고의 직접 원인
경고 의무 
위반 여부
(Failure 
to Warn)
- “Full Self-Driving” 명칭이 소비자를 오
도할 수 있음
- 운전자 주의의무 고지가 충분하지 않았고, 
운전자 모니터링 시스템도 한계
- 경고 및 주의 문구는 차량 내 디스플
레이, 매뉴얼, 온라인 자료 등에서 충
분히 제공
- 운전자가 주의 경고를 반복적으로 무
시했고, 시스템은 경고를 정상 작동
<표 1> 테슬라 오토파일럿 손해배상 판결 주요 쟁점
플로리다 남부연방지방법원은 사고에 대한 과실 비율을 운전자 67%, 테슬라 33%
로 인정(2025.08.01.)
운전자가 주의 의무를 소홀히 한 책임이 크지만, 오토파일럿 시스템의 설계상 
한계로 사고를 방지하지 못한 책임도 테슬라에 있다고 판단
피해자 측에 대한 총 보상액 1억2,900만 달러 중 테슬라 과실 비율(33%)에 
해당하는 약 4,260 만 달러를 테슬라가 부담하도록 결정한 것에 더해 징벌적 
손해배상 2억 달러를 별도로 테슬라에 부과(향후 항소심 등 추가 절차 예고)
  * 테슬라가 사고 당시 차량의 로그 데이터·카메라 기록을 즉시 공개하지 않은 점이 논
란이 되어 은폐 의도나 자료 미제출 등의 행위를 통해 악의적이고 중대한 과실을 보
였다고 판단하여 징벌적 배상을 인정
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
5
이번 오토파일럿 판결은 자율주행(레벨 2 수준) 차량의 사고에 대해 제조사에
게 법적 책임을 인정한 최초 사례
국제자동차기술자협회(SAE International, Society of Automotive 
Engineers)는 자율주행 기술을 레벨 0부터 레벨 5까지 총 6단계로 구분
  - (레벨 0~2) 운전자 보조 단계로서 차량이 일부 주행 기능을 자동 제어하지
만, 주행 책임은 전적으로 운전자에게 있으며 시스템 작동 중에도 운전자는 
항상 전방주시·핸들 제어·돌발 상황 대응 의무를 유지해야 함 
  * 시스템은 주행을 “지원”하고, 운전자가 주행을 “책임” - 자동 비상 제동, 차선이탈 
경고, 차선 유지보조 및 어댑티브 크루즈컨트롤 등 지능형 운전보조 장치가 포함. 제
조사는 시스템 한계(ODD, 기능 제약, 주의 요구사항)를 명확히 고지해야 함
  - (레벨 3~5) 차량이 주행 작업을 조건부 또는 완전 자동으로 수행
  * 시스템이 주행을 수행하는 동안 제조사·운영자 책임 비중이 증가하며 안전성은 ISO 
26262(Safety), ISO 21448(SOTIF) 등 국제표준 기반 평가가 필요. 특히 레벨3부
터는 운전자와 시스템 간 책임 전환이 발생하는 단계라는 점에서 기술적·법적 논점
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
6
(기술적 한계와 제조물 책임의 경계가 쟁점으로 부각) 배심원단은 “운전자가 
주의의무를 다하지 않았다”는 점을 인정하면서도, 오토파일럿 시스템이 정지
차량에 자동 제동하지 못한 설계적 한계에 테슬라의 책임을 확인
  - 해당 기능이 당시 업계 표준에 부합했다 하더라도, 제조사가 자율주행 보조
기능을 판매하면서 광고한 만큼의 안전을 제공하지 못했다면 책임을 질 수 
있다는 판단으로 해석
  - 특히 이 사고의 피해자는 운전자가 아닌 제3자 보행자였기에, 차량 이용자가 
경고를 인지했는지 여부와 무관하게 제조물의 안전성 결함을 판단
(제조사의 정보공개 의무와 윤리적 책임 문제) 테슬라가 사고 관련 데이터가 
없다고 했다가 해커에 의해 드러난 정황이 매우 부정적으로 작용
  - 테슬라는 충돌 당시의 핵심 데이터(collision snapshot)가 없다고 주장했다
가 해커가 해당 차량의 제어유닛에서 데이터를 복구했고, 이는 판결에서 핵
심 증거로 작용
  - 또한, ‘FSD(Full Self-Driving)’ 같은 명칭을 사용해온 것이 소비자에게 과
도한 신뢰를 유발했고, 이는 제조사가 의도적으로 마케팅 전략으로 활용한 
측면이 있다는 지적
기존 FSD 옵션 선택화면(2022년)
현재 FSD 옵션 선택 화면(2025.11. 현재) 
(Supervised 문구 삽입)
[그림 2] 테슬라 FSD 문구 변경
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
7
Ⅲ. 자율주행 관련 표준 및 제도 현황
ADAS 및 자율주행 기술의 안전성을 포괄적으로 보장하기 위해, 자동차 산업
은 전통적인 기능 안전 표준을 넘어 기능적 불충분성과 AI 안전까지 다루는 프
레임워크로 발전하는 과정
ISO 26262은 전통적 기능 안전(FuSa, Functional Safety)을 다루는 차량 
내 전기/전자(E/E) 시스템의 기능 안전에 대한 표준(2011년 제정 및 2018년 개정)
  - 무작위 하드웨어 오류나 SW 오류와 같은 시스템 고장으로 인한 위험을 체
계적으로 관리하고 완화하는 것이 주요 목표
  - 주요 방법론으로 위해요인 분석 및 위험도 평가(HARA, Hazard Analysis 
and Risk Assessment), 자동차 안전 무결성 수준(ASILs, Automotive 
Safety Intergrity Lavel) 설정, 고장 모드 및 영향 분석(FMEA, Failure 
Mode & Effects Analysis), 그리고 이중화 및 Fail-safe 메커니즘 구축 등
  - 또한, V-model을 통해 개발 단계별 업무를 정의하고 단계별 개발 활동을 확
인하기 위한 검증의 종류 및 그 수준을 정의
[그림 3] ISO26262 표준 개요
Source: ISO
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
8
ISO 21448(SOTIF, Safety of the intended functionality)은 의도된 설계 
자체가 안전을 확보하기에 불충분/부적절한 경우에 대한 표준(2019년 공개사양
(PAS, Publicly Available Specifications)발표 및 2022년 국제표준 확정)
  - 의도된 기능(intended functionality)의 기능적 한계(functional insufficiencies) 
또는 합리적으로 예상 가능한 사용자 오용(reasonably foreseeable 
misuse by persons)에 따른 불합리한 위험이 없는 상태(absence of 
unreasonable risk)를 ‘의도된 기능의 안전성(SOTIF)’라고 정의
  * ‘기능적 한계’란 센서나 알고리즘 등이 정상 작동 하지만 성능의 저하 또는 한계 또는 
환경적 요인으로 상황을 제대로 인지·대응하지 못하는 경우, ‘예상 가능한 사용자 오
용’이란 사용자가 시스템을 잘못 사용하거나 시스템의 한계를 몰라 발생하는 위험
  - SOTIF는 E/E 시스템의 고장 자체를 다루는 FuSa와 달리, 결함이 없는 시
스템임에도 불구하고 위험한 행동(hazardous behavior)을 유발하여 기대한 
대로 안전하게 작동하지 않는 상황인 코너 케이스(Corner Cases)에 초점
  - 사용자 오용을 막기위한 명확한 운영 설계 영역(ODD, Operational 
Design Domain) 설계와  AI 기반 알고리즘의 불충분성이나 잘못된 
HMI(Human-Machine Interface) 설계 문제가 SOTIF의 주요 영역
  - SOTIF 활동의 최종 목표는 Unsafe 영역에 존재하는 잠재적 위험 행동을 
평가하고 시나리오에 의해 유발된 잔류 위험(Residual Risk)이 허용 기준
(Acceptance Criteria) 또는 그 이하에서 충분히 낮게 관리하게 하는 것
[그림 4] SOTIF를 통한 위험 시나리오 관리
Source: Macher, G., et al. (2019)
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
9
<표 2> FuSa – SOTIF – AI안전 표준 비교
구분
ISO 26262 (기능 안전)
ISO 21448 (SOTIF)
ISO/PAS 8800 (AI 안전)
대상
위험
- 전기/전자 시스템의 
결함(Fault)으로 인한 위험
: HW고장, SW결함, 
통신오류 등
<운행전 안전>
- 결함 없는 상태에서 
기능 성능 한계·오용으로 
인한 위험
: 센서인지한계, 
알고리즘오판, 사용자오용 등
<운행중 안전>
- AI 기반 시스템의 모델 
오류, 학습 데이터 편향, 
운영 환경 편차로 인한 위험
: 인공지능판단오류, 
ML불확실성, 데이터드리프트
<운행전 안전>
문제
정의
결함 → 오작동 → 위험을 
어떻게 통제할 것인가?
정상 동작 중에도 기능 
한계로 위험이 발생하지 
않는가?
AI 모델이 학습·추론 
과정에서 안전하고 예측 
가능하게 동작하는가?
접근
방식
- HARA로 위험 분석 및 
ASIL 등급 결정
- 결함예방/감지/완화설계 
(이중화,모니터링)
- 시나리오 기반 
Hazardous Scenario 식별
- 트리거조건분석 및 
설계개선·ODD제한
- AI 안전 Engineering 
프로세스 적용
- 데이터·모델·운영단계 - 
전생애주기위험관리
불확실성관리및검증
핵심
활동
- HW 결함 모델링, 
FMEDA/FTA/FMEA 수행
- SW안전요구사항 및 
안전메커니즘구현
- 성능 한계 
분석(Performance 
limitation)
- 오인지/미인지 
시나리오모델링
알려진/미지 
위험시나리오검증
- 데이터 품질 관리, 모델 
Robustness 평가
- Bias·Drift관리, 
Explainability확보
- AI개발·운영프로세스관리
검증
방법
- 결함 주입 테스트(Fault 
Injection)
- HW신뢰성시험
- ASIL기반시험
- 시나리오 기반 테스트
- 대규모시뮬레이션
- 기능성능검증(센서/AI)
- 미지위험탐색
- AI 성능 검증(Validation), 
Robustness 테스트
- 데이터셋검증, 
시나리오기반평가
- 불확실성기반성능검증
표준
성격
2011 제정 → 2018 개정
기능안전국제표준
전통E/E결함관리중심
2019 PAS → 2022 
국제표준
기능안전보완표준
ADAS/자율주행위험관리
2024 발행(신규)
AI시스템 
안전원칙/프레임워크제공
ISO/IEC42001(AI관리체계)
와연계
안전
목표
결함 발생 시 안전 상태 
유지 혹은 안전 전이
기능 성능 한계·오용으로 
인한 위험 최소화
AI 모델의 신뢰성·예측 
가능성 확보, 
운영환경변화에도 
안전성유지
주요
산출물
HARA 보고서, ASIL 근거,
시스템/소프트웨어안전요
구사항, FMEDA/FTA문서
시나리오 리스트, 기능 
성능 분석 보고서,
SOTIF검증계획·결과,
ODD정의
AI 데이터 관리 문서, 모델 
위험 분석,
Robustness·Bias평가보고서
운영단계 모니터링전략
적용
분야
ECU, 센서, 제어기 등 
전통 자동차 E/E 시스템
ADAS, 자율주행, 
인지·판단·AI/ML 기반 
시스템
AI 기반 시스템(자율주행, 
의료AI, 제조AI 등)
ML·DL모델을 포함한 모든 
안전 중요AI
ISO/PAS 8800은 AI 기술을 사용하는 차량 시스템의 안전을 다루기 위해 도
입된 표준으로, 기존 ISO 26262와 ISO 21448을 보완하여 AI 기반 자동주
행시스템(ADS, Automated Driving Systems) 프레임워크를 완성(2024년 신
규제정)
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
10
  - AI 모델의 개발 및 배포 과정에서 데이터 품질 및 무결성(Data Quality and 
Integrity)을 확보하는 데 중점을 두며 이를 위해 AI 내부 구조나 학습 데이터 품
질 체크를 포함한 AI 모델 전체 생애주기(Lifecycle)를 대상으로 함
  - AI 모델이 개발 및 배포되는 방식의 투명성(Transparency)을 높여, 이해관계자들
의 신뢰를 구축하고 AI의 윤리적이고 책임감 있는 사용을 지원
자율주행 기술의 발전에 따라, 각국은 기술 수용과 안전 담보 사이에서 규제적 
균형점을 모색하는 과정이며 국내 적용 방안도 검토 중
유엔유럽경제위원회(UNECE, United Nations Economic Commission for 
Europe)는 자동차 규정 조화(Harmonization of Vehicle Regulations)를 
위한 세계 포럼(WP.29) 협약국들과 관련 국제 규제를 공동 적용
  WP.29의 ‘58년 협약’의 가맹국(Contracting Parties)은 총 60개국에 달하며 이들 국
가는 다른 가맹국이 부여한 차량 승인 결과를 인정함으로써 글로벌 시장 진출 지원. 
미국, 중국, 캐나다 등은 여기에 참여하지 않고 독자적인 국가 표준(예: 미국 FMVSS, 
중국 GB)을 유지. 단, ‘98년 협약(UN GTRs, Global Technical Regulations)’에 
참여하여 기술 표준 자체의 조화에는 기여
UNECE는 R157(ALKS, Automated Lane Keeping Systems)을 통해 
Level 3 자동 주행 시스템에 대한 구속력 있는 국제 규정을 제시
  - Level 3 시스템에 대해 이중화 시스템, 실패 안전성(fail-safe), 인간-기계 인터페
이스 모니터링, 그리고 차량 데이터의 지속적인 기록(EDR, Event Data 
Recorder) 메커니즘을 필수적으로 요구하며 제조사가 시스템의 안전한 작동을 입
증하고 사고 발생 시 원인을 명확히 할 책임을 지게 됨을 명시
  - R157에 따라 승인을 신청하기 위해서는 사이버 보안(R155) 및 소프트웨어 업데
이트(R156)에 대한 UNECE 규정을 입증 가능하게 준수하는 것이 선행되어야 함
  ALKS는 특정상황에서만 작동 - 고속도로 주행(보행자 및 자전거 운전자 없음, 반대편 
차량 없음), 최대 시속 130km로  주행하며 해당 조건에서 운전자의 주시의무 면제
UNECE는 R171(DCAS, Driver Control Assistance System)은 차량의 종
방향 및 횡방향 움직임을 지속적으로 제어하여 운전을 보조하는 Level 2 시
스템에 대한 안전 및 성능 요구사항을 명시한 국제 규정(2024.9.30. 공식 발효)
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
11
  - Level 2 시스템의 핵심 안전 위험인 운전자 부주의(misuse)를 기술적으로 관리하
기 위해 제조사에게 시스템 한계를 사용자에게 적극적으로 전달
  - 운전자 감시 시스템(DMS, Driver Monitoring System) 및 HMI에 대한 엄격한 
기준을 강제하여 운전자의 적극적인 개입을 전제로 진행
미국 정부는 신산업·신기술 육성을 위해 '네거티브(negative) 규제' 원칙
  - 미국도로교통안전국(NHTSA, National Highway Traffic Safety Administration)
은 Level 3 규정을 아직 별도로 마련하지 않았으나, 광범위한 사후 규제권한을 보유
  * NHTSA는 오토파일럿의 마케팅에 대해 오해의 소지가 있거나 사기성 있는 표현이나 
정보에 대해 조치를 취할 수 있는 권한을 보유하고 있으며, ADS 안전 프로세스에 대한 
독립적인 평가와 업계 표준 준수를 포함하는 평가 프로그램(AV STEP, 
ADS-equipped Vehicle Safety, Transparency, and Evaluation Program)을 발표
  - Level 2 중심이지만 제조사는 마케팅·데이터 투명성 위반 시 큰 사법 리스크(징벌
적 배상)를 감수
  * 테슬라 공식 FSD Supervised 지원국 목록(미국·캐나다·중국 등)은 네거티브
(negative) 규제를 준용하고 있어 적용 가능하며, 호주는 테슬라 FSD 를 2단계 기
능으로 허용하였지만 손이 떨어진채 운전이 가능하여 논란
우리나라는 UNECE의 자동차 규정 조화를 위한 세계 포럼(WP.29) 협약국이
므로, 관련 자율주행 Level 2 기능 적용에 대한 국제 규제를 공동 적용
  - 이에 따라 「자율주행자동차 상용화 촉진 및 지원에 관한 법률」 및 「자동차관리법」
체계에서, 테슬라의 ‘운전자 개입이 필요 없는 FSD’는 적용에 한계가 존재
  * 자동차부품의 성능과 기준에 관한 규칙 [별표 27]의 ‘부분 자율주행시스템의 안전기
준(제111조의3 관련)’과 FSD 동작이 상이함
  - 다만, 감독형 FSD는 UNECE의 R171 DCAS가 적용이 예정되어 있고, 한·미 
자유무역협정(FTA)에 따라 국내 안전기준과 달라도 ‘자기인증’ 방식으로 도
입이 가능할 것으로 전망 
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
12
IV. 결론 및 제언
테슬라 오토파일럿 판결은 SW 안전 문제가 이제 기술적 결함을 넘어 법적 제
조물 책임(Product Liability)의 핵심 쟁점이 되었음을 입증
L2 시스템 책임 경계의 붕괴: 운전자의 명백한 부주의(67% 책임)에도 불구하
고 제조사(33% 책임)가 유죄를 받은 것은 Level 2 시스템에 대해 '예측 가능한 오
사용 방지 의무'가 법적으로 강력하게 요구되고 있음을 반증
징벌적 손해배상 위험의 현실화: 과장된 마케팅이나 안전 위험에 대한 의식적
 무시가 입증될 경우, 기업은 규제 기관의 벌금을 넘어 민사 법원에서 치명적
인 재정적, 평판적 손실을 초래하는 징벌적 손해배상을 경험
특히, 자율주행 등 AI 기술이 자동차 기능 전반에 접목됨에 따라 SW 개발 및 
검증 프로세스들이 표준 기반으로 확장 및 재정의 진행
제조사는 전통적인 기능 안전(FuSa, ISO 26262)을 기본으로 하되, ADAS 
및 자율주행 시스템의 SW 개발 단계에서 기능적 불충분 위험을 체계적으로 
다루는 SOTIF(ISO 21448) 프로세스를 완전히 통합
또한, AI 기반 알고리즘을 사용하는 경우, ISO/PAS 8800을 준수하여 데이터 
무결성과 모델 투명성을 확보하는 것이 필수이며 훈련 데이터의 품질을 높이
고 엣지 케이스 대응 전략을 강화하는 V&V(검증 및 확인) 프로세스가 
SOTIF 위험을 최소화하는 핵심 요소로 부상하는 중
자동차 분야의 SW안전 대응 변화는 디지털전환 과정에서 SW 의존도가 높아
진 타 산업군이 위험에 대비할 수 있는 중요한 기준과 방향성을 제시
생명 및 신체의 안전과 직결되는 분야는 SW 안전 확보를 위한 최소한의 공통 
요구사항(ex. 소프트웨어 안전 확보를 위한 지침 등)을 참고하여 SW 안전 
거버넌스 체계 마련 및 지속 검토 필요
Safety(안전)와 Security(보안)은 연계 관점으로 확장된 범위에서 디지털 안
전을 통합 관리하는 노력이 요구
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
13
참고문헌
1. 참고문헌
International Organization for Standardization. (2018). ISO 26262: Road 
vehicles - Functional safety.
International Organization for Standardization. (2022). ISO 21448: Road 
vehicles - Safety of the intended functionality (SOTIF).
International Organization for Standardization. (2024). ISO/PAS 8800: Road 
vehicles - Safety and artificial intelligence.
Macher, G., Druml, N., Veledar, O., & Reckenzaun, J. (2019). Safety and 
security aspects of fail-operational urban surround perception (FUSION). In 
International Symposium on Model-Based Safety and Assessment (pp. 
286-300). Springer.
MarketsandMarkets. “Testing, Inspection, and Certification (TIC) Market - 
Global Forecast to 2030”. 2025
TechNavio. “Global AI Trust, Risk and Security Management Market 
2025-2029”. 2025
United Nations Economic Commission for Europe. (2021). UN Regulation No. 
157: Automated Lane Keeping Systems (ALKS). 
U.S. Department of Transportation. (2024). ADS-Equipped Vehicle Safety, 
Transparency, and Evaluation Program (AV STEP).
율촌. (2025, 8. 25.). 테슬라 ‘오토파일럿’ 사망사고에 대한 미국 법원의 손해배상 판결 
- 주요 내용과 전망. 법무법인 율촌 이슈리포트.
2. 기  타
Taller, H. (2022, June 16). ISO 26262와 SOTIF(ISO/PAS 21448): 무엇이 다른가? 
PTC Blog. Retrieved from 
https://www.ptc.com/ko/blogs/alm/iso-26262-vs-sotif-iso-pas-21448-whats-th
SPRi 이슈리포트 IS-212테슬라 오토파일럿 판결로 보는 SW안전 시사점
14
e-difference
TUV SUD. (n.d.). 새로운 자동 차선유지시스템(ALKS) 규정 준수. Retrieved from 
https://www.tuvsud.com/ko-kr/industries/mobility-and-automotive/automotive-
and-oem/autonomous-driving/compliance-with-new-automated-lane-keeping-s
ystem-regulation
과학기술정보통신부. (2024). 소프트웨어 안전에 관한 고시.
중앙일보. (2025, 11. 12.). 테슬라, 자율주행 국내 도입 예고…안전성 우려는 걸림돌. 
Retrieved from https://www.joongang.co.kr/article/25381623
[소프트웨어정책연구소]에 의해 작성된 [SPRI 보고서]는 공공저작물 자유이용허락 표시기준 
제4유형(출처표시-상업적이용금지-변경금지)에 따라 이용할 수 있습니다.
주      의
이 보고서는 소프트웨어정책연구소에서 수행한 연구보고서입니다. 
이 보고서의 내용을 발표할 때에는 반드시
소프트웨어정책연구소에서 수행한 연구결과임을 밝혀야 합니다.
테슬라 오토파일럿 판결로 보는 SW안전 시사점 
Software Safety Implications of the Tesla Autopilot Court Decision
경기도 성남시 분당구 대왕판교로 712번길 22 글로벌 R&D 연구동(B)
Global R&D Center 4F 22 Daewangpangyo-ro 712beon-gil, Bundang-gu, Seongnam-si, Gyeonggi-do
 
www.spri.kr