본문 바로가기 주메뉴 바로가기 검색 바로가기
테슬라 오토파일럿, 특수한 위험성 지녀...지금도 존재할 가능성 제기
상태바
테슬라 오토파일럿, 특수한 위험성 지녀...지금도 존재할 가능성 제기
미국 연방 규제 기관은 테슬라 오토파일럿 관련 충돌 사고와 사망 사고 조사 보고로 오토파일럿의 표준 보호 부재라는 결론을 내렸다.
By AARIAN MARSHALL, WIRED US

2024년 4월 26일(현지 시각), 테슬라의 오토파일럿 시스템의 치명적인 충돌 사고 최소 13건이 테슬라 측에서 예측할 수 있었던 방식으로 운전자가 시스템을 잘못 사용하여 발생하였으며, 추가 예방이 가능했다는 사실을 발견한 미국 연방 보고서가 발행되었다. 게다가 보고서는 테슬라의 주행 보조 기능에는 다수 경쟁자가 적용한 기본 사전 주의 대책이 없다는 점에서 테슬라를 ‘업계의 이단아’라고 칭하기도 했다. 이제 당국은 기본 설계 문제 수정과 치명적인 사고 예방 차원에서 업데이트 설계를 마친 테슬라 오토파일럿이 성공하였는가 의문을 제기한다.

미국 연방 도로 안전 당국인 미국 고속도로 교통안전국(NHTSA)이 수집한 뒤 공개한 데이터 기준 오토파일럿을 잘못 조작한 탓에 발생한 충돌 사고 사망자 수는 14명, 부상자는 49명이다.

정부 소속 엔지니어가 철저하게 검증한 전면 충돌 사고 중 적어도 절반은 사고 발생 5초 혹은 그 전에 위험성을 예측할 수 있었던 것으로 나타났다. 사고는 발생한 주행 중 다른 차량이나 장애물과 직접 충돌한 사고이다.

당국이 조사한 사고 중 2023년 3월, 노스캐롤라이나 지역에서 모델 Y가 고속도로 주행 속도로 주행하다가 스쿨버스에서 내리던 청소년 한 명을 친 사고도 있었다. 사고 당시 응급 구조 헬기를 동원하여 피해 학생을 병원으로 이송하여 심각한 부상을 치료했다. NHTSA는 “버스와 보행자 모두 주행 도중 주의를 기울인 운전자를 볼 수 있었으며, 운전자가 충돌 사고를 피하거나 적어도 사고 피해 수준을 최소화할 수 있었다”라며, 해당 사고의 결론을 내렸다.

정부 엔지니어는 보고서에 “조사를 진행하는 내내 주의를 기울인 운전자가 인지할 수 있었던 피해와 관련된 충돌 피해를 피할 수 있을 만한 양상을 관측했다”라고 기술했다.

2021년, 공공 문제 부서를 해체한 테슬라는 와이어드의 오토파일럿 사고 조사 결과와 관련한 문의에 답변하지 않았다.

보고서는 테슬라의 자동화 주행 시스템 접근 방식을 언급하면서 테슬라를 업계 이단아로 칭했다. 보고서는 테슬라가 자동차 업계의 다른 제조사와 달리 오토파일럿이 초기 설계가 되지 않은 상황에서도 운영할 수 있도록 두고, 운전자가 도로 상황에 집중하도록 하는 운전자 개입 시스템과 호환하지 못했다고 지적했다.

규제 당국은 오토파일럿이라는 이름 자체도 문제라는 결론을 내렸다. 운전자가 오토파일럿 시스템에 협력하여 주의를 기울여 운전하기보다는 시스템에 의존하도록 유도했기 때문이다. 보고서에 기술된 바와 같이 다른 자동차 제조사는 자사 주행 보조 시스템 명칭에 ‘보조’, ‘감지’, ‘팀’ 등과 같은 표현을 사용한다. 특히, 주행 보조 시스템 자체가 완전 자율 주행을 하도록 설계된 것이 아니기 때문이다.

2023년, 캘리포니아 규제 당국은 테슬라가 오토파일럿과 FSD(Full Self-Driving) 시스템을 거짓 광고했다고 고발하며, 테슬라가 소비자에게 자사 차량이 완전 자율 주행을 한다고 믿도록 오해를 유발했다는 의혹을 제기했다. 테슬라 측은 법원 문건을 통해 캘리포니아주가 다년간 오토파일럿이라는 브랜드 이름을 거부하지 못한 점을 테슬라의 광고 전략의 암묵적 승인에 해당한다고 주장했다.

NHTSA는 타사 시스템과 비교했을 때 오토파일럿은 운전자가 차량을 직접 제어하려 할 때 운전자의 조작을 거부하는 때가 있다는 결론을 내리기도 했다. NHTSA는 약 2년간 오토파일럿을 조사한 뒤 작성한 요약문을 통해 오토파일럿의 운전자 제어 거부는 운전자가 운전 도중 시스템 작동에 참여하지 않도록 유도한다고 설명했다.
 
[사진=Unsplash]
[사진=Unsplash]

새로이 진행한 오토파일럿 조사
오토파일럿과 관련하여 발생한 충돌 사고는 테슬라의 차량 리콜과 2024년 초 진행한 오토파일럿 소프트웨어 무선 업데이트 이전에 발생한 사고이다. 그러나 NHTSA는 조사를 마치면서 테슬라가 2024년 2월 진행한 업데이트가 실제로 운전자의 잘못된 오토파일럿 사용이나 오토파일럿 기능의 실제 사용 오해, 작동하도록 설계되지 않은 곳에서의 사용을 충분히 막는가 확인하고자 새로운 조사를 개시했다.

NHTSA의 검토는 2024년 4월, 워싱턴주의 어느 한 모델 S 차량 운전자가 오토파일럿으로 주행하면서 스마트폰을 사용하다가 오토바이 충돌 사고를 낸 뒤 오토바이 운전자가 사망한 사고가 발생한 뒤 진행되었다.

NHTSA는 운전자가 리콜로 수정할 부분을 선택할 수 있다는 공식 성명과 부품을 손쉽게 바꿀 수 있다는 테슬라의 공식 성명도 조사한다.

테슬라 측은 리콜 이후 수정 사항 중 오토파일럿 사용 시 운전자의 엄격한 도로 상황 집중 요구 사항과 포괄적인 운전자 검토 경고, 부적절한 시스템 사용 사실 발견 시 운전자의 시스템 사용 일시 중단 정책 등이 포함되었다고 발표했다.

자율주행 차량 안전을 연구한 적이 있는 카네기멜론대학교 엔지니어링 교수 필 쿠프만(Phil Koopman)은 “테슬라는 주행 모니터링을 진지하게 생각하고, 주행 시스템 설계 시 도로에서의 사용을 제한해야 하여 대중의 분노에 대응해야 한다”라고 주장했다. 쿠프만 교수는 테슬라가 오토파일럿 결함에 더 진지하게 개입하지 않는다면, 조사와 리콜 과정이 몇 년간 반복될 것으로 예상한다.

2024년 2월 자로 보도된 컨슈머 리포트 기사에서 차량 전문가 여러 명이 테슬라 리콜 수정 사항이 오토파일럿의 잘못된 사용 사례를 막지 못할 것이라고 전했다.

오토파일럿을 대상으로 한 새로운 조사는 최악의 판매 실적 기록과 수년간 매출 성장세가 저조한 시기에 추가된 문제이다. 테슬라는 2023년 가을 공개된 규제 문건을 통해 오토파일럿과 배터리 장착 차량의 주행 범위를 다루는 방식을 대상으로 한 미국 법무부의 수사를 직면했다고 밝혔다.

이번 수사 시점은 테슬라의 자치권이 추가로 압박을 받은 매우 불편한 시점이기도 하다. 일론 머스크는 4월 23일(현지 시각), 실적 발표 현장에서 테슬라의 최근 실적 하락세를 우려하지 않는 듯한 모습을 보이며, 테슬라의 자치권에 주력하면서 자율주행 차량 공유 서비스로 운영 사업을 전면 전환할 계획을 밝혔다. 머스크는 “테슬라는 인공지능(AI)이나 로봇 개발 기업을 고려해야 한다. 테슬라가 단순히 자동차 제조사라는 가치만 지녔다면, 기본적으로 잘못된 프레임워크일 뿐이다”라고 말했다.

머스크는 테슬라가 특수 목적으로 생산한 테슬라 로보택시인 사이버캡(Cybercab)을 2024년 8월 공개할 예정이라고 밝혔다. 2024년 4월 21일(현지 시각), 첨단 주행 보조 기능인 FSD 가격을 1/3 수준인 8,000달러로 인하했다. 테슬라는 3월부터 자사 차량 고객에게 30일간 FSD 무료 사용 서비스를 제공하기 시작했다. 이제 테슬라의 초기 플래그십 자율주행 기술이 새로 감독을 받게 되었다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Tesla Autopilot Was Uniquely Risky—and May Still Be
이 기사를 공유합니다
RECOMMENDED