2017.02.27

자율주행 자동차가 절대로 자율주행을 하지 못하는 이유

Lucas Mearian | Computerworld
기사의 제목을 보고 무슨 말장난이냐고 고개를 갸우뚱한 독자 여러분이 많을 것이다. 사례를 통해 설명을 할 것이다.


Credit: YouTube

고속도로에 두 대의 자율주행 자동차가 달리고 있다. 뒤차와의 간격이 가까워지자, 앞서가던 자동차는 거리 유지를 위해 속도를 높인다. 같은 시각 뒤차는 앞차와의 충돌 위험을 줄이기 위해 속도를 줄인다. 이로써 두 자율주행 자동차 사이의 간격이 벌어지자, 그 사이에 또 다른 차량이 끼어든다. 이 차선 변경으로 인해 이번에는 세 차량 모두가 속도를 변경하는 상황이 벌어진다.
문제는 고속도로에 이 세 차량만 주행 중인 것이 아니며, 그 앞뒤, 좌우로 다른 여러 자동차들이 달리고 있다는 점이다.

이런 상황 속에서 자율주행 자동차는 어떤 행동을 취할 수 있을까? 지금부터 설명할 내용은 절대 웃자고 하는 얘기가 아니다.

전문가들은 이런 시나리오를 '맥동율(ripple factor)'라 지칭한다. 내장 소프트웨어가 다양한 돌발 상황에 대처하는 방식을 이해하고, 적절하지 못한 대처로 자율주행 자동차가 사고를 일으킬 위험을 파악하기 위해 카네기 멜른 대학(Carnegie Mellon University, CMU)의 연구원들은 이 주제를 연구하고 있다.

키메라 X(KeYmaera X)는 차량용 컴퓨터가 현실에서 발생 가능한 상황들을 어떻게 추론하는 지를 이해하고, 나아가 어떤 상황에 탑승자에게 주행 역할을 위임할 지 결정하기 위한 목적으로 개발된 개념 증명(proof of concept) 소프트웨어다.


지난해 5월 7일 미국 플로리다 주에서 발생한 테슬라 모델 S와 트레일러 트럭과의 교통사고. 미국 NHTSA는 테슬라의 오토파일럿 준자율주행 시스템의 잘못이 아니라고 진단했다. 

2톤 차량(또는 16톤 세미 트랙터 트럭)을 조종할 자율주행 소프트웨어를 신뢰한다는 것은 우리에게 한가지 고민거리를 안겨준다. 바로 그 소프트웨어 상품을 프로그래밍하는데 제조업체마다 서로 다른 기준이 적용된다는 문제다. 그리고 하나의 소프트웨어에 작은 결함이라도 존재할 경우, 이로 인한 문제는 그것이 적용된 모든 자동차, 트럭에서 발생할 수 있다.

CMU 컴퓨터 과학 대학의 앙드레 플랫저 부교수는 "소프트웨어의 신뢰도는 철저히 그것이 프로그래밍된 방식에 좌우된다. 우리가 어떤 상황에 대해 실수를 저질렀다면, 그 실수는 모든 솔루션에서 동일하게 발생하게 된다. 한 사람의 한번의 실수가 5만 대의 컴퓨터에 실수를 유발할 수 있는 것이다"라고 말했다.

이런 이유로 '운전이 필요 없는(driverless)' 자동차에서도 운전자는 항상 상황을 주시하며 언제라도 운전에 참여할 준비를 하고 있어야 한다고 플랫저는 강조한다.

플랫저는 미 방위고등연구계획국(DARPA) 고신뢰 사이버 국방 시스템(High-Assurance Cyber Military Systems, HACMS) 프로젝트에 참여하는 연구원 가운데 한명이다. HACMS는 군의 경험 내용을 바탕으로 자율주행 시스템 제어 기술을 강화하는데 목적을 둔 프로젝트다.

효율적인 자율주행 자동차 컴퓨터 알고리즘을 개발하는 과정에 존재하는 문제란 어떻게 차량의 자기인식을 보장할지, 그리고 그것을 통해 시스템이 스스로의 운영 한계를 이해하도록 할 지의 여부다.

플랫저는 "우리 세계, 그리고 도로는 매우 복잡한 공간이다. 도로 그 자체는 늘 그대로 머물러 있지만 도로 위의 상황은 매 순간 변화한다. 알고리즘에 수백만 건의 시나리오를 입력한다 해도, 테스트 환경을 벗어난 상황은 언제든지 발생할 수 있다"고 설명했다.

자율주행 차량 사고, 누구의 책임인가
자율주행 자동차와 관련한 이슈는 안전의 영역을 넘어 법률적 고민으로까지 이어진다. 자율주행 자동차가 대중화됨에 따라 그것이 사고를 일으켰을 때, 그 책임 소재를 누구에게 물을 것인지에 대한 공방 역시 더욱 빈번하게 벌어질 것이다.

스스로 운전하던 자동차가 사고를 일으켰다면, 그 책임은 운전자에게 물어야 할까? 아니면 제조사가? 그것도 아니라면, 자율주행 소프트웨어를 제작한 개발자가 책임을 줘야할까?

폴리 & 라드너 LLP(Foley & Lardner LLP)에서 지적 재산 전문 변호사이자 파트너로 활동하고 있는 마이클 오벌리는 "내가 결함있는 소프트웨어를 작성했고, 이로 인해 다수의 인명, 재산 피해가 발생했다고 가정해보자. 나는 사고의 책임에서 자유로울 수 있을까? 답은 '어렵다'이다. 내가 아무런 처벌도 받지 않는다면 사고로 재산적, 신체적 피해를 입은 당사자의 입장에서도 도저히 납득이 불가능할 것이다"고 설명했다.

오벌리는 현행 법적 규제 하에서는 이런 상황에서 제조업체가 책임을 회피 여지가 있다는 설명을 덧붙였다. 하지만 이와 관련해 미국 법률 협회는 제조업체에 사고 책임을 지우지 않는 규정들이 공공 안전에 악영향을 미친다는 내용의 보고서를 발행하는 등, 잡음이 일고 있는 상황이다. 결국 실제 법원의 판례가 나오기 전까진 어떤 가정도 확정적이지 않은 것이다.


 Credit: Waymo

소비자 또는 기업이 자율주행 자동차를 구매하기 위해서는 계약서에 서명을 거치게 된다. 즉 소프트웨어가 일으키는 모든 결과에 대한 책임을 공유하게 되는 것이다. 반면 해당 자동차에 치인 일반 보행자는 '어떤 계약서에도 동의하지 않은' 순수한 피해자로 남게 된다.

오벌리는 "중단기적으로는 탑승한 운전자에게 자율주행 소프트웨어가 야기한 사고에 대한 궁극적인 책임 공유가 요구될 것이다"라고 말했다.

자동차 산업에 법률적 분쟁을 야기하는 문제는 소프트웨어 결함이나 안전 부주의에 한정되지 않는다. 만일 어떤 해커가 차량에 대한 통제권을 탈취하게 되는 경우에도 제조업체는 관련 법적 논쟁에 휘말리게 될 수 있다.

오벌리는 "소프트웨어의 행위는 언제나 그것의 제작자와 연결되어왔다. 그리고 그 소프트웨어가 매우 빠른 속도로 이동하는 거대한 크기의 기기, 즉 인간과 재산에 막대한 해를 끼칠 수 있는 기기를 구동하는 경우에는 한층 높은 기준이 요구된다. 변호사들이 사고를 심층적으로 분석한다면, 결국 문제의 시발점으로 귀결되는 지점이 어디일까"라고 말했다.

자율주행 차량과 관련한 책임을 명시하는 규정은 현재로서는 마련되어있지 않은 상태다. 오벌리는 그 원인 가운데 하나로 자율주행 자동차가 보편화되려면 앞으로 5년은 남은 상황에서, 입법자들에게 이것이 급박한 문제로 비춰지지 않고 있다는 점을 이야기했다.

오벌리는 "자율주행 자동차가 얼마나 빠른 속도로 사회에 확산될지 현재로서는 누구도 단언하기 어렵다. 개인적인 가정으로는, 소프트웨어 운영에 적용되는 연방 가이드라인은 법적 책임과는 독립적인 논의로 다뤄져야 한다고 본다"라고 말했다.

영국, 책임 소재 마련 위해 논의 진행
자율주행 기술의 본격적인 보급이 앞으로 수년은 더 소요될 것이라는 이유로 자율주행 차량의 책임 이슈에 관한 본격적인 논의가 이뤄지지 않고 있는 미국 입법계의 상황과 달리, 다른 국가에서는 관련 논의가 이미 진행되는 중이다. 자율주행 차량의 시장 보급 원년을 2020년으로 내다보고 있는 영국이 그 대표적인 사례다.


Credit: Daimler AG

이번 달 영국 차량국은 첨단 운전자 보조 시스템(Advanced Driver Assistance System, ADAS)이 적용된 차량 소유자에게 이원(two-in-one) 보험 가입을 요구하겠다는 계획을 발표했다. 차량국이 언급한 이원 보험 정책이란 소유자가 직접 차량을 운전하는 경우와 차량이 자율 주행 모드로 운행되는 경우 보험 기준이 상이하게 적용되는 정책이다.

발표된 정책 구상에 따르면, 차량이 자동 운행 모드에서 사고를 일으킬 경우에, 보험업체는 운전자가 아닌 차량 제조사에게 관련 보상을 청구하게 된다. 오늘날의 반자율, 완전 자율주행 차량들은 사고 방지를 위한 주변 감지에 GPS와 레이더, 카메라를 활용한다. 이와 달리 미래의 자율주행 자동차들은 차량 간(Vehicle-to-Vehicle, V2V), 차량-인프라스트럭처 간(Vehicle-to-Infrastructure, V2I) 단거리 통신을 이용해 안전을 보장한다.

V2V 통신은 차량이 주변 차량의 활동 계획을 파악하는데 이용되며, V2I 통신은 차량이 자신이 나아갈 경로 위의 상황을 파악하는데 이용되는 통신이다.

미 법률 협회 소속 변호사 크리스토퍼 돌란은 "예를 들어 V2I 기술은 현재 탑승자에게 빨간 불, 교차로, 기상상황, 커브, 공사 구간 등의 정보를 전달해 '대응'하는데 초점을 두고 연구가 진행 중이다"고 설명했다.

돌란은 최근 한 기고를 통해 미국 도로교통안전국(National Highway Traffic Safety Administration, NHTSA)이 V2V 기술을 반영해 발표한 '지능형 교통 시스템(Intelligent Transportation Systems)' 규제 권한이라는 이름의 1966 국립 교통 및 차량 안전법 개정에 관해 언급한 바 있다.


Credit: Ford

이 기고문에서 돌란은 "NHTSA는 향후 V2V 시스템이 완벽한 성숙에 도달할 경우 연간 발생하는 단순 충돌 사고와 대형 사고가 최대 81% 감소하게 될 것으로 내다보고 있다"고 설명했다.

그러나 여러 산업 전문가, 기관들은 자율주행 자동차가 아무리 발달하더라도 실제 인간이 그것의 통제권을 넘겨받을 여지는 언제나 남겨둬야 한다고 이야기한다.

자율주행 기술의 역할 범위
2014년 9월 캘리포니아 지역에서 진행된 자율주행 자동차 관련 테스트의 결과가 발표된 이후부터 미국 소비자 감시단체인 컨슈머 워치독(Consumer Watchdog)은 자율주행 차량에 탑승한 '운전자'에 대한 규제의 필요성을 꾸준히 강조해왔다.

캘리포니아 당국은 자율주행 차량 기술 테스트 허가 과정에서 사고 방지를 위해 탑승자가 차량 통제권을 확보하는 시점을 설명하는 '자율모드 해제 리포트'를 제출하도록 기업들에게 요구해왔다.

2016년 주 정부가 발표한 바에 따르면, 자율모드 해제 리포트를 제출한 기업은 보쉬, BMW, 델파이, 포드, GM, 닛산, 혼자, 메르세데스-벤츠, 폭스바겐, 테슬라 모터스, 그리고 구글의 자회사 웨이모(Waymo)까지, 총 11곳이었다.


Credit: Martyn Williams

미국에서 테스트 주행이 허가된 지 2년이 지난 지금, 시장을 이끄는 주인공은 97%의 자율 주행률(현재로서는 인간 참여가 최소화된 수치다)을 구현하는데 성공한 웨이모다.

2015년 45만 4,000마일(73만 km) 이상의 거리를 주행하며 웨이모의 테스트 운전자가 차량 통제권을 넘겨받은 상황은 총 341건이었다. 반면 2016년에는 총 63만 5,000 마일(102만 km) 이상을 운전하며 운전자가 조작에 관여한 횟수는 124회로 감소했다. 2015년에 비해 19% 감소한 수치다.

2015년 제출된 각 업체들의 보고서를 살펴보면, 우선 차량 제조업체들에 자율주행 기술을 공급하는 보쉬의 경우에는 983마일(1,581km)의 거리를 주행하며 1,442회의 드라이버 조작이 있었다고 보고했다.

부품 공급업체 델파이의 경우 3,125마일(5,029km) 주행/178회 참여, 포드는 590마일(950km) 주행/3회 참여, 닛산은 4,099마일(6,597km) 주행/28회 참여, 메르세데스-벤츠는 673마일(1,083km) 주행/336회 참여, 폭스바겐은 1만 416마일(1만 6,763km) 주행/260회 참여가 있었다고 각각 보고했다(2016년 데이터는 아직 보고되지 않았다). 마지막으로 테슬라의 경우 자사 완전 자율주행 테스트 차량을 통한 550마일(885km) 시운전에서 총 182회의 운전자 참여를 보고했다.

컨슈머 워치독 측은 "도로의 안전을 위협할 자율주행 차량 기술의 배치를 합리화할 근거는 턱없이 부족하다"고 지적했다.
컨슈머 워치독의 프로젝트 리더 존 심슨은 지난해 발표를 통해 "자동 긴급 브레이크 등 자율 차량 기술이 우리의 안전에 기여할 수 있는 부분도 분명히 존재한다. 우리 역시 이런 기술에는 적극 지지를 보낸다. 즉 시스템의 역할은 인간 운전자의 역량을 증진하고 그들의 단점을 보완하는 것으로 제한되어야 한다는 것이 우리의 입장이다"고 설명한 바 있다.

컨슈머 워치독은 캘리포니아의 '자율주행 해제 보고서(disengagement reports)'가 보여주듯 자율주행 자동차가 보행자나 자전거 탑승자, 신호등, 관목, 거리에 주차된 차량 등 우리가 일상적으로 마주하는 대상을 완벽하게 인지하지 못하는 것이 현실이라고 지적하며 이것의 보급이 각종 심각한 인명, 재산 피해를 야기할 위험이 있다고 주장했다.

이 기관들은 자율주행 자동차가 도로에서 발생하는 다양한 돌발 상황들에 대처하는 능력 역시 떨어진다는 지적도 덧붙였다.

실제로 자율주행 자동차가 도로 위의 모든 상황에 완벽히 대처하지는 못하는 것이 사실이지만, 소프트웨어가 인간의 오류로 인해 발생하는 사고 예방에 일정 수준 이상의 역할을 수행한다는 점 역시 데이터를 통해 증명되고 있는 사실이다.

일례로 올해 1월 NHTSA 소속 연방 조사관은 테슬라가 제출한 자료를 인용하며 이들 기업의 첨단 운전자 보조 시스템 오토파일럿 기능이 차량 충돌률을 40% 가량 낮출 수 있다고 이야기했다.

테슬라의 CEO 엘론 머스크 역시 자사의 오토파일럿 기능이 인간 오류로 인해 발생하는 교통사고를 최대 절반까지 감소시킬 것이라 주장한 바 있다.

테슬라는 지난해 11월에도 오버 디 에어(over-the-air) 방식으로 소프트웨어 업그레이드를 배포했는데, 여기에서는 오토파일럿 기능의 개선에 더해 운전자에게 운전대에서 손을 떼지 말 것을 당부하는 멘트 또한 추가적으로 적용됐다.


Credit: NHTSA 

테슬라의 시스템은 '스트라이크 아웃' 전략을 활용해 운전자의 참여를 지속적으로 높여나갈 예정이다. 사용자가 운전대를 쥐도록 요구하는 모니터링 시스템 알림창에 반응하지 않을 경우, 해당 여정 동안 오토파일럿 지원이 중단되는 방식이다.

CMU의 플랫저 역시 인간 운전자가 컴퓨터의 계측 정확도, 판단 속도를 능가하기란 불가능하지만, 도로에서 발생하는 까다로운 상황들에 대처하는 데에는 보다 나은 역량을 지니고 있다는데 동의한다. 다만 주행 판단권을 인간과 컴퓨터 중 누구에게 부여할 지를 결정하는 상황 기준을 수립하는 문제는 여전히 고민이 필요한 부분이다.

플랫저는 "혼잡한 사거리에 진입하면, 컴퓨터는 인간에게 주행을 위임해야 한다. 그 복잡한 상황은 명백히 인간이 더 잘 다룰 수 있기 때문이다. 하지만 컴퓨터가 그 시점을 명확히 포착하지 못할 수도 있다. 모든 상황 시나리오를 설계에 반영하긴 불가능하기 때문이다. 때문에 이런 상황에서는 인간 스스로가 판단에 주도적인 역할을 수행해야 한다"고 설명했다. editor@itworld.co.kr
 


2017.02.27

자율주행 자동차가 절대로 자율주행을 하지 못하는 이유

Lucas Mearian | Computerworld
기사의 제목을 보고 무슨 말장난이냐고 고개를 갸우뚱한 독자 여러분이 많을 것이다. 사례를 통해 설명을 할 것이다.


Credit: YouTube

고속도로에 두 대의 자율주행 자동차가 달리고 있다. 뒤차와의 간격이 가까워지자, 앞서가던 자동차는 거리 유지를 위해 속도를 높인다. 같은 시각 뒤차는 앞차와의 충돌 위험을 줄이기 위해 속도를 줄인다. 이로써 두 자율주행 자동차 사이의 간격이 벌어지자, 그 사이에 또 다른 차량이 끼어든다. 이 차선 변경으로 인해 이번에는 세 차량 모두가 속도를 변경하는 상황이 벌어진다.
문제는 고속도로에 이 세 차량만 주행 중인 것이 아니며, 그 앞뒤, 좌우로 다른 여러 자동차들이 달리고 있다는 점이다.

이런 상황 속에서 자율주행 자동차는 어떤 행동을 취할 수 있을까? 지금부터 설명할 내용은 절대 웃자고 하는 얘기가 아니다.

전문가들은 이런 시나리오를 '맥동율(ripple factor)'라 지칭한다. 내장 소프트웨어가 다양한 돌발 상황에 대처하는 방식을 이해하고, 적절하지 못한 대처로 자율주행 자동차가 사고를 일으킬 위험을 파악하기 위해 카네기 멜른 대학(Carnegie Mellon University, CMU)의 연구원들은 이 주제를 연구하고 있다.

키메라 X(KeYmaera X)는 차량용 컴퓨터가 현실에서 발생 가능한 상황들을 어떻게 추론하는 지를 이해하고, 나아가 어떤 상황에 탑승자에게 주행 역할을 위임할 지 결정하기 위한 목적으로 개발된 개념 증명(proof of concept) 소프트웨어다.


지난해 5월 7일 미국 플로리다 주에서 발생한 테슬라 모델 S와 트레일러 트럭과의 교통사고. 미국 NHTSA는 테슬라의 오토파일럿 준자율주행 시스템의 잘못이 아니라고 진단했다. 

2톤 차량(또는 16톤 세미 트랙터 트럭)을 조종할 자율주행 소프트웨어를 신뢰한다는 것은 우리에게 한가지 고민거리를 안겨준다. 바로 그 소프트웨어 상품을 프로그래밍하는데 제조업체마다 서로 다른 기준이 적용된다는 문제다. 그리고 하나의 소프트웨어에 작은 결함이라도 존재할 경우, 이로 인한 문제는 그것이 적용된 모든 자동차, 트럭에서 발생할 수 있다.

CMU 컴퓨터 과학 대학의 앙드레 플랫저 부교수는 "소프트웨어의 신뢰도는 철저히 그것이 프로그래밍된 방식에 좌우된다. 우리가 어떤 상황에 대해 실수를 저질렀다면, 그 실수는 모든 솔루션에서 동일하게 발생하게 된다. 한 사람의 한번의 실수가 5만 대의 컴퓨터에 실수를 유발할 수 있는 것이다"라고 말했다.

이런 이유로 '운전이 필요 없는(driverless)' 자동차에서도 운전자는 항상 상황을 주시하며 언제라도 운전에 참여할 준비를 하고 있어야 한다고 플랫저는 강조한다.

플랫저는 미 방위고등연구계획국(DARPA) 고신뢰 사이버 국방 시스템(High-Assurance Cyber Military Systems, HACMS) 프로젝트에 참여하는 연구원 가운데 한명이다. HACMS는 군의 경험 내용을 바탕으로 자율주행 시스템 제어 기술을 강화하는데 목적을 둔 프로젝트다.

효율적인 자율주행 자동차 컴퓨터 알고리즘을 개발하는 과정에 존재하는 문제란 어떻게 차량의 자기인식을 보장할지, 그리고 그것을 통해 시스템이 스스로의 운영 한계를 이해하도록 할 지의 여부다.

플랫저는 "우리 세계, 그리고 도로는 매우 복잡한 공간이다. 도로 그 자체는 늘 그대로 머물러 있지만 도로 위의 상황은 매 순간 변화한다. 알고리즘에 수백만 건의 시나리오를 입력한다 해도, 테스트 환경을 벗어난 상황은 언제든지 발생할 수 있다"고 설명했다.

자율주행 차량 사고, 누구의 책임인가
자율주행 자동차와 관련한 이슈는 안전의 영역을 넘어 법률적 고민으로까지 이어진다. 자율주행 자동차가 대중화됨에 따라 그것이 사고를 일으켰을 때, 그 책임 소재를 누구에게 물을 것인지에 대한 공방 역시 더욱 빈번하게 벌어질 것이다.

스스로 운전하던 자동차가 사고를 일으켰다면, 그 책임은 운전자에게 물어야 할까? 아니면 제조사가? 그것도 아니라면, 자율주행 소프트웨어를 제작한 개발자가 책임을 줘야할까?

폴리 & 라드너 LLP(Foley & Lardner LLP)에서 지적 재산 전문 변호사이자 파트너로 활동하고 있는 마이클 오벌리는 "내가 결함있는 소프트웨어를 작성했고, 이로 인해 다수의 인명, 재산 피해가 발생했다고 가정해보자. 나는 사고의 책임에서 자유로울 수 있을까? 답은 '어렵다'이다. 내가 아무런 처벌도 받지 않는다면 사고로 재산적, 신체적 피해를 입은 당사자의 입장에서도 도저히 납득이 불가능할 것이다"고 설명했다.

오벌리는 현행 법적 규제 하에서는 이런 상황에서 제조업체가 책임을 회피 여지가 있다는 설명을 덧붙였다. 하지만 이와 관련해 미국 법률 협회는 제조업체에 사고 책임을 지우지 않는 규정들이 공공 안전에 악영향을 미친다는 내용의 보고서를 발행하는 등, 잡음이 일고 있는 상황이다. 결국 실제 법원의 판례가 나오기 전까진 어떤 가정도 확정적이지 않은 것이다.


 Credit: Waymo

소비자 또는 기업이 자율주행 자동차를 구매하기 위해서는 계약서에 서명을 거치게 된다. 즉 소프트웨어가 일으키는 모든 결과에 대한 책임을 공유하게 되는 것이다. 반면 해당 자동차에 치인 일반 보행자는 '어떤 계약서에도 동의하지 않은' 순수한 피해자로 남게 된다.

오벌리는 "중단기적으로는 탑승한 운전자에게 자율주행 소프트웨어가 야기한 사고에 대한 궁극적인 책임 공유가 요구될 것이다"라고 말했다.

자동차 산업에 법률적 분쟁을 야기하는 문제는 소프트웨어 결함이나 안전 부주의에 한정되지 않는다. 만일 어떤 해커가 차량에 대한 통제권을 탈취하게 되는 경우에도 제조업체는 관련 법적 논쟁에 휘말리게 될 수 있다.

오벌리는 "소프트웨어의 행위는 언제나 그것의 제작자와 연결되어왔다. 그리고 그 소프트웨어가 매우 빠른 속도로 이동하는 거대한 크기의 기기, 즉 인간과 재산에 막대한 해를 끼칠 수 있는 기기를 구동하는 경우에는 한층 높은 기준이 요구된다. 변호사들이 사고를 심층적으로 분석한다면, 결국 문제의 시발점으로 귀결되는 지점이 어디일까"라고 말했다.

자율주행 차량과 관련한 책임을 명시하는 규정은 현재로서는 마련되어있지 않은 상태다. 오벌리는 그 원인 가운데 하나로 자율주행 자동차가 보편화되려면 앞으로 5년은 남은 상황에서, 입법자들에게 이것이 급박한 문제로 비춰지지 않고 있다는 점을 이야기했다.

오벌리는 "자율주행 자동차가 얼마나 빠른 속도로 사회에 확산될지 현재로서는 누구도 단언하기 어렵다. 개인적인 가정으로는, 소프트웨어 운영에 적용되는 연방 가이드라인은 법적 책임과는 독립적인 논의로 다뤄져야 한다고 본다"라고 말했다.

영국, 책임 소재 마련 위해 논의 진행
자율주행 기술의 본격적인 보급이 앞으로 수년은 더 소요될 것이라는 이유로 자율주행 차량의 책임 이슈에 관한 본격적인 논의가 이뤄지지 않고 있는 미국 입법계의 상황과 달리, 다른 국가에서는 관련 논의가 이미 진행되는 중이다. 자율주행 차량의 시장 보급 원년을 2020년으로 내다보고 있는 영국이 그 대표적인 사례다.


Credit: Daimler AG

이번 달 영국 차량국은 첨단 운전자 보조 시스템(Advanced Driver Assistance System, ADAS)이 적용된 차량 소유자에게 이원(two-in-one) 보험 가입을 요구하겠다는 계획을 발표했다. 차량국이 언급한 이원 보험 정책이란 소유자가 직접 차량을 운전하는 경우와 차량이 자율 주행 모드로 운행되는 경우 보험 기준이 상이하게 적용되는 정책이다.

발표된 정책 구상에 따르면, 차량이 자동 운행 모드에서 사고를 일으킬 경우에, 보험업체는 운전자가 아닌 차량 제조사에게 관련 보상을 청구하게 된다. 오늘날의 반자율, 완전 자율주행 차량들은 사고 방지를 위한 주변 감지에 GPS와 레이더, 카메라를 활용한다. 이와 달리 미래의 자율주행 자동차들은 차량 간(Vehicle-to-Vehicle, V2V), 차량-인프라스트럭처 간(Vehicle-to-Infrastructure, V2I) 단거리 통신을 이용해 안전을 보장한다.

V2V 통신은 차량이 주변 차량의 활동 계획을 파악하는데 이용되며, V2I 통신은 차량이 자신이 나아갈 경로 위의 상황을 파악하는데 이용되는 통신이다.

미 법률 협회 소속 변호사 크리스토퍼 돌란은 "예를 들어 V2I 기술은 현재 탑승자에게 빨간 불, 교차로, 기상상황, 커브, 공사 구간 등의 정보를 전달해 '대응'하는데 초점을 두고 연구가 진행 중이다"고 설명했다.

돌란은 최근 한 기고를 통해 미국 도로교통안전국(National Highway Traffic Safety Administration, NHTSA)이 V2V 기술을 반영해 발표한 '지능형 교통 시스템(Intelligent Transportation Systems)' 규제 권한이라는 이름의 1966 국립 교통 및 차량 안전법 개정에 관해 언급한 바 있다.


Credit: Ford

이 기고문에서 돌란은 "NHTSA는 향후 V2V 시스템이 완벽한 성숙에 도달할 경우 연간 발생하는 단순 충돌 사고와 대형 사고가 최대 81% 감소하게 될 것으로 내다보고 있다"고 설명했다.

그러나 여러 산업 전문가, 기관들은 자율주행 자동차가 아무리 발달하더라도 실제 인간이 그것의 통제권을 넘겨받을 여지는 언제나 남겨둬야 한다고 이야기한다.

자율주행 기술의 역할 범위
2014년 9월 캘리포니아 지역에서 진행된 자율주행 자동차 관련 테스트의 결과가 발표된 이후부터 미국 소비자 감시단체인 컨슈머 워치독(Consumer Watchdog)은 자율주행 차량에 탑승한 '운전자'에 대한 규제의 필요성을 꾸준히 강조해왔다.

캘리포니아 당국은 자율주행 차량 기술 테스트 허가 과정에서 사고 방지를 위해 탑승자가 차량 통제권을 확보하는 시점을 설명하는 '자율모드 해제 리포트'를 제출하도록 기업들에게 요구해왔다.

2016년 주 정부가 발표한 바에 따르면, 자율모드 해제 리포트를 제출한 기업은 보쉬, BMW, 델파이, 포드, GM, 닛산, 혼자, 메르세데스-벤츠, 폭스바겐, 테슬라 모터스, 그리고 구글의 자회사 웨이모(Waymo)까지, 총 11곳이었다.


Credit: Martyn Williams

미국에서 테스트 주행이 허가된 지 2년이 지난 지금, 시장을 이끄는 주인공은 97%의 자율 주행률(현재로서는 인간 참여가 최소화된 수치다)을 구현하는데 성공한 웨이모다.

2015년 45만 4,000마일(73만 km) 이상의 거리를 주행하며 웨이모의 테스트 운전자가 차량 통제권을 넘겨받은 상황은 총 341건이었다. 반면 2016년에는 총 63만 5,000 마일(102만 km) 이상을 운전하며 운전자가 조작에 관여한 횟수는 124회로 감소했다. 2015년에 비해 19% 감소한 수치다.

2015년 제출된 각 업체들의 보고서를 살펴보면, 우선 차량 제조업체들에 자율주행 기술을 공급하는 보쉬의 경우에는 983마일(1,581km)의 거리를 주행하며 1,442회의 드라이버 조작이 있었다고 보고했다.

부품 공급업체 델파이의 경우 3,125마일(5,029km) 주행/178회 참여, 포드는 590마일(950km) 주행/3회 참여, 닛산은 4,099마일(6,597km) 주행/28회 참여, 메르세데스-벤츠는 673마일(1,083km) 주행/336회 참여, 폭스바겐은 1만 416마일(1만 6,763km) 주행/260회 참여가 있었다고 각각 보고했다(2016년 데이터는 아직 보고되지 않았다). 마지막으로 테슬라의 경우 자사 완전 자율주행 테스트 차량을 통한 550마일(885km) 시운전에서 총 182회의 운전자 참여를 보고했다.

컨슈머 워치독 측은 "도로의 안전을 위협할 자율주행 차량 기술의 배치를 합리화할 근거는 턱없이 부족하다"고 지적했다.
컨슈머 워치독의 프로젝트 리더 존 심슨은 지난해 발표를 통해 "자동 긴급 브레이크 등 자율 차량 기술이 우리의 안전에 기여할 수 있는 부분도 분명히 존재한다. 우리 역시 이런 기술에는 적극 지지를 보낸다. 즉 시스템의 역할은 인간 운전자의 역량을 증진하고 그들의 단점을 보완하는 것으로 제한되어야 한다는 것이 우리의 입장이다"고 설명한 바 있다.

컨슈머 워치독은 캘리포니아의 '자율주행 해제 보고서(disengagement reports)'가 보여주듯 자율주행 자동차가 보행자나 자전거 탑승자, 신호등, 관목, 거리에 주차된 차량 등 우리가 일상적으로 마주하는 대상을 완벽하게 인지하지 못하는 것이 현실이라고 지적하며 이것의 보급이 각종 심각한 인명, 재산 피해를 야기할 위험이 있다고 주장했다.

이 기관들은 자율주행 자동차가 도로에서 발생하는 다양한 돌발 상황들에 대처하는 능력 역시 떨어진다는 지적도 덧붙였다.

실제로 자율주행 자동차가 도로 위의 모든 상황에 완벽히 대처하지는 못하는 것이 사실이지만, 소프트웨어가 인간의 오류로 인해 발생하는 사고 예방에 일정 수준 이상의 역할을 수행한다는 점 역시 데이터를 통해 증명되고 있는 사실이다.

일례로 올해 1월 NHTSA 소속 연방 조사관은 테슬라가 제출한 자료를 인용하며 이들 기업의 첨단 운전자 보조 시스템 오토파일럿 기능이 차량 충돌률을 40% 가량 낮출 수 있다고 이야기했다.

테슬라의 CEO 엘론 머스크 역시 자사의 오토파일럿 기능이 인간 오류로 인해 발생하는 교통사고를 최대 절반까지 감소시킬 것이라 주장한 바 있다.

테슬라는 지난해 11월에도 오버 디 에어(over-the-air) 방식으로 소프트웨어 업그레이드를 배포했는데, 여기에서는 오토파일럿 기능의 개선에 더해 운전자에게 운전대에서 손을 떼지 말 것을 당부하는 멘트 또한 추가적으로 적용됐다.


Credit: NHTSA 

테슬라의 시스템은 '스트라이크 아웃' 전략을 활용해 운전자의 참여를 지속적으로 높여나갈 예정이다. 사용자가 운전대를 쥐도록 요구하는 모니터링 시스템 알림창에 반응하지 않을 경우, 해당 여정 동안 오토파일럿 지원이 중단되는 방식이다.

CMU의 플랫저 역시 인간 운전자가 컴퓨터의 계측 정확도, 판단 속도를 능가하기란 불가능하지만, 도로에서 발생하는 까다로운 상황들에 대처하는 데에는 보다 나은 역량을 지니고 있다는데 동의한다. 다만 주행 판단권을 인간과 컴퓨터 중 누구에게 부여할 지를 결정하는 상황 기준을 수립하는 문제는 여전히 고민이 필요한 부분이다.

플랫저는 "혼잡한 사거리에 진입하면, 컴퓨터는 인간에게 주행을 위임해야 한다. 그 복잡한 상황은 명백히 인간이 더 잘 다룰 수 있기 때문이다. 하지만 컴퓨터가 그 시점을 명확히 포착하지 못할 수도 있다. 모든 상황 시나리오를 설계에 반영하긴 불가능하기 때문이다. 때문에 이런 상황에서는 인간 스스로가 판단에 주도적인 역할을 수행해야 한다"고 설명했다. editor@itworld.co.kr
 


X