[공학저널 박인교 기자] 최근 자율주행 차량이 늘어남에 따라 국내외에서 다양한 사고가 발생하고 있다. 자율주행 차량의 사고 발생에 따른 책임 소재는 여전히 의견이 분분한 상황이지만, Lv 4+의 완전 자율주행차량에서는 더 이상 운전자에게 책임을 따지기 어려울 것이라는 의견이 나오고 있다.
이러한 상황에서 자율주행 차량은 사고를 내지 않도록 최대한 보수적으로 움직일 수밖에 없다고 볼 수 있다. 가령, 차량이나 장애물 등으로 센서의 인지 범위가 줄어드는 상황에서 차량은 교통의 흐름에 방해가 되더라도 사고 발생을 최소화하는 것이 우선 목표가 될 수 있으며, 이는 현재 Lv 3. 수준의 차량이 자신에게 부착된 센서들을 활용한 ‘단독인지’를 기반으로 주행을 하고 있기 때문에 발생하고 있다.
이러한 문제를 해결하기 위해 ‘협력주행’에 대한 개념이 새롭게 제시되고 있으며, 크게 여러 차량이 각각의 인지 정보를 교환하는 V2V(Vehicle-to-Vehicle)와 인프라와 차량이 데이터를 공유하는 V2I(Vehicle-to-Infrastructure)로 구분돼 활발하게 연구가 진행되고 있다. 물론, 기존에도 C-ITS 사업을 통해 도로의 소통정보와 돌발정보를 차량과 공유하는 V2I 인프라가 구축된 바 있지만, 협력주행을 완벽하게 지원하는 데에는 한계점이 있었다.
또한, 기존 C-ITS에 구축된 인프라 시스템의 경우, 실시간 교통상황이나 낙하물, 정지 차량 등 돌발 상황을 전파하는 것에 그 목적이 있다. 이러한 지원은 자율주행 차량이 거시적인 경로를 계획하는데 도움을 줄 수는 있지만, 매 순간 상황판단에 필요한 동적 정보를 공급할 수 없기 때문에 결국 자율주행 차량은 단독인지를 통한 단독판단을 기반으로 주행하게 된다.
뿐만 아니라 도로변에 설치된 CCTV 영상을 관제센터에 설치된 서버를 이용해 분석하는 기존의 시스템은 실시간으로 도로에서 변화하는 동적 객체 정보를 분석/제공하기에는 영상의 압축/전송 지연, 현장-센터간의 통신 지연 등의 어려움이 있어 이 역시도 실제 협력주행에 활용되기에는 한계가 있다.
한편, 자율주행의 기능은 크게 인지-판단-제어 세 단계로 구분돼 있지만 현재의 자율주행 차량은 인지 측면에 있어 차량의 옆 차선과 전후방으로 제한된 ‘부분인지(partial observatio), 판단 및 제어’에 해당하는 주행 측면에서 타 차량의 판단이나 경로계획을 고려하지 않는 독립주행(independent driving) 방식으로 구현돼 있다.
현재 기술의 특성상 연속류 환경에서 공사, 사고, 지/정체 등에 의해 발생하는 병목 현장에서 각 자율주행 차량의 단독 인지와 판단에 의한 다수 자율주행 차량 간에 조정되지 않은 동시 차선 변경에 의한 상충 발생할 수 있다. 또한, 회전교차로, 무신호 교차로, 도로합류부 등에서 자율주행 차량의 불완전한 도로상황인지와 각 자율주행 차량의 단독 인지와 판단에 의한 다수 자율주행 차량 간 조정되지 않은 경로계획에 의한 문제 또한 발생 가능성이 높다고 볼 수 있다.
이러한 문제를 해결하기 위해 다수의 센서를 기반으로 도로 상황인지를 수행하고, 다수 자율주행 차량에게 상황인지 정보를 제공함으로써, 자율주행 차량들이 상충을 피하고 효율적인 운행을 도울 수 있도록 개발된 기술이 바로 도로상황 인지 노변 플랫폼(Edge-RSU)이다.
Edge-RSU는 도로변에 설치된 인프라에서 도로에 위치한 차량, 사람, 오토바이 등의 개별 교통객체를 실시간으로 인지하고, 인프라-차량 간의 status-sharing을 지원할 수 있는 시스템으로 이해할 수 있다. 또한, 제공 가능한 정보는 LDM 레이어 4(객체의 실시간 검출/분류 및 속성, 위치정보, 이동정보)와 레이어 3(기반시설 상태, 주변 기후, 노면 상태, 사고 및 정지 차량 등 각종 도로상황 정보) 등이 있다.
해당 정보를 수집하기 위해 전체 시스템은 Layer 4에 해당하는 실시간 동적 객체 분석을 위한 AI 카메라와 라이다센서, Layer 3에 해당하는 환경 정보 수집을 위한 각종 센서, 다수의 센서의 정보를 취합하고 도로 상황인지를 수행하는 MEC, 차량에게 실시간 정보를 공유하기 위한 RSU로 구성돼 있다.
이러한 Edge-RSU 개발은 현재 자율주행기술개발혁신사업을 통해 본격적으로 수행되고 있으며, 교통대학교(라이다 및 상황인지 알고리즘), ㈜싸인텔레콤(카메라 및 MEC), ㈜켐트로닉스(RSU)가 각각의 역할을 담당하고 있다.
싸인텔레콤은 교통분야, 지능형 영상솔루션, 스마트 디스플레이 등 다양한 사업영역에서 핵심 기술을 개발해 제품과 솔루션을 구축 운영해 오고 있는 IT전문기업이다. 핵심 사업 분야인 디스플레이 영역뿐만 아니라, 꾸준한 R&D를 통해 확보된 AI와 딥러닝을 기반으로 한 영상 분석 기술 분야의 역량은 싸인텔레콤의 새로운 성장 동력으로, NEP/조달우수 등 다양한 기술인증을 통해 그 우수성을 증명해 나가고 있다.
이러한 축적된 H/W 설계, 제작 역량과 새로이 확보된 AI 분야의 역량을 바탕으로 On-Device AI 형태의 새로운 인프라 시스템을 개발할 수 있는 기술력을 인정받아 자율주행기술개발혁신사업에 참여해 Edge-RSU, 특히 동적 정보 수집을 담당하는 AI 카메라 개발을 수행하고 있다.
싸인텔레콤 박영기 대표이사(사진)는 “On-Device AI 형태로 개발된 AI 카메라는 현장에서 촬영되는 정보를 기기 자체에서 실시간으로 분석/처리해 협력주행에 필요한 Layer 4의 동적 객체정보뿐 아니라, 기존의 C-ITS 시스템의 주요 구성요소인 VDS, 돌발 상황 검지기, 스마트교차로 시스템 등 Layer 3에 해당하는 상황 정보를 모두 산출할 수 있다”며 “이러한 구성은 미래의 자율주행을 준비함과 동시에, 당장 활용 가능한 도로 인프라로써의 역할 또한 충실하게 이행할 수 있어, 미래 도로 인프라 구축에 큰 역할을 할 수 있을 것으로 기대된다”고 말했다.
그는 이어 “싸인텔레콤은 다년간의 훌륭한 연구성과를 바탕으로 기존 ITS와 C-ITS 사업을 넘어 자율주행 분야를 선도하는 기업이 될 수 있도록 끊임없이 노력하고 있으며, 앞으로도 노력할 것”이며 “이를 위해 새로운 센서 기술에 대한 지속적인 관심과 투자를 확대해 고도화된 연구와 개발을 추진할 계획이며, 이러한 혁신을 통해 자율 주행 기술의 발전에 중요한 역할을 하는 것이 우리의 목표”라고 덧붙였다.