자율주행용 AI 기반 영상 인식 소프트웨어 ‘SVNet’을 개발하는 스타트업 스트라드비젼(대표 김준환)이 자율주행 시장의 급격한 변화에 대응하고 고객의 요구에 부응하기 위해 향후 3개년에 걸친 제품 개발 로드맵을 발표했다. 핵심은 2027년까지 차세대 비전 인식 솔루션 ‘멀티비젼(MultiVision) Gen 2’를 완성하는 것으로, 이 제품의 프로토타입은 2026년 개최되는 CES에서 최초로 공개될 예정이다.
스트라드비젼은 현재 상용화된 운전자 지원 시스템(ADAS) L2 및 L2+ 솔루션을 넘어, 로보택시, 물류, 대중교통, 농업 등 다양한 산업군에서 요구되는 자율주행 L3 및 L4 솔루션을 투트랙 전략을 통해 개발해 나갈 방침이다. 자율주행 레벨 3 이상에서는 운전자가 아닌 시스템이 주행의 전 책임을 지게 되므로, 단순한 인식(Perception)을 넘어서 주행 계획(Planning), 경로 예측 및 제어(Control)까지 포함하는 풀스택 역량 확보가 필수적이다. 스트라드비젼은 이를 위해 개별 모듈러 기반 모델부터 점차적으로 엔드투엔드(E2E) 모델로 확장하는 전략을 세웠다.
이번 로드맵의 중심에 선 멀티비젼 Gen 2는 기존의 프론트비젼(FrontVision)과 서라운드비젼(SurroundVision)을 결합한 Gen 1보다 기술적으로 큰 진보를 이룬 모델이다. 기존 대비 6개의 카메라가 추가돼 총 11개의 카메라 채널을 지원하며, 이는 현재 L3 자율주행 차량들이 통상 사용하는 센서 조합보다 많은 수치다. 스트라드비젼은 이 11개의 카메라 채널을 통해 보다 정밀한 환경 인식이 가능한 솔루션을 개발하고, HD 맵 없이도 작동하는 자율주행 시스템(HD-Mapless ADS) 구현을 목표로 하고 있다. 이는 기존 지오펜싱(Geo-fencing)에 의존하던 제한된 자율주행 기능의 확장성 한계를 극복할 수 있는 방법으로 제시됐다.
멀티비젼 Gen 2는 다양한 카메라 시스템과 ADS 레벨에 맞춘 확장 가능하고 유연한 설계를 특징으로 하며, 고객사의 제품 라인업에 맞춰 유연하게 통합될 수 있도록 고안됐다. 여기에 Vision Transformer, 비전 언어 모델(VLM, Vision Language Model) 등 최신 AI 기술을 도입해 다양한 주행 환경에서도 높은 성능을 구현할 수 있도록 개발이 진행될 예정이다. 특히 기존의 Vision Perception 기술력을 기반으로, 레벨 3 이상 자율주행에서 필요한 전방위적 기술 이해도를 바탕으로 초기에는 모듈형 접근을 적용하고 점차 E2E 방식으로 확장하는 구조다.
스트라드비젼 김준환 대표는 “2027년까지 여러 SoC(System-on-Chip) 기업들과 협력해 멀티비젼 Gen 2 알고리즘을 다양한 SoC 플랫폼에서 양산 가능한 임베디드 솔루션으로 신속하게 개발할 계획”이라며 “스트라드비젼이 창업 이래 추구해온 ‘도로 위 운전자와 보행자의 생명 보호’라는 목표에 더욱 가까이 다가설 것”이라고 강조했다.
스트라드비젼은 이번 3개년 로드맵을 기반으로 자율주행 기술 분야에서의 경쟁력을 한층 강화하고, 자율주행 L3 및 L4 수준 기술의 상용화를 앞당기기 위한 기술 혁신을 지속할 계획이다.
이준문 기자/jun@newstap.co.kr
ⓒ 뉴스탭(https://www.newstap.co.kr) 무단전재 및 재배포금지
[뉴스탭 인기 기사]
· 포켓몬 레전즈 제트에이, 'ZA로열' 신규 배틀 시스템 공개
· MSI, '랜더스 데이' 맞아 최대 100만원 할인… RTX 50 신제품까지 포함
· 퍼플랩, G마켓 ‘랜더스 쇼핑 페스타’ 참가… RTX 5070Ti부터 RX6600까지 전 라인업 특가 선보여
· 기가바이트 AORUS MASTER 18, 사전판매 전량 완판… 초고성능 게이밍 노트북 시장 흔든다
· 화려한 색감과 240Hz 성능…MSI, QD-OLED 화이트 모니터로 인기 이어간다