자율주행차 눈, 카메라 원근 왜곡문제 해결
2025-10-16 이다예 기자
UNIST는 인공지능대학원 주경돈(사진) 교수팀이 카메라를 통해 입력된 정보의 원근 왜곡 문제를 보완하는 인공지능 모델인 ‘VPOcc’를 개발했다고 15일 밝혔다.
자율주행차와 로봇의 인공지능은 카메라나 라이다(LiDAR) 센서로 주변을 인식한다.
카메라는 라이다보다 풍부한 정보를 제공하지만, 3차원 공간을 2차원 이미지로 표현하기 때문에 거리에 따른 크기 왜곡이 크다.
연구팀은 인공지능이 소실점을 기준으로 정보를 재구성하도록 설계해 이 문제를 해결했다.
소실점은 르네상스 시대 화가들이 정립해 내려온 원근감 부여 기법으로, 차선이나 철로 같이 실제로는 평행한 선들이 멀리서는 맞닿는 것처럼 보이는 지점을 말한다.
개발된 인공지능 모델은 소실점을 기준으로 삼아 카메라 영상 속에서 깊이와 거리를 더 정확히 복원하게 된다.
모델은 크게 세 가지 모듈로 구성돼 있다. 소실점을 기준으로 영상을 보정해 원근 왜곡을 줄이는 모듈(VPZoomer), 멀고 가까운 영역에서 균형 잡힌 정보를 추출하는 모듈(VPCA), 원본과 보정 영상을 합쳐 서로의 약점을 보완하는 모듈(SVF)이다.
실험 결과, VPOcc은 여러 벤치마크에서 공간 이해 능력(mIoU)과 복원 능력(IoU) 모두에서 기존 모델을 뛰어넘는 성능을 보였다. 특히 자율주행에 중요한 도로 환경에서 멀리 있는 객체를 선명하게 예측하고, 겹쳐 있는 객체를 더 정확히 구분했다.
주경돈 교수는 “개발된 기술은 로봇, 자율주행 시스템뿐만 아니라 증강현실(AR) 지도 제작 등 다양한 분야로 응용될 수 있을 것”이라고 말했다.
연구 성과는 지난 3월 제31회 삼성휴먼테크논문대상에서 은상을 수상했으며, 지능형 로봇 분야 권위 학회인 ‘IROS 2025’ 채택됐다. 이다예기자