Detail View

Robust 3D Perception for Autonomous Driving
Citations

WEB OF SCIENCE

Citations

SCOPUS

Metadata Downloads

Title
Robust 3D Perception for Autonomous Driving
Alternative Title
자율주행을 위한 강건한 3차원 인지
DGIST Authors
Jaeyeul KimSunghoon ImSoon Kwon
Advisor
임성훈
Co-Advisor(s)
Soon Kwon
Issued Date
2026
Awarded Date
2026-02-01
Type
Thesis
Description
Autonomous driving, semantic segmentation, 3D LiDAR, domain generalization, scene flow, 4D radar tensor, 3D object detection
Abstract

강건한 3차원 인식은 안전하고 신뢰성 있는 자율주행 시스템 구현을 위한 핵심 기술입니다. 자율주행 차량은 다양한 센서, 동적 환경, 예측 불가능한 시나리오 하에서 주변 환경을 정확하게 인지해야 합니다. 그러나 현재 주력 센서인 LiDAR 기반 시스템은 센서 간 상이성으로 인한 도메인 격차, 동적 장면 이해의 어려움, 그리고 높은 비용 및 접근성 문제로 강건성 확보에 한계가 있습니다. 본 논문은 이러한 세 가지 핵심 취약점을 점진적으로 해결하며, 각 센서 데이터의 특성을 고려한 지능적인 정보 처리를 통해 강건성 확보가 가능함을 입증합니다.
첫째, 서로 다른 LiDAR 센서 간 밀도 차이로 발생하는 도메인 일반화 문제를 다룹니다. 우리는 단일 소스 도메인 내 다양한 밀도 정보를 활용하여, 별도의 타겟 데이터 없이도 미지의 센서 환경에 일반화 가능한 밀도 불변 특징 학습 프레임워크를 제안합니다. 이는 센서의 기하학적 특성과 밀도 정보를 명시적으로 모델링하여 도메인 변화에도 의미론적으로 일관된 인식을 유지하도록 합니다.
둘째, 정적 센서인 LiDAR로부터 주변 객체들의 동적 정보를 추정하는 LiDAR Scene Flow 프레임워크를 제안합니다. 기존 방법들의 시공간적 맥락 활용 한계를 극복하기 위해, 우리는 여러 3차원 포인트 클라우드를 직접 처리하는 4차원 시공간 네트워크 기반의 새로운 프레임워크 Flow4D를 제안합니다. 이는 효율적인 시공간 특징 추출을 통해 복잡한 움직임을 정확하게 모델링하며 동적 장면 분석에서 강건한 성능을 보장합니다.
셋째, LiDAR의 높은 비용과 접근성 제한을 해결하고자, 이미 널리 보급된 저비용 Radar 센서의 잠재력에 주목합니다. Radar는 악천후 강인성과 속도 직접 측정 능력이 있지만, 원시 4차원 텐서 데이터의 복잡성으로 활용이 제한적이었습니다. 우리는 이 복잡한 텐서로부터 객체 감지에 유용한 3차원 포인트 클라우드 표현을 효율적으로 추출하는 새로운 처리 기법을 제안하여, 저비용 센서를 통한 고성능 3차원 인식의 가능성을 제시하고 자율주행 기술의 경제적 실현 가능성을 높입니다.
요약하면, 본 논문의 기여들은 LiDAR 센서 간 일반화, LiDAR 기반 동적 환경 이해, 저비용 Radar 센서 활용을 통한 접근성 및 강건성 보완으로 이어지는 일관된 연구 흐름을 형성합니다. 이는 센서 데이터 처리 과정의 불확실성과 불일치 문제를 해결함으로써, 실제 환경에서 강건하고 의미론적으로 일관된 3차원 인식을 달성하는 핵심 원리를 확립합니다.
|Robust 3D perception is a key technology for realizing safe and reliable autonomous driving systems. An autonomous vehicle must accurately perceive its surroundings under diverse sensors, dynamic environments, and unpredictable scenarios. However, current LiDAR-based systems, which serve as the primary sensing modality, face limitations in achieving robustness due to domain gaps across sensors, difficulties in understanding dynamic scenes, and challenges associated with cost and accessibility. This dissertation progressively addresses these three fundamental weaknesses and demonstrates that robustness can be achieved through intelligent processing that leverages the characteristics of each sensor modality. First, we tackle the problem of domain generalization arising from density discrepancies among different LiDAR sensors. We propose a density-invariant feature learning framework that utilizes diverse density distributions within a single source domain to generalize to unseen target sensors without requiring target data. By explicitly modeling the geometric and density characteristics of LiDAR, the proposed method preserves semantic consistency across heterogeneous sensor domains. Second, we present a LiDAR Scene Flow framework to estimate dynamic motion information from static LiDAR measurements. To overcome the limited spatio-temporal reasoning capability of existing methods, we introduce Flow4D, a novel 4D spatio-temporal network that directly processes multiple 3D point clouds. Flow4D efficiently captures temporal dependencies and complex motion patterns, achieving robust performance in dynamic scene understanding. Third, to mitigate the high cost and limited scalability of LiDAR, we explore the potential of widely available low-cost Radar sensors. Radar provides strong robustness under adverse weather and directly measures object velocity, but the complexity of raw 4D tensor data has hindered its full utilization. We propose a novel radar tensor processing framework that efficiently extracts 3D point cloud representations useful for object detection from dense radar tensors, thereby demonstrating the feasibility of high-performance 3D perception using affordable sensors. In summary, the contributions of this dissertation form a coherent research framework that advances robustness and accessibility in autonomous 3D perception through LiDAR domain generalization, dynamic environment understanding, and efficient radar-based sensing. By resolving uncertainty and inconsistency in sensor data processing, this work establishes the core principles for achieving semantically consistent and robust 3D perception in real-world autonomous driving scenarios.

더보기
Table Of Contents
I. Dissertation Overview 1
II. LiDAR Domain Generalization 4
2.1 Introduction 4
2.2 Related works 6
2.3 Density Discriminative Feature Embedding 8
2.4 Density-aware Feature Learning 14
2.5 Results and Analysis 21
III. LiDAR Scene Flow 27
3.1 Introduction 27
3.2 Related works 29
3.3 4D Voxel Network for Scene Flow 31
3.4 Results and Analysis 35
IV. Radar Tensor Processing 42
4.1 Introduction 42
4.2 Related works 44
4.3 CFAR-based 4D Radar Tensor Processing 45
4.4 Results and Analysis 53
V. CONCLUSION 61
VI. References 65
VII. 요약문 77
URI
https://scholar.dgist.ac.kr/handle/20.500.11750/59634
http://dgist.dcollection.net/common/orgView/200000944869
DOI
10.22677/THESIS.200000944869
Degree
Doctor
Department
Department of Electrical Engineering and Computer Science
Publisher
DGIST
Show Full Item Record

File Downloads

  • There are no files associated with this item.

공유

qrcode
공유하기

Total Views & Downloads