본문 바로가기
카테고리 없음

LiDAR (Light Detection and Ranging)

by Z0e 2025. 2. 21.

 

 

관련 포스팅

 

 

LiDAR란?

빛을 통한 검출과 거리 측정

LiDAR



LiDAR는 주변의 사물을 인식하기 위해 레이저 신호를 이용하는 기술로, 쏘아진 레이저 신호가 주변의 사물과 부딪힌 후 반사되어 되돌아오는 빛을 분석하여 사물의 위치나 운동 방향, 속도 등을 측정하는 리모트 센싱(떨어진 위치에서 센서를 사용하여 검출하는) 방식이다.

LiDAR 원리

 

 

거리 감지 시스템 및 작동 원리

LiDAR는 RADAR, SONAR와 마찬가지로 동일한 원리로 작동한다. 세 가지 기술 모두 에너지 파동을 방출하여 물체를 감지하고 추적한다.

LiDAR 원리

  RADAR
Radio Detection and Ranging
LiDAR
Light Detection and Ranging
SONAR
SOund Navigation And Ranging
감지 방법 전자기파 탐지 반사광선 탐지 음파 탐지
응용 분야 항공 교통 관제, 일기 예보 자율주행, 지상 매핑, 로봇 공학 해양 항법, 수중 매핑, 고고학
강점 재료 투과 (벽, 나뭇잎)
전천후 기능
장거리 및 넓은 범위
고해상도
넓은 시야
3D 물체 탐지
물 투과
전천후 기능
낮은 비용
약점 저해상도
다른 레이더 및 전자기 소스의 간섭
높은 비용
견고한 물체를 통과할 수 없음
복잡한 데이터 처리
저해상도
제한된 범위
정확도가 환경 조건에 따라 영향을 받음

 

Laser 신호 변조 방법(센싱 방식)에 따른 분류

Laser 신호 변조 방법

dToF (Direct Timoe of Flight): 직접 비행시간 거리 측정

  • Laser 펄스 신호가 측정 범위 내의 물체에서 반사되어 돌아오는데 소요되는 시간을 측정하는 원리
  • iToF 방식보다 빠르고 정확한 데이터 획득
  • 동시에 여러 개의 물체를 감지 가능

iToF (indirect Time of Flight): 간접 비행시간 거리 측정

  • 특정 주파수를 가지고 연속적으로 변조되는 Laser 빔을 방출하고, 송신 파형과 수신 파형의 위상 변화량(Phase Difference)을 측정하여 거리를 측정하는 방식
  • 실외보다 조명이 고른 실내 환경에 적합
  • 단일 물체만 감지
  • 10m 미만의 상대적으로 단거리에 위치한 사물 인식에 적합

 

FMCW (Frequency Modulated Continuos Wave): 주파수 변조 연속파 방식

  • 단거리 및 장거리 인식에 모두 사용 가능
  • 뛰어난 거리 측정 성능, 방향 속도 정보를 포착
  • 기존 센서의 3차원 데이터를 넘어 4차원 데이터 처리가 가능
  • 오토바이처럼 매우 먼 거리에서 유입되는 작고 빠른 대상을 신속하게 식별하고, 검출된 물체의 정보를 보다 안정적으로 측정
  • 편광 제어 기능이 있는 레이저를 사용하고 센서에 특수 반도체가 필요하여 시스템 구현을 위한 비용이 크게 발생

 

 

구동 방식에 따른 LiDAR 센서의 종류

LiDAR는 회전형(Spinning)과 고정형(Scanning)으로 구분할 수 있다. 회전형은 모터를 이용하여 360도 회전하면서 전 방향으로 사물의 거리 및 방향 정보를 획득할 수 있으며, 고정형은 구성이 단순하고 상대적으로 가격이 저렴하지만 화각의 한계 때문에 탐지 능력이 다소 떨어진다.

 

Spinning LiDAR

회전형 LiDAR는 모터를 이용하여 물리적으로 센서를 회전시켜 주변을 스캔하면서 360도 전 방향으로 센싱한다. 광학 장치와 회전 어셈블리를 사용하여 넓은 FOV를 생성하여 상대적으로 정확도가 높지만, 해상도가 낮고 기계식 구동부에 따른 내구성 문제와 회전에 따른 매입이 어려워 미관상 다소 취약하다. 

Spinning LiDAR

 

 

Scaning LiDAR (Solid State LiDAR)

모터없이 한 방향을 스캔하는 방식으로 스캔 방식에 따라 moving parts가 있는 방식과 없는 방식이 있다. moving parts가 있는 방식은 hybrid solid state lidar라고 부르고, 없는 방식은 true solid state lidar라고 부른다.

좁은 수평 시야각과 상대적으로 떨어지는 데이터 정확도를 갖지만, 모터가 없어 가격이 저렴하고 내구성이 좋으며 소형화가 가능하다.

 

MEMS LiDAR (Micro Electro Mechanical Systems)

전압에 따라 기울기가 달라지는 마이크로 미러를 이용해 스캔하는 방식

다차원으로 레이저 빔을 전달하기 위해 다수의 거울을 계단식으로 배열하는 구조

온도와 진동에 취약하나 크기가 작고 가격이 저렴

MEMS LiDAR

 

Optical Phase Array (OPA, 광학 위상배열)

광학 위상 모듈레이터가 렌즈를 통과하는 빛의 속도와 파면의 형상을 제어하고 빔을 여러 방향으로 쏘아 물체를 스캔하는 방식

가격이 저렴하고 소형이지만 좁은 시야

OPA

 

Flash LiDAR

디지털 카메라와 유사한 작동방식으로, 단일 대면적 레이저 펄스가 그 앞의 환경을 비추고 레이저에 근접하게 배치된 광 검출기에서 거리, 위치 및 반사 강도를 감지하는 방식

기계식 레이저 스캐닝 방식에 비해 한 장의 이미지에 전체 장면을 포착하기 때문에 데이터 포착 속도가 매우 빠르다.

 

비교

 

 

Point Cloud

LiDAR나 Depth 카메라로 3D 공간 정보를 표현하는 방법은 위치 정보를 가진 수많은 점들을 모아서 공간을 표현하는 것이다. 이렇게 공간 정보를 가진 점들의 집합을 Point Cloud라고 한다. Point Cloud는 2D 이미지와 다르게 깊이 정보(z-axis)를 가지고 있기 때문에 일반적으로 $ N \times 3 $의 배열로 표현된다. 

LiDAR 센서(Velodyne)와 RGB-D 카메라(Intel RealSense)

특징

Unordered, Irregular: 정렬되지 않고 정형화 되어있지 않은 데이터

Point Cloud는 2D 이미지와 달리 정형화 되어있지 않다. 2D 이미지 데이터의 경우 정해진 격자 구조 형태(픽셀) 안에 정보가 저장되지만, Point Cloud 데이터는 3D 공간상의 수많은 점들을 순서없이 기록하는 방식으로 데이터가 저장된다. 이 말은 Point Cloud의 데이터 순서에 상관없이 모두 동일한 데이터라는 뜻이다. 이러한 특성 때문에 딥러닝 모델을 통해 학습하기에 객체의 형상, 점들 간의 상호작용 등 데이터의 기하학적 특성을 파악하기 상당히 어려웠다. 이를 해결하기 위해 Voxel과 같은 정형화된 데이터로 변환하여 사용했고, 이는 불필요하게 부피 차지를 하거나 정보의 손실이 발생했다. 현재는 이러한 한계를 극복하여 2017년, Point Cloud를 직접적으로 학습할 수 있는 모델인 PointNet을 시작으로 활발한 딥러닝 연구가 진행되고 있다.

permutation invariance
PointNet

 

Sparse

2D 이미지 데이터가 정해진 격자(grid)에 pixel 값이 모두 존재하는 dense한 성질을 가졌다면, Point Cloud는 매우 sparse한 성질을 가지고 있다. 이는 주어진 데이터의 공간 안에 point들에 비해 빈 공간이 상당히 많다는 의미로 데이터 크기에 비해 유의미한 정보가 많지 않다. 이러한 데이터는 딥러닝 모델 학습 시 학습 난이도, 계산 비용이 높아지게 된다. 따라서 Point Cloud 데이터를 전부 해석하지 않고 유의미한 정보를 추출하는 방식으로 이루어졌다.

 

 

응용분야

건축, 건설

 

자율주행

LiDAR는 레벨 2단계 이상에서의 자율주행을 구현하기 위해 사용되고 있다.  

 

자율주행 3단계 핵심 기술: 인식 - 판단 - 제어

자율주행을 구현하기 위하여 센서를 통한 감지가 매우 중요하여 다양한 센서를 사용해 서로의 단점을 보완한다.

 



 

SLAM (Simultaneous Localization And Mapping)

동시적 위치 추정 및 지도 작성

 

로봇이나 자율주행 자동차가 이동을 위해서는 지도가 필요하다. 로봇이 스스로 필요한 지도를 만들고(mapping), 지도 내에서 자기 위치를 파악(localization)하는 기술을 SLAM이라고 한다. SLAM의 첫번째 단계는 데이터를 수집하는 것이다. 그리고 데이터 수집의 핵심은 센서이다. 주로 사용하는 센서는 LiDAR와 카메라가 있으며 센서 선택에 따라 LiDAR SLAM, Visual SLAM 기술로 나뉜다.

 

Visual SLAM

Monocular Visual SLAM
Stereo Visual SLAM
RGB-D Visual SLAM

 

LiDAR SLAM

2D LiDAR SLAM
3D LiDAR SLAM

 

 

 

참고 자료

 

라이다 센서 기술 동향 및 응용

   77586 Downloaded 3556 Viewed

ettrends.etri.re.kr

 

루미솔

 

www.lumisol.co.kr

 

Lidar 2024-2034: Technologies, Players, Markets & Forecasts

The lidar market for automotive application will grow to $9.5 billion by 2034. The demand for lidars to be adopted in the automotive industry drives the huge investment and rapid progression of lidars, with the innovations in beam steering technologies and

www.idtechex.com

 

3D 인공지능 데이터 Point Cloud (1) – 테스트웍스

개요 딥 러닝 기술이 세계적으로 재조명을 받은 이후, 다양한 데이터에 대한 인공지능 연구 및 개발이 활발히 진행되고 있다. 그리고 현재까지 인공지능을 통해 가장 눈부신 성장을 이룬 분야

blog.testworks.co.kr

 

GitHub - charlesq34/pointnet: PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation

PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation - charlesq34/pointnet

github.com

 

(Mindmap) A Hardcore Look at 9 types of LiDAR systems

Did you really think there was just one type of LiDAR? Well, in this article, we're going to cover much more than this. Hang on, it's gonna get technical!

www.thinkautonomous.ai

 

LiDAR란? | IBM

'빛 감지 및 거리 측정(Light Detection and Ranging)'의 약자인 LiDAR는 레이저 빛을 사용하여 거리를 측정하고 매우 정확한 3D 맵과 모델을 만듭니다.

www.ibm.com

 

[스마트 건설 백과사전 VoI.06] 로봇이 스스로 움직일 수 있는 이유, SLAM > > 현대건설 뉴스룸

[스마트 건설 백과사전 VoI.06] 로봇이 스스로 움직일 수 있는 이유, SLAM > > 현대건설 뉴스룸

newsroom.hdec.kr

 

SLAM(동시적 위치추정 및 지도작성)이란 – MATLAB 및 Simulink

SLAM(동시적 위치추정 및 지도작성)은 자율주행 차량에 사용되어 동시에 위치를 추정하고 주변 환경에 대한 지도를 작성하는 기술입니다. SLAM 알고리즘을 통해 이동 중인 차량은 미지의 환경에

kr.mathworks.com

 

SLAM이란 무엇일까요? : 티쓰리솔루션 블로그

SLAM이란?Simultaneous Localization and Mapping의 약자로동시적 위치 추정 및 지도 작성을 의미합니다.쉽게 말해, 로봇이 주변 환경을 인식하고 스스로 위치를 파악하며 동시에 지도를 만들어가는 기술이

www.t3solution.co.kr