LiDARとカメラを用いたセンサフュージョンによる遠距離スパース点群の補間手法
Interpolation Method for Sparse Point Cloud at Long-Range using LiDAR and Camera Sensor Fusion
- 提供方法
- 本サイト上にてダウンロード・閲覧可
- 形態
- 価格
- 一般価格(税込):¥1,100 会員価格(税込):¥880
- 文献番号
- 20216069
- 文献・情報種別
- 学術講演会予稿集(秋)
No.96-21
- 掲載ページ
- 1-6(Total 6 p)
- 発行年月
- 2021年 10月
- 出版社
- (公社)自動車技術会
- 言語
- 日本語
- イベント
- 2021年秋季大会 【オンライン】
書誌事項
著者 | 1) 齊藤 真衣, 2) 沈 舜聡, 3) 伊東 敏夫 |
---|---|
著者(英) | 1) Mai Saito, 2) Shuncong Shen, 3) Toshio Ito |
勤務先 | 1) 芝浦工業大学, 2) 芝浦工業大学, 3) 芝浦工業大学 |
勤務先(英) | 1) Shibaura Institute of Technology, 2) Shibaura Institute of Technology, 3) Shibaura Institute of Technology |
抄録 | 低コストの低解像度3D-LiDARには,遠距離になると点群データが疎になるという問題がある.この問題を解決するために,カメラとLiDARのセンサフュージョンを利用した点群フレームの合成手法を提案する.カメラからのRGBデータを利用して隣接フレーム内での対応点を探索する.また,LiDARからの深度情報によって探索範囲を決定する. |
抄録(英) | LiDAR plays an important role as external sensor for automated driving system. However, Low-resolution 3D-LiDAR is insufficient that the point cloud data becomes sparse at long-range. This problem makes it difficult to obtain accurate information about the target object. Solving with that, we propose a point-frame composition method, using sensor fusion with camera and LiDAR. Thus, RGB data from camera is used to search for corresponding point in adjacent frames. In addition, the searching range is determined by LiDAR’s depth data. We evaluated computing cost and shape reconstruction accuracy while applying our method into preceding vehicle. 翻訳 |