LiDARとカメラを用いたセンサフュージョンによる遠距離スパース点群の補間手法
Interpolation Method for Sparse Point Cloud at Long-range Using LiDAR and Camera Sensor Fusion
- 提供方法
- 他サイトにて提供・販売
- 入手方法の確認はこちら
- 文献番号
- 20224226
- 文献・情報種別
- 自動車技術会論文集
Vol.53 No.3
- 掲載ページ
- 598-604(Total 7 p)
- 発行年月
- 2022年 5月
- 出版社
- (公社)自動車技術会
- 言語
- 日本語
書誌事項
カテゴリ | 研究論文 |
---|---|
カテゴリ(英) | ResearchPaper 翻訳 |
著者 | 1) 齊藤 真衣, 2) 沈 舜聡, 3) 伊東 敏夫 |
著者(英) | 1) Mai Saito, 2) Shuncong Shen, 3) Toshio Ito |
勤務先 | 1) 芝浦工業大学, 2) 芝浦工業大学, 3) 芝浦工業大学 |
抄録 | 低コストの低解像度3D-LiDARには,遠距離になると点群データが疎になるという問題がある.この問題を解決するために,カメラとLiDARのセンサフュージョンを利用した点群フレームの合成手法を提案する.カメラからのRGBデータを利用して隣接フレーム内での対応点を探索する.また,LiDARからの深度情報によって探索範囲を決定する. |
抄録(英) | LiDAR plays an important role as external sensor for automated driving system. However, low-resolution 3D-LiDAR is insufficient that the point cloud data become sparse at long-range. This problem makes it difficult to obtain accurate information about the target object. To solve this problem, we propose an interpolation method, using sensor fusion with camera and LiDAR. And, RGB data from camera is used to search for corresponding point in adjacent frames. In addition, the searching range is determined by LiDAR’s depth data. We evaluated computing cost and shape reconstruction accuracy while applying our method into preceding vehicle. Furthermore, the point cloud data are carried out clustering and classification based on SVM. 翻訳 |