ログインしてください

文献・情報検索システム

日本語

ENGLISH

ヘルプ

ログインしてください

  • 詳細情報

3D-3D Self-Calibration of Sensors Using Point Cloud Data

書誌事項

著者(英)1) Pradeep Anand Ravindranath, 2) Kutluhan Buyukburc, 3) Ali Hasnain
勤務先(英)1) Curium Pte, Ltd., 2) Curium Pte, Ltd., 3) Curium Pte, Ltd.
抄録(英)Self-calibration of sensors has become highly essential in the era of self-driving cars. Reducing the sensors’ errors increases the reliability of the decisions made by the autonomous systems. Various methods are currently under investigation but the traditional methods still prevail which maintain a strong dependency on human experts and expensive equipment that consume significant amounts of labor and time. Recently, various calibration techniques proposed for extrinsic calibration for Autonomous Vehicles (AVs) mostly rely on the camera 2D images and depth map to calibrate the 3D LiDAR points. While most methods work with the whole frame, some methods use the objects in the frame to perform the calibration. To the best of our knowledge, majority of these self-calibration methods rely on using actual or falsified ground truth values.
We propose a 3D-3D point cloud based continuous self-calibration approach that uses one or many objects identified in the sensor frames to cross-calibrate sensors without any reliance on initial calibration parameters or ground truth values. Considering the fact that multiple sensors have multiple views of the same scene, the common features or objects within the scene can be used to calibrate one sensor node with respect to the other. Our approach relies on point cloud data (PCD) generated from at least two sensors to cross-calibrate the mis-calibrated sensor with respect to the calibrated sensor. In this paper, we demonstrate that we can apply the method either by extracting the essential feature points of the object PCD (i.e., centroids of the objects) or the whole object PCD. Following which we optimize the cost function to obtain the extrinsic calibration parameters. Our method handles the problem of pose correction similar to calibration without any ground truth value from sensors just by using multiple consecutive frames. In comparison to other methods, our method performs calibration with low margins of errors in rotation and translation. This method has been tested on the publicly available KITTI dataset, which is widely used to assess various problems (object detection, segmentation, tracking, depth prediction etc.) related to self-driving cars. The simplicity of the method lets us do on-the-fly calibration of sensors with a high level of accuracy.

翻訳

検索について

閉じる

検索ボックスの使い方

検索条件は最大5件まで入力可能です。検索ボックスの数は右側の「+」「−」ボタンで増減させることができます。
一つの検索ボックス内に、複数の語句をスペース(全角/半角)区切りで入力した場合、入力した語句の“すべてを含む”データが検索されます(AND検索)。
例)X(スペース)Y →「XかつY(を含む)」

「AND」「OR」プルダウンの使い方

「AND」を指定すると、前後の検索ボックスに入力された語句の“双方を含む”データが検索されます。また、「OR」を指定すると、前後の検索ボックスに入力された語句の“いずれかを含む”データが検索されます。
例)X AND Y →「XかつY(を含む)」  X OR Z →「XまたはZ(を含む)」
AND検索とOR検索が混在する場合は、OR検索が優先されます。
例)X AND Y OR Z → X AND (Y OR Z)
AND検索と複数のOR検索が混在する場合も、OR検索が優先されます。
例)W AND X OR Y OR Z → W AND (X OR Y OR Z)

検索フィルタの使い方

検索結果の件数が多すぎる場合など、さらに絞り込みしたいときに「検索フィルタ」を使います。各項目にチェックを入れると、その項目が含まれるデータのみに検索結果が絞り込まれます。
各項目後ろの「()」内の数字は、その項目が含まれるデータの件数です。

検索のコツ

著者名で検索するときは、「自動車 太郎」のように、姓名をスペースで区切って入力してください。