ログインしてください

文献・情報検索システム

日本語

ENGLISH

ヘルプ

ログインしてください

  • 詳細情報

Detection & Tracking of Multi-Scenic Lane Based on Segnet-LSTM Semantic Split Network

書誌事項

著者(英)1) Meng Ye, 2) Gangfeng Tan, 3) Jingning Tang, 4) Jiaming Feng, 5) Xin Huang, 6) Wenchao Sun
勤務先(英)1) Wuhan University of Technology, 2) Wuhan University of Technology, 3) National AQSI Center for Dedicated Equipment, 4) Wuhan University of Technology, 5) Wuhan University of Technology, 6) Wuhan University of Technology
抄録(英)Lane detection is an important component in automatic pilot system and advanced driving assistance system (ADAS). The stability and precision of lane detection will directly determine precision of control and lane plan of vehicles. Traditional mechanical vision lane detection approaches in complicated environment have the deficiencies of low precision and feature semantic description disabilities. But the lane detection depending on deep learning, e.g. SCNN network, LaneNet network, ENet-SAD network have imbalance problems of splitting precision and storage usage. This paper proposes an approach of high-efficiency deep learning Segnet-LSTM semantic segmentation network. This network structure is composed with encoding network and corresponding decoding networks. First, convolution and maximum pooling. The proposal extracts texture details of five images and stores searching position of maximum pooling. Meanwhile, it will implement interpolate processing to the lost points. Then, by up-sampling and convoluting with decoders and predicts category of a specific pixel with Softmax function. At the same time, it splits with long and short term memories of LSTM network and finally, the output is a complete image that enables detection and tracking of lanes in during the day and at night. Experiments have suggested that this approach provides more fitting precision and feature extraction precision in comparison with Unet-LSTM algorithm. This algorithm provide accuracy that is 3.724% higher than that of Unet-LSTM in the day in perspective of miou value and the precision of lane pixel categorization is 4.126% higher than that of Unet-LSTM. Besides, miou of this algorithm at night is 5.6% higher than that of Unet-LSTM and the precision of lane pixel categorization is 4.1398% higher. Moreover, the algorithm allows balance between storage involvement and precision of lane detection on the basis of high fitting precision, guaranteeing real-time performance and stability in various senses, assisting auto pilots in more efficiently.

翻訳

検索について

閉じる

検索ボックスの使い方

検索条件は最大5件まで入力可能です。検索ボックスの数は右側の「+」「−」ボタンで増減させることができます。
一つの検索ボックス内に、複数の語句をスペース(全角/半角)区切りで入力した場合、入力した語句の“すべてを含む”データが検索されます(AND検索)。
例)X(スペース)Y →「XかつY(を含む)」

「AND」「OR」プルダウンの使い方

「AND」を指定すると、前後の検索ボックスに入力された語句の“双方を含む”データが検索されます。また、「OR」を指定すると、前後の検索ボックスに入力された語句の“いずれかを含む”データが検索されます。
例)X AND Y →「XかつY(を含む)」  X OR Z →「XまたはZ(を含む)」
AND検索とOR検索が混在する場合は、OR検索が優先されます。
例)X AND Y OR Z → X AND (Y OR Z)
AND検索と複数のOR検索が混在する場合も、OR検索が優先されます。
例)W AND X OR Y OR Z → W AND (X OR Y OR Z)

検索フィルタの使い方

検索結果の件数が多すぎる場合など、さらに絞り込みしたいときに「検索フィルタ」を使います。各項目にチェックを入れると、その項目が含まれるデータのみに検索結果が絞り込まれます。
各項目後ろの「()」内の数字は、その項目が含まれるデータの件数です。

検索のコツ

著者名で検索するときは、「自動車 太郎」のように、姓名をスペースで区切って入力してください。