欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

交通場景深度解析方法、裝置及系統(tǒng)的制作方法_3

文檔序號:9727798閱讀:來源:國知局
像作為待測試圖像;
[0059] 2)輸入訓練好的模型中;
[0060] 在上述訓練階段訓練好的神經(jīng)網(wǎng)絡框架中測試。
[0061] 3)輸出對應的最終圖像。
[0062] 結(jié)果會從訓練好的模型中輸出與待測試圖像大小相同類別不同的mask,通過 KITTI-R0AD提供的工具對該mask進行評估精度和美化結(jié)果。該結(jié)果圖像中道路已經(jīng)分好 類。
[0063] 請參閱圖3,圖3是本發(fā)明第二實施例提供的交通場景深度解析裝置的結(jié)構(gòu)示意 圖,為了便于說明,僅示出了與本發(fā)明實施例相關(guān)的部分。圖3示例的解析裝置可W是前述 圖1所示實施例提供的交通場景深度解析方法的執(zhí)行主體。圖3示例的交通場景深度解析裝 置,主要包括:
[0064] 樣本確定模塊301、變換模塊302、提取模塊303、訓練模塊304、輸出模塊305、還原 模塊306 W及檢測模塊307。
[0065] W上各功能模塊詳細說明如下:
[0066] 其中,樣本確定模塊301,用于使用多個交通場景數(shù)據(jù)庫中的原始圖像數(shù)據(jù)集和原 始圖像對應的道路區(qū)域標定作為訓練樣本;
[0067] 變換模塊302,用于通過拉普拉斯金字塔變換方式,將該訓練樣本中的各原始圖像 縮放為多個不同尺度;
[0068] 提取模塊303,用于將縮放后的圖像輸入與不同尺度分別對應的神經(jīng)網(wǎng)絡,W通過 該神經(jīng)網(wǎng)絡提取道路特征,該神經(jīng)網(wǎng)絡由卷積部分與反卷積部分聯(lián)合組成;
[0069] 訓練模塊304,用于利用訓練縮放后的圖像和該縮放后的圖像對應的道路區(qū)域標 定,對卷積神經(jīng)網(wǎng)絡與反卷積神經(jīng)網(wǎng)絡的參數(shù)進行訓練;
[0070] 輸出模塊305,用于通過與該神經(jīng)網(wǎng)絡鏈接的全鏈接層輸出與原始圖像像素相同 的一維數(shù)組;
[0071] 還原模塊306,用于將該一維數(shù)組還原為與該原始圖像相同大小的結(jié)果圖像,該結(jié) 果圖像中標出不同類型的道路;
[0072] 還原模塊306,還用于使用預置標準對該結(jié)果圖像進行處理,W還原出道路的分割 結(jié)果;
[0073] 檢測模塊307,用于將待檢測圖像輸入訓練成功的該神經(jīng)網(wǎng)絡中,得到完成道路分 割與該待檢測圖像對應的結(jié)果圖像。
[0074] 本實施例未盡之細節(jié),請參閱前述圖1和圖2所示實施例的描述,此處不再寶述。
[0075] 需要說明的是,W上圖3示例的交通場景深度解析裝置的實施方式中,各功能模塊 的劃分僅是舉例說明,實際應用中可W根據(jù)需要,例如相應硬件的配置要求或者軟件的實 現(xiàn)的便利考慮,而將上述功能分配由不同的功能模塊完成,即將交通場景深度解析裝置的 內(nèi)部結(jié)構(gòu)劃分成不同的功能模塊,W完成W上描述的全部或者部分功能。而且,實際應用 中,本實施例中的相應的功能模塊可W是由相應的硬件實現(xiàn),也可W由相應的硬件執(zhí)行相 應的軟件完成;本說明書提供的各個實施例都可應用上述描述原則。
[0076] 本發(fā)明實施例,通過將多尺度的圖像輸入神經(jīng)網(wǎng)絡,能有效地提取局部道路特征, 且卷積神經(jīng)網(wǎng)絡與反卷神經(jīng)網(wǎng)絡構(gòu)成的神經(jīng)網(wǎng)絡能有效地學習目標道路特征,并且通過回 歸擬合來提高深度神經(jīng)網(wǎng)絡學習的特征的準確性,不僅在道路識別精度上有非常高的性 能,而且非常有效地提高了在不同交通場景下的適應能力,通過pixel-wise方法針對圖像 每一個像素進行預測,極大地提高了區(qū)域內(nèi)分割的進度,另外,為無人駕駛和輔助駕駛使用 了攝像頭相關(guān)的傳感器也極大地降低了成本。
[0077] 請參閱圖4,本發(fā)明第Ξ實施例提供的交通場景深度解析裝置,主要包括:
[0078] 樣本確定模塊401、變換模塊402、提取模塊403、訓練模塊404、輸出模塊405、還原 模塊406、預測模塊4061、歸一模塊4062、檢測模塊407、擬合模塊408 W及糾正模塊409。
[0079] W上各功能模塊詳細說明如下:
[0080] 其中,樣本確定模塊401,用于使用多個交通場景數(shù)據(jù)庫中的原始圖像數(shù)據(jù)集和原 始圖像對應的道路區(qū)域標定作為訓練樣本。
[0081] 樣本確定模塊401,還用于將多個交通場景數(shù)據(jù)庫中的原始圖像數(shù)據(jù)集中的各原 始圖像進行歸一化處理后,作為訓練樣本。
[0082] 變換模塊402,用于通過拉普拉斯金字塔變換方式,將該訓練樣本中的各原始圖像 縮放為多個不同尺度。
[0083] 提取模塊403,用于將縮放后的圖像輸入與不同尺度分別對應的神經(jīng)網(wǎng)絡,W通過 該神經(jīng)網(wǎng)絡提取道路特征,該神經(jīng)網(wǎng)絡由卷積部分與反卷積部分聯(lián)合組成。
[0084] 訓練模塊404,用于利用訓練縮放后的圖像和該縮放后的圖像對應的道路區(qū)域標 定,對卷積神經(jīng)網(wǎng)絡與反卷積神經(jīng)網(wǎng)絡的參數(shù)進行訓練;
[0085] 輸出模塊405,用于通過與該神經(jīng)網(wǎng)絡鏈接的全鏈接層輸出與原始圖像像素相同 的一維數(shù)組。
[0086] 還原模塊406,用于將該一維數(shù)組還原為與該原始圖像相同大小的結(jié)果圖像,該結(jié) 果圖像中標出不同類型的道路。
[0087] 還原模塊406,還用于使用預置標準對該結(jié)果圖像進行處理,W還原出道路的分割 結(jié)果。
[0088] 檢測模塊407,用于將待檢測圖像輸入訓練成功的該神經(jīng)網(wǎng)絡中,得到完成道路分 割與該待檢測圖像對應的結(jié)果圖像。
[0089] 進一步地,該裝置還包括:
[0090] 擬合模塊408,用于在該全鏈接層中對提取的道路特征對應的像素進行回歸擬合。 [0091 ] 進一步地,還原模塊406還包括:預測模塊4061和歸一模塊4062。
[0092] 預測模塊4061,用于按照pixel-wise方法根據(jù)所述一維數(shù)組,對該結(jié)果圖像的每 一個像素點進行預測。
[0093] 歸一模塊4062,用于通過插值將不同尺度的結(jié)果圖像歸一到原始圖像大小的結(jié)果 圖像。
[0094] 進一步地,該裝置還包括:
[00M] 糾正模塊409,用于當驗證出所述訓練樣本訓練失敗時,使用Ground Truth進行 fine-化ning并擬合Ground Truth糾正發(fā)生錯誤的訓練樣本的訓練結(jié)果。糾正模塊409執(zhí)行 過程具體請參考前述其他模塊,此處不再寶述。
[0096] 進一步地,樣本確定模塊401,還用于將多個交通場景數(shù)據(jù)庫中的原始圖像數(shù)據(jù)集 中的各原始圖像進行歸一化處理后,和歸一化處理后的圖像對應的道路區(qū)域標定作為訓練 樣本。
[0097] 本實施例未盡之細節(jié),請參閱前述圖1和圖2所示實施例的描述,此處不再寶述。
[0098] 本發(fā)明實施例,通過將多尺度的圖像輸入神經(jīng)網(wǎng)絡,能有效地提取局部道路特征, 且卷積神經(jīng)網(wǎng)絡與反卷神經(jīng)網(wǎng)絡構(gòu)成的神經(jīng)網(wǎng)絡能有效地學習目標道路特征,并且通過回 歸擬合來提高深度神經(jīng)網(wǎng)絡學習的特征的準確性,不僅在道路識別精度上有非常高的性 能,而且非常有效地提高了在不同交通場景下的適應能力,通過pixel-wise方法針對圖像 每一個像素進行預測,極大地提高了區(qū)域內(nèi)分割的進度,另外,為無人駕駛和輔助駕駛使用 了攝像頭相關(guān)的傳感器也極大地降低了成本。
[0099] 在本申請所提供的多個實施例中,應該理解到,所掲露的裝置和方法,可W通過其 它的方式實現(xiàn)。例如,W上所描述的裝置實施例僅僅是示意性的,例如,所述模塊的劃分,僅 僅為一種邏輯功能劃分,實際實現(xiàn)時可W有另外的劃分方式,例如多個模塊或組件可W結(jié) 合或者可W集成到另一個系統(tǒng),或一些特征可W忽略,或不執(zhí)行。另
當前第3頁1 2 3 4 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
南木林县| 苏尼特左旗| 探索| 长岭县| 遂川县| 铁岭市| 澎湖县| 眉山市| 巍山| 罗定市| 项城市| 安国市| 吉林省| 康保县| 玛沁县| 炎陵县| 衢州市| 汽车| 定陶县| 建昌县| 南陵县| 新宾| 酉阳| 万全县| 汝州市| 四会市| 梓潼县| 湘西| 梧州市| 崇阳县| 榆树市| 曲靖市| 湘阴县| 德清县| 铜山县| 云龙县| 庆城县| 常宁市| 连江县| 尼勒克县| 兰考县|