欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于實(shí)時(shí)在線地圖生成的無人機(jī)偵察方法與流程

文檔序號(hào):12720927閱讀:來源:國(guó)知局

技術(shù)特征:

1.一種基于實(shí)時(shí)在線地圖生成的無人機(jī)偵察方法,其特征在于:包括以下步驟:

步驟1:無人機(jī)對(duì)待偵查區(qū)域按照設(shè)定航路飛行,拍攝標(biāo)準(zhǔn)視頻,并提取標(biāo)準(zhǔn)視頻關(guān)鍵幀:

標(biāo)準(zhǔn)視頻第一幀設(shè)定為關(guān)鍵幀,且標(biāo)準(zhǔn)視頻第一幀的單應(yīng)矩陣H為單位陣;

對(duì)于標(biāo)準(zhǔn)視頻當(dāng)前幀,通過以下步驟計(jì)算當(dāng)前幀到當(dāng)前關(guān)鍵幀的單應(yīng)矩陣H,并判斷是否更新關(guān)鍵幀:

步驟1.1:對(duì)當(dāng)前幀做灰度化處理,提取當(dāng)前幀的特征點(diǎn)并獲取特征描述向量,利用當(dāng)前幀對(duì)應(yīng)單應(yīng)矩陣H的初始值,將當(dāng)前幀的特征點(diǎn)投影到當(dāng)前關(guān)鍵幀上;

步驟1.2:在當(dāng)前關(guān)鍵幀上,以每一個(gè)投影點(diǎn)為設(shè)定區(qū)域中心,依據(jù)設(shè)定區(qū)域?qū)γ恳煌队包c(diǎn)進(jìn)行如下判斷:

若設(shè)定區(qū)域內(nèi)沒有當(dāng)前關(guān)鍵幀的特征點(diǎn),則對(duì)該投影點(diǎn)不做處理;

若設(shè)定區(qū)域內(nèi)存在當(dāng)前關(guān)鍵幀的特征點(diǎn),則選擇與投影點(diǎn)差異最小的特征點(diǎn),判斷該特征點(diǎn)與投影點(diǎn)差異值是否滿足匹配設(shè)定條件,如果滿足,則得到一個(gè)特征點(diǎn)匹配對(duì);

步驟1.3:利用得到的特征點(diǎn)匹配對(duì),根據(jù)公式

<mrow> <mfrac> <mn>1</mn> <mi>d</mi> </mfrac> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>u</mi> </mtd> </mtr> <mtr> <mtd> <mi>v</mi> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mi>H</mi> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>u</mi> <mn>1</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>v</mi> <mn>1</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>

計(jì)算當(dāng)前幀到當(dāng)前關(guān)鍵幀的單應(yīng)矩陣H,并作為下一幀對(duì)應(yīng)單應(yīng)矩陣H的初始值;其中為當(dāng)前幀中圖像特征點(diǎn)在Z向歸一化后的坐標(biāo),為當(dāng)前關(guān)鍵幀中圖像特征點(diǎn)在Z向歸一化后的坐標(biāo),d為歸一化系數(shù);

步驟1.4:如果當(dāng)前幀與當(dāng)前關(guān)鍵幀圖像重疊部分小于整幅圖像的90%,則將當(dāng)前幀標(biāo)記為關(guān)鍵幀,并作為新的當(dāng)前關(guān)鍵幀;并判斷當(dāng)前幀是否為標(biāo)準(zhǔn)視頻最后一幀,若不是,則返回步驟1.1,進(jìn)行下一幀操作;

步驟1.5:根據(jù)標(biāo)準(zhǔn)視頻,按照實(shí)時(shí)在線地圖生成方法,將標(biāo)準(zhǔn)視頻的圖像序列生成全局地圖;

步驟2:無人機(jī)對(duì)待偵查區(qū)域按照設(shè)定航路進(jìn)行偵查飛行,拍攝新視頻,對(duì)新視頻每一幀做灰度化處理,提取其特征點(diǎn)并獲取特征描述向量;

對(duì)于新視頻中的第一幀,根據(jù)特征描述向量從標(biāo)準(zhǔn)視頻的關(guān)鍵幀序列中找到與新視頻中第一幀最接近的關(guān)鍵幀作為當(dāng)前關(guān)鍵幀;并采用單位陣作為新視頻第一幀到當(dāng)前關(guān)鍵幀的單應(yīng)矩陣H的初始值;

對(duì)于新視頻當(dāng)前幀,通過以下步驟計(jì)算新視頻當(dāng)前幀到當(dāng)前關(guān)鍵幀的單應(yīng)矩陣H,并得到當(dāng)前幀與當(dāng)前關(guān)鍵幀的差異圖D:

步驟2.1:利用新視頻當(dāng)前幀到當(dāng)前關(guān)鍵幀的單應(yīng)矩陣H的初始值,將新視頻當(dāng)前幀的特征點(diǎn)投影到當(dāng)前關(guān)鍵幀上;

步驟2.2:在當(dāng)前關(guān)鍵幀上,以每一個(gè)投影點(diǎn)為設(shè)定區(qū)域中心,依據(jù)設(shè)定區(qū)域?qū)γ恳煌队包c(diǎn)進(jìn)行如下判斷:

若設(shè)定區(qū)域內(nèi)沒有當(dāng)前關(guān)鍵幀的特征點(diǎn),則對(duì)該投影點(diǎn)不做處理;

若設(shè)定區(qū)域內(nèi)存在當(dāng)前關(guān)鍵幀的特征點(diǎn),則選擇與投影點(diǎn)差異最小的特征點(diǎn),判斷該特征點(diǎn)與投影點(diǎn)差異值是否滿足匹配設(shè)定條件,如果滿足,則得到一個(gè)特征點(diǎn)匹配對(duì);

步驟2.3:判斷得到的特征點(diǎn)匹配對(duì)個(gè)數(shù)是否達(dá)到設(shè)定的要求,如果達(dá)到,則利用得到的特征點(diǎn)匹配對(duì),根據(jù)公式

<mrow> <mfrac> <mn>1</mn> <mi>d</mi> </mfrac> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>u</mi> </mtd> </mtr> <mtr> <mtd> <mi>v</mi> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mi>H</mi> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>u</mi> <mn>1</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>v</mi> <mn>1</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>

計(jì)算新視頻當(dāng)前幀到當(dāng)前關(guān)鍵幀的單應(yīng)矩陣H,并作為新視頻下一幀對(duì)應(yīng)單應(yīng)矩陣H的初始值,并進(jìn)入步驟2.4;其中為新視頻當(dāng)前幀中圖像特征點(diǎn)在Z向歸一化后的坐標(biāo),為當(dāng)前關(guān)鍵幀中圖像特征點(diǎn)在Z向歸一化后的坐標(biāo),d為歸一化系數(shù);并判斷當(dāng)前幀是否是新視頻最后一幀,若不是最后一幀,則返回步驟2.1進(jìn)行新視頻下一幀操作;

如果特征點(diǎn)匹配對(duì)個(gè)數(shù)沒有達(dá)到設(shè)定要求,則重新定位,所述重新定位過程為:根據(jù)新視頻當(dāng)前幀的特征描述向量,從標(biāo)準(zhǔn)視頻的關(guān)鍵幀序列中找到與新視頻當(dāng)前幀最接近的關(guān)鍵幀作為當(dāng)前關(guān)鍵幀,并采用單位陣作為新視頻當(dāng)前幀到當(dāng)前關(guān)鍵幀的單應(yīng)矩陣H的初始值,然后重新返回步驟2.1;

步驟2.4:將當(dāng)前關(guān)鍵幀投影到新視頻當(dāng)前幀上,與當(dāng)前幀做圖像差異比較,得出差異圖,然后根據(jù)差異圖D,找出差異物體;

步驟3:判斷差異物體是否屬于威脅物,若是,則在步驟1.5建立的地圖上重點(diǎn)標(biāo)出。

2.根據(jù)權(quán)利要求1所述一種基于實(shí)時(shí)在線地圖生成的無人機(jī)偵察方法,其特征在于:

某一幀圖像A的特征描述向量通過以下過程得到:

步驟a:對(duì)待偵查區(qū)域多次拍攝,得到訓(xùn)練圖像集;

步驟b:利用SIFT算法,提取訓(xùn)練圖像集中每一張圖像的SIFT特征;

步驟c:將所有訓(xùn)練圖像的特征集合到一起,共有N個(gè)特征,從這N個(gè)特征中取K個(gè)具有代表性的聚類中心,利用K-Means算法對(duì)N個(gè)特征進(jìn)行聚類,得到包含K個(gè)視覺詞的視覺詞典,所述視覺詞即為聚類中心;

步驟d:計(jì)算所述某一幀圖像A中每個(gè)特征點(diǎn)到所有視覺詞的距離,將每個(gè)特征點(diǎn)映射到距離最近的視覺詞中,對(duì)映射到視覺詞中特征點(diǎn)個(gè)數(shù)進(jìn)行統(tǒng)計(jì),根據(jù)統(tǒng)計(jì)值建立與視覺詞序列對(duì)應(yīng)的特征描述向量,所述特征描述向量中第n個(gè)元素為對(duì)應(yīng)視覺詞序列中第n個(gè)視覺詞中所映射的特征點(diǎn)個(gè)數(shù)。

3.根據(jù)權(quán)利要求2所述一種基于實(shí)時(shí)在線地圖生成的無人機(jī)偵察方法,其特征在于:根據(jù)特征描述向量,從標(biāo)準(zhǔn)視頻的關(guān)鍵幀序列找到當(dāng)前關(guān)鍵幀的過程為:計(jì)算新視頻第一幀或當(dāng)前幀特征描述向量與標(biāo)準(zhǔn)視頻的關(guān)鍵幀序列中每一關(guān)鍵幀特征描述向量的差,并求模,根據(jù)得到的模的數(shù)值進(jìn)行選擇。

4.根據(jù)權(quán)利要求1所述一種基于實(shí)時(shí)在線地圖生成的無人機(jī)偵察方法,其特征在于:

步驟1.2和步驟2.2中,設(shè)定區(qū)域?yàn)檎叫螀^(qū)域,正方形區(qū)域邊長(zhǎng)為20個(gè)像素。

5.根據(jù)權(quán)利要求1所述一種基于實(shí)時(shí)在線地圖生成的無人機(jī)偵察方法,其特征在于:

步驟3中識(shí)別差異物體是否屬于威脅物的過程為:

預(yù)先建立威脅識(shí)別器,將差異物體圖像輸入威脅識(shí)別器,自動(dòng)識(shí)別是否屬于威脅物;所述威脅識(shí)別器通過以下過程得到:預(yù)先搜集若干包含威脅物體的圖像,并對(duì)威脅物體進(jìn)行類別和等級(jí)標(biāo)注作為訓(xùn)練數(shù)據(jù)集;利用卷積神經(jīng)網(wǎng)絡(luò)作為訓(xùn)練模型,并使用訓(xùn)練數(shù)據(jù)集來訓(xùn)練網(wǎng)絡(luò)參數(shù),從而得到威脅識(shí)別器。

當(dāng)前第2頁(yè)1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
临湘市| 玛曲县| 陆川县| 奈曼旗| 余庆县| 峨眉山市| 高州市| 井陉县| 江山市| 宜宾县| 黑水县| 双柏县| 保德县| 噶尔县| 新邵县| 工布江达县| 康乐县| 旅游| 钦州市| 潍坊市| 华宁县| 文成县| 鹰潭市| 仁寿县| 铜川市| 洛阳市| 扬中市| 莱芜市| 吉安县| 连云港市| 沙田区| 乐昌市| 夏河县| 百色市| 新密市| 武隆县| 涪陵区| 兴义市| 昆明市| 许昌县| 太保市|