欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

圖像增強方法及移動終端的制作方法_4

文檔序號:9547919閱讀:來源:國知局
區(qū)域像素的局部平均值m x(i,j) 作為低頻部分,可以用以下公式(1)計算得到:
[0104] 公式⑴中,預設(shè)局部區(qū)域的大小為(2n+l)2, x(k,1)為預設(shè)局部區(qū)域中的像素 點,k的范圍為i-n~i+n,1的范圍為j-n~j+n,從而可得到高頻部分為:x(i,j)-m x(i, j)。然后放大單元32將高頻部分放大得到增強的圖像,以實現(xiàn)對目標區(qū)域進行局部增強。
[0105] 本實施例對目標區(qū)域中的像素點進行低頻部分及高頻部分的準確劃分,以便將相 鄰像素點變化較大的部分進行放大,改善在逆光環(huán)境下圖像的拍攝效果。
[0106] 進一步地,基于上述第二實施例,本實施例中,上述放大單元32還用于,根據(jù)所述 預設(shè)局部區(qū)域及所述目標區(qū)域像素的局部平均值,獲取所述目標區(qū)域像素的局部標準差; 根據(jù)所述局部標準差獲取所述目標區(qū)域各個像素點的局部方差平均值,并根據(jù)所述局部標 準差及所述局部方差平均值獲取放大系數(shù);根據(jù)所述放大系數(shù)對所述高頻部分進行放大。
[0107] 本實施例中,放大單元32對目標區(qū)域中高頻部分進行大,具體地,首先放大單元 32根據(jù)上述給定的預設(shè)局部區(qū)域:窗口大小為(2n+l)*(2n+l)的區(qū)域,以及目標區(qū)域像素 的局部平均值Smx(i,j),計算目標區(qū)域像素的局部方差為j),如公式(2)所示:
[0109] 公式⑵中,(2n+l)2為預設(shè)局部區(qū)域的大小,x(k,1)為預設(shè)局部區(qū)域中的像素 點,k的范圍為i-n~i+n,1的范圍為j-n~j+n,m x(i,j)為目標區(qū)域像素的局部平均值, 由局部方差六(i, .〇可得到局部標準差。x(i,j)。
[0110] 然后根據(jù)局部標準差〇x(i,j)計算目標區(qū)域各個像素點的局部方差平均值G 5, 計算公式如下:
[0112] 公式(3)中,M和N為區(qū)域的寬度和高度,具體數(shù)值可根據(jù)實際需要進行設(shè)置, σχα,j)為局部標準差。
[0113] 放大單元32根據(jù)局部標準差〇x(i,j)及局部方差平均值G5計算對高頻部分進 行放大的放大系數(shù)G(i,j)如下:
[0114] G(i, j) = min (max (1, δ (i, j)/G5), R)公式(4)
[0115] 公式(4)中,R為常數(shù),R的具體取值可根據(jù)具體情況而靈活設(shè)置,例如,R可為10。 min與max操作是將放大系數(shù)G(i,j)的值限定在[1,R]的范圍內(nèi),以防止目標區(qū)域增強過 度或者增強不明顯,一般情況下放大系數(shù)需要大于1,高頻成分才能得到增強。
[0116] 因此,放大單元32在得到放大系數(shù)G(i,j)后,可根據(jù)放大系數(shù)G(i,j)對目標區(qū) 域中的高頻部分進行增強為:G(i,j) [x(i,j)-mx(i,j)]。
[0117] 定義f(i,j)表示像素點x(i,j)對應(yīng)的增強后的像素值。則ACE算法可以表示如 下:
[0118] f(i,j) = mx(i,j)+G(i,j) [x(i,j)-mx(i,j)]公式(5)
[0119] 公式(5)中,在目標區(qū)域的邊緣或者其他像素變化劇烈部分的局部均方差比較 大,相對整個目標區(qū)域的平均標準差的比值也會大,需要對該部分進行增強。在目標區(qū)域的 平滑部分的局部均方差就會很小,相對整個目標區(qū)域的標準差的比值也會小,該部分不會 被增強。
[0120] 本實施例根據(jù)計算得到放大系數(shù)對目標區(qū)域的高頻部分進行放大,使得圖像的目 標區(qū)域清晰可見,有效地改善了在逆光環(huán)境下圖像的拍攝效果。
[0121 ] 對應(yīng)地,如圖8所示,提出本發(fā)明一種圖像增強方法第一實施例。該實施例的圖像 增強方法包括:
[0122] 步驟S10、移動終端通過多目視覺平臺獲取多個圖像,根據(jù)所述多個圖像獲取深度 圖像及拍攝場景中物體的位置信息;
[0123] 本實施例中,圖像增強的方案應(yīng)用于移動終端,該移動終端的類型可根據(jù)實際需 要進行設(shè)置,例如,移動終端可包括手機、相機、iPad等。該移動終端設(shè)置有多目視覺平臺, 多目視覺平臺由兩個或多個數(shù)碼攝像頭組成,這些數(shù)碼攝像頭相對位置固定,能夠在同一 時刻從不同視角采集圖像。以下將以雙目視覺平臺獲取圖像為例進行詳細說明。
[0124] 雙目視覺是模擬人類視覺原理,使用計算機被動感知距離的方法,從兩個或者多 個點觀察一個物體,獲取在不同視角下的圖像,根據(jù)圖像之間像素的匹配關(guān)系,通過三角測 量原理計算出像素之間的偏移來獲取物體的三維信息。具體地,該雙目視覺平臺包括兩個 數(shù)碼攝像頭,可在同一時刻得到兩幅圖像,這兩幅圖像可進行立體校正及立體匹配后得到 深度圖像。立體匹配主要是通過找出每對圖像間的對應(yīng)關(guān)系,根據(jù)三角測量原理得到視差 圖,在獲得了視差信息后,根據(jù)投影模型很容易地可以得到原始圖像的深度信息和三維信 息。
[0125] 可以理解的是,多幅圖像的獲取也可以是通過多個不同的移動終端在同一水平線 對同一拍攝場景拍攝得到圖像后,通過藍牙或WiFi等通信模塊將得到的圖像統(tǒng)一發(fā)送至 一移動終端進行后續(xù)的處理。
[0126] 為了在后續(xù)進行圖像分割時能夠?qū)δ繕藚^(qū)域進行準確分離,需要獲取拍攝場景中 物體的位置信息或距離信息,該位置信息可包括深度信息和距離信息。其中,深度信息為兩 幅圖像中對應(yīng)成像點之間的視差,距離信息為拍攝場景中物體與相機之間的距離。如圖4 所示,為雙目視覺平臺成像原理示意圖,假設(shè)P為空間中某一點,OjP 〇 j別為雙目視覺平 臺中左右兩個攝像頭的中心,χ#Ρ X ^>別為左右兩邊的成像點。由點P在左右圖像中的成 像點的視差,即可得到點P的深度信息為d = Xl-\,得到了物體的深度信息,就可以計算出 物體與相機之間的實際距離,使用以下公式計算出P點的距離信息Z :
[0128] 其中f是雙目視覺平臺中左右兩個攝像頭的焦距(這里假設(shè)兩個攝像頭焦距一 樣),T是兩個攝像頭之間的間距。
[0129] 需要說明的是,該距離信息也可以是在雙目視覺平臺上設(shè)置測距傳感器,通過測 距傳感器主動發(fā)射紅外光在場景中反射來獲取場景中物體的距離信息。深度信息或距離信 息為后面的目標區(qū)域和背景區(qū)域的分離提供了一個空間參考特征,有利于圖像分割算法的 準確性。
[0130] 步驟S20、根據(jù)所述位置信息及所述深度圖像的像素信息,對所述深度圖像進行圖 像分割處理獲取目標區(qū)域;
[0131] 本實施例中,目標區(qū)域可根據(jù)拍攝場景的具體情況而靈活設(shè)置,例如,目標區(qū)域可 以是拍攝場景中的人物、動物等,也可以是其他物體。由于拍攝場景中的目標區(qū)域和背景區(qū) 域距離攝像機的距離信息不同,目標區(qū)域和背景區(qū)域的深度信息也會不同,這為目標區(qū)域 和背景區(qū)域的分離提供了一個空間參考特征。在上述得到深度信息后,可根據(jù)深度信息及 深度圖像的像素信息,結(jié)合到傳統(tǒng)的圖像分割算法或者meanshift算法對深度圖像進行目 標區(qū)域和背景區(qū)域分割,得到目標區(qū)域。當然,也可以是在上述得到距離信息后,根據(jù)距離 信息及深度圖像的像素信息,結(jié)合到傳統(tǒng)的圖像分割算法或者meanshift算法對深度圖像 進行目標區(qū)域和背景區(qū)域分割,得到目標區(qū)域。相對于傳統(tǒng)的圖像分割算法在2D平面進 行,缺少了拍攝場景的深度信息或距離信息這一重要特征信息,圖像分割算法一般很難準 確分離出拍攝場景中的目標區(qū)域和背景區(qū)域,本實施例結(jié)合深度信息或距離信息進行圖像 分割,有利于圖像分割算法的準確性。
[0132] 需要說明的是,在通過圖像分割算法獲取了不同的圖像區(qū)域后,還需要經(jīng)過形態(tài) 學處理等操作,將圖像的輪廓進行提取、每個區(qū)域內(nèi)部空洞進行填充,保證圖像分割所得到 區(qū)域的完整性。
[0133] 步驟S30、對所述目標區(qū)域進行局部增強處理。
[0134] 在上述進行圖像分割處理得到目標區(qū)域后,需要對圖像中的目標區(qū)域進行局部對 比度增強處理。例如,在逆光環(huán)境下進行圖像拍攝時,得到的原始圖像如圖5所示,圖5中 由于背景強光像素的干擾,使得目標區(qū)域的人物看起來比較暗淡。為了更好地改善圖像的 效果,本實施例可利用局部對比度增強算法增強分離出來的目標區(qū)域,得到增強后的圖像 如圖6所示,圖6中,目標區(qū)域的人物已經(jīng)過增強處理,看起來非常清晰。圖像局部對比度 增強算法有多種,本實施例可采用自適應(yīng)對比度增強算法(ACE算法),以下實施例將進行 詳細說明。
[0135] 本發(fā)明實施例移動終端通過雙目視覺平臺進行圖像拍攝,并根據(jù)拍攝場景中物體 的深度信息及圖像的像素信息,或根據(jù)距離信息及圖像的像素信息,對圖像進行圖像分割 處理,準確分離出目標區(qū)域和背景區(qū)域,從而獲取目標區(qū)域。然后利用圖像局部對比度增強 算法對目標區(qū)域進行增強處理,而背景區(qū)域保持不變,使得圖像的目標區(qū)域和背景區(qū)域的 效果均清晰。移動終端實現(xiàn)了根據(jù)深度信息或距離信息對多視覺平臺獲取的圖像中目標區(qū) 域進行準確分割,及對目標區(qū)域進行局部增強,有效地改善了在逆光環(huán)境下圖像的拍攝效 果。
[0136] 進一步地,基于上述第一實施例,本實施例中,上述位置信息可包括深度信息和距 離信息,上述步驟S20可包括:
[0137] 根據(jù)所述深度信息及所述深度圖像的像素信息,對所述深度圖像進行區(qū)域分割得 到多個區(qū)域,將所述多個區(qū)域中深度信息最大的區(qū)域作為目標區(qū)域;或者,
[0138] 根據(jù)所述距離信息及所述深度圖像的像素信息,對所述深度圖像進行區(qū)域分割得 至移個區(qū)域,將所述多個區(qū)域中距離信息最小的區(qū)域作為目標區(qū)域。
[0139] 本實施例中,將具有相似性質(zhì)的像素集合起來構(gòu)成區(qū)域后,再按照具有相近或相 同深度信息的進行區(qū)域劃分,或者是按照具有相近或相同距離信息的進行區(qū)域劃分,可以 得到多個不同的圖像區(qū)域。根據(jù)拍攝圖像的目標區(qū)域離攝像頭的距離一般較背景區(qū)域離相 機的距離近這一先驗條件,結(jié)合拍攝場景中的深度信息,依據(jù)雙目成像的原理,距離攝像頭 越近,其深度值越大,因此,可選擇深度信息最大的分割區(qū)域作為目標區(qū)域,或者是選擇距 離信息最小的分割區(qū)域作為目標區(qū)域,這樣可以最終確定需要進行增強的局部圖像的目標 區(qū)域。當然,也可以根據(jù)實際需要,選擇所分割的多個區(qū)域中深度信息或距離信息為預設(shè)值 的區(qū)域作為目標區(qū)域,該預設(shè)值根據(jù)具體情況而靈活設(shè)置。
[0140] 以下進行舉例說明,假設(shè)在一拍攝場景中,有一條白色的小狗,小狗的身后較遠的 距離有一堵白色的墻,在進行圖像分割的過程中,在按照像素進行區(qū)域劃分時,由于白色的 小狗與白色的墻的像素信息非常相近,將他們歸類到同一區(qū)域。此時,利用本實施例的
當前第4頁1 2 3 4 5 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
阜新| 德格县| 江源县| 台安县| 安溪县| 泰兴市| 苏尼特左旗| 本溪市| 马边| 南丰县| 辽中县| 米泉市| 遵义市| 宿松县| 乐安县| 谢通门县| 浪卡子县| 奉贤区| 潮安县| 玉树县| 娄烦县| 吉林省| 全椒县| 浦北县| 霍州市| 漳浦县| 山东省| 名山县| 麟游县| 梨树县| 攀枝花市| 奉化市| 阿合奇县| 昭苏县| 东阿县| 岗巴县| 阳城县| 石河子市| 玛多县| 措美县| 雷波县|