欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種深度建模模式簡(jiǎn)化搜索方法與流程

文檔序號(hào):12628382閱讀:254來(lái)源:國(guó)知局
一種深度建模模式簡(jiǎn)化搜索方法與流程

本發(fā)明涉及一種3D視頻編碼。特別是涉及一種針對(duì)3D視頻序列中深度視頻編碼建模的深度建模模式簡(jiǎn)化搜索方法。



背景技術(shù):

近年來(lái)以自由視角電視為代表的新興多媒體服務(wù)快速發(fā)展,為滿足這些應(yīng)用在高效壓縮和傳輸上的需求,3D視頻編碼技術(shù)得到了廣泛研究?;谝曨l表達(dá)格式,3D視頻編碼方法可以分為兩類:一類是基于多視點(diǎn)視頻(Multiview Video,MVV)格式,另一類是基于多視點(diǎn)加深度(Multiview Video plus Depth,MVD)格式。MVV視頻編碼方法能夠提供良好的3D感知,但是其需要傳輸大量的彩色視頻,在3D視頻獲取和編碼效率方面存在一定的限制。而MVD視頻編碼方法減少了彩色視頻的數(shù)目,同時(shí)引入了相應(yīng)的深度視頻,只需要在解碼端利用基于深度圖像的繪制(Depth Image Based Rendering,DIBR)可以繪制出其余視點(diǎn)的視頻序列,大大提高了傳輸效率。

深度視頻具有和彩色視頻不同的特性,深度圖由大面積的平滑區(qū)域和銳利的邊緣構(gòu)成。同時(shí),深度圖和對(duì)應(yīng)的彩色圖有很強(qiáng)的相關(guān)性,它們分別表示同一場(chǎng)景的相關(guān)信息,深度圖與彩色圖有相似的物體邊界,而且與彩色圖有相似的運(yùn)動(dòng)。在編碼深度視頻時(shí),可以根據(jù)與彩色視頻的關(guān)系分為兩類:獨(dú)立編碼和聯(lián)合編碼。獨(dú)立編碼方法對(duì)深度視頻采用適合其特點(diǎn)的編碼方法。聯(lián)合編碼方法則利用彩色視頻與深度視頻之間的相關(guān)性,考慮兩者之間的冗余信息,并結(jié)合虛擬視點(diǎn)繪制的質(zhì)量?jī)?yōu)化等方法來(lái)編碼深度視頻。

針對(duì)深度視頻的編碼,3D-HEVC提出了一些新的深度視頻編碼工具,如深度建模模式(Depth Modeling Modes,DMMs)。深度建模模式將一個(gè)深度塊分割成兩個(gè)非規(guī)則區(qū)域,每一個(gè)區(qū)域用一個(gè)常量值表示。為了能夠表示出分割信息,應(yīng)該確定兩個(gè)元素參數(shù),分別是用于表示屬于哪個(gè)區(qū)域的參數(shù)和該區(qū)域恒定的常數(shù)值。新增的兩種幀內(nèi)預(yù)測(cè)方法分別為采用直線進(jìn)行分割的楔形模式(Wedgelets)和采用任意形狀分割的輪廓模式(Contours),兩者的主要區(qū)別在于分割的方式不同。除了分割信息需要傳送,還要求傳送不同分割區(qū)域深度值(Constant Partition Value,CPV)。每一個(gè)分割的區(qū)域深度值是一個(gè)固定的常數(shù),該值為該區(qū)域原始深度值的均值??偠灾鶕?jù)分割模式和傳送信息不同,深度視頻新增的幀內(nèi)編碼模式分成兩種方法:1)明確的楔形法:該方法是在編碼端確定最佳匹配的分割,并且在比特流中傳送分割信息,利用傳送的分割信息,解碼端可以重建該塊的信號(hào);2)分量間輪廓法:通過(guò)重建的對(duì)應(yīng)塊推導(dǎo)得到兩個(gè)任意形狀的區(qū)域分割。關(guān)于DMMs的優(yōu)化方法,國(guó)內(nèi)外的學(xué)者也進(jìn)行了一些研究。Zhang等人提出了一種針對(duì)Wedgelet模式的快速算法,該快速算法先找到滿足最小絕對(duì)變換誤差和(Sum of Absolute Transformed Difference,SATD)的彩色視頻的幀內(nèi)預(yù)測(cè)方向,然后根據(jù)之前建立起來(lái)的Wedgelet模式的分割樣式和角度預(yù)測(cè)的映射關(guān)系,找到最優(yōu)的分割方法。Tsukuba等人則通過(guò)對(duì)16×16大小的預(yù)測(cè)單元(Prediction Unit,PU)進(jìn)行圖樣放大以獲得32×32尺寸PU的分割圖樣,這在一定程度上減少了搜索圖樣List的尺寸,進(jìn)而減少了Wedgelet模式搜索的時(shí)間范圍。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明所要解決的技術(shù)問(wèn)題是,提供一種深度建模模式簡(jiǎn)化搜索方法,在保證視頻質(zhì)量的前提下,對(duì)當(dāng)前3D-HEVC編碼標(biāo)準(zhǔn)中深度圖編碼過(guò)程進(jìn)行優(yōu)化,簡(jiǎn)化深度建模模式的搜索過(guò)程,從而降低所需的編碼時(shí)間,提高整個(gè)編碼系統(tǒng)的性能。

本發(fā)明所采用的技術(shù)方案是:一種深度建模模式簡(jiǎn)化搜索方法,包括如下步驟:

1)采用角度模式對(duì)深度預(yù)測(cè)單元進(jìn)行預(yù)測(cè);

2)對(duì)深度預(yù)測(cè)單元進(jìn)行邊界檢測(cè),判斷是否直接跳過(guò)深度建模模式;

3)構(gòu)建粗糙搜索圖樣集合,包括:

(1)利用深度建模模式對(duì)預(yù)測(cè)單元進(jìn)行預(yù)測(cè),首先對(duì)圖樣查詢表進(jìn)行初始化,圖樣查詢表中包含所有可能的分割情況,同時(shí)需要考慮到上采樣或下采樣過(guò)程;

(2)通過(guò)邊界檢測(cè)獲得四邊變化最大的點(diǎn),將四邊變化最大的點(diǎn)分別做為起點(diǎn)或者終點(diǎn)連線獲得圖樣,由所述的圖樣構(gòu)成粗糙搜索圖樣集合;

4)視點(diǎn)合成優(yōu)化,是在獲取粗糙搜索圖樣集合之后,分別選取集合中的圖樣進(jìn)行視點(diǎn)合成優(yōu)化,通過(guò)視點(diǎn)合成優(yōu)化,選擇失真最小的圖樣作為初步最佳匹配圖樣;

5)構(gòu)建精細(xì)搜索圖樣集合,是以步驟4)中獲取的最佳圖樣為參考,獲取最佳圖樣的起點(diǎn)和終點(diǎn),分別以起點(diǎn)和終點(diǎn)為中心點(diǎn),在所述中心點(diǎn)的向上下各取2個(gè)像素點(diǎn),或在所述中心點(diǎn)的左右各取2個(gè)像素點(diǎn),以所取的像素點(diǎn)作為新的起點(diǎn)和終點(diǎn)進(jìn)行組合,得到24種圖樣,形成精細(xì)搜索圖樣集合;

6)選取最佳預(yù)測(cè)模式,并進(jìn)行編碼。

步驟1)包括:

以幀為單位,把圖像分割成多個(gè)編碼樹(shù)單元,每個(gè)編碼樹(shù)單元包含編碼樹(shù)塊和語(yǔ)法元素,其中,編碼樹(shù)塊是由亮度編碼樹(shù)塊和與亮度編碼樹(shù)相對(duì)應(yīng)的色度編碼樹(shù)塊構(gòu)成;一個(gè)亮度編碼樹(shù)塊包含L×L個(gè)亮度分量的采樣,每個(gè)色度編碼樹(shù)塊包含L/2×L/2個(gè)色度分量的采樣;亮度編碼樹(shù)塊和色度編碼樹(shù)塊直接作為編碼塊或進(jìn)一步分割成多個(gè)編碼塊;然后,將編碼樹(shù)塊分割為編碼單元,其中編碼單元按四叉樹(shù)結(jié)構(gòu)在編碼樹(shù)塊內(nèi)組織;一個(gè)亮度編碼塊、兩個(gè)色度編碼塊和相關(guān)的語(yǔ)法元素共同形成了一個(gè)編碼單元,每個(gè)編碼單元又分為預(yù)測(cè)單元和變換單元;

利用HEVC角度預(yù)測(cè)模式對(duì)深度預(yù)測(cè)單元進(jìn)行預(yù)測(cè),通過(guò)計(jì)算絕對(duì)變換誤差和(SATD),選取具有最小絕對(duì)變換誤差和代價(jià)的預(yù)測(cè)模式加入到候選列表中,不同尺寸的深度預(yù)測(cè)塊選取的預(yù)測(cè)模式數(shù)不同;所述最小絕對(duì)變換誤差和代價(jià)JHAD用下述公式來(lái)計(jì)算

JHAD=SATD+λ·Rmode

其中,SATD是指將殘差信號(hào)進(jìn)行哈達(dá)瑪變換后再求各元素絕對(duì)值之和,λ表示拉格朗日乘子,Rmode表示該預(yù)測(cè)模式下編碼所需比特?cái)?shù)。

步驟2)中由于深度圖中存在兩種類型的預(yù)測(cè)單元,一種由近乎常值或緩慢變化的深度值組成,而另一種則包含銳利的邊界,為簡(jiǎn)化搜索過(guò)程,對(duì)深度預(yù)測(cè)單元進(jìn)行邊界檢測(cè);若檢測(cè)出深度預(yù)測(cè)單元為邊界塊,則繼續(xù)進(jìn)行深度建模模式搜索過(guò)程,如果深度預(yù)測(cè)單元不含邊界,則直接跳過(guò)深度建模模式。

步驟3)第(2)步中,考慮到上采樣和下采樣的因素,對(duì)于不同尺寸預(yù)測(cè)單元,實(shí)際粗糙集合中待搜索圖樣總數(shù)也會(huì)相應(yīng)調(diào)整:對(duì)于雙精度情況,即32×32尺寸的預(yù)測(cè)單元,共有6種圖樣,對(duì)于全精度情況,即16×16尺寸的預(yù)測(cè)單元,共有6種圖樣,而對(duì)于半精度情況,即8×8和4×4尺寸的預(yù)測(cè)單元,分別各有24種圖樣。

步驟6)包括:

遍歷精細(xì)搜索圖樣集合,通過(guò)視點(diǎn)合成優(yōu)化技術(shù)選取最佳匹配圖樣,把選取的最佳匹配圖樣放入候選列表中;在候選列表中的最佳匹配圖樣、通過(guò)模式粗選過(guò)程獲取的角度預(yù)測(cè)模式以及通過(guò)相鄰參考預(yù)測(cè)單元獲取的最可能模式需要通過(guò)率失真優(yōu)化過(guò)程確定最佳幀內(nèi)預(yù)測(cè)模式,率失真代價(jià)JRDO的定義如下式所示:

JRDO=D+λ·R

D代表失真,用來(lái)描述重建視頻質(zhì)量,用均方誤差和或絕對(duì)誤差和表示,R表示編碼所消耗的比特?cái)?shù),λ為拉格朗日乘子;

在進(jìn)行率失真優(yōu)化過(guò)程中,需遍歷候選列表中的所有預(yù)測(cè)模式,選取率失真代價(jià)最小的模式作為最佳預(yù)測(cè)模式并進(jìn)行編碼。

本發(fā)明的一種深度建模模式簡(jiǎn)化搜索方法,通過(guò)簡(jiǎn)化深度建模模式的搜索過(guò)程,減少了編碼時(shí)間,降低了運(yùn)算復(fù)雜度,在保證視頻質(zhì)量無(wú)明顯下降的情況下提高了編碼速度。

附圖說(shuō)明

圖1是本發(fā)明一種深度建模模式簡(jiǎn)化搜索方法的流程圖;

圖2是本發(fā)明實(shí)驗(yàn)結(jié)果圖。

具體實(shí)施方式

下面結(jié)合實(shí)施例和附圖對(duì)本發(fā)明的一種深度建模模式簡(jiǎn)化搜索方法做出詳細(xì)說(shuō)明。

如圖1所示,本發(fā)明的一種深度建模模式簡(jiǎn)化搜索方法,包括如下步驟:

1)采用角度模式對(duì)深度預(yù)測(cè)單元進(jìn)行預(yù)測(cè);包括:

以幀為單位,把圖像分割成多個(gè)編碼樹(shù)單元,每個(gè)編碼樹(shù)單元包含編碼樹(shù)塊(Coding Tree Block,CTB)和語(yǔ)法元素,其中,編碼樹(shù)塊是由亮度編碼樹(shù)塊和與亮度編碼樹(shù)相對(duì)應(yīng)的色度編碼樹(shù)塊構(gòu)成;一個(gè)亮度編碼樹(shù)塊包含L×L個(gè)亮度分量的采樣,每個(gè)色度編碼樹(shù)塊包含L/2×L/2個(gè)色度分量的采樣;亮度編碼樹(shù)塊和色度編碼樹(shù)塊直接作為編碼塊(Coding Block,CB)或進(jìn)一步分割成多個(gè)編碼塊;然后,將編碼樹(shù)塊分割為編碼單元(Coding Unit,CU),其中編碼單元按四叉樹(shù)結(jié)構(gòu)在編碼樹(shù)塊內(nèi)組織;一個(gè)亮度編碼塊、兩個(gè)色度編碼塊和相關(guān)的語(yǔ)法元素共同形成了一個(gè)編碼單元,每個(gè)編碼單元又分為預(yù)測(cè)單元(Prediction Unit,PU)和變換單元(Transform Unit,TU);

利用HEVC角度預(yù)測(cè)模式對(duì)深度預(yù)測(cè)單元進(jìn)行預(yù)測(cè),通過(guò)計(jì)算絕對(duì)變換誤差和(SATD),選取具有最小絕對(duì)變換誤差和代價(jià)的預(yù)測(cè)模式加入到候選列表中,不同尺寸的深度預(yù)測(cè)塊選取的預(yù)測(cè)模式數(shù)不同;在35種預(yù)測(cè)模式中選取3種(針對(duì)64×64,32×32,16×16大小的PU)或8種(針對(duì)8×8,4×4大小的PU)具有最小絕對(duì)變換誤差和代價(jià)JHAD的預(yù)測(cè)模式加入到候選列表中。所述最小絕對(duì)變換誤差和代價(jià)JHAD用下述公式來(lái)計(jì)算

JHAD=SATD+λ·Rmode

其中,SATD是指將殘差信號(hào)進(jìn)行哈達(dá)瑪變換后再求各元素絕對(duì)值之和,λ表示拉格朗日乘子,Rmode表示該預(yù)測(cè)模式下編碼所需比特?cái)?shù)。

2)對(duì)深度預(yù)測(cè)單元進(jìn)行邊界檢測(cè),判斷是否直接跳過(guò)深度建模模式;由于深度圖中存在兩種類型的預(yù)測(cè)單元,一種由近乎常值或緩慢變化的深度值組成,而另一種則包含銳利的邊界,為簡(jiǎn)化搜索過(guò)程,對(duì)深度預(yù)測(cè)單元進(jìn)行邊界檢測(cè);若檢測(cè)出深度預(yù)測(cè)單元為邊界塊,則繼續(xù)進(jìn)行深度建模模式搜索過(guò)程,如果深度預(yù)測(cè)單元不含邊界,則直接跳過(guò)深度建模模式。

如果PU含有銳利邊界,則PU的四條邊中至少有兩條邊上存在深度值梯度變化最大點(diǎn);反之,如果該P(yáng)U沒(méi)有或者只有一條邊存在深度值梯度變化最大點(diǎn),這種情況下該P(yáng)U可以看作為平滑PU,其DMM模式可以直接跳過(guò)。基于此思想,邊界檢測(cè)主要過(guò)程如下:

1)對(duì)PU進(jìn)行邊緣檢測(cè),獲取PU四邊梯度變化最大點(diǎn)的個(gè)數(shù)n,其中梯度變化由相鄰像素的差值絕對(duì)值來(lái)衡量;

2)判斷n≤1;若n≤1,跳過(guò)DMM模式,直接進(jìn)行RDO過(guò)程并編碼;若n≥2,轉(zhuǎn)到步驟3。

3)構(gòu)建粗糙搜索圖樣集合

在邊緣檢測(cè)之后,若深度PU沒(méi)有或者只有一條邊上存在深度值梯度變化最大點(diǎn)時(shí),DMM模式直接被跳過(guò);而對(duì)于未跳過(guò)DMM模式的PU,其深度值梯度變化最大的點(diǎn)可以視為PU所含有的銳利邊界的起點(diǎn)或終點(diǎn),以此來(lái)構(gòu)建DMM劃分圖樣的粗糙搜索集合。構(gòu)建粗糙搜索圖樣集合包括:

(1)利用深度建模模式對(duì)預(yù)測(cè)單元進(jìn)行預(yù)測(cè),首先對(duì)圖樣查詢表進(jìn)行初始化,圖樣查詢表中包含所有可能的分割情況,同時(shí)需要考慮到上采樣或下采樣過(guò)程;具體是,初始化圖樣查詢表時(shí),分別取PU兩條邊界上的像素點(diǎn)作為起點(diǎn)和終點(diǎn),連接后所得分割線把深度塊劃分為兩個(gè)部分。同時(shí)為了提高準(zhǔn)確度,針對(duì)不同大小的塊采用的精度不同,對(duì)于32×32的塊,采用雙精度;16×16的塊,采用全精度;8×8和4×4的塊采用半精度。

(2)對(duì)于未跳過(guò)DMM模式的深度PU,需要獲取邊緣檢測(cè)后梯度變化最大點(diǎn)的位置信息,將其作為圖樣分割線的起點(diǎn)或終點(diǎn)。以任意邊梯度變化最大點(diǎn)作為起點(diǎn)或終點(diǎn)并連接起來(lái),獲得的每條分割線對(duì)應(yīng)一種劃分圖樣,所有可能的劃分圖樣構(gòu)成粗糙搜索集合。由所述的圖樣構(gòu)成粗糙搜索圖樣集合;考慮到上采樣和下采樣的因素,對(duì)于不同尺寸預(yù)測(cè)單元,實(shí)際粗糙集合中待搜索圖樣總數(shù)也會(huì)相應(yīng)調(diào)整:對(duì)于雙精度情況,即32×32尺寸的預(yù)測(cè)單元,共有6種圖樣,對(duì)于全精度情況,即16×16尺寸的預(yù)測(cè)單元,共有6種圖樣,而對(duì)于半精度情況,即8×8和4×4尺寸的預(yù)測(cè)單元,分別各有24種圖樣。

4)視點(diǎn)合成優(yōu)化,是在獲取粗糙搜索圖樣集合之后,分別選取集合中的圖樣進(jìn)行視點(diǎn)合成優(yōu)化,通過(guò)視點(diǎn)合成優(yōu)化,選擇失真最小的圖樣作為初步最佳匹配圖樣;

深度視頻中的圖形信息可以直接應(yīng)用于合成過(guò)程,因此深度視頻有損編碼會(huì)引起合成視點(diǎn)的失真。對(duì)觀察者而言,由于深度視頻最終是不可見(jiàn)的,因而深度視頻的編碼性能可以由最終合成視點(diǎn)的質(zhì)量來(lái)衡量。在3D-HEVC的深度視頻編碼中,其模式選擇過(guò)程的失真通過(guò)加權(quán)平均合成視點(diǎn)的失真和深度圖的失真來(lái)度量,這一過(guò)程便是視點(diǎn)合成優(yōu)化(View Synthesis Optimization,VSO)。通過(guò)視點(diǎn)合成優(yōu)化選取粗糙搜索集中的初步最佳匹配圖樣。

具體如下:

(1)把粗糙搜索集中所有圖樣索引號(hào)放到集合Coarse[i]中,

(2)初始化i=0,Dmax;

(3)計(jì)算失真D,判斷D≤Dmax;若D≤Dmax,Dmax=D,

(4)i++,跳轉(zhuǎn)到第(3)步;

(5)i=6(32×32,16×16的PU)或i=24(8×8,4×4的PU)時(shí)循環(huán)終止。

在遍歷粗糙搜索集合中的所有圖樣后,選取具有最小失真的圖樣作為初步的最佳匹配圖樣。

5)構(gòu)建精細(xì)搜索圖樣集合

將粗糙搜索集中的最優(yōu)圖樣視作最終的匹配圖樣,仍然存在不可接受的粗糙性。為了保證編碼性能,需要進(jìn)行進(jìn)一步的精細(xì)搜索。以步驟4)中獲取的最佳圖樣為參考,獲取最佳圖樣的起點(diǎn)和終點(diǎn),分別以起點(diǎn)和終點(diǎn)為中心點(diǎn),在所述中心點(diǎn)的向上下各取2個(gè)像素點(diǎn),或在所述中心點(diǎn)的左右各取2個(gè)像素點(diǎn),以所取的像素點(diǎn)作為新的起點(diǎn)和終點(diǎn)進(jìn)行組合,得到24種圖樣,形成精細(xì)搜索圖樣集合。

6)選取最佳預(yù)測(cè)模式,并進(jìn)行編碼,包括:

遍歷精細(xì)搜索圖樣集合,通過(guò)視點(diǎn)合成優(yōu)化技術(shù)選取最佳匹配圖樣,把選取的最佳匹配圖樣放入候選列表中;在候選列表中的最佳匹配圖樣、通過(guò)模式粗選(Rough Mode Decision,RMD)過(guò)程獲取的角度預(yù)測(cè)模式以及通過(guò)相鄰參考預(yù)測(cè)單元獲取的最可能模式(Most Probable Modes,MPMs)需要通過(guò)率失真優(yōu)化(Rate Distortion Optimization,RDO)過(guò)程確定最佳幀內(nèi)預(yù)測(cè)模式,率失真代價(jià)JRDO的定義如下式所示:

JRDO=D+λ·R

D代表失真,用來(lái)描述重建視頻質(zhì)量,用均方誤差和或絕對(duì)誤差和表示,R(Rate)表示編碼所消耗的比特?cái)?shù),λ為拉格朗日乘子;

在進(jìn)行率失真優(yōu)化過(guò)程中,需遍歷候選列表中的所有預(yù)測(cè)模式,選取率失真代價(jià)最小的模式作為最佳預(yù)測(cè)模式并進(jìn)行編碼。

本專利所采用的算法通過(guò)邊緣檢測(cè)技術(shù)跳過(guò)DMM預(yù)測(cè)模式,同時(shí)對(duì)于未跳過(guò)DMM模式的PU,簡(jiǎn)化DMM模式預(yù)測(cè)過(guò)程中的最佳匹配圖樣搜索過(guò)程,從而節(jié)省了大量的編碼時(shí)間。

下面結(jié)合附圖說(shuō)明實(shí)驗(yàn)效果:

實(shí)驗(yàn)測(cè)試在3D-HEVC的參考軟件HTM10.0上進(jìn)行。采用8個(gè)標(biāo)準(zhǔn)測(cè)試視頻序列在標(biāo)準(zhǔn)測(cè)試條件(CTC)下進(jìn)行測(cè)試。測(cè)試的視頻根據(jù)分辨率分為兩類,一類是1024×768分辨率,另一類是1920×1088分辨率。彩色視頻和深度視頻量化參數(shù)對(duì)設(shè)置為(25,34),(30,39),(35,42)和(40,45),實(shí)驗(yàn)采用全幀內(nèi)編碼結(jié)構(gòu)。為使本發(fā)明的效果具有可比性,在相同的實(shí)驗(yàn)條件下,通過(guò)對(duì)比本發(fā)明和HTM算法進(jìn)行對(duì)比。由實(shí)驗(yàn)結(jié)果如圖2所示,本發(fā)明可以節(jié)省75%左右的DMM編碼時(shí)間。

當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
永城市| 皋兰县| 吉木萨尔县| 东海县| 建德市| 西吉县| 六安市| 灵山县| 赣州市| 永川市| 浑源县| 福海县| 晴隆县| 利川市| 衢州市| 台北市| 武冈市| 海兴县| 齐河县| 航空| 淳安县| 英吉沙县| 顺义区| 洪雅县| 克什克腾旗| 海淀区| 资阳市| 凌云县| 浙江省| 崇明县| 东丽区| 札达县| 茂名市| 岱山县| 当阳市| 红河县| 日喀则市| 安龙县| 田东县| 塔河县| 大方县|