亚洲h色精品,亚洲精品久久久久,欧美激情一二三区,成人影院入口

學術咨詢服務,正當時......期刊天空網是可靠的職稱工作業績成果學術咨詢服務平臺!!!

機器視覺應用中的圖像數據增廣綜述

發布時間:2022-03-18所屬分類:計算機職稱論文瀏覽:1

摘 要: 摘 要:深度學習是目前機器視覺的前沿解決方案,而海量高質量的訓練數據集是深度學習解決機器視覺問題的基本保障。收集和準確標注圖像數據集是一個極其費時且代價昂貴的過程。隨著機器視覺的廣泛應用,這個問題將會越來越突出。圖像增廣技術是一種有效解決深度學習在少

  摘 要:深度學習是目前機器視覺的前沿解決方案,而海量高質量的訓練數據集是深度學習解決機器視覺問題的基本保障。收集和準確標注圖像數據集是一個極其費時且代價昂貴的過程。隨著機器視覺的廣泛應用,這個問題將會越來越突出。圖像增廣技術是一種有效解決深度學習在少量或者低質量訓練數據中進行訓練的一種技術手段,該技術不斷地伴隨著深度學習與機器視覺的發展。系統性梳理當前圖像增廣技術研究,從增廣對象、增廣空間、標簽處理和增廣策略生成的角度,分析現有圖像增廣技術的研究范式。依據研究范式提出現有圖像增廣技術的分類系統,重點介紹每類圖像增廣研究的代表性研究成果。最后,對現有圖像增廣研究進行總結,指出當前圖像增廣研究中存在的問題及未來的發展趨勢。

機器視覺應用中的圖像數據增廣綜述

  關鍵詞:深度學習;計算機視覺;圖像增廣;數據增廣;圖像增強

  機器視覺中的圖像處理是人工智能的一個重要的研究領域,包括圖像分類、語義分割、對象分割和目標檢測等應用[1-3] 。現階段,隨著硬件設施的不斷完善和深度學習[4] 技術的提出以及不斷發展,基于深度學習的圖像分類方法也日新月異。自 Alex等學者將深度卷積網絡 AlexNet[5] 應用在圖像分類中并取得遠比其他傳統圖像分類方法更低的錯誤率后,基于深度學習的圖像處理解決方案成為主流。隨后,新的深度學習網絡結構,如 NiN[6] 、VGG[7] 、ReNet[8] 、GoogLeNet[9] 、 ResNet[10] 、InceptionNet[11- 12] 、MobileNet[13- 15] 、DenseNet[16] 、 EfficientNet[17] 、ResNeXt[18] 和 ResNeSt[19] 等網絡結構被不斷地提出并在不同的圖像應用場景大放異彩。

  深度學習在計算機視覺領域取得的巨大成功,主要歸功于三大因素[1,20-21] :(1)強大的深度學習模型的表達容量;(2)不斷增大的可獲得算力;(3)大規模可獲得的標注數據集。為了促進深度學習在不同的圖像處理領域的發展,數以萬計的不同類型的圖像數據被收集、標注和公開應用,其中最著名的是 ImageNet[22] 。按照圖像應用場景和圖像類型進行劃分,現有數據集可以從圖像的類型上分成 2D 數據集、2.5D 數據集和 3D數據集[22-40] ,覆蓋了圖像分類、語義切割、對象分割和自動駕駛等各個應用,極大地促進了深度學習圖像技術的發展。盡管如此,對于各種專業領域的深度學習圖像應用,缺少合格的領域圖像數據仍然是一個不爭的事實,尤其是在醫療圖像處理[41-42] 、AI 農業[43-44] 等領域。

  He等學者[45] 指出自 2012年 AlexNet[5] 首次使用深度神經網絡進行圖像分類并獲得比其他傳統圖像處理方法更好的效果以來到NASNet-A[46] 的提出,ImageNet的 Top-1 分類準確率已經從 62.5%提升到 82.7%。同時作者也指出這些成就的取得,不僅僅歸功于網絡模型的設計和優化,包括圖像增廣在內的多種優化方案和訓練技巧也同樣非常重要。

  圖像增廣是在有效訓練數據受限的情況下解決深度學習模型訓練問題的一種有效方法。大量的增廣技術和方法被提出來豐富和增廣訓練數據集,提升神經網絡的泛化能力。常見的圖像增廣方法主要基于圖像變換,例如光度變化、翻轉、旋轉、抖動和模糊等[1,41,47-48] 。隨著深度學習中神經網絡的層數不斷擴大,表達能力的不斷提升,為了能夠更好防止模型過擬合,出現了以 mixup[49] 為代表的合成樣本圖像增廣方法[50-57] 和使用生成對抗網絡(generative adversarial nets,GANs)[58] 為代表的虛擬圖像樣本生成的圖像增廣方法[59-63] 等。在不同應用數據集和應用場景下,圖像增廣的策略和方法也不盡相同。因此,為了在特定的圖像數據集和應用場景中找到最佳的圖像增廣策略,出現了基于算法或模型進行增廣策略搜索的智能圖像增廣相關研究。例如,Fawzi 等學者[64] 提出了自適應圖像增廣,Cubuk 等學者[47] 提出了基于循環神經網絡的自動增廣框架。除此以外,還有更多的研究[65-71] 在探索智能或者自動化的圖像增廣技術。

  當前,圖像增廣的研究層出不窮,各種新方法和新思路不斷地被提出來用于增廣訓練圖像數據集。在層出不窮的圖像增廣研究中把握住圖像增廣的范式,對現有圖像增廣研究進行分門別類,對于引導研究人員針對不同的視覺應用找到合適的圖像增廣方法以及啟發新的圖像增廣研究是非常重要的。

  本文從圖像增廣的對象、操作的空間、圖像標簽的處理方式和圖像增廣策略的調優方式四個維度出發,歸納出現有圖像增廣研究的主要內容,如圖 1 所示。

  首先,本文根據圖像增廣的對象不同分成引入外部圖像的半監督增廣,從噪聲生成虛擬圖像樣本的虛擬圖像生成增廣,以及面向圖像訓練數據集操作的圖像增廣。其次,本文從增廣操作的空間上,區別直接在圖像空間(raw image)進行增廣以及在圖像通過模型轉換到隱空間(latent space)增廣。根據圖像增廣過程中是否需要考慮圖像標注信息以及增廣后產生的新樣本或者新樣本特征的標簽是否出現擾動,本文進一步將圖像增廣分成標簽保留增廣和標簽擾動增廣。最后,本文對使用算法或者模型確定圖像增廣的參數或者方法的研究歸為智能圖像增廣,用于區別研究人員制定圖像數據增廣方法和具體策略的傳統圖像增廣研究。

  本文的主要研究內容和貢獻可以總結為:

  (1)系統性梳理圖像增廣領域的相關研究,提出圖像增廣的研究范式和分類體系,并對現有相關研究工作進行分類。

  (2)依據本文提出的圖像增廣分類體系對每個類別中的代表性研究工作及其衍生研究進行客觀的分析對比,并指出這些研究的創新點、適用場景和局限性。

  (3)討論并總結目前圖像增廣研究領域的發展現狀、研究挑戰及其未來的發展方向。

  本文的內容將按照圖 2所示的內容進行展開。

  1 基本圖像增廣

  本文首先對基本圖像變換增廣進行回顧。基本圖像變換增廣的主要特征是面向訓練數據集的圖像樣本執行特定的圖像變換操作(例如幾何變換、光照變換等),產生新的圖像樣本的標簽信息與原始圖像樣本的標簽信息保持一致。可以通過以下形式化描述來定義基本圖像變換增廣的范式。

  1.1 幾何與紋理變換圖像增廣

  幾何圖像變換和紋理變換是在圖像的幾何空間所進行的增廣操作。主要的增廣方法如表 1所列,包括圖像翻轉、噪聲、模糊、縮放、隨機裁剪、仿射變換等。

  1.1.1 翻轉增廣

  圖像的翻轉是指沿著 X 軸或者 Y 軸進行旋轉,使用 I′ 表示翻轉后的圖像。當沿著 y 軸進行翻轉時,I′ 表示左右翻轉(也有文獻稱為水平鏡像)后的圖像樣本。當 X 軸進行翻轉時,I′ 表示上下翻轉(垂直鏡像)后的圖像樣本。翻轉圖像增廣示例如圖 3所示。其中,左邊子圖是原始圖像,中間子圖是在原始圖像上通過水平翻轉后的圖像,右邊子圖是在原始圖像上通過垂直翻轉獲得的圖像。

  1.1.2 噪聲增廣

  圖像的噪聲增廣是通過往原始圖像中每個像素加入額外的隨機信息,從而獲得有別于原始圖像的增廣圖像。為了方便起見,使用 M 表示噪聲矩陣,其中 M 與原圖像樣本 I 具有相同的尺寸。當 M 中的每個元素由高斯分布 N(μ,σ2 ) 產生時,稱為高斯圖像噪聲增廣。

  圖 4 為噪聲增廣的示例。左邊子圖為原始圖 I ,中間子圖為高斯分布產生的隨機數所填充的噪聲矩陣 M ,最右邊子圖為原始圖像 I 與噪聲矩陣 M 相加后生成的噪聲增廣圖像 I′ 。 1.1.3 模糊增廣圖像模糊的原理是將圖像中的每一個像素的取值重置為與周邊像素相關的取值,例如周邊像素的均值、中位值等。決定該像素取值與周邊像素的范圍稱為模糊半徑,常用 γ 表示。

  給定圖像模糊半徑 γ ,計算區域內每個像素的取值方法不同決定了圖像模糊方法的不同。例如,使用高斯分布計算區域內的每個像素的取值,稱為高斯圖像模糊,使用直方圖均值方法計算區域的每個像素的圖像模糊方法,稱為直方圖模糊[75] 。如圖 5 所示,左側是原始圖像 I ,右側是經過模糊半徑為 2 (γ = 2) 的高斯模糊 (σ = 1.5) 增廣后形成的圖像樣本 I′ 。

  1.1.4 縮放增廣

  圖像縮放包括圖像的放大和圖像的縮小。數據集的每張圖像的長寬往往不一致,但是深度學習的輸入往往需要一致的圖像尺寸。例如 224 × 224 ,因此圖像縮放增廣在深度學習中經常作為預處理操作。給定圖像樣本 I,其任意圖像像素 xi,j ∈ I,0 ≤ i,j < N,N 稱為最大的像素坐標。則圖像的縮放可以理解為任意的圖像像素點 xi,j 沿著坐標軸 X 和 Y 軸上進行縮放,如式(2)所示。其中 (i,j) 為像素的原始坐標, (u,v) 為經過縮放后的新坐標,kx 和 ky 為 X 軸和 Y 軸方向的縮放比例。

  1.1.7 圖像擦除增廣

  圖像擦除是對圖像樣本 I 的部分信息進行消除,使得消除后的圖像樣本 I′ 僅僅包含 I 的部分信息。圖像擦除增廣的思想是模擬圖像應用場景中的圖像遮擋現象,通過人為地以一定概率對訓練圖像進行“損壞”,并將“損壞”的圖像樣本數據輸入給神經網絡圖像分類模型,引導模型學習圖像的殘余信息,防止模型過擬合從而最終提升模型在測試樣本的泛化性能。

  1.2 光學空間變換增廣

  光學空間變換增廣是通過調整圖像的光學空間進行的增廣操作。主要的光學空間變換增廣包括光照變化和顏色空間轉換。其中,光學變換包括圖像亮度變換、對比度和圖像銳化,顏色空間變換主要包括 RGB 顏色空間與 CMY 顏色空間、XYZ 顏色空間、 HSV 顏色空間、YIQ 顏色空間、YU 顏色空間和 LAB 顏色空間之間的轉化[77] 。常見的光學變換增廣方法如表 2所示。

  1.2.1 光照變換增廣

  光照變化增廣包括亮度變化、對比度和圖像銳化增廣等。圖像的亮度變化是直接對圖像樣本 I 的每個像素點進行線性變換操作[78] 。使用 λ 表示圖像亮度變換系數,則經過亮度變化增廣的圖像樣本 I′ 可以通過等式(6)表示,其中 0 < λ < 1 圖像變暗,λ > 1 時圖像樣本變亮。

  1.2.2 顏色空間變換增廣

  彩色圖像中,常用的顏色空間主要有RGB顏色空間、CMY 顏色空間、XYZ 顏色空間、HSV 顏色空間、 YIQ 顏色空間、YU 顏色空間和 Lab 顏色空間等[77] 。 RGB 顏色空間是彩色圖像樣本中最常使用的顏色空間。在圖像樣本中使用三個通道表示,每個通道分別表示一種顏色。RGB 顏色模型的紅綠藍三種基色的波長分別是 λR = 700.0 nm ,λG = 700.0 nm 和 λB = 700.0 nm [77] 。RGB 顏色空間的特點在視覺上非常均勻,任意一種顏色可以通過三種顏色混合而成。

  1.3 基于統計的圖像增廣

  基于統計的圖像增廣方法通過引入統計學原理對圖像進行建模,通過對統計變量進行變換,達到增廣圖像中關鍵信息的目標。基于統計的圖像增廣算法包括直方圖均衡化增廣、小波變換增廣、偏微分方程增廣和 Retinex 圖像增廣等方法。其中,直方圖均衡化增廣和小波變換增廣兩種方法最為常見[79] 。

  1.3.1 直方圖均衡化增廣

  直方圖均衡化增廣是對圖像樣本 I 的輸入灰度映射為增廣后圖像樣本 I′ 的灰度級,使得 I′ 的灰度級具有近似均勻分布的概率密度函數并最終使得 I′ 比 I 具有更高的對比度和更寬的動態范圍的過程[79] 。

  2.4 圖像混合增廣總結

  圖像混合增廣的最大創新之處就是改變圖像樣本標簽的獨熱標注信息。訓練樣本數據集的標簽信息更加平滑,在一定程度上能夠提升網絡的泛化容量。盡管目前有很多不同類型的圖像混合的方式,但是圖像混合研究目前還主要處于實驗科學階段,缺乏完備的科學理論對其進行解釋。

  3 特征空間增廣

  特征空間增廣是面向訓練樣本的特征進行增廣,達到提升模型泛化性能的目標。特征空間增廣區別于傳統圖像空間增廣,增廣操作在樣本經過若干個神經網絡層所產生的隱向量上進行。使用 Zi = F(Ii ) 表示圖像樣本 Ii 經過特征編碼函數 F(∙) 獲得其隱空間的特征 Zi 的過程。與圖像空間增廣類似,特征空間增廣可以依據特征增廣后的特征標簽是否出現擾動進一步分類成特征變換和特征增廣。

  特征空間增廣研究匯總如表 4 所示。Devries 和 Taylor 兩位學者在 2017 年 ICLR(The International Conference on Learning Representations)中提出了在數據集特征空間實現數據增廣的方案 [102] 。該方案由三個步驟構成:首先,使用一個序列自動編碼器從無標簽的數據 X 中學習該樣本不同序列的表達,并形成該樣本的特征向量集合 C 。然后,將樣本通過編碼器生成樣本的特征,再對特征進行增廣。例如增加噪聲、插值等。最后,經過增廣后的特征將可以用于訓練靜態的特征分類器或者用于訓練序列分類器。該方法用于阿拉伯數字識別中進行評估,可在基線測試中將錯誤率從 1.53%降至 1.28%。該方法的創新之處是將在樣本空間中的增廣方法遷移到特征空間中,能夠在少量訓練樣本中學習到更強的表達邏輯,從而降低模型的誤差。

  Liu 等學者認為諸如翻轉、變形、噪聲、裁剪等圖像空間的數據增廣方法產生的合理數據非常有限,因此 Liu 等學者提出了在特征空間進行線性插值的對抗自動編碼(adversarial autoencoder,AAE)[100] 圖像增廣方法。AAE 是自動變分編碼器(variational autoencoder,VAE)和 生 成 對 抗 網 絡 GANs 的 結 合 體 。 AAE 將自動變分編碼器中的 KL 散度損失替換成生成對抗網絡的判別器損失。

  AAE 與標準的 VAE 一樣,從圖像樣本 I 經過編碼器轉換成隱空間中的特征變量 Z ,在隱空間中對 Z 進行線性插值后再通過解碼器生成增廣樣本 I′ 。不同的是引入對抗網絡從 Z 中進行采樣 P(Z) 作為其中的一個輸入,同時將隱空間中插值后的 Z 作為另外一個輸入,計算兩路輸入之間的對抗損失。AAE 在 CIFAR數據集中進行評估后獲得了最優的結果。

  特征空間增廣將在圖像層(raw image layer)的增廣操作泛化到特征隱藏層(latent layer),使得圖像增廣的范疇更加廣泛和圖像增廣研究的思路更加開闊。同時,研究[96] 表明在特征空間增廣相對于在圖像空間增廣效果更加顯著。未來,更多在圖像空間增廣的研究成果可以在特征空間上進行應用、檢驗和改善。

  4 半監督增廣

  半監督圖像增廣的思路是將訓練數據集外的其他未標注數據通過半監督技術使其加入到訓練數據集中,以此達到擴充訓練數據集的效果。使用 U = {uk } K k = 0 表示具有 K 個樣本的無標簽數據集,使用 Φ(∙) 表示通過使用已有訓練數據集 X 進行預訓練的模型。使用 yk ′ = Φ(uk) 表示無標簽樣本 uk 的偽標簽,并將 (uk,yk ′) 加入到訓練數據集 X 中,以此達到擴充訓練數據集的目標。

  Han 等[103] 學者提出了基于 Web 的數據增廣的方法用于提升圖像分類的效果。增廣的思路總結如下:(1)將相同類別的訓練樣本放入同一個有序列表中,排在越前的樣本代表該類的可信度越大。然后從每個類別的列表中隨機選擇圖像樣本作為種子上傳到 Google 進行以圖搜圖。(2)下載所有的搜索結果,計算所下載圖像樣本與列表中圖像樣本的相似度。滿足相似度閾值的圖像樣本將加入到候選集中,其樣本標簽與種子標簽一致。(3)每個圖像列表中選擇 Top-K 個最高相似度的下載圖像樣本,加入到訓練數據集中。該方法的有效性易受到諸如網絡和圖像提供方等外在因素的影響。該方法適合在缺乏額外圖像樣本的情景下作為一種可選的訓練集增廣方法。

  相關知識推薦:計算機視覺圖像處理論文怎么發表ei期刊

  Berthelot 等學者[51] 提出 MixMatch 的半監督數據增廣方法。首先,MixMatch 使用半監督的技術預測 K 個經過隨機數據增廣后的無標簽樣本的標簽。然后,將 K 個標簽經過算法最終確定給出該無標簽樣本的預測標簽。最后使用 mixup 技術隨機從半監督增廣獲得數據集和已有標簽數據集中選擇圖像樣本進行混合形成最終增廣后的訓練數據集。

  作者在 CIFAR-10數據集上,使用 MixMatch對沒有標簽的數據進行半監督學習,使得模型的分類錯誤率降低 4倍。然而,由于 CIFAR數據集的分辨率太低以及 MixMatch 方法僅在 CIFAR 數據集上進行評估,因此該方法在高分辨率的數據集上的效果有待評估。

  獲取大量的標簽數據集是一個昂貴且費時的過程,然而獲取無標簽的原始數據集是一個相對容易的事情。而半監督數據增廣方法能夠將無標簽的數據集利用起來提升模型的性能。因此,半監督數據增廣是圖像增廣的一個重要研究方向。

  5 虛擬圖像增廣

  虛擬圖像生成增廣是通過生成模型(主要以生成對抗網絡為主)直接生成圖像樣本,并將生成的樣本加入到訓練集中,從而達到數據集增廣的目標。使用 I′= G(Z,y) 表示以噪聲信號 Z 為種子,通過模型 G(∙) 生成標簽為 y 的虛擬樣本。虛擬圖像生成增廣通常使用生成對抗網絡及其衍生網絡作為圖像樣本的生成模型。

  Goodfellow 等學者[58] 提出生成對抗網絡的模式,讓網絡模型之間通過對抗學習的方式不斷地提升生成網絡的生成質量和判別網絡的判別能力,隨即掀起了一股對抗學習的熱潮。后續 GANs 模型的改善主要是為了解決對抗學習過程中存在的模式坍塌和訓練困難的問題。

  5.1 GANs的虛擬圖像增廣

  方法研究[62,104] 表明 GANs 是一種有效的無監督的圖像數據增廣方法。基于 GANs 的圖像增廣是使用 GANs 及其衍生模型作為工具在已有數據集上產生更豐富的圖像樣本,以此達到豐富訓練數據樣本提升應用模型在測試集性能的目標。

  5.1.1 樸素生成對抗網絡

  將 Goodfellow 等學者[58] 提出的生成對抗模型稱為樸素生成對抗網絡。該模型首次將兩個相互對抗的圖像樣本生成網絡和真假鑒別網絡融合在同一個模型,使用異步訓練的方式相互提高兩個模型的性能。使用圖 17(a)來描述樸素生成對抗網絡的模型。

  5.1.2 條件生成對抗網絡

  由于樸素生成對抗網絡[58] 缺少外部類別信息作為指導,訓練過程非常困難,為了給生成器和判別器添加額外信息加快收斂速度,條件生成對抗網絡技術(conditional generative adversarial networks,CGANs)[105] 在生成器的輸入端將待生成樣本的類別信息作為監督信號傳入到生成模型中作為約束,如圖 17(b)所示。可以根據輸入的條件信息生成符合條件的圖像樣本,尤其適合在圖像增廣方面應用[106] 。

  5.1.3 輔助分類條件對抗網絡

  為了能夠提供更多的輔助信息進行半監督訓練,Odena等學者提出在條件生成對抗網絡的判別器中加入一個額外分類任務,便于在訓練過程中利用原始任務以及分類任務的優化對模型進行調優,這個方法稱為分類輔助生成對抗網絡(auxiliary classifier generative adversarial networks,ACGAN)[107] 。

  在 ACGAN 中,除了隨機噪聲圖像 Z 外,每個生成的樣本具有對應的標簽。生成器 G 同時接受噪聲圖像 Z 和待生成的樣本的標簽 C ,產生虛擬圖像 Xfake = G(C,Z) 。判別器接收真實圖像樣本 Xreal 和虛擬圖像樣本 Xfake 的數據分布,判斷出樣本是否為真,如果為真則預測出該樣本的類別。ACGAN 的模式可以簡化描述為圖 17(c),額外的分類任務的加入可以生成更加清晰的圖像并且加入輔助分類器有效緩解了模型崩塌問題。實驗結果表明 ACGAN 在 CIFAR10數據集上分類準確性達到同期研究的最好效果。

  由于 ACGAN 圖像增廣的研究框架的適用性, ACGAN被應用到多個領域的視覺處理任務相關研究中。例如:Mariani 等學者為了解決圖像分類中數據集標簽不平衡的問題提出了數據平衡生成對抗網絡(balancing generative adversarial networks,BAGAN)[108] 。作者以 ACGAN 為基礎,將 ACGAN 中的“真假”輸出和“類別”輸出合成為一個輸出,解決了在訓練過程中遇到少數類時兩個損失函數相互沖突的問題。實驗結果表明BAGAN在MNIST、CIFAR-10、Flowers和 GTSRB 四個數據集中,分類準確性表現比 ACGAN 更優秀。

  Huang等學者[109] 基于 ACGAN 模型提出了 ActorCritic GAN 解決圖像分類應用在中類內數據不平衡的問題。使用 ACGAN 模型對類內不平衡的樣本進行有差別的增廣,擴大類內圖像的差異性。實驗結果表明相比原始圖像,作者的方案能提高大約 2 個百分點的準確率。

  Singh等學者提出基于 ACGAN 模型的惡意軟件圖像增廣框架(malware image synthesis using GANs, MIGAN)[110] 。作者使用MIGAN解決了在惡意軟件分析過程中帶標簽的惡意軟件圖像數據缺乏的問題。——論文作者:林成創 1,4,5 ,單 純 2 ,趙淦森 1,4,5+ ,楊志榮 3 ,彭 璟 1,4,5 ,陳少潔 1,4,5 ,黃潤樺 1,4,5 ,李壯偉 1,4,5 ,易序晟 1,4,5 ,杜嘉華2 ,李雙印1,4,5 ,羅浩宇1,4,5 ,樊小毛1,4,5 ,陳冰川6+

2023最新分區查詢入口

SCISSCIAHCI

主站蜘蛛池模板: 陇西县| 江阴市| 菏泽市| 雷州市| 久治县| 西畴县| 石家庄市| 镇坪县| 土默特左旗| 类乌齐县| 科技| 鹤庆县| 五原县| 荣昌县| 嵊州市| 固原市| 云梦县| 巴楚县| 南昌市| 蓬安县| 玛纳斯县| 扬中市| 故城县| 鹿泉市| 滨州市| 资源县| 石狮市| 哈尔滨市| 夏津县| 如皋市| 喀喇沁旗| 亳州市| 五台县| 诏安县| 宁城县| 广平县| 梁河县| 广宁县| 古丈县| 抚顺市| 金塔县|