女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

跨域小樣本語義分割新基準(zhǔn)介紹

jf_pmFSk4VX ? 來源:GiantPandaCV ? 作者:李響 ? 2022-11-15 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

繼醫(yī)學(xué)圖像處理系列之后,我們又回到了小樣本語義分割主題上,之前閱讀筆記的鏈接我也在文末整理了一下。

小樣本語義分割旨在學(xué)習(xí)只用幾個帶標(biāo)簽的樣本來分割一個新的對象類,大多數(shù)現(xiàn)有方法都考慮了從與新類相同的域中采樣基類的設(shè)置(假設(shè)源域和目標(biāo)域相似)。

然而,在許多應(yīng)用中,為元學(xué)習(xí)收集足夠的訓(xùn)練數(shù)據(jù)是不可行的。這篇論文也將小樣本語義分割擴(kuò)展到了一項新任務(wù),稱為跨域小樣本語義分割(CD-FSS),將具有足夠訓(xùn)練標(biāo)簽的域的元知識推廣到低資源域,建立了 CD-FSS 任務(wù)的新基準(zhǔn)。

在開始介紹 CD-FSS 之前,我們先分別搞明白廣義上跨域和小樣本學(xué)習(xí)的概念(這個系列后面的文章就不仔細(xì)介紹了)。小樣本學(xué)習(xí)可以分為 Zero-shot Learning(即要識別訓(xùn)練集中沒有出現(xiàn)過的類別樣本)和 One-Shot Learning/Few shot Learning(即在訓(xùn)練集中,每一類都有一張或者幾張樣本)。幾個相關(guān)的重要概念:

域:一個域 D 由一個特征空間 X 和特征空間上的邊緣概率分布 P(X) 組成,其中 X=x1,x2,.....,xn,P(X) 代表 X 的分布。

任務(wù):在給定一個域 D={X, P(X)} 之后,一個任務(wù) T 由一個標(biāo)簽空間 Y 以及一個條件概率分布 P(Y|X) 構(gòu)成,其中,這個條件概率分布通常是從由特征—標(biāo)簽對 ∈X,∈Y 組成的訓(xùn)練數(shù)據(jù)(已知)中學(xué)習(xí)得到。父任務(wù),如分類任務(wù);子任務(wù),如貓咪分類任務(wù),狗狗分類任務(wù)。

Support set:支撐集,每次訓(xùn)練的樣本集合。

Query set:查詢集,用于與訓(xùn)練樣本比對的樣本,一般來說 Query set 就是一個樣本。

在 Support set 中,如果有 n 個種類,每個種類有 k 個樣本,那么這個訓(xùn)練過程叫 n-way k-shot。如每個類別是有 5 個 examples 可供訓(xùn)練,因為訓(xùn)練中還要分 Support set 和 Query set,那么 5-shots 場景至少需要 5+1 個樣例,至少一個 Query example 去和 Support set 的樣例做距離(分類)判斷。

現(xiàn)階段絕大部分的小樣本學(xué)習(xí)都使用 meta-learning 的方法,即 learn to learn。將模型經(jīng)過大量的訓(xùn)練,每次訓(xùn)練都遇到的是不同的任務(wù),這個任務(wù)里存在以前的任務(wù)中沒有見到過的樣本。所以模型處理的問題是,每次都要學(xué)習(xí)一個新的任務(wù),遇見新的 class。 經(jīng)過大量的訓(xùn)練,這個模型就理所當(dāng)然的能夠很好的處理一個新的任務(wù),這個新的任務(wù)就是小樣本啦。

meta-learning 共分為 Training 和 Testing 兩個階段。

Training 階段的思路流程如下:

將訓(xùn)練集采樣成支撐集和查詢集。

基于支撐集生成一個分類模型。

利用模型對查詢集進(jìn)行預(yù)測生成 predict labels。

通過查詢集 labels(即ground truth)和 predict labels 進(jìn)行 loss 計算,從而對分類模型 C 中的參數(shù) θ 進(jìn)行優(yōu)化。

Testing 階段的思路:

利用 Training 階段學(xué)來的分類模型 C 在 Novel class 的支撐集上進(jìn)一步學(xué)習(xí)。

學(xué)到的模型對 Novel class 的查詢集進(jìn)行預(yù)測(輸出)。

總的來說,meta-learning 核心點(diǎn)之一是如何通過少量樣本學(xué)習(xí)分類模型C

再來解釋下為什么要研究跨域的小樣本學(xué)習(xí),當(dāng)目標(biāo)任務(wù)與源任務(wù)中數(shù)據(jù)分布差距過大,在源域上訓(xùn)練得到的模型無法很好的泛化到目標(biāo)域上(尤其是基于元學(xué)習(xí)的方法,元學(xué)習(xí)假設(shè)源域和目標(biāo)域相似),從而無法提升目標(biāo)任務(wù)的效果,即在某一個域訓(xùn)練好的分類模型在其他域上進(jìn)行分類測試時,效果不理想。

如果能用某種方法使得源域和目標(biāo)域的數(shù)據(jù)在同一分布,則源任務(wù)會為目標(biāo)任務(wù)提供更加有效的先驗知識。至此,如何解決跨域時目標(biāo)任務(wù)效果不理想的問題成了跨域的小樣本學(xué)習(xí)。

如下圖,跨域小樣本學(xué)習(xí)對應(yīng)當(dāng)源域和目標(biāo)域在不同子任務(wù)(父任務(wù)相同)且不同域下時,利用通過源域獲得的先驗知識幫助目標(biāo)任務(wù)提高其 performance,其中已有的知識叫做源域(source domain),要學(xué)習(xí)的新知識叫目標(biāo)域(target domain)。

1cff5560-642b-11ed-8abf-dac502259ad0.png

概述

在經(jīng)過對跨域小樣本學(xué)習(xí)的詳細(xì)介紹后,我們再回到發(fā)表在 ECCV 2022 的 Cross-Domain Few-Shot Semantic Segmentation 這篇論文上。這篇文章為 CD-FSS 建立了一個新的基準(zhǔn),在提出的基準(zhǔn)上評估了具有代表性的小樣本分割方法和基于遷移學(xué)習(xí)的方法,發(fā)現(xiàn)當(dāng)前的小樣本分割方法無法解決 CD-FSS。

所以,提出了一個新的模型,被叫做 PATNet(Pyramid-Anchor-Transformation),通過將特定領(lǐng)域的特征轉(zhuǎn)化為下游分割模塊的領(lǐng)域無關(guān)的特征來解決 CD-FSS 問題,以快速適應(yīng)新的任務(wù)。

下圖是論文里給出的跨域的小樣本分割與現(xiàn)有任務(wù)的區(qū)別。 和 分別表示源域和目標(biāo)域的數(shù)據(jù)分布。 代表源標(biāo)簽空間, 代表目標(biāo)標(biāo)簽空間。

1d191ef0-642b-11ed-8abf-dac502259ad0.png

Proposed benchmark

提出的 CD-FSS 基準(zhǔn)由四個數(shù)據(jù)集組成,其特征在于不同大小的域偏移。包括來自 FSS-1000 、Deepglobe、ISIC2018 和胸部 X-ray 數(shù)據(jù)集的圖像和標(biāo)簽。

這些數(shù)據(jù)集分別涵蓋日常物體圖像、衛(wèi)星圖像、皮膚損傷的皮膚鏡圖像和 X 射線圖像。所選數(shù)據(jù)集具有類別多樣性,并反映了小樣本語義分割任務(wù)的真實場景。如下圖:1dc5c8e4-642b-11ed-8abf-dac502259ad0.png1ed0edf4-642b-11ed-8abf-dac502259ad0.png

在下表中,每個域的任務(wù)難度從兩個方面進(jìn)行衡量:1)域遷移(跨數(shù)據(jù)集)和 2)單個圖像中的類別區(qū)分(在數(shù)據(jù)集中)。 F?echet Inception Distance (FID) 用于測量這四個數(shù)據(jù)集相對于 PASCAL 的域偏移,于是單個圖像中的域偏移和類別區(qū)分分別由 FID 和 DisFB 測量。由于單個圖像中類別之間的區(qū)分對分割任務(wù)有重要影響,使用 KL 散度測量前景和背景類別之間的相似性。

整體機(jī)制 with CD-FSS

CD-FSS 的主要挑戰(zhàn)是如何減少領(lǐng)域轉(zhuǎn)移帶來的性能下降。以前的工作主要是學(xué)習(xí) Support-Query 匹配模型,假設(shè)預(yù)訓(xùn)練的編碼器足夠強(qiáng)大,可以將圖像嵌入到下游匹配模型的可區(qū)分特征中。

然而在大領(lǐng)域差距下,只在源域中預(yù)訓(xùn)練的 backbone 在目標(biāo)域中失敗了,如日常生活中的物體圖像到 X-ray 圖像。

為了解決這個問題,模型需要學(xué)會將特定領(lǐng)域的特征轉(zhuǎn)化為領(lǐng)域無關(guān)的特征。這樣一來,下游模型就可以通過匹配 Support-Query 的領(lǐng)域無關(guān)的特征來進(jìn)行分割,從而很好地適應(yīng)新領(lǐng)域。

如下圖所示(左邊訓(xùn)練,右邊測試),整體機(jī)制由三個主要部分組成,即特征提取 backbone、domain-adaptive hypercorrelation construction 和 domain-agnostic correlation learning。對于輸入的 Support-Query 圖像,首先用特征提取器提取所有的中間特征。然后,我們在 domain-adaptive hypercorrelation construction 部分引入一個特別新穎的模塊,稱為 Pyramid Anchor-based Transformation Module(PATM),將特定領(lǐng)域的特征轉(zhuǎn)換為領(lǐng)域無關(guān)的特征。

接下來,用所有轉(zhuǎn)換后的特征圖計算多層次的相關(guān)圖,并將其送入 domain-agnostic correlation learning 部分。使用兩個現(xiàn)成的模塊,分別為 4D 卷積金字塔編碼器和 2D 卷積上下文解碼器,被用來以粗到細(xì)的方式產(chǎn)生預(yù)測掩碼,并具有高效的 4D 卷積。

在測試階段,論文里還提出了一個任務(wù)自適應(yīng)微調(diào)推理(TFI)策略,以鼓勵模型通過 Lkl 損失微調(diào) PATM 來快速適應(yīng)目標(biāo)領(lǐng)域,Lkl 損失衡量 Support-Query 預(yù)測之間的前景原型相似度。

1ef227f8-642b-11ed-8abf-dac502259ad0.png

PATNet

上一部分提到 PATM 將特定領(lǐng)域的特征轉(zhuǎn)換為領(lǐng)域無關(guān)的特征,這一部分我們仔細(xì)看一下。Pyramid Anchor-based Transformation Module(PATM)的核心思想是學(xué)習(xí) pyramid anchor layers,將特定領(lǐng)域的特征轉(zhuǎn)換為領(lǐng)域無關(guān)的特征。直觀地說,如果我們能找到一個轉(zhuǎn)化器,將特定領(lǐng)域的特征轉(zhuǎn)化為領(lǐng)域無關(guān)的度量空間,它將減少領(lǐng)域遷移帶來的不利影響。由于領(lǐng)域無關(guān)的度量空間是不變的,所以下游的分割模塊在這樣一個穩(wěn)定的空間中進(jìn)行預(yù)測會更容易。

理想情況下,屬于同一類別的特征在以同樣的方式進(jìn)行轉(zhuǎn)換時將產(chǎn)生類似的結(jié)果。因此,如果將 Support 特征轉(zhuǎn)換為領(lǐng)域空間中的相應(yīng)錨點(diǎn),那么通過使用相同的轉(zhuǎn)換,也可以使屬于同一類別的 Query 特征轉(zhuǎn)換為接近領(lǐng)域空間中的錨點(diǎn)。采用線性變換矩陣作為變換映射器,因為它引入的可學(xué)習(xí)參數(shù)較少。

如上一部分中的圖,使用 anchor layers 和 Support 圖像的原型集來計算變換矩陣。如果 A 代表 anchor layers 的權(quán)重矩陣,P 表示 Support 圖像的原型矩陣。既通過尋找一個矩陣來構(gòu)建轉(zhuǎn)換矩陣 W,使 WP=A。

任務(wù)自適應(yīng)微調(diào)推理(TFI)策略

為了進(jìn)一步提高 Query 圖像預(yù)測的準(zhǔn)確率,提出了一個任務(wù)自適應(yīng)微調(diào)推理(TFI,Task- adaptive Fine-tuning Inference)策略,以便在測試階段快速適應(yīng)新的對象。

如果模型能夠為 Query 圖像預(yù)測一個好的分割結(jié)果,那么分割后的 Query 圖像的前景類原型應(yīng)該與 Support 的原型相似。

與優(yōu)化模型中的參數(shù)不同,我們只對 anchor layers 進(jìn)行微調(diào),以避免過擬合。上圖右側(cè)顯示了該策略的流程,在測試階段,在第 1 步(step 1)中,只有錨層使用提議的 Lkl 進(jìn)行相應(yīng)的更新,Lkl 衡量 Support 和 Query set 的前景類原型之間的相似性。在第 2 步(step 1)中,模型中的所有層都被凍結(jié),并對 Query 圖像進(jìn)行最終預(yù)測。通過這種方式,模型可以快速適應(yīng)目標(biāo)域,并利用經(jīng)過微調(diào)的 anchor layers 產(chǎn)生的輔助校準(zhǔn)特征對分割結(jié)果進(jìn)行完善。

如下圖是幾個 1-shot 任務(wù)的可視化比較結(jié)果。對于每個任務(wù),前三列顯示 Support 和 Query set 的金標(biāo)準(zhǔn)。接下來的兩列分別表示沒有PATM 和沒有 TFI 的分割結(jié)果,最后一列顯示了用 Lkl 微調(diào)后的最終分割結(jié)果。

202aff5a-642b-11ed-8abf-dac502259ad0.png

實驗和可視化

如下表所示,是元學(xué)習(xí)和遷移學(xué)習(xí)方法在 CD-FSS 基準(zhǔn)上的 1-way 1-shot 和 5-shot 結(jié)果的平均 IoU。所有的方法都是在 PASCAL VOC 上訓(xùn)練,在 CD-FSS 上測試。

2071881c-642b-11ed-8abf-dac502259ad0.png

下圖是模型在 CD-FSS 上進(jìn)行 1-way 1-shot 分割的定性結(jié)果。其中,Support 圖像標(biāo)簽是藍(lán)色。Query 圖像標(biāo)簽和預(yù)測結(jié)果是另一種顏色。

總結(jié)

這篇論文也將小樣本語義分割擴(kuò)展到了一項新任務(wù),稱為跨域小樣本語義分割(CD-FSS)。建立了一個新的 CD-FSS benchmark 來評估不同域轉(zhuǎn)移下小樣本分割模型的跨域泛化能力。實驗表明,由于跨域特征分布的巨大差異,目前 SOTA 的小樣本分割模型不能很好地泛化到來自不同域的類別。所以,提出了一種新模型,被叫做 PATNet,通過將特定領(lǐng)域的特征轉(zhuǎn)換為與領(lǐng)域無關(guān)的特征,用于下游分割模塊以快速適應(yīng)新的領(lǐng)域,從而也解決了 CD-FSS 問題。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像處理
    +關(guān)注

    關(guān)注

    27

    文章

    1326

    瀏覽量

    57878
  • FSS
    FSS
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    9827

原文標(biāo)題:ECCV 2022: 跨域小樣本語義分割新基準(zhǔn)

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    【正點(diǎn)原子STM32MP257開發(fā)板試用】圖像分割 本文介紹了正點(diǎn)原子 STM32MP257 開發(fā)板基于 DeepLab 模型實現(xiàn)圖像分割的項目設(shè)計。 DeepLab 模型 DeepLab-v3
    發(fā)表于 06-21 21:11

    凡億Allegro Skill布線功能-檢查分割

    能會導(dǎo)致設(shè)計中的缺陷和問題。為了克服這一挑戰(zhàn),可以利用凡億skill中的“檢查分割”命令。這個工具能夠幫助設(shè)計者快速而準(zhǔn)確地識別出高速信號參考平面的分割問題,從而避免了人工檢查時可
    的頭像 發(fā)表于 06-19 11:50 ?549次閱讀
    凡億Allegro Skill布線功能-檢查<b class='flag-5'>跨</b><b class='flag-5'>分割</b>

    異步時鐘處理方法大全

    該方法只用于慢到快時鐘的1bit信號傳遞。在Xilinx器件中,可以使用(* ASYNC_REG = "TRUE" *)標(biāo)記,將兩個寄存器盡量靠近綜合,降低 亞穩(wěn)態(tài)因?qū)Ь€延遲太大而傳播到第二個寄存器的可能性。
    的頭像 發(fā)表于 05-14 15:33 ?506次閱讀
    <b class='flag-5'>跨</b>異步時鐘<b class='flag-5'>域</b>處理方法大全

    SparseViT:以非語義為中心、參數(shù)高效的稀疏化視覺Transformer

    (IML)都遵循“語義分割主干網(wǎng)絡(luò)”與“精心制作的手工制作非語義特征提取”相結(jié)合的設(shè)計,這種方法嚴(yán)重限制了模型在未知場景的偽影提取能力。 論文標(biāo)題: Can We Get Rid
    的頭像 發(fā)表于 01-15 09:30 ?428次閱讀
    SparseViT:以非<b class='flag-5'>語義</b>為中心、參數(shù)高效的稀疏化視覺Transformer

    TSP研究:車內(nèi)網(wǎng)聯(lián)服務(wù)向融合、全場景融合、艙駕融合方向拓展

    的數(shù)據(jù)采集與供應(yīng),進(jìn)而為車主提供更加多樣化服務(wù)。其服務(wù)內(nèi)容涵蓋導(dǎo)航服務(wù)、社交服務(wù)、娛樂服務(wù)、遠(yuǎn)程保養(yǎng)服務(wù)、安全服務(wù)等。 來源:公開資料 隨著融合、艙駕融合等趨勢的演進(jìn),TSP供應(yīng)商也在悄然進(jìn)步,從純車內(nèi)網(wǎng)聯(lián)服務(wù)應(yīng)用向
    的頭像 發(fā)表于 01-06 09:40 ?1351次閱讀
    TSP研究:車內(nèi)網(wǎng)聯(lián)服務(wù)向<b class='flag-5'>跨</b><b class='flag-5'>域</b>融合、全場景融合、艙駕融合方向拓展

    一文解析時鐘傳輸

    一、單比特CDC傳輸1.1 慢到快 快時鐘相比慢時鐘采樣速度更快,也就是說從慢時鐘來到快時鐘的信號一定可以被采集到。既然快時鐘一定可以采集到慢時鐘分發(fā)的數(shù)據(jù),那么考慮的問題就只
    的頭像 發(fā)表于 11-16 11:55 ?1221次閱讀
    一文解析<b class='flag-5'>跨</b>時鐘<b class='flag-5'>域</b>傳輸

    手冊上新 |迅為RK3568開發(fā)板NPU例程測試

    測試 6.1 deeplabv3語義分割 6.2 lite_transformer 6.3 LPRNet車牌識別 6.4 mobilenet圖像分類 6.5 PPOCR-Rec文字識別 6.6
    發(fā)表于 10-23 14:06

    語義分割25種損失函數(shù)綜述和展望

    語義圖像分割,即將圖像中的每個像素分類到特定的類別中,是許多視覺理解系統(tǒng)中的重要組成部分。作為評估統(tǒng)計模型性能的主要標(biāo)準(zhǔn),損失函數(shù)對于塑造基于深度學(xué)習(xí)的分割算法的發(fā)
    的頭像 發(fā)表于 10-22 08:04 ?1560次閱讀
    <b class='flag-5'>語義</b><b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    手冊上新 |迅為RK3568開發(fā)板NPU例程測試

    測試 6.1 deeplabv3語義分割 6.2 lite_transformer 6.3 LPRNet車牌識別 6.4 mobilenet圖像分類 6.5 PPOCR-Rec文字識別 6.6
    發(fā)表于 08-12 11:03

    極限失控的大模型使電力系統(tǒng)面臨的攻擊風(fēng)險及應(yīng)對措施

    分析大規(guī)模生成式預(yù)訓(xùn)練模型(以下簡稱為大模型)發(fā)生極限失控、使電力系統(tǒng)面臨的攻擊風(fēng)險及相關(guān)的應(yīng)對措施,以期引起業(yè)內(nèi)對這一風(fēng)險的重視、討論與行動。基于大模型的現(xiàn)狀、發(fā)展趨勢以及它與人工智能反叛之間
    發(fā)表于 07-22 12:09 ?0次下載

    圖像語義分割的實用性是什么

    圖像語義分割是一種重要的計算機(jī)視覺任務(wù),它旨在將圖像中的每個像素分配到相應(yīng)的語義類別中。這項技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,如自動駕駛、醫(yī)學(xué)圖像分析、機(jī)器人導(dǎo)航等。 一、圖像語義
    的頭像 發(fā)表于 07-17 09:56 ?871次閱讀

    圖像分割語義分割的區(qū)別與聯(lián)系

    圖像分割語義分割是計算機(jī)視覺領(lǐng)域中兩個重要的概念,它們在圖像處理和分析中發(fā)揮著關(guān)鍵作用。 1. 圖像分割簡介 圖像分割是將圖像劃分為多個區(qū)
    的頭像 發(fā)表于 07-17 09:55 ?1874次閱讀

    圖像分割與目標(biāo)檢測的區(qū)別是什么

    圖像分割與目標(biāo)檢測是計算機(jī)視覺領(lǐng)域的兩個重要任務(wù),它們在許多應(yīng)用場景中都發(fā)揮著關(guān)鍵作用。然而,盡管它們在某些方面有相似之處,但它們的目標(biāo)、方法和應(yīng)用場景有很大的不同。本文將介紹圖像分割與目標(biāo)檢測
    的頭像 發(fā)表于 07-17 09:53 ?2307次閱讀

    迅為RK3568手冊上新 | RK3568開發(fā)板NPU例程測試

    deeplabv3語義分割 6.2 lite_transformer 6.3 LPRNet車牌識別 6.4 mobilenet圖像分類 6.5 PPOCR-Rec文字識別 6.6 PPOCR-Det語義
    發(fā)表于 07-12 14:44

    圖像分割語義分割中的CNN模型綜述

    圖像分割語義分割是計算機(jī)視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像
    的頭像 發(fā)表于 07-09 11:51 ?1899次閱讀
    主站蜘蛛池模板: 辽阳县| 靖宇县| 高尔夫| 陈巴尔虎旗| 九龙坡区| 东至县| 井陉县| 安义县| 杂多县| 那坡县| 瓮安县| 山西省| 唐河县| 泸水县| 凤台县| 洛南县| 汾西县| 德保县| 江达县| 东辽县| 长沙县| 安康市| 株洲市| 方城县| 屯昌县| 玉溪市| 曲周县| 民县| 宾川县| 汤原县| 霞浦县| 鹤山市| 六枝特区| 攀枝花市| 潼关县| 西贡区| 抚州市| 上高县| 怀仁县| 天津市| 行唐县|