亚洲h色精品,亚洲精品久久久久,欧美激情一二三区,成人影院入口

學術咨詢服務,正當時......期刊天空網是可靠的職稱工作業績成果學術咨詢服務平臺!!!

二維線性鑒別分析和協同表示的面部識別方法

發布時間:2022-04-14所屬分類:計算機職稱論文瀏覽:1

摘 要: 要: 針對圖像特征提取方法提取單一特征不能很好地表示圖像的問題,提出了二維線性鑒別分析和協同表示的面部識別方法. 該方法首先通過二維線性鑒別分析( Two-Dimensional Linear Discriminant Analysis,2DLDA) 分別對訓練樣本的類間散布矩陣和類內散布矩陣提取特征,之

  要: 針對圖像特征提取方法提取單一特征不能很好地表示圖像的問題,提出了二維線性鑒別分析和協同表示的面部識別方法. 該方法首先通過二維線性鑒別分析( Two-Dimensional Linear Discriminant Analysis,2DLDA) 分別對訓練樣本的類間散布矩陣和類內散布矩陣提取特征,之后利用得到的特征重建圖像,包括類間虛擬圖像和類內虛擬圖像. 其次,將類間虛擬圖像、類內虛擬圖像和原始圖像利用協同表示( Collaborative Representation,CR) 算法進行得分. 最后,采用加權得分融合算法將上述得分進行融合以獲得最終得分,并利用最終得分進行圖像識別. 該方法不僅有效的抑制了光照和表情對面部識別的影響,同時根據獲得的類間虛擬圖像、類內虛擬圖像與原始圖像互補,有效的提高面部圖像識別的性能. 實驗結果表明,該方法在不同的數據庫下( ORL、AR、GT) 具有較好的識別精度.

二維線性鑒別分析和協同表示的面部識別方法

  關 鍵 詞: 圖像識別; 二維線性鑒別分析; 協同表示; 得分融合

  1 引 言

  面部識別在生物特征識別技術中占有重要的位置,同時,在實際應用中面部識別技術廣泛地應用于交通安全、快捷支付和智能管理等領域內[1,2]. 然而,面部識別技術仍存在諸多挑戰,如: 不同光照、不同角度、變化表情和有無遮擋等. 因此,如何更好的提取面部圖像特征來表示圖像成為研究人員研究的熱點.

  Liu 等人提出了基于幾何特征圖像識別方法[3],該方法提取面部關鍵器官的位置信息進行識別,如人的眼睛、鼻子等. Gross 等人提出基于表象( Appearance-based) 的人臉識別方法[4],該方法將面部圖像看作一個整體并利用面部的全部信息進行面部識別. 主成分分析( Principal Component Analysis,PCA) 是基于表象的面部識別方法之一[5],PCA 也稱為 K-L 變換,它的主要思想是將面部圖像矩陣轉換為一維向量.然而,PCA 方法可能導致面部圖像部分關鍵特性丟失,并且算法復雜度較高. 因此 Yang 等人提出了二維主成分分析方法 ( Two-Dimensional Principal Component Analysis, 2DPCA) [6]. 2DPCA 方法不需要將圖像矩陣轉換為一維向量,該方法具有計算簡便的顯著特點,其計算代價遠小于 PCA 方法. 由于,通過 2DPCA 方法構建協方差矩陣提取的單一特征不能對所得圖像都有較好的魯棒性. 因此,本文將通過二維線性鑒別分析方法提取兩類特征,將在第 2. 1 部分詳細介紹.

  此外,近年來提出的稀疏表示( Sparse Representation) 方法[7]對于面部識別非常有效. 該方法實現的主要思想是假設給定一個測試樣本可以由所有類的全體訓練樣本線性組合來近似表示,進而獲取稀疏表示系數,然后計算給定的測試樣本和所有類的訓練樣本之間的殘差,即殘差最小的類別是該測試樣本的類別. Wright 等人提出測試樣本可以由其同類訓練樣本線性表示,稀疏表示方法也稱為稀疏表示分類( Sparse Representation based Classification,SRC) [8]. SRC 方法通過 l1 范數求得的稀疏解具有較好的稀疏性,然而,該方法具有較高的計算代價. 為了解決上述這個問題,Zhang 等人通過 l2 范數求稀疏解,l2 范數較 l1 范數求得的稀疏解具有較弱的稀疏性,但在求解時可以大大降低其計算代價,此方法稱為協同表示 分 類 ( Collaborative Representation based Classification, CRC) [9]. 本文將利用 CRC 作為分類器,將在第 2. 2 節詳細介紹.

  Xu 等人通常以得分層融合方法、特征層融合方法和決策層融合方法對兩種特征進行融合[10-13]. 特征層融合方法是將全部生物特征看做一個樣本進行識別,然而不同生物特征存在較大的差異影響其識別性能. 決策層融合方法是最簡單的一種融合方法,但是它的融合效果略差于其它兩種融合方法.得分層融合方法[14,15]是將每個特征得出的各自得分( 也稱為距離) 進行融合. 因此,本文采用一種加權得分融合機制將類間虛擬圖像、類內虛擬圖像和原始圖像[16-18] 分別在 CRC 上的獲得得分并進行融合,將在第 2. 3 節詳細介紹. 為了驗證本文方法的識別性能,分別在 ORL、AR、GT 不同數據庫上進行實驗.

  本文的主要貢獻如下:

  1) 本文首次提出對二維線性鑒別分析的類間散布矩陣和類內散布矩陣進行特征提取,進而得到兩類特征,即類間特征和類內特征. 有效緩解了單一特征不能很好地表示圖像的問題.

  2) 本文所提出的類間特征和類內特征與原始圖像是互補的.

  3) 本文采用新穎的加權得分融合機制將原始圖像和 2) 中特征進行融合.

  本文其余組織如下: 第 2 部分詳細介紹了提出方法; 第 3 部分展示了提出方法的性能; 第 4 部分提供了實驗結果; 第 5 部分給出了本文的結論.

  2 提出的方法

  本章涉及的基本符號如表 1 所示.

  2. 1 類間虛擬圖像和類內虛擬圖像

  本文通過二維線性鑒別分析構建類間散布矩陣和類內散布矩陣,并且分別進行特征提取. 定義類間散布矩陣 Sb 和類內散布矩陣 Sw . 分別從 Sb 中求解最優投影向量組 u 和 Sw 中求解最優投影向量組 v,從而將所有面部圖像分別對 u 和 v 作投影得到各自的特征向量,具體過程如下:

  相關知識推薦:人臉識別有關論文投稿期刊推薦

  令樣本類別有 M 個,第 j 類樣本有 N 個圖像: Aj 1,Aj 2, …,AjN,每幅圖像均為 m × n 的矩陣. 定義準則函數 J1 ( x) = uT Sb u,當 uT Sb u 取最大時,圖像矩陣對向量組 u 作投影獲得 特征向量的類別間分散程度最優. uT Sb u最大取值問題可以轉化為求解 Sb 中最大 g 個特征值所對應的特征向量問題.

  2. 2 協同表示分類

  針對于面部識別中小樣本問題,稀疏表示方法是解決這個問題最佳方法之一. 稀疏表示方法核心思想是通過給定測試樣本 y 由所有訓練樣本線性組合表示,并且求出稀疏系數,利用每類訓練樣本和稀疏系數重構后與所有測試樣本進行分類. 稀疏表示方法具體過程如下:

  假設矩陣 Aj 表示第 j 類所有訓練樣本,樣本類別個數為 M. 記 A =[A1,A2,…,AM],A 表示全體訓練樣本組成矩陣. 給定一個測試樣本 y 可用所有訓練樣本線性組合表示,即 Aw = y

  2. 3 得分融合與圖像分類

  根據本文前面介紹的理論,得分融合方法首先獨立對待各生物特征,得出各自識別結果后再進行融合,得分融合方法比其它兩類融合方法往往能取得較優鑒別性能.

  3 算法的步驟及性能展示

  3. 1 算法步驟

  根據第 2 部分的分析和推導,我們以 ORL 數據集為例,闡述本文方法的主要操作步驟.

  步驟 1. 將 ORL 數據庫分為訓練樣本集和測試樣本集,如: 每個類別選取前 2-5 張作為訓練樣本,其余作為測試樣本. 并將訓練樣本集和測試樣本集的面部圖像大小統一設置為 50* 50 像素.

  步驟 2. 利用公式( 1) -公式( 3) 構造原始面部圖像訓練樣本集的類間散布矩陣,通過特征提取方式提取相應特征向量,并且利用公式( 4) 將訓練樣本集和測試樣本集分別向提取出來的特征向量作投影,得到對應訓練樣本的類間虛擬圖像和測試樣本的類間虛擬圖像.

  步驟3. 利用公式( 2) 、公式( 5) 構造原始面部圖像訓練樣本集的類內散布矩陣,通過特征提取方式提取與之對應的特征向量,并利用公式( 6) 將訓練樣本集和測試樣本集分別向提取的特征向量作投影,獲得對應訓練樣本的類內虛擬圖像和測試樣本的類內虛擬圖像.

  步驟 4. 利用稀疏解具體表現公式 w = ( AT A + γI) - 1 AT y 和公式( 10) 分別獲取原始面部圖像中測試樣本 y 的得分、類間虛擬圖像中測試樣本 y 的得分和類內虛擬圖像中測試樣本 y 的得分,其中 γ 表示一個很小的常量,I 表示為單位矩陣.

  步驟 5. 分別獲取權重系數 q1、q2 和 q3,并通過公式( 11) 融合原始圖像的得分、類間虛擬圖像的得分和類內虛擬圖像的得分.

  步驟 6. 通過公式( 14) 將融合后最終的得分進行面部圖像識別.

  3. 2 算法性能展示

  為了讓讀者更直觀的了解本文原理,通過圖 1 展示了本文提出的類間虛擬圖像和類內虛擬圖像示意圖. 本文通過 2DLDA 來提取圖像的類間特征和類內特征,通過特征提取的方式重構類間虛擬圖像和類內虛擬圖像,類間虛擬圖像和類內虛擬圖像與原始圖像是互補的. 在圖 1 中,第 1 行展示了原始圖像,第 2 行展示了類間虛擬圖像,第 3 行展示了類內虛擬圖像.

  通過圖 2 展示了選取不同特征向量個數下對應的識別錯誤率的直觀圖. 從圖 2 中可以看出,本文提出的方法在選取不同特征向量個數下,識別率的總體趨勢是趨于平穩的,具有穩定性. 當特征向量個數選為 15 時,本文方法面部識別錯誤率最低.

  通過圖 3 展示了不同訓練樣本個數下對應的識別錯誤率. 從圖 3 中可以看出,本文提出的方法有著較低的錯誤識別率,隨著每類訓練樣本個數的增加,其面部識別錯誤率越來越低.

  4 實驗結果

  為了進一步測試本文提出方法的性能,在 ORL、AR 及 GT 數據庫上分別設計了實驗. 我們設計了協同表示分類方法、快速迭代算法( Fast Iterative Shrinkage Thresholding Algorithm,FISTA) 、同倫法( Homotopy Method) 和增廣拉格朗日乘子法( Primal Augmented Lagrange Multiplier,PALM ) 來分別作為分類算法.

  本章采用識別錯誤率來比較算法之間性能的好壞,識別錯誤率越低,算法的性能越好. 表 2-表 4 中,“本文方法”表示在 ORL、AR 和 GT 面部數據庫上的識別精度,具體為將原始圖像、類間虛擬圖像和類內虛擬圖像分別利用 CRC 進行得分,利用文中公式( 11) 所示的加權融合機制進行得分融合,并利用最終得分進行面部識別.“類間虛擬圖像/類內虛擬圖像/原始圖像 + CRC /FISTA /HOMOTOPY /PALM”分別表示在不同數據集上類間虛擬圖像/類內虛擬圖像/原始圖像在分類算法為 CRC /FISTA /HOMOTOPY /PALM 上的識別結果; 從表 2-表 4 中可以看出,本文提出的方法對于面部圖像識別具有較低的識別錯誤率.

  4. 1 在 ORL 面部數據上的實驗

  本部分將在 ORL 人臉數據庫進行實驗. ORL 人臉數據庫包含了 40 個人,每個人 10 幅圖像,共 400 幅人臉圖像. 每幅人臉圖像均在不同的光照、不同的表情變化、不同的角度條件下獲得. 在 ORL 人臉數據庫中圖像包括表情的變化( 笑或不笑,睜眼或閉眼) 及面部細節. 每幅人臉圖像分辨率均為 50 像素 × 50 像素,每幅人臉圖像的格式為'. bmp'. 圖 4 顯示 ORL 人臉數據庫的部分圖像.

  表 2 展示了在 ORL 數據庫的識別錯誤率,每個受試者前 2-5 幅圖像作為訓練樣本,其余圖像作為測試樣本. 從表2中可以看出,本文方法在 ORL 數據庫上具有較低的錯誤率.例如: 當每類訓練樣本個數為 2-5 時,并且分類器選為 CRC 時,本文方法的識別錯誤率為 14. 06% ,12. 14% ,8. 33% , 8. 00% . 然而,原始圖像利用 CRC 進行分類時,它的識別錯誤率為 16. 25% ,14. 64% ,10. 83% ,11. 00% . 由表 2 可知,當不同訓練樣本個數由 2 變化到 5 時,本文提出的方法也比文獻[18]方法( 2DPCA + Original images + CRC) 、文獻[17]方法 ( FFT + Original images + CRC) 和文獻[15]中的一般融合方法( Gabor + L1LS) 效果要好.

  4. 2 在 AR 面部數據庫上的實驗

  本部分將在 AR 人臉數據庫進行實驗. AR 人臉數據庫中包含了 120 個人,每個人 26 幅圖像,共 3120 幅人臉圖像. 圖像在不同光照、不同面部表情、不同角度和有無遮擋物( 戴眼鏡或圍巾) 條件下獲得. 每幅人臉圖像的分辨率均為 50 像素 × 40 像素,每幅人臉圖像的格式均為'. tif'. 圖 5 顯示 AR 人臉數據庫的部分圖像.

  每個受試者前 9-12 幅圖像作為訓練樣本,其余圖像作為測試樣本. 例如: 分類器選為 CRC 時,本文提出的方法錯誤率為 30. 74% ,32. 76% ,23. 11% ,24. 88% . 然而,使用 FISTA 對原始圖像進行分類并且每類訓練樣本個數為 9-12 時,它的識別錯誤率為 44. 95% ,47. 71% ,34. 33% ,35. 89% . 由表 3 可知,當每個訓練樣本個數由 9 變化到 12 時,本文提出的方法在 AR 數據庫上的識別錯誤率低于原始圖像使用 FISTA 的識別錯誤率.

  4. 3 在 GT 面部數據庫上的實驗

  本部分將在 GT 人臉數據庫進行實驗. GT 人臉數據庫中包含了 50 個人,每個人 15 幅彩色圖像,共 750 幅圖像. 在 GT 人臉數據庫中,每個人的面部細節和面部表情都存在著不同程度的變化. 將每幅人臉圖像的壓縮為 50 像素 × 50 像素,實驗中將這些彩色圖像轉化為灰度圖像. 每幅人臉圖像的格式均為'. jpg'. 圖 6 顯示 GT 人臉數據庫的部分圖像.

  在 GT 數據庫中,每個受試者的前 9-11 幅圖像作為訓練樣本,其余圖像作為測試樣本. 通過表 4 的實驗結果可知,當每類訓練樣本個數為 9-11 時并且分類器選為 CRC 時,本文提出的面部識別方法錯誤率為 28. 67% 、26. 80% 、24. 00% . 文獻[17]方法的識別錯誤率為 31. 67% 、32. 00% 、27. 50% ,而文獻[18]方法的識別錯誤率為 32. 67% 、29. 60% 、29. 50% .由表 4 可知,本文提出的方法與其他經典方法相比具有較低的識別錯誤率.

  5 結束語

  本文提出了二維線性鑒別分析和協同表示的面部識別方法. 該方法在不同人臉數據庫中可以獲得較好的識別性能. 在實際應用中,該方法具有有效性和可行性,不需要手動調整參數并且易于實現. 本文方法可以獲取類間虛擬圖像和類內虛擬圖像來表示原始圖像,不僅保留了圖像關鍵特征信息,并且在面部識別方面與原始圖像具有一定的互補性,降低了圖像識別錯誤率. 通過實驗表明,在面部識別中將類間虛擬圖像、類內虛擬圖像和原始圖像的分類結果進行融合可以取得較好的識別效果.——論文作者:林克正,鄧 旭,張玉倫

最新分區查詢入口

SCISSCIAHCI

主站蜘蛛池模板: 密山市| 青田县| 黄石市| 黄石市| 沁源县| 克东县| 天柱县| 仁布县| 浙江省| 建昌县| 巴马| 云林县| 旺苍县| 咸宁市| 苗栗县| 郴州市| 威海市| 兴业县| 璧山县| 梓潼县| 体育| 广昌县| 清镇市| 新巴尔虎右旗| 孟连| 万盛区| 雅江县| 桂林市| 涿鹿县| 缙云县| 中卫市| 永宁县| 舟曲县| 舒城县| 石门县| 金门县| 若羌县| 资兴市| 汉川市| 铁力市| 汉中市|