【精品】移除讯号杂讯的类神经网路方法54.pptVIP

  • 2
  • 0
  • 约7.31千字
  • 约 29页
  • 2018-06-06 发布于浙江
  • 举报

【精品】移除讯号杂讯的类神经网路方法54.ppt

【精品】移除讯号杂讯的类神经网路方法54

移除訊號雜訊的類神經網路方法 班級:二技自控四甲 組員:馮念華、 陳永祥 學號 指導老師:陳沛仲;目錄;摘要;RBF網路架構與學習法則;■ RBF網路的隱藏層神經元轉移函數(transfer function)為廣泛使用的高斯函數,如式(2.1)所示: 其中,X為測試樣本,Cj為RBF隱藏層神經元的中心點(center),ρ為高斯函數的寬度值(width),而||˙||表示歐基里德範數(Euclidean Norm)。 ■網路中隱藏層神經元和輸出層神經元之間的輸出加權值,都只是簡單的訊號相乘,而輸出層神經元也僅將輸入值相加成為網路輸出,因此RBF網路可以用式(2-2)的映射關係f:Rn→Rm來表示。 其中: J:隱藏層神經元的總數。 m:輸出層神經元的個數。 :網路第i個輸出層神經元的網路輸出值。 Θji:第j個隱藏層神經元到第i個輸出輸出層神經元的輸出加權值。 ; ■ 正交最小平方法則(OLS) Chen and Billings(1992)所提出的正交最小平方法則(OLS),是可依序增加隱藏層神經元的網路學習方法,其中神經元的中心點是由訓練資料的輸入變數向量中選出。網路的輸出加權值則藉由最小化目標函數(objective function)來求得,如式(2-3)所示。 其中,N表示訓練樣本的總數,yki和 分別表示第k個訓練樣本的第i個期望輸出值(desired output)和網路實際輸出值(actual output)。 ■ 線性迴歸模式: 其中,φ表示為第j個隱藏層神經元的輸出,t則為訓練樣本的計數指標,θji為隱藏層及輸出層之間的輸出加權值。而yi和ei二項分別代表期望輸出和訓練誤差。 ;隱藏層神經元參數;求解網路輸出加權值;Early Stop 機制;處理一維訊號雜訊移除問題;訊號雜訊移除方法流程圖;訊號雜訊移除方法流程說明;三種雜訊模型的介紹; ■ 脈衝雜訊(Impulse Noise Model) 在模擬訊號的函數中,隨機選取不同比例資料點加上或減去一個人工 設定的雜訊值(例如:在函數中選取0.25%的資料點加上0.3或是減去0.3)。 ■ Gross Error Model 考慮到在實際訊號的狀況下,雜訊對於訊號的影響也會有大小不同的情形。如式(2-9)所示 其中, δ:嚴重雜訊點發生的機率。 H: 一般的高斯函數分佈。 G: 對稱長尾的高斯函數分佈。 ;不同雜訊模型下的實驗結果 ;(2)函數y(x)=X2/3受到5%Impulse Noise影響 (3)函數y(x)=X2/3受到5%Gross Noise影響 ;不同雜訊模型下的實驗分析 ■本文方法對於三種不同雜訊模型的移除效果有一些差異,在比較實驗中兩個函數在移除雜訊後的圖形可以發現,本文方法在處理Impulse Noise時,可以有效將雜訊完全移除,但是在處理Gaussian Noise以及Gross Noise時,還是會有少許的雜訊無法被本文方法偵測出並移除。 ■本文雜訊移除方法在處理較大雜訊(如Impulse Noise)時,有很好的雜訊偵測以及移除效果;而在處理較小雜訊時,會有少部份的雜訊較難被偵測以及移除,不過這些未被偵測出的雜訊,也因為雜訊值較小對函數的不良影響也較小;所以,從函數模擬的實驗結果可以驗證本文雜訊移除方法,在移除訊號雜訊上是可行且有效的。 ;處理二維影像訊號雜訊移除問題; ■ 雜訊判斷方法的修正 ˙本文在處理影像雜訊移除問題時,是利用前四個像素值去預測第五個像素值,所以在每一個方向選取資料點時,開始的前四行資料點並無法被預測,所以無法計算這四行資料點的平均誤差值;而這四行資料點,在不同方向選取資料點時會發生在不同的區域,如圖2-4(a)所示;因此,在影像中不同區域的資料點,可以計算平均誤差的次數也不一樣,如圖2-5(b)所示;因此,在將四個方向資料點所得的平均誤差值相加之後,需分別除上資料點可以計算平均誤差的次數之後,再對四個方向的平均總誤差值做排名進行雜訊點的判斷。 ;˙以各個單一方向選取原始資料點(如左圖所示),以及四個方向選取原始資料點(如右圖所示)繪出,藉以比較本文方法在修改前後的差異。 ;影像雜訊移除方法的流程圖;影像復原方法的流程圖;區塊式影像雜訊移除問題 ;實驗結果與分析 ; ■ 驗證本文方法移除雜訊的效果 ˙比較移除雜訊前後的Pepper圖 →本文方法對於受到10%脈衝雜訊影響的Pepper影像,可以有效的移除雜訊以及還原影像,由此結果可以驗證本文所提

文档评论(0)

1亿VIP精品文档

相关文档