- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
聚集事後機率線性迴歸調適演算法應用於語音辨識
Aggregate a Posteriori Linear Regression for Speech Recognition
黃志賢 王奕凱 簡仁宗
國立成功大學資訊工程學系
{acheron,display}@chien.csie.ncku.edu.tw, jtchien@mail.ncku.edu.tw
摘要
在本論文中,我們提出一套由聚集事後機率(aggregate a posteriori)為基礎之鑑別式線性回歸(linear regression)
轉換矩陣參數調適演算法。在近幾年,由於鑑別式訓練的效果優越,於是出現使用鑑別式訓練法則進行轉換矩陣調
適,稱為最小分類錯誤率線性迴歸(minimum classification error linear regression, MCELR)調適演算法。我們認為使用
最小分類錯誤率準則進行線性迴歸調適時,若能再進一步考慮線性迴歸矩陣之事前機率分佈,則可以結合貝氏法則
之強健性與最小分類錯誤率之鑑別性,以估測出更佳之轉換矩陣用於語者調適上。透過聚集事後機率與鑑別式訓練
間之關連及適當之條件簡化,則可得到參數更新之封閉解(close form)型式以加速鑑別式訓練的參數估測。在實驗中,
我們使用TCC300 語料進行語音模型參數之訓練與迴歸矩陣之事前機率分佈之參數估測,而在調適及測試時,則使
用公共電視台所錄製之電視新聞語料,進行轉換矩陣估測強健性之評估與其他轉換矩陣參數調適效能之比較,在不
同調適語料之實驗結果發現我們提出之聚集事後機率線性回歸可以有效達到鑑別式語者調適的效果。
1. 緒論
在語音辨識的相關研究中,常常需要面對的問題是用於訓練時的語料與測試時語料的語者或環境常常大不相
同。每個人的聲學特質都不相同,而不同環境所產生的背景雜訊也都不同。如何有效地將訓練所得的語音模型配合
測試時所使用的語料特性進行適當的語者調適,以有效地消除這兩者之間的不匹配情形,是許多學者研究的課題。
語音模型的參數必須在訓練時使用大量語料進行估測,最普遍使用的模型訓練準則為最大相似度估測
(maximum likelihood estimate, MLE)[19] ,在此種方法中,當模型與所收集之訓練語料的相似度最大時,即可求得在
此估測準備下最佳的語音模型參數。由於語音模型參數的估測,有所謂不完整資料(incomplete data)的問題,所以皆
利用EM(Expectation-Maximization)演算法[6]進行理論推導。
除了使用最大相似度作為參數估測準則之外,另一個也常被用於作為參數估測的是基於貝氏理論的最大事後
機率(maximum a posteriori, MAP)估測法則[8] 。貝氏估測法則認為參數為一隨機變數,可以機率分佈表示之。利用根
據所給定的訓練語料而使得對應的模型參數之事後機率最大之特性,即可求得基於此方法之最佳參數。在最大事後
機率訓練法則之訓練機制下,一般不可直接最大化模型參數之事後機率,而常根據貝氏法則,將之拆解為語料與模
型間相似度與模型參數事前機率之組合,所以可利用事前資訊對模型參數加以限制,可以改善訓練資料稀疏所產生
的錯誤訓練問題。
除了前述兩者參數估測準則之外,鑑別式訓練(discriminative training)[3]則提供了在模型訓練上的另一種選擇。
由較早的 multilayer perceptron(MLP)[17] 、learning vector quantization(LVQ)[18] ,到近來的最小分類錯誤(minimum
classification error, MCE)[11] 、最大相互資訊(maximum mutual information, MMI)[20] ,有許多不同的理論方法。鑑別
式訓練與其它模型訓練方法最大的不同是,除了考慮樣本與本身模型的相似度之外,還額外考慮樣本與其它模型之
間的相似度,這種作法可以避免模型訓練時,原本就相似的語音模型產生互相混淆的情況 。
Qi Li [15]在2002 年提出一般化最小錯誤率(generalized minimum error rate, GMER) ,由事後機率的角度出發,
定義聚集事後機率(aggregate a post
文档评论(0)