网站大量收购独家精品文档,联系QQ:2885784924

フィッシャーの线形识别.ppt

  1. 1、本文档共30页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第章形修士年松村草也章流形入力要素散分目的一般的各互重各入力一割当分先定域呼定域境界定境界定面呼形定面入力形数次元入力空定面次元形定面正各分集合形分可能分表方法回目的数数分散的表方法分率合表一般的合目的数表法使用便利合番目要素除要素使用数一般的事後率予非形数一般化活性化数形数数割当以外割当重呼定境界呼原点境界示重合入力形数分方法考数次元形数何的表赤示定面垂直原点面距制御定面境界入力判定面重入力多点次形考多数合成可能行昧域生他分器特定入点入点用意方法分器合考用意方法用意各大小比分等定域多定方法下成

* * * * 第4章 線形識別モデル 修士2年 松村草也 4章の流れ 線形識別モデルとは ある入力ベクトルxの要素を,K個の離散クラスCkに分類することを目的とする. 一般的に各クラスは互いに重ならず、各入力は一つのクラスに割り当てられる。 分類先を決定領域と呼ぶ. 決定領域の境界を決定境界?決定面と呼ぶ. 線形識別モデルとは 決定面が入力ベクトルxの線形関数で, D次元の入力空間に対して,決定面はD-1次元のモデル. 線形決定面によって正しく各クラスに分類できるデータ集合を線形分離可能であるという. 分類問題の表記方法について 回帰問題では目的変数tは実数値ベクトルだった. 分類問題では離散的なクラスラベルを表現するための方法がいろいろある. 2クラス分類問題における確率モデルの場合,2値表現が一般的である. K2クラスの場合は,目的変数に対して1-of-k表記法を使用するのが便利である. クラスがCjの場合,j番目の要素を除くtの要素がすべて0であるような長さKのベクトルが使用される. 識別関数モデル さらに一般的に事後確率を予測するため,非線形関数f(?)によって一般化する. f(?)を活性化関数(activation function)とよぶ. パラメータについて線形な関数 (4.3) 識別関数モデル – 2クラス y(x)0ならば,xはクラスC1に割り当てられ,それ以外はC2に割り当てられる. wは重みベクトルと呼ばれ,決定境界の傾きを決める. w0はバイアスパラメータと呼ばれ,原点からの境界のずれを決める. 関係を図示するとわかりやすい. 重みベクトル バイアスパラメータ (マイナスの場合は 閾値パラメータ) 入力ベクトル まず,単純な線形識別関数についてクラス分類方法を考える. (4.4) 識別関数モデル – 2クラス 2次元線形識別関数の幾何的表現. 赤で示された決定面はwに垂直である. 原点から面までの距離はバイアスパラメータw0によって制御される. 決定面(境界)のどちら側にあるかによって,入力ベクトルのクラスを判別する. 決定面 重みベクトル 入力ベクトル 多クラスへの拡張?問題点 次に,K=2クラスの線形識別をK2のクラスへ拡張することを考える. 多くの2クラス識別関数の組み合わせでKクラスの識別が構成可能だが,単純に行うと曖昧な領域が生まれてしまう. 1対他分類器(one-versus-the-rest classifier) ある特定のクラスに入る点と入らない点を識別する2クラスをK-1個用意する方法. 1対1分類器(one-versus-one classifier) すべてのクラスの組み合わせを考え,K(K-1)/2個の2クラスを用意する方法 そこで, というクラスをK個用意する.各xについてはyk(x)の大小を比較することでどのクラスに分類するか決まる.値が等しい時は決定領域になる. 多クラスの決定方法 ベクトル  については,下記が成立. 決定領域Rは単一接続しており, 凸領域である. 最小二乗法を用いた分類 3章ではパラメータに関する線形モデルを考え,二乗和誤差の最小化により,最適なパラメータが解析的に求められることを確認した.そこで同じ定式化を分類問題にも適用してみる. 一般的なKクラス分類問題についても最小二乗を使用する理由は,入力ベクトルが与えられた際の目的変数値の条件付き期待値を近似するから(?) しかし,推定された確率は一般的に非常に近似が悪く,線形モデルの柔軟性が低いために,確率の値が(0,1)の範囲を超えてしまうこともある. 最小二乗法を用いた分類 の二乗和誤差関数を最小にすることを考えた.二乗和誤差関数は, と,書くことができる.ただし,T=tnT Wに関する導関数を0とおくと 3章では 最小二乗法を用いた分類 最小二乗法は識別関数のパラメータを求めるための解析解を与えるが,いくつかの難しい問題を抱えている. 2.3.7節で,最小二乗法は外れ値に対する頑健さが欠けていることを見た. 3クラスの分類に対しても十分なクラスを集合に対して与えられない. これは,最小二乗法は条件付き確率分布にガウス分布を仮定した場合の最尤法であるが,2値目的変数ベクトルは明らかにガウス分布からかけ離れていることが原因である. 最小二乗法の脆弱性 緑色はロジスティック回帰モデル,紫は最小二乗によって得られる決定面. 外れ値が右下にある場合,最小二乗は過敏に反応していることがわかる. 下段は3クラスの分類. 左図は最小二乗による分類.緑色のクラスについては誤識別が大きい. 右図はロジスティック回帰モデルで,うまく分類できていることがわかる. 次元の削減 次元の削減,という観点から線

文档评论(0)

wangsux + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档