决策树中选取的分隔是为了降低子节点的变异.ppt

决策树中选取的分隔是为了降低子节点的变异.ppt

料行找分隔培整棵量策的效度料行找分隔培整棵量策的效度料行料行料行料行修正看球而且跟朋友出喝啤酒看球而且地主而且待在家喝健怡汽水看球而且地主球而且待在家喝牛奶大部分的策的分支都只根一位缺生多分支多以致每的料少缺乏上的代表性所生之策不定改善方式允根一以上的位分支各位的件在一起作分支的件策的分支建立在一位的上何角度看是料做矩形的分隔但有些料不合用一性作矩形分隔解方式斜找出更合的分隔平面下一例斜的其是由既有位所衍生的位所做的矩形的分隔在每一都用一小型的神路比靠一性作矩形分隔更具性比神路需要短的缺似神路生

資料庫行銷 尋找分隔 培養整棵樹 測量決策樹 的效度 資料庫行銷 尋找分隔 培養整棵樹 測量決策樹 的效度 資料庫行銷 資料庫行銷 資料庫行銷 資料庫行銷 修正規則 看球賽而且跟朋友出門→喝啤酒 看球賽而且地主隊獲勝而且待在家裡→喝健怡汽水 看球賽而且地主隊輸球而且待在家裡→喝牛奶 大部分的決策樹的分支都只根據一個欄位 缺點:產生過多分支,過多節點,以致每個節點的資料筆數過少,缺乏統計上的代表性,所產生之決策樹較不穩定 * * * * 改善方式:允許根據一個以上的欄位來分支 將各欄位的條件AND在一起,作為分支的條件 * * 傳統決策樹的分支測試建立在單一欄位的測試上,從幾何學角度來看,是將資料做矩形的分隔 但有些資料不適合用單一屬性作矩形分隔 解決方式:將hyperplane傾斜,找出更合適的分隔平面(見下一頁範例) 傾斜的hyperplane其實是由既有欄位所衍生的欄位所做的矩形的分隔 * * * * Neural tree:在每一個節點都用一個小型的類神經網路 優點 比靠單一屬性作矩形分隔更具彈性 比純類神經網路需要較短的訓練時間 缺點 類似類神經網路,產生之結果較不易解讀 * * * * 決策樹在資料研究、分類及計分上具有廣泛的 適用性。 目標是找出清楚明瞭的規則時,決策樹是最佳 選擇。 和其他資料採礦技術相比,決策樹花的資料

文档评论(0)

1亿VIP精品文档

相关文档