高级人工智能4剖析.ppt

神经元实际输出与输入之间的函数关系为 经简单计算,我们知道,当决策面方程为x-0.5=0时,平均误差平方根为 当决策面方程为x-0=0时,平均误差平方根为 决策面方程位于x-0=0时,神经元的误差竟然比决策面方程位于x-0.5=0时要大。 上述计算结果说明,当类别间样本不平衡时,最终决策边界将偏向样本数少的一边。 因此,我们得出结论,神经网络学习不平衡样本集时,形成决策边界对样本数少(少数类)的一边是不利的,网络推广性能差。 —纯粹从分类精度角度看。 为了更清楚地分析这一现象,我们假设类别?1有N1个位于原点0的样本所组成,类别?2有N2=?N1个位于1.0的样本所组成。于是,单个神经元的平均平方根误差为 图 3.34 学习不平衡数据集时单个神经元均方根误差 E 与 ? 和? 之间的关系 0.15 0.20 0.25 0.30 0.35 0.40 0.10 1.0 0.8 -0.2 0.0 0.2 0.4 -1.0 -0.8 -0.6 -0.4 0.6 ? E ?=20 ?=10 ?=5 ?=3 ?=2 ?=1 ?Tmin ?Tmin ?Tmin ?Tmin ?Tmin 这时,单个神经元的E与? 和?之间的关系如图3.34所示(理想情况)。 我们的解决方法之一是虚拟平衡,假设N~jNj,程序实现是: For p=1: N(j), If Else 方法之二,考

文档评论(0)

1亿VIP精品文档

相关文档