无迭代的有序神经网络.docVIP

  • 3
  • 0
  • 约6.86千字
  • 约 19页
  • 2017-07-05 发布于重庆
  • 举报
无迭代的有序神经网络

无迭代优化的有序回归神经网络 摘要:有序回归(OR)是监督学习的一个重要分支。传统的神经网络分类方案适应学习序数。模型对连接隐层与输出层权重单调性约束。为此使用填充变量权重。这形成所谓的不等式约束最小二乘问题。它的数值解可以通过几种迭代方法例如域或线搜索算法。在确定分析根据Karush-Kuhn-Tucker封闭解估计。此外极端的机器框架的指导方针后连接输入和隐藏层的权重是随机生成的因此最终模型估计参数迭代优化。提出的模型较先进的神经网络方法。 从学习分类或预测数值机器学习和数据挖掘的一个核心研究主题[1]-[4]。则较少受到关注标签的目标变量表现出自然排序。与回归问题是离散的和有限的。由于存在排名信息这些不同于分类问题类目标。例如等级标签D?C?B?A,而?表示给定的顺序。因此是一个回归名义分类之间的学习问题。应用医学研究[5][6]审查排名[7]计量经济学建模[8]主权信用评级[9]。 在统计文献大部分模型都基于广义线性模型[10]。比例模型POM)[10]是一个著名的统计方依赖于不可见的潜变量通常假设和一个随机的顺序输入空间一个特定的分布假设。在过去几年在机器学习领域[11],如支持向量机SVM)方法[12][13][14],和判别学习[15]。 极端学习机ELM)是估计单层前馈神经网络SLFNNs)参数一个框架隐层参数不需要调整[18]。展示了良好的可性和泛化性能与其他模型

文档评论(0)

1亿VIP精品文档

相关文档