11行python代码的神经网络 详细公式推导.pdfVIP

11行python代码的神经网络 详细公式推导.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
A Neural Network in 11 lines of Python http://iamtrask.github.io/2015/07/12/basic-python-network/ 1.1.1. 单层神经网络的 python 实例 按照NN的定义,这个应该是单层⽹络 , import numpy as np def nonlin(x, deriv=False): if (deriv == True): return x * (1 - x) return 1 / (1 + np.exp(-x)) # input dataset X = np.array([[0, 0, 1], [0, 1, 1], [1, 0, 1], [1, 1, 1]]) # output dataset y = np.array([[0, 0, 1, 1]]).T # seed random numbers to make calculation # deterministic (just a good practice) np.random.seed(1) # initialize weights randomly with mean 0 syn0 = 2 * np.random.random((3, 1)) - 1 #bias 是 0 for iter in range(10000): # forward propagation l0 = X l1 = nonlin(np.dot(l0, syn0)) # how much did we miss? 使用了 ((y-y)**2)/2 的代价函数 l1_error = y - l1 # multiply how much we missed by the # slope of the sigmoid at the values in l1 l1_delta = l1_error * nonlin(l1, True) # update weights syn0 += np.dot(l0.T, l1_delta) #syn0 = syn0 + np.dot(lo.T,l1_delta) print(Output After Training:) print(l1) 这个例子是使用了[0, 0, 1], [0, 1, 1], [1, 0, 1], [1, 1, 1]四个输入样本 ,对应的 0, 0, 1, 1 四个输出值。需要找到 NN 的 w ,也就是程序中的 syn0 ,这个网络只有一个 hide 层,l1。 为此,程序迭代了 10000 次。 这里 l1 的输出就是 y 的估值,这里使用的代价函数是 ℒ = − = − (1) 由于刷新 syn0 (w )的方法是 ℒ ω = ω − α (2) α是学习步长,这里取 1 由 (1)式, 1 = 1 + 1

文档评论(0)

我思故我在 + 关注
实名认证
文档贡献者

部分用户下载打不开,可能是因为word版本过低,用wps打开,然后另存为一个新的,就可以用word打开了

1亿VIP精品文档

相关文档