北京市101中学2015-2016学年高二语文下学期期末考试试题.docVIP

北京市101中学2015-2016学年高二语文下学期期末考试试题.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
北京市101中学2015-2016学年高二语文下学期期末考试试题

北京一零一中2015—2016学年度第二学期高二期末试卷 语 文 一、本大题共4小题,共9分。阅读下面材料,完成1—4题。 材料一 把人工智能等同于机器人是常见的误解。机器人只是人工智能的容器,这个容器不见得非得是人形。如果说人工智能是大脑的话,机器人就是身体,这个身体不一定是必需的。比如智能手机里的语音助手,控制它的软件和数据就是人工智能,它发出的说话声音是这个人工智能的拟人化体现,但是语音助手本身并没有机器人的外形。 人工智能是个广义的概念。从手机里的计算器到无人驾驶汽车,再到未来可能改变世界的重大变革,都属于人工智能的范畴。人工智能分为三类。擅长某方面单一功能的叫弱人工智能。例如有可以战胜国际象棋世界冠军的人工智能,但它只会下象棋,你若问它明天的天气,它就不知怎么回答了。在各方面都能和人类比肩的人工智能称为强人工智能。教育学家弗雷德森把“智能”定义为“一种宽泛的心理能力,能够进行思考、计划、理解复杂理念和从经验中学习等操作”,强人工智能在进行这些操作时应该和人类一样得心应手。第三种是超人工智能。著名的人工智能思想家波斯特罗姆这样描述超人工智能:“它在几乎所有领域,包括科学创新和社交技能,都比最聪明的人类大脑聪明很多。” 现在我们的世界中弱人工智能已经无处不在。你的手机里就充满了弱人工智能系统。当你用地图软件导航、接受音乐电台推荐、查询明天的天气时,其实都是在利用弱人工智能。百度之类的搜索引擎也是一个巨大的弱人工智能,背后包含了非常复杂的排序方法和内容检索。军事、制造、金融等领域也早已广泛运用各种复杂的弱人工智能。 创造强人工智能则要难得多。迄今为止,人类的大脑是我们所知宇宙中最复杂的东西。要想创造一个达到人类智能水平的电脑,需要解决的困难可能超乎想象。首先要有具备人脑运算能力的硬件。事实上,目前世界上最快的超级计算机——中国的天河二号每秒能进行3.4亿亿次运算,早已超过这个运算力了。但更困难的还在于,怎样利用这样的运算能力让电脑真正模拟人脑。不过,硬件的发展和软件的创新都是以指数级增长的速度发生的,开端可能像蜗牛漫步,但是后期会跑得非常快,强人工智能可能比我们预期的更早降临。然后,人类就可以做好迎接超人工智能降临的准备了。 (取材于[美]雷·库兹韦尔等相关文章) 根据“材料一”,下列对“人工智能”的理解不正确的一项是(2分) A.机器人和人工智能,就像人的身体和大脑,二者缺一不可。 B.人工智能是个广义概念,它的呈现方式是多样的。 C.目前生活中实际运用的人工智能都是弱人工智能。 D.在未来社会人工智能有可能全面地远远超越人类。 2.根据“材料一”,下列不属于“弱人工智能”的一项是(3分) C.垃圾邮件过滤器 D.汽车雷达感应系统 3.根据“材料一”,下面图形中对人工智能发展速度和趋势的判断,正确的一项是(2分) 材料二 许多对未来充满信心的人对此感到非常兴奋。很难想象会有什么问题是超级智能解决不了的。疾病、贫困、环境毁灭、各种不必要的苦难,这些都是超级智能可以应对解决的。最激动人心的一个设想是:人工智能可以帮助人类实现永生。仔细想想,我们的身体是原子构成的,衰老只是身体的组成物质用旧了,就像汽车开久了零件会用旧一样。如果人工智能可以操纵各种原子结构,就能拥有完美的修复技术,或者干脆直接生产新零件不断替换掉旧的,这辆车就能永远开下去。甚至,我们可以 ——把大脑中所有的记忆数据直接转移到一个由超级智能制造出的全新的身体里。 但是,在另一些人眼里,人工智能对人类构成的威胁甚至超过核武器。一次采访中,对“人工智能未来是否会自行思考、进化并给人类带来灾难”这个问题,比尔·盖茨的回答是:“我属于对超人工智能充满担忧的阵营。如果机器能替代人类做事,而没有发展为超级智能,那么只要管理好这些机器,善于利用,似乎没有太大危险。但在几十年的发展之后,人工智能很可能强大到需要警惕的阶段。”物理学巨匠霍金认为,成功研发人工智能将成为人类历史上犯的最大错误,不幸的是,这也可能是最后一个错误。他说:“人工智能技术的研发将敲响人类灭绝的警钟。这项技术能够按照自己的意愿行事,并且以越来越快的速度自行重新设计。人类受限于缓慢的生物学进化速度,无法与之竞争和对抗,最终将被取代。” 近日,包括霍金在内的数百名专家在一封公开信上联合签名,呼吁国际社会对人工智能研究进行合理监管,确保最前沿的研究不会失控。公开信指出,人工智能研究正快速取得进步,将对整个社会产生越来越大的影响。专家们警告说:尽管现有的人工智能研究成果给世界带来了更多便利,但是也应该警惕人工智能可能对人类社会造成的潜在伤害。科学家需要采取措施,预防最糟糕的结果出现。 忧也罢,乐也罢,毋庸置疑的是,无论是从现

您可能关注的文档

文档评论(0)

cby201601 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档