- 1、本文档共26页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
新解放学校2022-2023学年高一下学期4月月考
语文
现代文阅读(27分)
(一)现代文阅读Ⅰ(本题共3小题,12分)
阅读下面的文字,完成1~3题。
材料一:
美国科技公司OpenAI旗下的智能聊天工具ChatGPT火了,它能响
应用户需求,做出类似人类的反应“”,能有逻辑性地回答问题、撰写
文章,进行分析。这款和以前不一样的聊天机器人迅速收获大量用户,
被形容为久违的现象级消费产品“”。
产品火了,仿冒者也来了。市场上已经冒出多种产品,每一个都宣称
自己就是ChatGPT。与真正致力于人工智能研究的公司不同,仿冒者
有的表示自己是调用了美国ChatGPT的接口,在免费对话额度用完
之后,便开始提示用户需要收费,借此捞金。有的则完全是打着
ChatGPT旗号的“山寨”,聊天能力却和ChatGPT相去甚远。这种山寨
版聊天机器人质量低,用户体验也差,很容易让普通人对该领域产生
误解。
节选自《科技日报》
材料二:
ChatGPT的训练过程主要分为以下几个阶段:
GPT3.5本身很难理解人类不同类型指令中蕴含的不同意图,也很难
判断生成内容是否是高质量的结果。为了让GPT3.5初步具备理解指
令的意图,首先会在数据集中随机抽取问题,由人类标注人员给出高
质量答案,把人工标注的问答和对话数据作为监督数据来微调
GPT3.5模型。第二阶段主要通过在数据集中随机抽取问题,使用第
一阶段生成的模型,对于每个问题,生成多个不同的回答。人类标注
者对这些结果综合考虑给出排名顺序。接下来,使用这个排序结果数
据来训练奖励模型(RM)。对多个排序结果,两两组合,形成多个
训练数据对。RM模型接受一个输入,给出评价回答质量的分数。这
样,对于一对训练数据,调节参数使得高质量回答的打分比低质量的
打分要高。第三阶段进一步采用PPO,(ProximalPolicyOptimization,
近端策略优化)强化学习来优化策略。这一阶段利用第二阶段训练好
的奖励模型,靠奖励打分来更新预训练模型参数。在数据集中随机抽
取问题,使用PPO模型生成回答,并用上一阶段训练好的RM模型
给出质量分数。把回报分数依次传递,由此产生策略梯度,通过强化
学习的方式以更新PPO模型参数。
摘编自《ChatGPT发展历程、原理、技术架构详解和产业未来》
材料三:
过去几年,类ChatGPT技术已经得到深入研究,ChatGPT通过产品
方式展现在大众面前。ChatGPT的突然爆火意味着人机交互走出了技
术深闺,标志着以大模型为核心的智能计算范式的确立,敲开了通用
化人工智能大门。近年来,以GPT-3、ChatGPT为代表的大模型技术
所取得的显著成果表明,增大模型规模和数据规模是突破现有人工智
能技术应用瓶颈行之有效的方法。ChatGPT的成功标志着从以专用小
模型训练为主的“手工作坊时代”到以通用大模型预训练为主的“工业
化时代”的人工智能研究范式转变。
这一转变具有十分重要的意义。通过先进的算法架构、尽可能多的数
据,汇集大量算力,集约化的训练模式,由此得到的通用大模型可在
广泛应用场景下通过极低代价的模型微调实现高性能的任务适配,使
人工智能技术的先进能力更好、更有效地应用到各个场景里面,从而,
大大降低开发成本,加速产业发展。ChatGPT的出现为人工智能产业
注入了新的活力,同时也极火地促进了通用化人工智能的发展。
《中科院之声》节选
材料四:
类似GPT-3的大型语言模型都是基于来自互联网的大量文本数据进
行训练,能够生成类似人类的文本,但它们可能并不总是产生符合人
类期望的输出。事实上,它们的目标函数是词序列上的概率分布,用
来预测序列中的下一个单词是什么。
但在实际应用中,这些模型的目的是执行某种形式的有价值的认知工
作,并且这些模型的训练方式与期望使用它们的方式之间存在明显的
差异。尽管从数学上讲,机器计算词序的统计分布可能是建模语言的
高效选择,但人类其实是通过选择最适合给定情境的文本序列来生成
语言,并使用已知的背景知识和常识来辅助这一过程。当语言模型用
于需要高度信任或可靠性的应用程序(如对话系统或智能个人助理)
时,这可能是一个问题。
尽管这些基于大量数据训练的大模型
文档评论(0)