福建省福州第一中学2023-2024学年高二下学期期末考试语文试题(含解析).pdfVIP

福建省福州第一中学2023-2024学年高二下学期期末考试语文试题(含解析).pdf

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

福州第一中学2023-2024学年高二下学期期末考试

语文

(完卷150分钟满分150分)

班座号姓名

一、现代文阅读(35分)

(一)现代文阅读I(本题共5小题,19分)

阅读下面的文字,完成下面小题。

当前,生成式人工智能的状态可以被视为一种“灰箱化”,即介于完全可见可知可理解的公开技术和算

法黑箱之间。人们通过提示词介入内容生成模式,并结合基于人类反馈的强化学习可以在一定程度上打开

算法黑箱,但过程中始终存在的不可知与不可控处又带来了真实的忧虑和恐惧。在新技术语境下,新闻传

播业面临的环境监管、资本干预、伦理消亡的不确定性并未减少相反,其可能带来更多关于真实性、平台

资本主义、新闻伦理等方面的问题和挑战。充分了解生成式人工智能潜在的风险并保持警惕,是更好地理

解人与技术的关系、保证技术向善的进路。

大众寄希望于通过人工智能鉴别假新闻的想法似乎难以实现。相反,人工智能正在生产出更多难以辨

别的虚假新闻。本质上,生成式人工智能并不拥有自主检验内容真实性的能力,它生成、输出内容的质量

取决于其数据库和模型训练的水平,它对内容的检验则取决于人类使用者的反馈和驯化。“一本正经地胡

说八道”不止一次出现在生成式人工智能的实践中。而作为人工智能深度学习领域的一个分支,自动编码

器、生成对抗网络等技术业逐渐被应用到深度伪造中,智能生产、操纵、修改数据,通过媒体传播虚假消

息,给政治安全、经济安全、社会安全、国民安全等国家安全领域带来了诸多风险。其引发的真相危机将

重构人、技术与媒介之间的信任关系与价值关系,为新闻传播带来失实风险、侵权风险和算法权力滥用等

伦理风险。

社交媒体平台凭借强大的用户群体和雄厚的技术力量,迅速成为新闻消费者获取新闻资讯最为主要的

途径。生成式人工智能的发展将使得平台权力进一步重构。如果说此前平台资本尚且无法脱离对内容产品

的依赖,生成式人工智能则可以使它们进一步摆脱这一局面,从而延伸平台能力。生成式人工智能使数据

的地位越发凸显。数据质量直接关系到生成内容的质量,而商业平台在语料库、用户资源上具备天然优势。

相反,这一过程中用户将进一步失权。数据是平台最重要的资产,用户作为原始数据的生产者,却并不拥

有数据的知情权与所有权。于是,在生成式人工智能的加持下,资本化的平台能够将其庞大的用户资源转

化为可以盈利的数据,并在传播格局中占据更为主动的位置。在和生成式人工智能互动的过程中,用户在

无知觉的情况下成为不断帮助平台训练、优化人工智能逻辑的数字劳工,却并不能得到自己应用的收益,

智媒时代以来的数字剥削将被进一步扩大。另外,在缺乏约束的情况下,“按需生成”也可能成为商业平

台的陷阱。商业平台以何种方式、何种程度使用用户的行为及隐私等数据资源是不可见的。用户向生成式

人工智能吐露的信息越多,自身数据被资源化的程度越高,继而成为商业平台赢者通吃的一个环节。

人工智能技术已成为无远弗届和人类须臾不可离的强大力量,同时也带来了越来越多亟待应对的伦理

困境与道德抉择。首先,生成式人工智能输出和生成内容的质量取决于它输入的数据及其模型训练的水平,

如生成式人工智能的技术代表ChatGPT,它目前依然依赖其从特定时期网页中提取的大量文本数据和用户

反馈强化学习来调整模型。借助网络爬虫得到的在线数据天然存在着偏见,不接入互联网的地区和不熟悉

互联网使用的人群被排除在外,成为智能传播时代下的“隐形人”。其次,网络数据的质量令人忧虑。相当

数量的研究发现,生成式人工智能模型中编码了偏见和刻板印象,会大量生成并在用户中传播看似准确却

毫无意义的信息,它不仅未能便利沟通反而阻碍了沟通。而偏见和刻板印象加剧了群体间的撕裂。在被边

缘化的少数群体中,生成式人工智能生产的内容正在扩大而不是弥合鸿沟,加重而不是缩减偏见。最后,

隐私安全问题越发凸显。生成式人工智能超大体量的数据需求导致算法在抓取数据的同时,增加了用户信

息泄露的风险。

美国认知科学家哲学家科林·艾伦和技术伦理专家温德尔·瓦拉赫提出,机器道德关乎人类的决策行

为,故而人类不要把责任推给机器,而是必须坚守人类的价值观和伦理。数据伦理在生成式人工智能的发

展中必须被强调,数据的归属权与使用权必须厘清,技术公司如何使用用户数据应当被纳入更清晰明了的

框架范围内,这就要求我们必须对

您可能关注的文档

文档评论(0)

***** + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档