- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
国际智库及媒体对 ChatGPT 领域动向的评估
编者按:为推进人工智能与国际安全领域的相关研究,清华大学战略与安全研究中心(CISS)组织研究团队定期跟踪最新国际研究动态, 重点关注人工智能应用对国际安全带来的风险挑战,并针对人工智能安全领域国际动态、智库报告、学术论文等资料进行分析。本文是CISS 推出的人工智能与国际安全研究动态第8期,主要聚焦国际智库及媒体关于ChatGPT领域动向的评估。
斯坦福大学:政府需在解决公众关切和促进负责任的人工 智能开发间取得平衡
斯坦福大学以人为本人工智能研究所(HAI)发布《202 3 年度人工智能指数报告》,全面分析了人工智能的现状, 考察了研究贡献、模型进步、人工智能滥用激增、私人投资模式、工作机会、行业应用及其他趋势等各个方面,认为政策制定者必须在解决公众关切和促进负责任人工智能开发之间取得平衡,促进经济增长和改善美国人的生活质量。报告要点如下:工业界领先于学术界;人工智能继续发布最先进的结果,但许多基准的同比改进仍微不足道;达到基准饱
和的速度正在加快;人工智能既保护环境,也在损害环境; 人工智能模型开始迅速加速科学进步;有关滥用人工智能的事件数量激增;几乎每个美国工业部门对人工智能相关专业技能的需求都在增加;过去十年中,人工智能领域的私人投资首次出现同比下降;虽然采用人工智能的公司比例趋于稳定,但它们实现了显著的降成本增收入;政策制定者对人工智能的兴趣正在上升;中国公民是对人工智能产品和服务态度最积极的人群之一。
/report/
哈佛商学院刊文分析人工智能监管
5 月 2 日,哈佛商学院网站刊登美国 UPS 基金会商业物流名誉教授詹姆斯·赫斯克特的文章《人工智能应如何监管》。文章认为,如果我们需要对人工智能的开发和使用进行监管, 使用统一的全球标准和实践似乎不太可能。中国、欧盟和巴 西等国已经立法规范本国的人工智能发展。作为人工智能发 展最先进的国家之一,美国才刚刚开始出现要求某种形式监 督的呼声。欧盟的人工智能法案代表了迄今为止最广泛的监 管方法,并对监管提出了一系列复杂挑战。例如,人工智能 学习所依据的数据库集的范围界定,将决定其输出内容的准 确性,以及是否存在偏见。那么,输出的某些用途是否应该 得到限制,以及是否需要关于基于人工智能工作准确性的免 责声明,目前这些问题都有待解决。
/item/how-should-artificial-intelligence-
be-regulated-if-at-all
哈佛大学贝尔弗中心:构建可信赖的人工智能增强透明度 美国哈佛大学贝尔弗中心刊登其伯克曼互联网与社会
研究中心研究员内森·桑德斯、IBM 安全中心特别顾问布鲁斯·施奈尔的文章《我们可以构建值得信赖的人工智能吗》。文章认为,构建可信赖的人工智能需要增强透明度。人工智能无法完全被信任的原因在于人工智能应用主要是由大型科技公司创建和运营的,其目的主要是带来更多的利益和利润。有时我们被允许与聊天机器人互动,但它们从来都不是我们的。这是一种利益冲突,会破坏信任。构建可信赖的人工智能需要进行系统性变革。首先,可信赖的人工智能系统必须是用户可控的;其次,可信赖的人工智能系统应该透明地允许用户控制它使用的数据。第三,用户还应该了解人工智能系统可以代表他们做什么。我们需要在不同的环境中测试人工智能系统,观察它们的行为,并为它们如何响应我们的指令建立心智模型。只有当人工智能系统对它们的能力、使用的输入、何时共享以及它们正在进化以代表谁的利益等问题均透明时,才有可能获得信任。
https:// /publication/can-we-build-trustwort
hy-ai
哈佛大学贝尔弗中心:人工智能也可促进民主
4 月 21 日,美国哈佛大学贝尔弗中心网站刊登 IBM 安全中心特别顾问布鲁斯·施奈尔,约翰·霍普金斯大学政治 学家亨利·法瑞尔、伯克曼互联网与社会研究中心研究员内 森·桑德斯的文章《人工智能如何帮助民主》。文章认为, 人工智能可以促进公共利益,促进民主。这需要人工智能不 受大型技术垄断的控制,而是由政府开发并可供所有公民使 用。要为民主构建辅助人工智能。例如,主持两极分化的政 策讨论、解释法律提案的细微差别,或在更大范围的辩论中 阐明一个人的观点。这提供了一条让大型语言模型(LLM) 与民主价值观“对齐”的途径:通过让模型生成问题的答案、犯错并从人类用户的反应中学习,而不让这些错误损害用户 和公共领域。在怀疑人工智能和技术的政治环境中捕捉这种 用户互动和反馈通常是具有挑战性的。很容易想象,那些抱 怨像元宇宙这样的公司不值得信任的政客们,对于政府在技 术开发中发挥作用的想法会更加愤怒。下一代人工智能实验 应该先在州和市进行。商业上可用的和开源的大
文档评论(0)