- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
人工智能与信息社会2024年第5期
从“世界模拟器”可以走向通用人工智能吗?
吴静
摘要OpenAI发布的通用视觉大模型Sora以其强大的文生视频能力拥
有了对当下世界进行描绘的话语权力,但其背后存在的大语言模型对世界表征
的合法性问题以及带来的认知风险和社会性后果,需要将哲学和技术批判结合
起来进行反思与预防性研究。本文对多模态大语言模型技术进行分析,探究文
生视频的技术本质和应用困境。同时,基于大语言模型的通用性,分析了其背后
蕴藏的技术理性及对用户价值认知的重塑。研究表明,在从技术通用性到知识
公理性的过程中,人工智能技术出现了认识论上的悖论。基于深度学习的生成
式人工智能无法真正理解世界运作方式,只是处理信息单元和语义的逻辑关系,
且现有的生成式大模型在反事实推理和合规性方面仍存在缺陷,还远未达到全
方位理解世界、表征世界的程度。因此,在虚实共生、人机融合成为新的时代命
题时,如何把握“虚”“实”之间的关系成为一个需要审视的维度。这不仅关系到
社会资源的投入,而且更关系到人类自身的重塑和对于世界的理解。
关键词大模型通用人工智能模态数据
OpenAI发布的通用视觉大模型Sora以强大的文生视频能力在2024年的春天又掀起
了一波人工智能角逐战的新高潮。在简单的文本提示之下生成的长达六十秒、一镜到底、
多镜头运镜的视频,分辨率高达1080p,其清晰度和流畅度比起专业拍摄的视频毫不逊
色。于是,在震惊和赞叹中,乐观的人们开始预期通用人工智能在短期内实现的可能性。
毕竟以GPT系列为代表的生成式人工智能和Sora代表的视觉通用大模型,分别实现了以
文本作为提示(prompt)的多任务执行。如果再加上谷歌的Gemini和Gemma对于跨语言
和模态的模型推进,人工智能技术的发展似乎进入了目力所及的飞跃期。
然而,在这种乐观和狂喜背后,仍有很多问题值得深思。其中之一就是大语言模型和
世界模型对人类世界和知识的表征合法性问题。如果说“元宇宙”所传达的是对数字化
的替代性世界的救世叙事,那么,被命名为“世界模拟器”的Sora则以技术为名具有了对
当下世界进行描绘的话语权力。从某种意义上说,对于以大模型技术作为基底的文生视
频系统,数据库的质量、颗粒度以及微调方式都可以决定它所展现的世界图景。乐观的数
据主义者对数字技术给予绝对赋权,使其可以决定知识和文化的输出形态和传播内容。
作者简介:吴静,哲学博士,南京师范大学公共管理学院教授、博士研究生导师,南京师
范大学数字与人文研究中心主任。
90
人工智能与信息社会
而数字媒介和人工智能在排他性的意义上使自己的输出结果更具有权威性和传播性。尽
管图像生成器能够识别某些像素集合的概念形式,但并不真正知道其本质是什么。原因
在于大型语言模型无法创造意义或“理解”语言和图像,只是纯粹以形式进行训练,这种
方式忽视了形式和意义之间的关联,导致模型在面对真实世界的多样性时表现出局限性
甚至错误。在近期《自然》(Nature)杂志发表的一篇研究论文中,社会科学家表示人工智
能系统的超强能力为人类认知带来了进一步的风险:它卓著的性能使得研究人员认为这
些工具具有超人的能力,尤其是在客观性、生产力和理解复杂概念方面。佐治亚理工学院
一项关于“可解释性陷阱(Explainabilitypitfalls,EPs)”的研究也指出,人工智能解释可能
会误导用户在不知情、无防备的情况下做出符合第三方利益的决策。这些问题的存在都
在提醒开发者和使用者从初期阶段开始就共同关注和评估人工智能系统和应用所蕴含的
认知风险和社会性后果,因为一旦这些作为工具和公共性连接的工具深深嵌入研究流程
或社会管理系统中,它们将更难以被察知和解决。即便能够纠正,其所耗费的各方面社会
成本也将难以估量。以Sora所代表的通用视频生成式人工智能为例,大语言模型的训练
数据集来源于生存世界中的有限数字化资源,尽管其体量庞大但并不是真正意义上的“全
数据”,可开发者却号称其足以表征和模拟全部世界。当人类离预
您可能关注的文档
- 生成式人工智能“生成性”的哲学考辩——从马克思“感性活动”观点看.pdf
- 生成式人工智能与教育变革:价值、困难与策略.pdf
- 生成式人工智能创新效应的提质优势、风险及机制保障——学习贯彻党的二十届三中全会精神.pdf
- 生成式人工智能嵌入教育治理的基本逻辑和风险防范.pdf
- 生成式人工智能技术的伦理风险及负责任创新治理研究.pdf
- 生成式人工智能技术赋能档案资源开发利用的逻辑理路与实践策略——以大型公立医院智慧医疗为例.pdf
- 生成式人工智能时代道德教育的空间向度.pdf
- 生成式人工智能的刑事法律风险及其合规治理.pdf
- 生成式人工智能视域下虚假信息的层级化运作机理与治理.pdf
- 生成式人工智能语料版权问题研究.pdf
- 乡村振兴、双碳、储能、绿色金融 + 关注
-
实名认证服务提供商
新能源知识科普(本账号发布文档均来源于互联网公开资料,仅用于技术分享交流,相关版权为原作者所有。如果侵犯了您的相关权利,请提出指正,我们将立即删除相关资料)。
原创力文档


文档评论(0)