生成式人工智能数据安全风险防控机制与法律规制的协同发展.pdfVIP

  • 0
  • 0
  • 约8.29千字
  • 约 3页
  • 2026-01-22 发布于福建
  • 举报

生成式人工智能数据安全风险防控机制与法律规制的协同发展.pdf

研究探索

生成式人工智能数据安全风险防控机制

与法律规制的协同发展

刘 敏

(长安大学,陕西 西安 710064)

摘要:随着生成式人工智能技术的迅猛发展,侵权风险已成为该领域面临的核心挑战。为有效应对这一问

题,亟须从法律层面建立数据安全风险防控机制与法律规制的协同发展。首先,需精准界定生成式人工智能存

在的数据安全风险类型主要为数据泄露风险、算法歧视风险和侵害名誉权风险;其次,严格甄别侵权主体,确

定实施侵权行为的责任方;最后,针对生成式人工智能的特点,制定更为合适的监管方式,从过去主要依靠相

关政府行政部门的官方监管方式,转变为社会各界协同治理的新方式。尽管现行法律框架在一定程度上能够应

对生成式人工智能引发的侵权纠纷,但随着技术迭代与应用场景的不断拓展,仍需继续完善生成式人工智能数

据安全风险防控机制与法律规制的协同发展。从源头预防侵权风险,为生成式人工智能产业的健康发展提供坚

实的法治保障。

关键词:生成式人工智能;数据安全风险;侵权行为

人工智能是指以人工智能技术为依托为实现特定目标而(一)数据泄露风险

自主运行的智能系统。目前人工智能技术以算法模型、大数人工智能技术是当今数字经济的核心技术之一,其强大

据信息等新方式持续重构商业模式和产业布局。世界各国制的计算能力和智能决策能力被视为社会各行各业的有力竞

定了一系列人工智能发展战略来提升社会生产力和竞争力,争力之一。生成式人工智能系统在训练过程中需要被投喂大

高科技企业也纷纷利用数据优势地位提升市场份额[1]。人工量数据,生成式人工智能产业持续平稳发展的重要前提是保

智能技术的飞速发展促进了数字经济的发展,整合利用数据证其大数据存储的安全性,但是在目前的现实生活中已经出

资源可以帮助我们高效处理问题,在潜移默化中对当今社会现了大量关于生成式人工智能的数据泄露问题。生成式人工

的生产生活产生影响。但同时也引发了新型侵权事件,生成智能被普遍应用后,美国多家科技巨头公司明确要求所有员

式人工智能领域的大量侵权纠纷已成为其发展道路上的明显工在使用生成式人工智能的过程中禁止上传与公司商业机密

挑战之一,从法律层面妥善解决这些问题成为当下亟待深入有关的敏感信息,来防止员工通过生成式人工智能故意或者

探讨的重要课题。无意间泄露公司商业机密信息,对公司的利益产生不良影

响。三星公司半导体部门的员工们在使用生成式人工智能过

一、生成式人工智能的数据安全风险类型

程中,曾将公司内部有关半导体的机密数据上传到生成式人

生成式人工智能技术蕴含着推动社会经济发展的巨大潜工智能的平台上,导致公司核心技术相关资料泄露,造成损

力,作为依托算法技术与大数据技术的新兴科技,其运行涉失。大模型的开发者们在此期间的角色是信息处理者,他们

及多个主体的复杂互动和机器自主学习。由于目前针对生成在使用个人信息数据训练生成式人工智能时,应依法事先获

式人工智能的风险规制机制尚不健全,人工智能分别面临数得信息主体的同意。但事实却并不是这样,人工智能大模型

据泄露风险、算法歧视风险以及侵害名誉权等现实风险。如训练过程中涉及的训练数据数量巨大,所以其在训练过程中

何为价值链上的不同主体合理设定相应的行为义务以确保系所接触到的个人信息数据也数量巨大的,若要求大模型开发

统的安全与公正,如何确保生成式人工智能的自主决策能有者们真正根据法律的要求必须提前获得每个信息主体的真实

效保障其数据安全成为当下亟须攻克的难题。同

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档