网站大量收购闲置独家精品文档,联系QQ:2885784924

《自动搜索人工生命》到底在搜索什么.docx

《自动搜索人工生命》到底在搜索什么.docx

  1. 1、本文档共46页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

目录

1.基本概念

“基质”——人工生命“搜索”——整体思路“眼睛”——基础模型代码结构

2.实验方法

“符合描述”——目标导向“变化莫测”——开放探索“五花八门”——启发发现实验框架总结

3.实验结果三种方法的发现量化人工生命

与基础模型无关

4.扩展基因与表型

混沌边缘的超级参数向前迈进

5.总结

1.基本概念

“基质”——人工生命

该论文所说的人工生命(ALife),其实就是2维欧氏空间中依照一定规则相互作用的若干粒子,或状态依照一定规则变化的2维格子。更多介绍可以参考ALife是什么,为什么值得研究?(今日的头条文章)。

论文中将运行这类人工生命的程序称之为“基质”(Substrates),相关实验涉及5种类型的人工生命基质,并设置了核心初始化参数:

.鸟群(Boids):128只鸟,依16个最近邻居的位置和速度调节自身运动.粒子生命(ParticleLife):6种粒子,共5000个,相互吸引或排斥

.类生命元胞自动机(Life-likeCellularAutomata):64*64的方格,每个格子的生灭状态取决于其周围8个最近邻格子。

Lenia:一种连续时空版本的类生命元胞自动机

·神经元胞自动机(NeuralCellularAutomata):一种用神经网络做状态转移函数的连续元胞自动机

“搜索”——整体思路

在人工生命中,一个特定的初始状态(s0)和相互作用的规则(或状态转移的规则)

(Stepθ)决定了一个“生命”的历程,这被称为一个模拟。而一个模拟由一些参数(θ)所决定,并且不同的参数设定将产生不同的模拟结果。其中,某些参数的设定将模拟出“生

命”的现象,而某些参数则不能。因此,预期说要搜索人工生命,实际上则是搜索那些能模拟出“生命”特征的参数(θ)。

但在以往的人工生命研究领域中,系统性探索所有潜在模拟空间的方法始终存在缺失。这种方法的缺失导致研究者在构建虚拟世界规则时不得不依赖人类直觉作为主要指导。虽然简单元素的大规模互动可能催生复杂的涌现现象,但这些现象本质上具有不可预知性,往

往超出研究者的前瞻能力。因此在实际操作中,研究者通常会针对简单且预期的结果来设计模拟,这无疑限制了意外发现的可能性,同时也减少了新现象的科学发现。

假设我们能够预先定义目标涌现特征,并实现该特征的自动化搜索,将会产生怎样的突

破?尽管已有研究尝试通过生存能力、复杂度指数、趣味性等复合指标来量化人工生命特征,但这些参数化标准始终难以完全捕捉人类认知中关于生命本质的微妙内涵。

随着这几年图像识别等人工智能技术的发展,海量自然数据训练的基础模型展现出类人的表征能力,甚至可能基于我们的真实世界统计数据得到一个理想化的表征。这种特性使得基础模型非常适合用于量化人类对人工生命复杂度的概念。

基础模型充当人类“眼睛”来搜索具有“生命”特征的人工生命

“眼睛”——基础模型

我们需要类似人类“眼睛”的基础模型来帮我们找到“生命”特征。在论文中引入了CLIP、

DINOv2和Pixels,这里着重介绍前两个基础模型。(ASAL并不对基础模型进行设计或者训练,只是调用这些基础模型)

·CLIP(ContrastiveLanguage-ImagePretraining)(对比语言-图像预训练)是一种多模态基础模型(FoundationModel),通过对比学习方法在大规模互联网数据集上进行预训练,将图像和文本的潜在表示空间对齐,从而学习通用的跨模态表示。CLIP提供了两个显式的编码器:图像编码器VLM_img()和文本编码器VLM_txt(),分别用于生成图像和文本的嵌入向量。

.DINOv2(DistillationwithNoLabels)(无标签蒸馏)是一种单模态视觉基础模

型,通过自监督的教师-学生框架在大规模图像数据集上进行训练,学习高质量的视觉特征表示。DINOv2仅提供图像编码器VLM_img(),因此无法支持ASAL的给定目标搜索任务,因为它缺乏跨模态的文本表示能力。

这里的重点是:基础模型经过训练,能够学习到图片和文本的意义,并把这种意义用一个高维的向量(在CLIP中是512维)表示出来,称为嵌入向量,而这些向量构成的空间叫做表示空间。如果两个图片、两个文本或一个图片与一个文本的“意义”相近,则它们被映射为相近的向

您可能关注的文档

文档评论(0)

186****0576 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:5013000222000100

1亿VIP精品文档

相关文档