测量信息失真在分层超长小说重构中的比例: 最优扩展比例-计算机科学-人工智能-大语言模型-小说生成框架.pdfVIP

测量信息失真在分层超长小说重构中的比例: 最优扩展比例-计算机科学-人工智能-大语言模型-小说生成框架.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

测量信息失真在分层超长小说重构中的比例:

最优扩展比例

HANWENSHENTINGYING

StevensInstituteofTechnology

hshen13@

摘要我们的最终目标是从极简大纲生成内容丰

一种两阶段的小说生成框架(提纲-分节富的超长小说。然而,由于“细节”本身难以

本提纲-手稿)广泛用于长篇小说的生成,定义和直接评估,我们转而研究在不同压缩比

(例如,圆顶,计划与撰写,长篇作者),但率下使用大型语言模型重建超长小说时的细节

译在超长篇小说(100万字)重建方面的研损失,以此作为生成质量的替代指标。

中究很少。

2基于最近的文本压缩方法1.1动机

v

2(LLMZIP,LLM2VEC),我们进行了超长小说(100万+字)在武侠世界、反切

7一项信息论分析,以量化不同压缩-扩展比

5和起点上非常受欢迎,使得自动化生成成为

2下的语义失真。我们考察了轮廓长度如何

1一个关键目标。自ChatGPT以来,像LLaMA

.影响信息保存。

5(Grattafiorietal.,2024)、DeepSeek(DeepSeek-

0超长小说的实验表明,最优的压缩扩展比

5AIetal.,2025)、Qwen(Baietal.,2023)、Gemini

2率显著减少了语义失真,相比其他非最优

:的压缩扩展比率。(Teametal.,2024)和GPT-4o(OpenAIetal.,2024)

v

i这样的模型已经提升了长上下文处理能力。

x1介绍

r然而,尽管输入容量达到了1M-token,输

a

我们在大规模小说生成中观察到一个基本出限制(例如,16k)使得忠实的重建变得困

现象(Lietal.,2022;Suetal.,2022):当由大语难(Mikhaylovskiy,2023)。虽然许多先前的研究

言模型(例如ChatGPT)将一百万字的小说总已经解决了多达10万个单词的小说生成问题,

结为一千字的大纲,然后再扩展时,结果显示但缺乏实证证据表明这些方法能够自然地扩展

出显著的扭曲、细节损失和语义偏离。相比之到生成100万字的小说。在百万词规模上的挑

下,将十万字的小说压缩成一万字的大纲再进战——保持连贯性、主题一致性以及角色发展

行扩展,则更忠实于原意。——从质和量上来看都是截然不同的。受到编

诸如LongWriter等研究一致认为,生成10码器–解码器范式的启发,我们采用了一个基

万字以上的小说通常遵循从大纲到小说的工作于重建的框架作为替代目标来研究并改进超长

流程。质量取决于两个提示方面的变量:(i)大文本生成。

您可能关注的文档

文档评论(0)

专业Latex文档翻译 + 关注
实名认证
服务提供商

专业Latex文档翻译,完整保持文档排版,完美处理文档中的数学公式和图表等元素,并提供 arXiv Latex 论文中文翻译。

1亿VIP精品文档

相关文档