腾讯游戏知几语音合成大模型推理实践.docx

腾讯游戏知几语音合成大模型推理实践.docx

  1. 1、本文档共48页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

腾讯游戏知几语音合成大模型

推理加速方案

李正兴/腾讯高级工程师

DataFunSummit#2024

背景介绍

语音合成模型结构分析语音合成模型推理思路未来展望

01

背景介绍

背景-产品展示

01、王者荣耀小妲己“游戏知识问答”

03、天涯明月刀『绝智阿暖』智能NPC

02、和平第五人的『AI语音助手』

背景-产品展示

AudioDecoderTTS:更自然、韵律丰富、更实时

AudioDecoder

Language

LanguageModel

↑↑↑TextEncoderAudioEncoder?采用LM方案

↑↑↑

TextEncoder

AudioEncoder

个喜欢我在你耳边说话的感觉吗?↑?

喜欢我在你耳边说话的感觉吗?

?通过加速优化,实时率~0.085

范闲

老头

云悠悠

英语男

英语女

原音

CFer你好呀!喜欢姐姐的AK四七吗?不喜欢的话还有M四A一和AN九四哦.姐姐的ASMR你受得了吗?Ilove

~youmysweetheart

~

你在开什么玩笑?我才不会上当呢。

02

模型结构选型与分析

语音合成大模型结构

基于语言模型的新方案传统方案

基于语言模型的新方案

输入文本

输入文本912…43声学模型SemanticToken

输入文本

9

12

43

声学模型

SemanticToken|

AcousticToken1st

LMModel

FastSpeech/Tacotron

12439…

12

43

9

…AcousticToken21…716843…12952…3LMModel/

AcousticToken

21

71

68

43

12

9

52

3

LMModel/NARModel

↓16

16

12439…声码器hifigan/wavernn

12

43

9

声码器

hifigan/wavernn

…7121…6816523CodecDecoder

71

21

68

16

52

3

CodecDecoder

语音合成大模型结构

面临的挑战:

1.高并发场景

2.实时率问题

03

模型推理加速方案

推理加速方案-借鉴与选择

是否能将NLP领域的LLM推理加速方法应用到语音合成大模型上?

?kvcache

?flashattention

?pageattention

?投机采样

?prefixkvcache

?flashdecode

?Int4/int8量化

?

…….

推理加速方案-kvcache

LLM中的kvcache:

推理加速方案-kvcache

Step

Step1:

Step2,withoutkvcache:

Step2,withkvcache:

推理加速方案-kvcache

当attentionmask使得attention的计算满足以下条件时,就能使用kvcache

?attentionoutput的第n行只与第n个q相关

?第1~n个token的attention的计算包含第1~n-1个token的attention计算

?每次attention的计算都用前面k和v

语音ar模型中attentionmask与attention计算满足kvcache的使用

生成第n

个token

attention_maskMask(Q*K)

attention_mask

attention_maskMask(Q*K)

推理加速方案-GQA

对于prefill阶段来说是典型的计算受限场景,计算的瓶颈占据主导。而到了decode阶段,就是典型的访存受限场景,访存的瓶颈占据主导

推理加速方案-GQA

相比kvcacheint8/fp8等量化方式,选择GQA压缩率更可控,可以在保证效果的同时,选择更少的headnum

将headnum从16减少到4,推理耗时降低20%

推理加速方案-BPE

有了kvcache后,语音合成模型中AR模型也分为prefill阶段和decode阶段,合成10秒的音频需要AR模型生成500个token

同样的音频时长,如何减少token生成的数量?

推理加速方案-BPE

在NLP中,采用类似BPE子词算法进行分词防止OOV问题

BPE首先将词分成单个字符,然后依次用另一个字符替换频率最高的一对字符,直到循

文档评论(0)

哈哈 + 关注
实名认证
内容提供者

嗨,朋友,我都会用最可爱的语言和最实用的内容,帮助你更好地理解和应对职场中的各种挑战!

1亿VIP精品文档

相关文档