- 1、本文档共48页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
腾讯游戏知几语音合成大模型
推理加速方案
李正兴/腾讯高级工程师
DataFunSummit#2024
背景介绍
语音合成模型结构分析语音合成模型推理思路未来展望
01
背景介绍
背景-产品展示
01、王者荣耀小妲己“游戏知识问答”
03、天涯明月刀『绝智阿暖』智能NPC
02、和平第五人的『AI语音助手』
背景-产品展示
AudioDecoderTTS:更自然、韵律丰富、更实时
AudioDecoder
Language
LanguageModel
↑
↑↑↑TextEncoderAudioEncoder?采用LM方案
↑↑↑
TextEncoder
AudioEncoder
个喜欢我在你耳边说话的感觉吗?↑?
个
喜欢我在你耳边说话的感觉吗?
↑
?通过加速优化,实时率~0.085
范闲
老头
云悠悠
英语男
英语女
原音
CFer你好呀!喜欢姐姐的AK四七吗?不喜欢的话还有M四A一和AN九四哦.姐姐的ASMR你受得了吗?Ilove
~youmysweetheart
~
你在开什么玩笑?我才不会上当呢。
02
模型结构选型与分析
语音合成大模型结构
基于语言模型的新方案传统方案
基于语言模型的新方案
输入文本
输入文本912…43声学模型SemanticToken
输入文本
9
12
…
43
声学模型
SemanticToken|
AcousticToken1st
LMModel
FastSpeech/Tacotron
12439…
12
43
9
…
…AcousticToken21…716843…12952…3LMModel/
…
AcousticToken
21
…
71
68
43
…
12
9
52
…
3
LMModel/NARModel
↓16
↓
16
12439…声码器hifigan/wavernn
12
43
9
…
声码器
hifigan/wavernn
…7121…6816523CodecDecoder
…
71
21
…
68
16
52
3
CodecDecoder
…
语音合成大模型结构
面临的挑战:
1.高并发场景
2.实时率问题
03
模型推理加速方案
推理加速方案-借鉴与选择
是否能将NLP领域的LLM推理加速方法应用到语音合成大模型上?
?kvcache
?flashattention
?pageattention
?投机采样
?prefixkvcache
?flashdecode
?Int4/int8量化
?
…….
推理加速方案-kvcache
LLM中的kvcache:
推理加速方案-kvcache
Step
Step1:
Step2,withoutkvcache:
Step2,withkvcache:
推理加速方案-kvcache
当attentionmask使得attention的计算满足以下条件时,就能使用kvcache
?attentionoutput的第n行只与第n个q相关
?第1~n个token的attention的计算包含第1~n-1个token的attention计算
?每次attention的计算都用前面k和v
语音ar模型中attentionmask与attention计算满足kvcache的使用
生成第n
个token
attention_maskMask(Q*K)
attention_mask
attention_maskMask(Q*K)
推理加速方案-GQA
对于prefill阶段来说是典型的计算受限场景,计算的瓶颈占据主导。而到了decode阶段,就是典型的访存受限场景,访存的瓶颈占据主导
推理加速方案-GQA
相比kvcacheint8/fp8等量化方式,选择GQA压缩率更可控,可以在保证效果的同时,选择更少的headnum
将headnum从16减少到4,推理耗时降低20%
推理加速方案-BPE
有了kvcache后,语音合成模型中AR模型也分为prefill阶段和decode阶段,合成10秒的音频需要AR模型生成500个token
同样的音频时长,如何减少token生成的数量?
推理加速方案-BPE
在NLP中,采用类似BPE子词算法进行分词防止OOV问题
BPE首先将词分成单个字符,然后依次用另一个字符替换频率最高的一对字符,直到循
文档评论(0)