阿里云产品十一月刊 2024- 云端智慧,点亮数字未来.pdfVIP

阿里云产品十一月刊 2024- 云端智慧,点亮数字未来.pdf

  1. 1、本文档共171页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

卷首语

欢迎来到阿里云2024年11月产品月刊!本月刊聚焦于最新的产品发布和技术进展,

通过大模型、人工智能、数据库、存储等多个领域的最新动态:“阿里云百炼上线Qwe

n2.5-Turbo模型,可支持100万超长上下文”、“通义灵码代码解释功能支持图形化展

示代码逻辑”带您领略前沿技术的魅力。

此外,还有丰富的实践案例和优化指南,帮助您更好地理解和应用这些新技术。无论您

是开发者、企业用户还是技术爱好者,这里都有值得您关注的内容。立即探索,开启您

的技术之旅!

目录页

产品速递

阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文5

通义灵码代码解释功能支持图形化展示代码逻辑10

阿里云人工智能平台PAI通过ITU国际标准测评15

容器服务ACKPro集群支持接入ACS容器算力22

AI驱动,大模型时代的操作系统服务体验全面升级30

对象存储图形化管理工具ossbrowser2.0发布34

ESSD同城冗余云盘RegionalESSD公测36

ALB作为ACKOne的多集群网关,实现同城多活、异地多活容灾44

云数据库Tair(兼容Redis)企业版内存型实例已支持升级至7.0112

云上实践

DistilQwen2蒸馏小模型在PAI-QuickStart的训练、评测、压缩及部署实践113

使用PAI×LLaMAFactory微调Qwen2_VL模型,搭建文旅领域知识问答机器人128

高可用和性能:基于ACK部署Dify的最佳实践129

阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求143

通过阿里云计算巢部署NVIDIANIM,加速企业大语言模型SaaS化148

Qwen2.5-Coder系列模型在PAI-QuickStart的训练、评测、压缩及部署实践156

客户案例

阿里云助力朗镜科技AI商品识别平台实现云原生架构升级169

官宣!杭州市地铁集团与阿里云达成战略合作172

产品速递5

产品速递

阿里云百炼上线Qwen2.5-Turbo模型,可

支持100万超长上下文

简介:Qwen2.5-Turbo已上线,支持100万超长上下文,相当于100万个英文单词

或150万个汉字。该模型在多个长文本任务评测集中表现出色,超越GPT-4,同时在推

理速度上实现4.3倍提升。限时免费赠送1000万tokens额度,欢迎体验。

模型上新

Qwen2.5-Turbo上线阿里云百炼平台,模型上下文长度扩展至百万tokens,限时免

费赠送1000万tokens额度。

产品速递6

模型特点

Qwen2.5-Turbo是通义千问团队回应社区对处理更长序列需求推出的全新版本模型。

该模型支持100万超长上下文,相当于100万个英文单词或150万个汉字。

模型表现

全新的Qwen2.5-Turbo在1M长度的超长文本检索(PasskeyRetrieval)任务中的准

确率可达到100%,在长文本评测集RULER上获得93.1分,超越GPT-4;在LV-Eval、

LongBench-Chat等更加接近真实场景的长文本任务中,Qwen2.5-Turbo在多数维度

超越了GPT-4o-mini;此外,在MMU、LiveBench等短文本基准上Qwen2.5-Turbo

的表现也非常优秀,在大部分任务上的表现显著超越之前上下文长度为1Mtokens的

开源模型。

产品速递7

Qwen2.5-Turbo在长文本、短文本任务评测集上均表现优秀

在推理速度方面,通义千问团队利用稀疏注意力机制将注意力部分的计算量压缩了约1

2.5倍,将处理1Mtokens上下文时的首字返回时间从4.9分钟降低到68秒,实现了

4.3倍的速度提升。

文档评论(0)

186****0576 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5013000222000100

1亿VIP精品文档

相关文档