阿里云产品十一月刊 2024- 云端智慧,点亮数字未来.docx

阿里云产品十一月刊 2024- 云端智慧,点亮数字未来.docx

  1. 1、本文档共288页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

卷首语

欢迎来到阿里云2024年11月产品月刊!本月刊聚焦于最新的产品发布和技术进展,

通过大模型、人工智能、数据库、存储等多个领域的最新动态:“阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文”、“通义灵码代码解释功能支持图形化展示代码逻辑”带您领略前沿技术的魅力。

此外,还有丰富的实践案例和优化指南,帮助您更好地理解和应用这些新技术。无论您是开发者、企业用户还是技术爱好者,这里都有值得您关注的内容。立即探索,开启您的技术之旅!

目录页

产品速递

阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文 5

通义灵码代码解释功能支持图形化展示代码逻辑 10

阿里云人工智能平台PAI通过ITU国际标准测评 15

容器服务ACKPro集群支持接入ACS容器算力 22

AI驱动,大模型时代的操作系统服务体验全面升级 30

对象存储图形化管理工具ossbrowser2.0发布 34

ESSD同城冗余云盘RegionalESSD公测 36

ALB作为ACKOne的多集群网关,实现同城多活、异地多活容灾 44

云数据库Tair(兼容Redis)企业版内存型实例已支持升级至7.0 112

云上实践

DistilQwen2蒸馏小模型在PAI-QuickStart的训练、评测、压缩及部署实践 113

使用PAI×LLaMAFactory微调Qwen2_VL模型,搭建文旅领域知识问答机器人128

高可用和性能:基于ACK部署Dify的最佳实践 129

阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求 143

通过阿里云计算巢部署NVIDIANIM,加速企业大语言模型SaaS化 148

Qwen2.5-Coder系列模型在PAI-QuickStart的训练、评测、压缩及部署实践 156

客户案例

阿里云助力朗镜科技AI商品识别平台实现云原生架构升级 169

官宣!杭州市地铁集团与阿里云达成战略合作 172

产品速递5

产品速递

5

产品速递

阿里云百炼上线Qwen2.5-Turbo模型,可

支持100万超长上下文

简介:Qwen2.5-Turbo已上线,支持100万超长上下文,相当于100万个英文单词或150万个汉字。该模型在多个长文本任务评测集中表现出色,超越GPT-4,同时在推理速度上实现4.3倍提升。限时免费赠送1000万tokens额度,欢迎体验。

模型上新

Qwen2.5-Turbo上线阿里云百炼平台,模型上下文长度扩展至百万tokens,限时免

费赠送1000万tokens额度。

产品速递6

模型特点

Qwen2.5-Turbo是通义千问团队回应社区对处理更长序列需求推出的全新版本模型。该模型支持100万超长上下文,相当于100万个英文单词或150万个汉字。

模型表现

全新的Qwen2.5-Turbo在1M长度的超长文本检索(PasskeyRetrieval)任务中的准确率可达到100%,在长文本评测集RULER上获得93.1分,超越GPT-4;在LV-Eval、LongBench-Chat等更加接近真实场景的长文本任务中,Qwen2.5-Turbo在多数维度超越了GPT-4o-mini;此外,在MMU、LiveBench等短文本基准上Qwen2.5-Turbo的表现也非常优秀,在大部分任务上的表现显著超越之前上下文长度为1Mtokens的开源模型。

产品速递7

产品速递

7

Qwen2.5-Turbo在长文本、短文本任务评测集上均表现优秀

在推理速度方面,通义千问团队利用稀疏注意力机制将注意力部分的计算量压缩了约1

2.5倍,将处理1Mtokens上下文时的首字返回时间从4.9分钟降低到68秒,实现了

4.3倍的速度提升。

Qwen2.5-Turbo推理速度可提升4.3倍

产品速递8

产品速递

8

Qwen2.5-Turbo可应用于长篇小说深入理解、仓库级别代码助手、多篇论文阅读等场景,可一次性处理10本长篇小说,150小时的演讲稿,3万行代码。

API调用方式

最新支持的1Mtokens的Q

文档评论(0)

4A方案 + 关注
实名认证
服务提供商

擅长策划,|商业地产|住房地产|暖场活动|美陈|圈层活动|嘉年华|市集|生活节|文化节|团建拓展|客户答谢会

1亿VIP精品文档

相关文档