ChatGLM:从千亿到开源的一点思考.docx

ChatGLM:从千亿到开源的一点思考

唐杰

清华大学计算机系

3

ChatGLM-130Bvs.ChatGLM-6B

?ChatGLM-6B开源,10天10000stars

?当天在GitHub的趋势排行第—

?Huggingface下载超过100万

?开源的训练数研量达到1万亿字符的模型

预训练大模型

预训练大模型是新一代人工智能应用的基础设施

大模型通用能力强,可完成多场景任务,

降低成本,提高效率

现有300+应用基于OpenAIGPT-3开发

大模型从单模态向多模态发展,从文本逐步发

展到视觉、虚实迁移控制

OpenAI与阿里、智源均已推出多模态模型

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档