国内AI大模型“安卓时刻”到来!阿里云通义千问免费、开源、可商用

110次阅读

大模型激战之际,继海外的 Meta 之后,阿里巴巴成为又一家推动人工智能 (AI) 大模型“安卓时刻”潮流的科技巨头。

8 月 3 日周四,阿里云将 70 亿参数的通义千问模型开源,包括通用模型 Qwen-7B 和对话模型 Qwen-7B-Chat。这两款模型均已上线国内首个“模型即服务”开放平台魔搭社区,开源、免费、可商用。

开源代码支持对 Qwen-7B 和 Qwen-7B-Chat 的量化,支持用户在消费级显卡上部署和运行模型。用户既可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问和调用 Qwen-7B 和 Qwen-7B-Chat,阿里云为用户提供包括模型训练、推理、部署、精调等在内的服务。

魔塔社区已有发帖,专门介绍通义千问上述模型的安装、创空间体验、模型推理、模型训练最佳实践,并附有模型链接及下载情况截图。

公开资料显示,Qwen-7B 使用去重及过滤后超过 2.2 万亿 tokens 的数据进行预训练,是支持中、英等多种语言的基座模型,上下文窗口长度达到 8k。它包含高质量中、英、多语言、代码、数学等数据,囊括全网文本、百科、书籍、代码、数学及各个领域垂类。

评测英文综合能力的基准评测之一 MMLU 的评测结果显示,在英文评测方面,Qwen-7B 的效果超过了目前国内外其他同类开源预训练模型,对比更大规模版本的模型也具有较强竞争力。中文评测方面,在 C -Eval 验证集上,Qwen-7B 在同等规模现有模型中取得了最高分数,甚至相比更大规模模型也具有较强竞争力。

以下为 Qwen-7B 的 MMLU 5-shot 准确率结果对比。

在 Qwen-7B 的基础上,阿里云使用对齐机制打造了基于基座模型的 AI 助手 Qwen-7B-Chat。它是基于 Transformer 的中英文对话大语言模型,已实现与人类认知对齐。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。

无论是在 C -Eval 验证集上,还是在 MMLU 评测集上,Qwen-7B-Chat 模型的 zero-shot 准确率均在同类对齐模型中表现较优。

以下为 C -Eval 测试集上的 zero-shot 准确率结果对比。

通义千问的开源后,阿里云成为国内首个加入大模型开源行列的大型科技企业。今年 7 月,微软宣布,联手 Meta 发布开源 AI 模型的可商用版本 Llama 2,提供 OpenAI 和谷歌模型的平替产品。也是在 7 月,智谱 AI 及清华 KEG 实验室公布,中国顶尖开源大模型 ChatGLM2-6B 允许免费商用。

华尔街见闻此前文章提及,开源模型的好处包括用户的接受率更高,然后输入更多数据供人工智能处理。LLM 拥有的数据越多,其功能就越强大。此外,开源模型使研究人员和开发人员能够发现和解决漏洞,同时提高技术和安全性。

今年 4 月的 2023 阿里云峰会上,阿里巴巴宣布向企业开放通义千问,企业可以调用通义千问的能力训练自己的大模型。

阿里云智能集团首席技术官 (CTO) 周靖人当时介绍,未来企业在阿里云上既可以调用通义千问的全部能力,也可以结合企业自身的行业知识和应用场景,训练自己的企业大模型。比如,每个企业都可以有自己的智能客服、智能导购、智能语音助手、文案助手、AI 设计师、自动驾驶模型等。

阿里巴巴集团 CEO 兼阿里云智能集团 CEO 张勇当时称,阿里巴巴所有产品未来都将接入通义千问大模型。

张勇表示,面向 AI 时代,所有产品都值得用大模型重做一次,而基于这一信念,阿里云也希望帮助更多企业用上大模型,让每家企业都能基于通义千问,拥有具备自己行业能力的专属大模型。

.....

原文链接:https://stock.cfi.cn/p20230804000005.html

正文完
 
不知道
版权声明:本站原创文章,由 不知道 2023-08-05发表,共计1478字。
转载说明:声明:本站内容均来自互联网,归原创作者所有,如有侵权必删除。 本站文章皆由CC-4.0协议发布,如无来源则为原创,转载请注明出处。