ChatGPT 掀起了又一波 AI 大战,阿里是最新加入战局的巨头,之一。
4 月 11 日,阿里巴巴董事局主席张勇,在阿里云峰会上正式发布了阿里的大语言模型工具「通义千问」,并宣布旗下阿里「全家桶」全部接入其中。
发布会之前,通义千问的「鸟鸟」视频已经流传于社交媒体,而对于阿里来说,能娱乐大众是好事,但更重要的是,AI 大模型的能力未来如何加入到 B 端客户的「工作流」之中,则是阿里云关注的重点。
因此,阿里云智能集团也强调了下一战略方向——云智一体。
在大模型时代,阿里云是否能「支棱」起来?下一步又将如何发展?
01 阿里「通义全家桶」
4 月 7 日,阿里通过开放通义千问的限量邀测,首次向外界展示了阿里大模型的能力。在 4 月 11 日阿里云的年度峰会上,张勇宣布正式发布阿里的大模型产品——通义千问。
这也是张勇在兼任阿里云智能集团 CEO 后,第一次在阿里云峰会带队露面,足见此次活动的意义。
通义千问可提供文案创作、对话聊天、知识问答、逻辑推理、代码编写、文本摘要以及图像视频理解服务|阿里云
会上,阿里云 CTO 周靖人用 2 分钟的时间,通过一张 PPT 的讲述简单介绍了通义千问的几个能力;紧接着放出了 3 分钟的短片来介绍通义千问带来的可能性。
在这段 3 分钟的短片里,由通义千问支持的智能助理在 3 个场景里进行了展示。
在办公场景,智能助理在获取不同平台的接口调用后,可以自动帮忙订机酒、规划路线打车等;也可以生成会议纪要、邀请函和海报等。
在居家场景,小朋友写故事的思路、大人运动健身的背景音乐、做菜建议等都可以通过喊话智能助理获得。
在购物场景,一句「18 岁女生第一次化妆需要准备什么?」「爷爷下个月就要过 80 大寿了,生日宴会策划思路」后,智能助理自动生成了建议,并附上了购物链接。
事实上,由于大模型带来的生成、推理和多轮对话等能力,AI 可以切入到更广泛的「操作流」已经成为相对共识。
比如过去种草在小红书、转化在淘宝,订票在携程、打车在滴滴等分散在各个不同平台的消费决策行为,现在可以在一个平台,通过 GPT 的问答自动获得「知识增强」。给定任务后,用户在一个平台就可以更高效、便捷地完成整个过程。
而拥有「全家桶」的阿里,天然适合用大模型来增强现有业务,切入到更多的「操作流」。会上,张勇表示:「基于通义千问这样的基础大模型,我们希望能够把阿里所有的业务在未来接入。」
阿里巴巴所有产品未来将接入「通义千问」大模型
而获得通义大模型优先内测的内部业务中,钉钉和天猫精灵可能是最快落地的。发布会当天,钉钉和天猫精灵的官方公众号,分别发了未来新功能的小样。
就接入通义千问的钉钉而言,它可以自动生成群聊摘要、辅助内容创作、总结会议纪要、还能拍一张功能草图自动生成小程序。另一边,拥有多轮对话能力的天猫精灵成为了更智能的陪伴机器人。
不仅是阿里内部的业务,周靖人介绍,未来每一个企业在阿里云上,既可以调用通义千问的全部能力,也可以结合企业自己的行业知识和应用场景,训练自己的企业大模型。
对于后者,周靖人表示,通义千问是一个通用的大模型,在此基础上,可以结合企业的场景、知识体系、行业特殊需求,产生一个企业专属模型,来解决行业的实际问题。
通义千问,既是大模型领域的重要「节点」,也是阿里云平台的重要节点。
02. 云计算,进入「大模型时代」
2022 年 12 月以来,OpenAI 所提供的 GPT 接口,让外界看到「Model-as-a-service」(MaaS,模型即服务)在商业模式上的可能性,大语言模型可以作为一项服务来被调用,但对于云服务厂商而言,这还意味着基于大模型来设计它自身云的产品体系。
周靖人认为:「模型训练、模型推理离不开云计算,今天逐渐形成的 IaaS、PaaS、MaaS 三层,甚至再往上 SaaS 这样一个新的架构,在这方面,阿里云有长期的规划,按照这个理念设计云自身的技术和架构,以及相关的产品体系。」发布会的主论坛上,他详细介绍了为 AI 提供高性能算力的集群——灵骏,以及模型训练、模型推理的 PAI 平台等产品。
他进一步解释了模型即服务的概念,就是能够把模型整个生命周期有效支撑起来。今天从模型最初的研发、数据的清洗,到模型的训练、测试,以及模型整体能够进入到一个统一的模型标准网站,能够让用户快速查找模型、使用模型,降低模型使用门槛,让更多的人能够通过几行代码真正享受到今天人工智能的一系列应用。
事实上,自 ChatGPT 发布以来,大模型或者说生成式 AI,似乎成为了国内外云厂商的必争之地。尽管对于新机会的讨论范围遍布广泛:算力基础设施、大模型、中间件、应用软件和硬件等等,但其中,最确定的机会就是云计算。
联想集团 CTO 芮勇曾向极客公园举过一个例子,来阐述生成式 AI 所需要的算力,他认为:我们进入了第三个计算时代——AI 时代。相比前两个计算时代(PC 和互联网、智能手机和云),生成式 AI 和大模型对算力需求是成百上千倍的需求。今天用搜索引擎时,很多的内容就在那儿,只是把它用倒排表的方式抓出来;但生成式 AI 的内容要现场生成,算力比原来要高得多。这会给做高性能计算的企业带来好处。
除了算力,还有云架构,不同场景下的工作负载所需要的计算体系架构要求不同。在人工智能场景里,云计算为 AI 模型的训练和推理提供了底层基础设施;一个足够智能的平台产品,能够把大数据、机器学习等能力发挥到极致。因此,云厂商也迫切希望和行业客户共创,围绕着模型去重新构建云计算的一系列产品和体验。
新的节点上,张勇表示,在客户智能化过程中,阿里云的下一个目标和承诺是让算力成本成为今天的 1/ 10 乃至 1%。这意味着基于大模型的算力架构,还有长足的优化空间。
「通义千问是既定路线中的一个节点,不是起点,也不是终点。」周靖人如此说道。
原文链接:https://tech.ifeng.com/c/8OxWrxSfZlY