迎接云计算的第三次浪潮阿里云全面升级

 

  10月31日,2023云栖大会在杭州云栖小镇开幕。始办于2009年的云栖大会至今已经走过了14个年头,14年来云计算已经渗透到社会各个行业,成为数字经济乃至全社会重要的基础设施,作为云计算行业开拓者的阿里云功不可没,并始终扮演着引领者的角色。根据IDC不久前公布的数据,2023年上半年中国公有云服务整体市场规模(IaaS/PaaS/SaaS)为190.1亿美元,阿里云IaaS、PaaS市场份额分别为29.9%和27.9%,都远超第二名,是无可置疑的行业领头羊。

  今天,随着人工智能、大模型技术的迅速发展,云计算迎来了一个新的时代——智能化时代,新时代的到来对底层的算力基础设施提出更高的要求。面对新的需求,阿里云持续投入,推出了通义千问大模型2.0和8大行业大模型,同时还对阿里云基础设施进行全面的技术升级和创新,致力于打造出的“AI时代最开放的云”,继续引领云计算行业的发展。

  “我觉得现在是云计算的第三次浪潮,我相信它不会在一年、两年完成,它可能会给我们十年、几十年的时间,让足够多的创新在云计算时代能够发明出来。”工程院院士、阿里云创始人王坚在云栖大会的主题演讲中表示。

  在演讲中,王坚院士将云计算的发展分为三个阶段:第一阶段,云计算改变了互联网;第二阶段,云计算改变了传统行业;第三阶段,云计算与人工智能融合。王坚院士认为,今天我们所处于云计算的第三个阶段,在这个阶段GPT大模型的出现使得计算对科技创新产生了非常重要的影响,这也是第一次计算对科技创新本身带来一次革命性的变化。

  应该说,王坚院士的说法并不令人意外,今年以来ChatGPT带来的强大冲击力我们都有感受。ChatGPT第一次让普通人见识了生成式AI的潜力,也引发了对生成式AI和大模型的关注,大模型更是成为了市场竞争的焦点。

  今年4月份阿里云也推出了自己的千亿级参数规模的通用大模型——通义千问。与很多匆忙入局者不同,阿里云其实很早就布局大模型。早在2021年阿里云就推出了M6系列大模型,在2022年云栖大会上阿里云又推出MaaS(模型即服务)和国内首个开源AI社区“魔搭”。彼时绝大多数人还不知道有OpenAI这家公司的存在,很多人也是第一次知道在IaaS、PaaS、SaaS之外还有一种“云服务”叫MaaS。没想到几个月后OpenAI的ChatGPT问世,大模型、生成式AI迅速成为市场宠儿。

  正是得益于对大模型技术的早早布局,使得阿里云能很快推出了自己的通用大模型通义千文,并且出手不凡,诸多指标都处于行业领先。在今年的云栖大会上,阿里云对通义千问进行了升级,正式发布了通义千问大模型2.0,同时宣布,通义千问APP在各大手机应用市场正式上线。

  据阿里云CTO周靖人介绍,过去6个月,通义千问2.0在性能上取得巨大飞跃,相比4月发布的1.0版本,通义千问2.0在复杂指令理解、文学创作、通用数学、知识记忆、幻觉抵御等能力上均有显著提升。目前,通义千问的综合性能已经超过GPT-3.5,加速追赶GPT-4。

  同时,阿里云的“魔搭”社区也成长迅速。短短一年时间的今天,魔搭社区就汇聚了280万开发者、2300多个优质模型,模型下载量超过1亿,成为中国规模最大、最活跃的AI开发者社区。周靖人透露,阿里云计划近期开源通义千问72B版本,此前,阿里云已先后开源7B和14B版本模型,模型累计下载量超过100万。

  除了通用大模型通义千问2.0,阿里云还同步发布了基于通义大模型训练的8大行业模型,以推动大模型在千行百业集成落地,包括通义灵码(智能编码助手)、通义智文(AI阅读助手)、通义听悟(工作学习AI助手)、通义星尘(个性化角色创作平台)、通义点金(智能投研助手)、通义晓蜜(智能客服)、通义仁心(个人专属健康助手)、通义法睿(AI法律顾问)。

  这8大行业模型都面向当下最受欢迎的多个垂直场景,使用领域数据进行专门训练。用户可以在官网直接体验模型功能,开发者可以通过网页嵌入、API/SDK调用等方式,将模型能力集成到自己的大模型应用和服务中。

  实际上,阿里云不止让这8个行业大模型接入了通义大模型的能力,还有超过30款云产品也接入了大模型能力。例如阿里云大数据治理平台DataWorks新增了全新的交互形态——Copilot,用户只需用自然语言输入即可生成SQL,并自动执行相应的数据ETL操作,整体开发与分析可提效30%以上,堪比“自动驾驶”。

  应该说,大模型只是生成式AI应用的基础或者说核心组件,要把大模型变成一个真正能落地的应用离不开模型的调优、部署和应用的开发。为了方便企业构建和部署自己的生成式AI应用,大会上阿里云还发布了一站式大模型应用开发平台——阿里云百炼,该平台集成了国内外主流优质大模型,提供模型选型、微调训练、安全套件、模型部署等服务和全链路的应用开发工具,为用户简化了底层算力部署、模型预训练、工具开发等复杂工作。

  据悉,央视网、朗新科技、亚信科技等企业已率先在阿里云百炼平台上开发专属模型和应用。比如,朗新科技就基于阿里云百炼平台成功训练出了一款电力行业专属大模型,为电力能源企业提供了重要支持。

  大模型的训练是一个系统工程,它不止是涉及AI框架和模型,还涉及到底层的算力、网络、存储,只有强大的云计算体系才能训练出高质量的大模型。比如,大模型需要海量的训练数据,这不仅对存储提出更高的需求,同时,对数据的传输和时延也都有更严格的要求。另外,大模型通常需要长时间训练,一旦出错恢复起来费时费力,这就需要系统具有更高可靠性。

  “阿里云很早就提出数据中心是一台计算机的理念,今天,AI时代更加需要这样的技术体系。我们要以云的方式,通过高效的网络连接、高效的并行计算为AI模型、为AI应用提供坚实的算力底层。”周靖人说。

  为了保证大模型训练的稳定互联和高效并行计算,阿里云全面升级了人工智能平台PAI。据悉,PAI支持高达10万卡量级的集群可扩展规模,超大规模分布式训练加速比高达96%,远超业界水平;在大模型训练任务中,可节省超过50%算力资源。

  阿里云通义大模型系列就是基于人工智能平台PAI训练而成。除了通义大模型,中国一半大模型公司跑在阿里云上,百川智能、智谱AI、零一万物、昆仑万维、vivo、复旦大学等大批头部企业及机构均在阿里云上训练大模型。

  除了人工智能平台的优化和升级,阿里云还对云基础设施整体从性能、安全和智能三个维度进行全面升级。比如,阿里云推出了最高性能的第八代实例g8i,CPU级至第五代至强,性能提升20%以上,而且保持价格不变;阿里云还发布了多款HPC优化实例,性能可提升40%;OSS对象存储读取带宽也提升10倍至100 Gbps,有效加速大模型相关计算和数据分析;RDS数据库读写性能提升了102%等。

  尤为值得一提的是,阿里云基于自研云原生CPU倚天710的服务器已经得到规模化部署。过去一年,阿里云持续完成了数十项软硬一体的全栈优化,倚天710主频已提升至3.0GHz,内存频率由4400提升到4800GHz,芯片性能更加强劲,同时芯片与CIPU协同,可提供更高性能和更低成本的算力服务。

  另外,在云栖大会上,平头哥还发布了旗下首颗SSD主控芯片镇岳510,该芯片为云计算场景深度定制,超低时延,比业界主流低30%以上,误码率比业内标杆领先一个数量级。它的落地必将进一步提升阿里云的存储性能。

  为了提升稳定性和可用性,阿里云还将人工智能技术引入到核心产品体系,利用机器学习来进行系统的优化,通过更智能地调整各种各样的参数,让系统始终处于最优的状态来运行。

  周靖人说:“随着大模型技术与云计算本身的融合,我们希望未来的云可以像车一样也能够自动驾驶,大幅提升开发者使用云的体验。”

  随着云计算的普及,云应用的开发方式也在发生变化。今天,容器化、Serverless、事件驱动架构逐渐成为主流。为了更好地支持用户上云、用云,阿里云也一直在强化对容器化、Serverless化的支持。

  目前,阿里云已经拥有超过40款Serverless 化云产品,包括函数计算FC、Serverless 应用引擎SAE、PolarDB数据库、开源大数据平台E-MapReduce等。其中函数计算升级至3.0版,冷启动降至秒级,资源成本降低 92%,复杂度降低40%,并深度集成通义产品系列、魔搭社区、HuggingFace等,AI 应用一键部署,部署时间减少 80%以上。

  大会上,阿里云还宣布Serverless产品全系降价,大数据、数据库、中间件等的Serverless版均降价30%-70%不等,更具吸引力。

  而在容器技术方面,阿里云同样很早就已经布局。阿里云的容器服务ACK提供高性能且可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。ACK连续多年入选 Gartner公共云容器报告,同时在2022年成为国内唯一进入 Forrester领导者象限的产品。

  在今年的云栖大会上,阿里云还推出首款容器计算服务(Alibaba Cloud Container Compute Service,以下简称ACS),以Serverless形态交付算力,用户无需关注底层节点及集群,只需轻松配置即可创建pod资源并部署应用。ACS采用了阿里云自研的调度技术,首创算力调配与资源复用,支持算力在用户负载和云产品间切换,提升资源利用率,可为企业节约20%资源成本。ACS还支持最大1:8资源配比和按需弹性、资源预留等灵活的使用模式,保障日常所需,实现弹性与确定性的完美结合。

  另外,随着Serverless技术的持续演进,开发者的开发方式也在悄悄改变,事件驱动架构应用越来越普遍。阿里云推出的云工作流、事件总线以及函数计算等服务,借此可以串联云上300+产品,降低集成门槛,加快开发进度,并实现自适应伸缩,极大地提高了开发效率,降低用户的部署成本和运营成本。

  王坚院士在云栖大会上的主题演讲中打的一个比方给笔者留下深刻印象,他说,电气化时代的电动机是电能的主要消耗者,今天的大模型就是云计算的“发电机”,它会消耗掉大部分的云资源。这个比方很形象地说出了大模型的重要性,未来云厂商竞争将首先是大模型的竞争。去年以来,云服务市场增长整体放缓,大模型和生成式AI被云厂商视为市场重回高增长的希望所在。今天,围绕大模型、生成式AI的市场竞争已经展开,而阿里云已经出发。返回搜狐,查看更多

搜索