英特尔至强6强势驱动,火山引擎g4il服务器性能飙升
2024-12-23
12:59:41
来源: 杜芹
点击
过去十几年,移动互联网经历了迅猛发展,而在这一时代的背后,基础技术和算力的提供者发挥了关键作用。作为全球领先的技术供应商,英特尔始终致力于推动行业的技术进步,尤其是在支持字节跳动异军突起的过程中,英特尔提供的强大算力支撑无疑起到了至关重要的作用。
如今,我们正站在一个全新的纪元的起点——AIGC(人工智能生成内容)时代。伴随这一浪潮,字节跳动旗下云服务器企业火山引擎也迎来了新的突破。2024年12月18日,在火山引擎2024 FORCE原动力大会上,火山引擎隆重发布基于英特尔至强6处理器(GNR)与火山引擎自研的DPU(数据处理单元)技术的第四代通用计算型实例——g4il。这一新一代实例在计算、存储和网络性能方面实现了全面升级,为AI应用提供了强大的支持。火山引擎与英特尔的深度合作再次彰显了技术创新在推动行业发展的重要作用。
中国大模型企业迅速飙升,算力、上云成为焦点
2020年至2022年间,ChatGPT的横空出世大大加速了人工智能,特别是生成式AI技术的普及与发展。美国的OpenAI、Google、Meta等科技巨头在此领域积极布局,推动了技术的不断突破;在中国,生成式AI同样取得了令人瞩目的进展,例如,字节跳动在2023年发布了云雀大模型,2024年推出了具有多模态能力的豆包大模型。根据中国信通院2024年7月发布的《2024全球数字经济白皮书》,在2023至2024年一季度,中国共涌现出了71家AI独角兽企业,其中大模型占比高达36%,为行业提供了坚实的基础。
在AIGC时代,技术应用并非凭空而来,强大的算力支持是其背后的核心驱动力。随着大模型的需求不断增长,高性能异构算力的重要性愈加突出。英特尔公司市场营销集团副总裁、中国区云与行业解决方案和数据中心销售部总经理梁雅莉指出,在这一过程中,如何提高算力水平,同时降低成本,成为了技术发展的核心问题。同时,高性能算力所带来的巨大功耗问题也不容忽视,数据中心和智算中心被视为“电老虎”,如何实现绿色节能,确保技术发展的可持续性,成为行业的重要挑战。
为了解决这一问题,英特尔推出了全新一代的至强6处理器,采用了能效核与性能核相结合的微架构设计,成功在性能和能效比方面取得了显著突破。至强6处理器不仅显著提升了AI数据中心的性能,还为低成本、稳定、安全及绿色节能提供了有效保障。这一创新正好契合了AI数据中心对高性能、低成本、绿色节能的多重需求。
此外,在大模型时代,无论是训练还是托管大模型,都会产生巨大的算力需求与相应的成本开销。因此,对于希望利用AI技术实现业务持续增长、开拓新机遇的企业用户来说,上云已成为解决这一问题的最优解。云计算的最大特点是其弹性,这不仅帮助企业客户降低使用成本,还大幅缩短了因业务创新带来的交付等待时间。
MaaS:模型即服务,开启AI变现新模式
在大模型应用的架构与开发运营模式不断变化的今天,MaaS(模型即服务)成为了互联网企业实现技术输出和商业变现的重要路径。MaaS模式不仅为企业提供了强大的AI技术支撑,还帮助它们提升了自身的AI变现能力。
对于字节跳动和火山引擎而言,MaaS是其技术赋能战略的关键组成部分。字节跳动旗下企业火山引擎是云服务领域的新兴力量,火山引擎通过海量内外资源共池,成功构建了弹性算力平台,能够全面满足企业在托管AI技术、实现智算化转型过程中的算力需求。
据火山引擎计算产品负责人王睿的介绍,通过共享资源池,火山引擎不仅能为终端用户提供强大的议价能力,释放成本红利,还能通过跨集团资源池带来的议价能力,将这些红利回馈给客户。通过这种资源池的整合与灵活调配,火山引擎目前已实现了百万规模的算力弹性,天级别可提供50万核的弹性能力,峰值每日可达100万核,弹性效率可在分钟级别实现10万核的扩展。
在PaaS层面,基于智能体和工作流方式的大模型应用孵化平台——扣子Coze,为开发者提供了一个灵活的创新平台。而在IaaS层面,火山引擎则通过集成英特尔至强6处理器的算力优势,推出了g4il云实例,使得开发者在轻量级大模型应用的开发场景中,能够以较低的资源门槛进行实验和验证,帮助他们快速迭代和部署AI应用。
英特尔与火山引擎发布g4il云实例,性能大幅提升
英特尔和字节跳动旗下的火山引擎共同打造了一个高性能智算平台,基于至强6处理器的新一代云实例g4il。
据火山引擎计算产品负责人王睿的介绍,第四代云服务器产品与上一代产品相比,g4il实例在计算、存储和网络性能上都有了显著提升。其中,网络和存储性能提升了100%,IOPS和PPS性能提升超过30%。这些性能提升不仅体现在基准指标上,还在客户常用的视频转码、Web应用、和数据库应用方面分别实现了17%、19%和20%的性能提升。
此外,g4il实例还通过采用双单路创新服务器架构,进一步降低了整体爆炸半径,确保了产品的稳定性。实例的功能也得到丰富,新增了大包传输能力(Jumbo Frame)、机密计算能力(TDX),以及支持最新SSD云盘吞吐能力,为客户提供了更加完善的技术保障。
g4il基于英特尔至强6处理器,新增的高速内存MRDIMM和支持AMX FP16指令集,为AI推理加速提供了更强的底层基础环境。MRDIMM带来了更大的内存带宽,而AMX指令集则提供了强大的矩阵运算能力,这些特性为大模型的推理应用提供了强有力的支持。
火山引擎基于英特尔GNR CPU和MRDIMM内存,实测吞吐性能相比英特尔EMR CPU配合通用型DDR5内存,最高提升可达80%。与单卡A10和L20 GPU的对比测试也表明,g4il实例在性能上有着明显优势。这些性能提升对于AI推理、尤其是生成式AI模型的推理速度和效率至关重要。
除了提升性能,AI应用中的安全性问题也越来越受到关注。在AI技术迅猛发展的今天,如何确保AI应用的安全性,已成为企业用户的首要考虑因素。火山引擎与英特尔合作,基于CPU和GPU的硬件机密计算能力,提供了一套完整的端到端安全解决方案。通过在固件、内核、虚拟化、操作系统等多个层级的深度优化,火山引擎能够在机密计算云服务器上高效启用加密特性,并将性能损失降到最低。
值得一提的是,在大模型等高算力应用场景中,TDX技术凭借其高效、安全的特性,成为云计算环境中构建数据保护策略的关键技术。英特尔TDX技术基于虚拟化,在芯片微架构层面针对机密计算需求进行了扩展。引入了“机密虚拟化模式”,并在虚拟机控制器和用户虚拟化实例之间引入了TDX安全模块,实现了状态管理的隔离,确保虚拟机实例的状态安全。内存加解密引擎也是TDX技术的一大亮点。通过内存控制器上的加解密引擎,确保数据在内存中始终处于加密状态,从而保护数据免受恶意软件、系统漏洞或黑客攻击的威胁。即使系统中存在不可信的软件,用户的数据也能得到可靠的保护。
梁雅莉表示,相较于GPU实例,使用英特尔至强6处理器的资源门槛降低了50%。在易用性方面,英特尔与火山引擎合作,提供了预验证、优化的模块组件和集成化镜像,进一步优化了用户体验,实现了一键部署。
在生成式人工智能主导的新时代,AI与云计算的融合已成为必然趋势。王睿表示,作为云服务领域的新兴力量,火山引擎始终致力于为企业客户提供更优质的产品和服务,帮助企业更有信心地迈向数字化转型。我们判断,大模型行业在未来对算力规模、性能、集群内通讯效率、模型训练并行模式、存储性能、隐私安全等方面的要求将愈加苛刻。未来,我们期待与英特尔继续携手合作,共同应对智算时代的挑战,为客户提供更加先进的算力平台和解决方案。
加速企业向AI转型,全面支持Data+AI架构
企业走向AI已是大势所趋。据英特尔的洞察,目前企业数智基础平台的演进过程主要可以从两大维度来看:第一个是技术维度,企业数智技术经历了数据库、大数据、数据湖以及大模型爆发等几个阶段。目前,大数据技术还处于发展和探索期,而湖仓一体的架构已经相对成熟,并有大量的应用。它可以支持大数据的应用,这正是“Data for AI”所要实现的目标。
第二个业务维度来看,企业已经经历了流程驱动业务和数据驱动业务这两个阶段。大家比较熟悉的流程驱动业务包括CRM、ERP系统,数据驱动业务则是像数据中台、数据平台等,这些都得到了广泛的应用。目前的发展趋势是智能体驱动业务,类似大模型技术,也处于发展和探索阶段,尚未广泛实践。
英特尔为算力基础平台提供了多种硬件支持,比如CPU、GPU、Gaudi加速器等,能够为平台基础设施提供支撑,包括各大公有云的云计算服务以及私有云中的企业业务。这些基础设施都基于英特尔的底层硬件。
面对企业的Data+AI架构和发展趋势,英特尔做了以下三方面的工作:
1) 提供英特尔架构优化的数据服务和负载。
2) 提供英特尔架构算力感知的云原生平台。
3) 提供基于英特尔算力支持的AI框架和运行环境。
在AI领域,尤其是大模型领域,英特尔也提供了一个完整的云边端一体AI推理解决方案。英特尔提供了各种异构算力平台,包括至强CPU、Gaudi加速器、锐炫显卡、边端至强工作站系列产品以及酷睿桌面系列产品。此外,英特尔还提供了一个跨云边端的完整软件技术栈,包括国内流行的vLLM大模型服务推理框架。
在生态上,英特尔通过与 CSP、ISV、OXM 等合作伙伴的紧密合作,共同打造创新产品和解决方案,推动大模型时代的发展。
结语
从基础算力到高效平台,从生成式AI的加速器到智能体的应用,英特尔与火山引擎的合作正在为AIGC时代的到来奠定坚实基础。随着技术不断进步,未来的数字世界与物理世界将更加紧密地融合,智能化的时代已经悄然来临。
责任编辑:sophie
相关文章
- 半导体行业观察
- 摩尔芯闻