本文来源: admin
33
|
智谱正式开源新一代大模型GLM5.1。作为智谱GLM系列的最新力作,GLM-5.1的整体能力得到了全面提升。尤其在代码能力上:在最接近真实软件开发的SWE-bench Pro基准测试中,GLM-5.1超过GPT-5.4、Claude Opus4.6,刷新全球最佳成绩。此外,GLM-5.1还在长程任务(Long Horizon Task)处理能力上实现了显著突破,有别于当前以分钟级交互为主的模型,GLM-5.1可在单次任务中持续、自主地工作长达8小时,凭借自主规划、执行与迭代进化,最终交付完整的工程级成果。 百度百舸基于昆仑芯硬件平台第一时间完成了GLM-5.1的模型适配与集群部署,助力最新开源大模型快速投入生产环境的大规模应用。 百度百舸基于Prefill-Decode分离架构,使用CP(Context Parallelism)上下文并行策略有效降低128K以上序列的计算负载和显存压力,从而使得GLM-5.1能够更好的支撑AI Agent、Coding场景的长上下文与高并发需求。 目前,百度百舸与昆仑芯已具备「极速模型适配-全链路性能提升-高效规模化部署-超大规模集群落地」的完备能力。 极速模型适配 为实现高性能模型的快速开发与适配,百度百舸联合昆仑芯开发了vLLM-Kunlun Plugin,将vLLM社区版与昆仑芯XPU后端完全解耦。用户通过vLLM-Kunlun Plugin,快速适配主流开源模型。 依托CUDA-like特性,vLLM-Kunlun Plugin在软件层面「抹平」了硬件差异,使开发者能够像使用通用GPU一样便捷地使用昆仑芯。同时,vLLM-Playground已全面支持昆仑芯,即便是初学者也能通过直观的Web UI一键完成模型配置与推理。 在适配效率上,基于昆仑芯成熟的高性能算子库,针对无新增算子的新模型(如从GLM-5.0版本迭代至GLM-5.1)可实现Day0极速适配,针对有新增算子的新模型,也可在极短时间内完成新算子的开发与模型适配。再配合torch_xray精度对齐工具与PyTorch Profiler性能分析工具,百度百舸为模型跑对与性能表现提供了全方位保障。 |
大疆并没有试图用一款惊世骇俗的产品征服所有人,而是显露出一种不同于往日的姿态——...
电商圈的气氛有些微妙。商家社群里,讨论“模型跑得怎么样”的声音,正在与“优惠券力...
荣耀今日正式推出定位中高端市场的WIN H7电竞游戏本,至高搭载酷睿i7-14650HX处理器与...
采用180广角蓝光显尘技术,探照距离约30cm,可实现30倍放大显尘,在床底、沙发下、墙...
蚂蚁百灵正式推出Ling-2.6-flash一款总参数量104B、激活参数7.4B的Instruct模型。该模...
华为Mate90系列将率先搭载全新的鸿蒙7.0系统。此次系统更新的核心亮点在于端侧AI的深...
支付宝今天宣布AI付正式支持OpenClaw(龙虾)类AI智能体,用户可在AI智能体中直接完成...
去年小米数字旗舰阵容迎来了重大调整,新增了Pro Max版本。小米17系列目前已经推出了...