四库全闻消息:
新智元报道
与其相反的是,
编辑:peter东 英智
但实际上,
【新智元导读】长期以来,大模型受限于有限的上下文窗口,在处理长任务或对话时不得不忘记早期信息,英伟达近日推出的Helix并行技术受DNA结构启发,分割显存和处理任务,显著提升大模型的上下文长度,并发能力,并可降低响应延迟。
综上所述,
想象一个利用大模型的任务,需要一次处理百万字符的文档,例如从百科全书中获取信息,或是分析数百页的法律卷宗,异或追踪持续数月的对话记录,都需要越来越长的上下文。
而大模型生成的每个词都需要扫描存储在所谓的KV缓存中存储的过去标记。
事实上,
反复读取这个缓存会消耗GPU内存带宽。大模型还需要从内存中重新载入大量的前馈网络(FFN)权重来处理每个新词。
可能你也遇到过,
这个过程会减慢效应速度,从而导致客户与大模型对话时出现卡顿。
四库全闻行业评论:
传统的处理方案,是利用张量并行(Tensor Parallelism, TP)将此负载分散到多个GPU上。但这仅能起到一定作用。
反过来看,
当规模超过一定限度后,GPU展开复制KV缓存,导致内存压力进一步增大。
很多人不知道,
而Helix这一英伟达针对其最新的Blackwall开发的并行策略,通过将模型Transformer层的注意力机制和前馈网络部分分开处理来处理卡顿疑问。
四库全闻报导:
Helix受DNA双螺旋结构的启发,Helix将KV、张量和专家等多个维度的并行性交织到一个统一的执行循环中。
站在用户角度来说,
每个阶段在其自身的瓶颈配置下运行,同时复用相同的GPU池。
值得注意的是,
论文链接:https://d1qx31qr3h6wln.cloudfront.net/publications/Helix_0.pdf
需要注意的是,
Helix是怎么做到百万上下文不卡顿
值得注意的是,
在注意力阶段,Helix利用一种名为KV并行(KVP)的新方法,将庞大的KV缓存分散到多个GPU上。
当TP超过KV头的数量时,张量并行会进行复制,从而增加了内存和带宽开销,如图1a到c描述的过程。
Helix通过将TP=2与KVP=2相结合,形成2D布局来避免内存和带宽开销的增加,对应图1d。
其实,
图1:传统的张量并行(TP)与Helix的不同注意力分片策略KVP的对比示意图
同时,由于KVP GPU持有与其本地KV头相关联的所有查询头,并冗余地计算QKV投影。
根据公开数据显示,
这使得每个KV分片能够进行完全本地的FlashAttention,确保了模型的推理精度。
不可忽视的是,
之后KVP GPU之间沿着查询头维度进行单对单的全连接通信,通信的成本和KV缓存的大小无关,因此大模型的上下文长度即使扩展到百万t XM外汇代理 oken,也不会影响查询效率。
四库全闻财经新闻:
此外,Helix还通过重叠通信和计算,一旦计算出一个to 福汇外汇开户 ken的注意力输出,Helix就会启动该token的全对全交换,同时计算下一个token的注意力。
四库全闻消息:
这种紧密的重叠将通信延迟隐藏在有用的工作之后,保持GPU利用率高,并进一步加速实时解码。
值得注意的是,
图2中上图的八个请求会同步执行注意力计算。随后进行顺序的全对全通信。
站在用户角度来说,
图2表底部对应利用HOP-B时,一个请求的通信与下一个请求的计算重叠,通过细粒度流水线减少了token间的延迟。
概括一下,
图2:Helix通过细粒度流水线技术加速大模型的响应
引入Helix带来的高并发和低延迟
根据英伟达官网给出的计算,利用DeepSeek-R1 671B模型,在给定延迟下,当并发的客户数增大时,Helix相比传统方法体现出优势。
据业内人士透露,
而到了图中第一个箭头标注的点时,其单GPU产出的token数是传统方法的32倍,这意味着具备将并发客户数量提高高达32倍。
通常情况下,
图3:利用100万上下文长度的DeepSeek-R1,评估利用经过最新NVIDIA GB200 NVL72(Blackwell)在固定延迟下的并发能力
在低并发定义下,Helix具备通过减token与token间的最低延迟时间,来提高客户交互体验,如图3右下方的对比所示。
该研究的参与者St-Maurice指出「Helix正在重塑本站处理LLM交互和设计的手段。」
四库全闻消息:
他指出,Helix并行处理和优化的KV缓存分片正在为大模型呈现可扩展的显存外挂,这与开发者改进旧处理器(如奔腾)的手段高度相似。
从某种意义上讲,
该技术能允许大模型应用扩展其客户规模的同时,保证其迅速响应。
与其相反的是,
对于虚拟助手、法律机器人以及AI Copolit等应用,Helix的引入具备做到既处理大量工作负载,同时还保持低延迟响应能力。
很多人不知道,
Helix是否为画靶射箭的争论
容易被误解的是,
对于这项技术突破,西北人工智能咨询公司的首席执行官兼联合创始人Wyatt Mayham表示:「英伟达的数百万个token的上下文窗口是一项令人印象深刻的工程里程碑,但对于大多数公司来说,它是一个寻找疑问的处理方案,它处理了现有模型如长上下文推理和二次扩展等真实限制,但技术可能性和实际实用性之间存在差距。」
从某种意义上讲,
Mayham承认Helix在特定领域中很有用,例如需要完整文档保真度的合规性强的行业,或医疗系统一次性分析患者终身病史。
总的来说,
但这只是部分特例,大多数组织最好是构建更智能的流水线,而不是购买helix所需的Blackwell架构下的GB200机架。
有分析指出,
且通常情况下,检索增强生成(RAG)系统能够在百万个token的范围内,表现的比将上下文长度提升到100k更好。
大家常常忽略的是,
而Info-Tech研究集团技术顾问Justin St-Maurice则指出:在当今世界,为人类生成百科全书大小的回答并不是胜利。
然而,
相反,关键在于使大模型的输出对其他人工智能相关且可用。
据报道,
这种能力可能成为未来智能体进步的推手。
有了当大模型的输出能具有对应的认知框架,智能体具备保持更丰富的内部状态,参与更繁琐、更长时间的聊天,并执行更深入文档分析。
更重要的是,
St-Maurice指出:Helix带来的长上下文窗口,能够适配context engineer(上下文工程)在庞大的上下文窗口中管理和优化信息,以最大限度地提高智能体的有效性和可靠性。
四库全闻讯新闻:
凭借在扩展的上下文窗口中处理和交换更大数据量的能力,AI智能体具备以以前不切实际的手段沟通和协作,从而改变多智能体应用的设计框架。
不可忽视的是,
参考资料:
从某种意义上讲,
https://research.nvidia.com/publication/2025-07_helix-parallelism-rethinking-sharding-strategies-interactive-multi-million
有分析指出,
https://www.computerworld.com/article/4019170/new-nvidia-technology-provides-instant-answers-to-encyclopedic-length-questions.html
https://d1qx31qr3h6wln.cloudfront.net/publications/Helix_0.pdf
据业内人士透露,
https://interestingengineering.com/innovation/nvidia-helix-breakthrough-long-context-ai?utm_source=chatgpt.com
容易被误解的是,
https://developer.nvidia.com/blog/asking-an-encyclopedia-sized-question-how-to-make-the-world-smarter-with-multi-million-token-real-time-inference/?utm_source=chatgpt.com