“模型更大、数据更多、算力更强”这套线性扩展逻辑,在GPT-3到GPT-4 阶段被反复验证,也直接催生了以GPU 为核心的全球算力竞赛。 但进入2025年后,行业逐渐意识到一个现实问题:算力已不再是通过简单“堆芯片”就能持续放大的变量。万亿参数模型、MoE 架构、Agentic AI、物理 AI 的快速演进,带来的不只是FLOPS 需求的指数级增长,更引发了通信、内存、调度、能耗与系统协同层面的失 ...
刚刚的CES 2026上,老黄带着Vera Rubin超算架构向全世界走来!Rubin的推理性能比Blackwell提升了5倍,训练性能提升3.5倍,成本降低10倍,已经大规模投产,将于2026下半年面世。没有新显卡的昨夜,老黄表示all in AI ...
NVIDIA给出的答案是NVLink Spine——一个完全基于铜缆的机架背板互连系统。在Rubin架构中,NVIDIA利用高度定制的400 Gbps SerDes技术,让电信号能够直接驱动铜缆从机架顶部贯穿到底部。
Rubin在CES的提前亮相,也引发了外界对英伟达产品发布节奏变化的关注。对此,英伟达高管回应称,目前构成Vera Rubin平台的六颗芯片已经全部到位,相关系统已在运行真实应用负载,并取得了积极结果。
Rubin在CES的提前亮相,也引发了外界对英伟达产品发布节奏变化的关注。对此,英伟达高管回应称,目前构成Vera Rubin平台的六颗芯片已经全部到位,相关系统已在运行真实应用负载,并取得了积极结果。
今日凌晨,英伟达CEO黄仁勋身着标志性皮衣亮相CES2026主舞台,带来一场聚焦AI推理时代的重磅演讲。黄仁勋的演讲不是一次单纯的技术发布。演讲中贯穿的 “AI 工业化” 主线、物理 AI 的场景落地路径,以及全栈生态的构建逻辑,清晰揭示了行业从 ...
2025年CES, 英伟达 展示了量产的Blackwell芯片和完整的物理AI技术栈。在会上,黄仁勋强调,一个“物理AI时代”正在开启。他描绘了一个充满想象力的未来:自动驾驶汽车具备推理能力, 机器人 能够理解并思考,AI ...
它将单GPU的互连带宽提升至3.6 TB/s(双向)。每颗NVLink 6交换芯片提供28 TB/s的带宽,而每个Vera Rubin NVL72机架配备9颗这样的交换芯片,总规模内带宽达到260 TB/s。
NVIDIA AI Blueprint for Video Search and ...
就在昨天,新加坡国立大学、中国人民大学、复旦大学等多所顶尖机构联合发布了一篇AI Agent 记忆(Memory)综述。 当前的 LLM 应用开发正面临严重的“记忆碎片化”问题:我们有用于短期记忆的 KV Cache,有用于知识检索的 RAG,还有用于长期交互的 MemGPT 类架构,但缺乏统一的理论指导。这篇综述不仅是对现有工作的盘点,更是一份解决“灾难性遗忘”与“上下文溢出”的系统方案。它详细 ...
【导读】视频生成模型总是「记性不好」?生成几秒钟后物体就变形、背景就穿帮?北大、中大等机构联合发布EgoLCD,借鉴人类「长短时记忆」机制,首创稀疏KV缓存+LoRA动态适应架构,彻底解决长视频「内容漂移」难题,在EgoVid-5M基准上刷新SOTA ...