研究人员提出的递归语言模型(Recursive Language Models, RLMs)通过引入Python交互环境,让模型学会写代码去分块读取、检索并递归调用自身处理信息,成功在千万级Token的超长文本任务中实现了性能与成本的双重突破。
传统基础模型在S-NIAH单针大海捞针等简单检索任务中尚能维持表现,但在信息密度更高的复杂任务中,其推理性能随输入长度增加而下降。相比之下,RLM在输入长度超过特定阈值区间后,依然保持得分稳定性。
2025年的最后一天, MIT CSAIL提交了一份具有分量的工作。当整个业界都在疯狂卷模型上下文窗口(Context ...
首席科学家马骁腾博士则毕业于清华大学自动化系,常年深耕强化学习领域。团队成员来自清华、MIT、CMU等高校,并有OpenAI、DeepMind、Seed 等顶尖实验室的工作经历。
这个研究中心叫 Mind Lab,是 Macaron AI 背后的实验室。1 月 1 日,他们发布了亮相以来的第一款产品—— Mind Lab Toolkit(MinT)。这是一个用 CPU ...
在 OpenAI 经历了 Sam Altman 被解雇又回归的内部动荡后,Mira 选择离开,并迅速组建了一支 “梦之队”—— 核心成员包括 OpenAI 前研究副总裁 John Schulman、Lilian Weng ...
“你背的不是望远镜,是火箭发射筒。”——几乎每个把8英寸牛反扛上山的天文爱好者,都听过这句调侃。80斤金属筒、1.2米镜筒、易碎的抛物面主镜,让“追星星”变成“撸铁现场”。现在,一盆PLA塑料粒子+一台千元级桌面打印机,就能把同规格仪器压到12斤,成 ...