news 2026/5/1 7:58:35

Titans + MIRAS:让AI拥有长期记忆能力

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Titans + MIRAS:让AI拥有长期记忆能力

我们推出了Titans架构和MIRAS框架,这些技术能让AI模型在运行时更新核心记忆,从而实现更快的处理速度并处理大规模上下文内容。

Transformer架构通过引入注意力机制彻底改变了序列建模,该机制允许模型回顾早期输入以优先处理相关的输入数据。然而,计算成本随序列长度急剧增加,这限制了基于Transformer的模型扩展到极长上下文的能力,比如完整文档理解或基因组分析所需的上下文。

研究社区探索了各种解决方案,例如高效的线性循环神经网络(RNN)和状态空间模型(SSM),如Mamba-2。这些模型通过将上下文压缩到固定大小来提供快速的线性扩展。然而,这种固定大小的压缩无法充分捕获超长序列中的丰富信息。

在两篇新论文Titans和MIRAS中,我们介绍了一种架构和理论蓝图,它结合了RNN的速度和Transformer的准确性。Titans是具体的架构(工具),MIRAS是推广这些方法的理论框架(蓝图)。它们共同推进了测试时记忆化的概念,即AI模型在运行时通过融入更强大的"惊喜"指标(即意外信息片段)来维持长期记忆的能力,无需专门的离线重训练。

MIRAS框架以Titans为例,引入了向实时适应的重要转变。该架构不是将信息压缩到静态状态,而是在数据流入时主动学习和更新自身参数。这一关键机制使模型能够即时将新的具体细节纳入其核心知识。

有效的学习系统需要独特而相互连接的记忆模块

有效的学习系统需要独特而相互连接的记忆模块,这反映了人类大脑对短期和长期记忆的分离。

虽然注意力机制在精确的短期记忆方面表现出色,但Titans引入了一个新颖的神经长期记忆模块,与传统RNN中的固定大小向量或矩阵记忆不同,它作为一个深度神经网络(具体来说,是一个多层感知器)。这个记忆模块提供了显著更高的表达能力,允许模型在不丢失重要上下文的情况下总结大量信息。模型不仅仅是做笔记,而是理解和综合整个故事。

至关重要的是,Titans不只是被动地存储数据。它主动学习如何识别和保留连接整个输入中Token的重要关系和概念主题。这种能力的一个关键方面是我们称之为"惊喜指标"的东西。在人类心理学中,我们知道我们会快速且容易地忘记常规、预期的事件,但会记住打破模式的事情——意外的、令人惊讶的或高度情感化的事件。

在Titans的上下文中,"惊喜指标"是模型检测当前记忆的内容与新输入告诉它的内容之间的巨大差异。

模型使用这个内部错误信号(梯度)作为数学上等价于说"这是意外的和重要的!"这允许Titans架构仅用最新颖和打破上下文的信息选择性地更新其长期记忆,保持整个过程的快速和高效。

Titans通过融入两个关键元素来完善这一机制:

序列建模中的每一个重大突破——从现代Transformer到新的超高速线性RNN——本质上都是同一回事:一个高度复杂的联想记忆模块。

相应地,MIRAS的独特性和实用性在于它看待AI建模的方式。它不是看到多样化的架构,而是看到解决同一问题的不同方法:有效地将新信息与旧记忆结合,而不让基本概念被遗忘。

MIRAS通过四个关键设计选择定义序列模型:

几乎所有成功的现有序列模型都依赖均方误差(MSE)或点积相似性来实现其偏差和保留。这种依赖可能使模型对异常值敏感,并限制其表达能力。

MIRAS通过提供一个生成框架来超越这种限制,探索一个由优化和统计学文献指导的更丰富的设计空间。这允许创建具有非欧几里得目标和正则化的新颖架构。

使用MIRAS,我们创建了三个具体的无注意力模型:

我们严格比较了Titans以及MIRAS变体(YAAD、MONETA、MEMORA)与领先架构,包括Transformer++、Mamba-2和Gated DeltaNet。我们通过在基因组建模(DNA)和时间序列预测上测试Titans,进一步验证了其多功能性,证明该架构在文本之外有效地泛化。

在标准语言建模数据集(C4、WikiText)和零样本推理任务(HellaSwag、PIQA)中,我们的模型始终表现出更高的准确性和困惑度(衡量大语言模型在查看一段文本时的惊讶程度)。

消融研究清楚地表明,记忆架构的深度至关重要。当比较相同大小但不同深度的长期记忆模块时,具有更深记忆的模块在语言建模中始终实现更低的困惑度。此外,它们表现出更好的扩展特性,随着序列长度显著增加时保持性能。

在语言建模和常识推理任务中,Titans架构优于最先进的线性循环模型(如Mamba-2和Gated DeltaNet)和可比较大小的Transformer++基线。新颖的MIRAS变体(MONETA、YAAD、MEMORA)与这些基线相比也实现了改进的性能,验证了探索鲁棒的非MSE优化机制的益处。重要的是,这些模型保持了高效的可并行化训练和快速的线性推理速度。

这些新架构最显著的优势是它们处理超长上下文的能力。这在BABILong基准测试中得到了突出体现,该任务需要对分布在超长文档中的事实进行推理。在这种具有挑战性的设置中,Titans优于所有基线,包括像GPT-4这样的超大型模型,尽管参数要少得多。Titans进一步证明了有效扩展到超过200万Token的上下文窗口大小的能力。

Titans和MIRAS框架的引入标志着序列建模的重大进步。通过采用深度神经网络作为学会在数据流入时记忆的记忆模块,这些方法克服了固定大小循环状态的限制。此外,MIRAS提供了强大的理论统一,揭示了在线优化、联想记忆和架构设计之间的联系。通过超越标准的欧几里得范式,这项研究为新一代序列模型打开了大门,这些模型结合了RNN的效率和长上下文AI时代所需的表达能力。

Q&A

Q1:Titans是什么,它有什么特别的能力?

A:Titans是一种新型AI架构,能够在运行时更新核心记忆,实现更快的处理速度并处理大规模上下文内容。它的特别能力是结合了RNN的速度和Transformer的准确性,可以有效处理超长上下文,例如完整文档理解或基因组分析。

Q2:什么是"惊喜指标",它在Titans中如何工作?

A:"惊喜指标"是Titans检测当前记忆内容与新输入信息之间巨大差异的机制。类似人类容易忘记常规事件但记住意外事件的特点,Titans使用这个内部错误信号来识别"意外且重要"的信息,只用最新颖和打破上下文的信息来更新长期记忆。

Q3:Titans相比传统模型有什么优势?

A:Titans最显著的优势是处理超长上下文的能力。在BABILong基准测试中,Titans优于所有基线,包括GPT-4等超大型模型,尽管参数更少。它能有效扩展到超过200万Token的上下文窗口,同时保持高效的可并行化训练和快速的线性推理速度。


版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 15:32:42

YOLOv8技术支持响应机制:工单系统接入说明

YOLOv8技术支持响应机制:工单系统接入说明 在AI模型部署日益频繁的今天,一个常见的技术困境反复上演:用户提交“训练失败”或“推理报错”的工单,支持团队却无法复现问题。排查过程往往陷入僵局——是环境依赖不一致?C…

作者头像 李华
网站建设 2026/5/1 7:58:08

别卷手工测试了!这6个大模型应用场景让你身价翻倍

关注 霍格沃兹测试学院公众号,回复「资料」, 领取人工智能测试开发技术合集在数字化转型浪潮下,软件测试领域正经历着一场由大语言模型技术驱动的深刻变革。这场变革不仅仅是技术工具的迭代更新,更是对传统测试方法论和工作流程的系统性重构。…

作者头像 李华
网站建设 2026/5/1 7:58:30

YOLOv8术语表解释:新手入门必备词汇手册

YOLOv8术语表解释:新手入门必备词汇手册 在智能安防摄像头里“看到”可疑人物,在自动驾驶车辆中实时识别行人与车辆,或是在工业产线上自动检测缺陷零件——这些看似科幻的场景,背后都离不开一个关键技术:目标检测。而在…

作者头像 李华
网站建设 2026/4/10 0:12:20

Node.js Top-Level Await实战简化异步代码

💓 博客主页:瑕疵的CSDN主页 📝 Gitee主页:瑕疵的gitee主页 ⏩ 文章专栏:《热点资讯》 Node.js Top-Level Await实战:让异步代码瞬间清爽 目录 Node.js Top-Level Await实战:让异步代码瞬间清爽…

作者头像 李华
网站建设 2026/4/27 11:18:09

数据分析不用学 SPSS!虎贲等考 AI 让科研数据 10 分钟出专业结论

写论文、做科研时,你是否也被数据分析 “卡脖子”?花几周收集的调研数据,用 SPSS 半天调不出回归结果;Excel 做的统计分析被导师批 “不严谨”;看不懂复杂的检验原理,连 “信效度分析” 都要查半天教程&…

作者头像 李华
网站建设 2026/4/29 19:31:49

PHP工程师必看:3种高并发场景下的区块链数据对接方案

第一章:PHP 区块链数据接口对接概述随着区块链技术的广泛应用,越来越多的企业和开发者需要将传统后端系统与区块链网络进行数据交互。PHP 作为一种广泛应用于 Web 开发的服务器端脚本语言,虽然并非原生支持区块链协议,但通过调用公…

作者头像 李华