搜索优化
English
网页
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
时间不限
过去 1 小时
过去 24 小时
过去 7 天
过去 30 天
按相关度排序
按时间排序
红板报 on MSN
11 小时
谷歌公布 Titans 系列 AI 模型架构:融合长短期记忆与注意力机制 ...
品玩1月21日讯,谷歌研究院发文,公布了“Titans”系列模型架构,相应模型架构最大的特点是采用仿生设计,结合了短期记忆、长期记忆和注意力机制,支持超过 200 万个 Token 的上下文长度,目前相关论文已发布在 arXiv 上,谷歌计划未来将 ...
16 小时
on MSN
谷歌公布 Titans 系列模型架构:融合长短期记忆与注意力机制
IT之家 1 月 20 日消息,谷歌研究院发文,公布了“Titans”系列模型架构,相应模型架构最大的特点是采用“仿生设计”,结合了短期记忆、长期记忆和注意力机制,支持超过 200 万个 Token 的上下文长度,目前相关论文已发布在 arXiv 上 ...
17 小时
近8年后,谷歌Transformer继任者「Titans」来了,上下文记忆瓶颈被打破
在谈到推出 Titans 的初衷时,论文一作 Ali Behrouz 表示,「注意力机制一直是大多数 LLM 进展的重要组成部分,不过它无法扩展到长上下文。因此,Titans ...
2 小时
谷歌发布Titans:仿生设计突破200万Token上下文长度
据知名爆料人士@数码闲聊站透露,vivoX200S系列将只包含一款标准版,没有传闻中的X200SPro版本。vivoX200S定位为全能直屏手机,预计在X200标准版的基础上进行小幅度升级,外观设计保持不变,价格可能维持现状。vivoX200Prom ...
10 小时
谷歌发布Titans模型:仿生设计、支持200万长度上下文
1月20日,谷歌研究院公布了一种名为“Titans”的新型模型架构。这种新模型架构的最大特点是采用了“仿生设计”,结合了短期记忆、长期记忆和注意力机制。相比业界流行的Transformer模型,Titans支持超过200万个Token ...
腾讯网
4 天
谷歌推出Transformer架构的继任者Titans:训练代码也会公开
谷歌发布Transformer架构的继任者Titans: 提出了一种新的神经长期记忆模块,它可以学习记忆历史背景,并帮助注意力在利用过去长期信息的同时关注当前背景。这种神经记忆具有快速并行训练的优势,同时还能保持快速推理 ...
腾讯网
6 天
谷歌提出创新神经记忆架构,突破Transformer长上下文限制
近日,谷歌研究院的研究团队在这一领域取得了重要突破,Ali Behrouz、钟沛林(Peilin Zhong)和 Vahab Mirrokni 在预印本平台 arXiv 发表论文,提出了一种名为 Titans ...
腾讯网
5 天
谷歌新架构一战成名,打破Transformer记忆瓶颈,姚班校友钟沛林新作
文章转载于量子位(QbitAI)作者:梦晨 想挑战 Transformer 的新架构有很多,来自谷歌的“正统”继承者 Titan 架构更受关注。英伟达把测试时间计算(Test-time Computing)称为大模型的第三个 Scaling ...
6 天
谷歌新架构终结Transformer,长序列处理王者诞生?清华姚班校友新作
Peilin Zhong现为谷歌纽约市算法与优化团队的研究科学家,该团队由Vahab Mirrokni领导。他在哥伦比亚大学获得博士学位(导师为Alex Andoni、Cliff Stein和Mihalis ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈