🏠 网站首页
💎 中创网
💭 冒泡网
👑 福源网
🆓 免费项目
📰 资讯中心
❖ 提示词区
❖ 行业动态
登录
注册
搜索
注意力机制
行业动态
Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强
mba架构,使长文本推理速度提升3倍,同时还能保持高性能,开源版本包括8B和56B尺寸。训练过程采用
2025-04-20
50
行业动态
刚刚,ICLR 2025时间检验奖颁给Adam之父!Bengio「注意力机制」摘亚军
ICLR 2025时间检验奖揭晓,Adam优化器和注意力机制分别由Jimmy Ba、Yoshua Bengio领衔的两篇2015年论文摘得冠军与亚军。Adam让大模型训练更快更稳;注意力机制为Transformer奠定基础并广泛应用于各类AI模型。
2025-04-15
14
在线客服
升级VIP
繁简切换
返回顶部
没有账号?
注册
忘记密码?
已有账号?
登录