PTT
Submit
Submit
选择语言
正體中文
简体中文
PTT
Marginalman
attention residual
楼主:
sustainer123
(caster)
2026-03-23 18:21:57
最近很红的文章
瞄几眼想说什么傻逼玩意
何恺明的东西你也想动手脚
加注意力复杂度直接炸掉
看完后确实是好文章
实验扎实 论点清晰 full attention residual版本的操作也不复杂
而且时间复杂度确实也不是大问题
block就复杂些
但我不像这篇文章要用在LLM
block是为了LLM的工程实现的搞的东西
cv用full应该也没太大负担
下午搞了full版 希望明天有GPU 没有我就
继续阅读
星街: 会留名字给你咖挂
FAQayame
[嘟嘟脸] 吃拉面
a1234555
[姆咪] :Vibe coding悲歌
umi0912umi
[瓦特] 星街就这
Bronya
Re: [闲聊] 中国女权:想体验900年前女人的生活
yggyygy
[闲聊] 晚餐
hushaoan88
Re: [姆咪] 有点疲累
PogChampLUL
[姆咪] 中冈她
kevinlee2001
[闲聊] 中国女权:想体验900年前女人的生活
DarkHolbach
[瓦特] 你虹亚人、千草、羊、剑萝、社长、vv
HGK
Links
booklink
Contact Us: admin [ a t ] ucptt.com