※ 引述 《sustainer123 (温水佳树的兄长大人)》 之铭言:
:
: 满有趣的一篇文章
:
: 考虑多变量维度
:
: 还考虑了多尺度混合
:
: 算借鉴swin transformer吧
:
: 但我的问题要考虑变量/时间/空间
:
: 三种关系照他逻辑多加一层
:
: 感觉参数量跟时间都会爆炸高
:
: 好麻烦
:
: 先试试原版好了
:
: 搓一个跑看看再说
:
魔改完成 参数量感觉会爆炸
但先试试:(((
明天看看能不能跑通
大致上就decoder改了一些
改接upernet
encoder就没差
毕竟NLP的transformer跟vit本质上没差
而且model dim应该能设更小
这样某方面来说应该能压参数量
反正跑看看