pytorch大师请进

楼主: sustainer123 (caster)   2024-12-13 07:12:21
pytorch在处理多GPU运算有data parallel跟distributed data parallel
我理解的前者是用multithread来解这问题 后者是multiprocess
在Python中 multithread要应对GIL 大量运算问题使用multithread其实不如单线程
所以data parallel实质单线程?
另外我昨天搞了个distributed data parallel
但accuracy比data parallel低超多 这为啥
超参数都一样
pytorch好难 哇哇呜呜呜
作者: argorok (s.green)   2024-12-13 07:22:00
一样就错了吧 batch size dp会是ddp的n倍n= gpu数量
楼主: sustainer123 (caster)   2024-12-13 07:25:00
R 合理 我再研究一下超参数要怎么改我想说正常train是0.7 搞ddp就剩0.3

Links booklink

Contact Us: admin [ a t ] ucptt.com