Re: pytorch大师请进

楼主: sustainer123 (caster)   2024-12-13 16:52:22
※ 引述 《sustainer123 (温水佳树的兄长大人)》 之铭言:
:  
: pytorch在处理多GPU运算有data parallel跟distributed data parallel
:  
: 我理解的前者是用multithread来解这问题 后者是multiprocess
:  
: 在Python中 multithread要应对GIL 大量运算问题使用multithread其实不如单线程
:  
: 所以data parallel实质单线程?
:  
: 另外我昨天搞了个distributed data parallel
:  
: 但accuracy比data parallel低超多 这为啥
:  
: 超参数都一样
:  
: pytorch好难 哇哇呜呜呜
:  
救我 dp跟ddp到底要怎么改超参数啊
我照chatgpt改 改完还是只上升一些
dp的准确率是0.7 ddp只有0.4
我照文档做 结果直接报error
还有我明明用8片GPU
结果只要用2片以上搞DDP
马上报error
dp明明就正常8片
头好痛
楼主: sustainer123 (caster)   2024-12-13 16:55:00
搞好了 我操完全不知道为什么但第二点还是没解决

Links booklink

Contact Us: admin [ a t ] ucptt.com