※ 引述 《sustainer123 (温水佳树的兄长大人)》 之铭言:
:
: pytorch在处理多GPU运算有data parallel跟distributed data parallel
:
: 我理解的前者是用multithread来解这问题 后者是multiprocess
:
: 在Python中 multithread要应对GIL 大量运算问题使用multithread其实不如单线程
:
: 所以data parallel实质单线程?
:
测了一下 我用fashion MNIST测
随便搓的CNN
DP跑100多秒 单线程49秒
Python多线程==仿赛