最近在做gan的专题
刚好手边有一张amd rx580
想说就来玩一下linux+rocm
不得不说 用amd显卡做深度学习 真的在搞自己XD
光装系统+驱动 就耗了快一天...
更别提后来又重装好几次XD
而重点是装好后跑training的效率
大概只有 gtx 1060的1/3...
这边没有详细数据 因为测完当下真的太生气
直接把linux砍了XD
我自己感觉是优化的问题
跑model的当下使用率很低
大家有兴趣可以玩玩看
但amd的深度学习之路离nv还是有蛮大一段距离
顺带一提 放弃rocm后
发现可以用 plaidml+ngraph+tensoflow
不过这也是一条不归路...
※ 引述《shaform (Shaform)》之铭言:
: 是说现在 AMD RoCm 的原始码已经被合并进 TensorFlow 官方的 codebase 里
: 虽然说还是被称为 community support build
: https://github.com/tensorflow/tensorflow#community-supported-builds
: 不过稳定性会不会已经有所提升了 (?)
: 不知版上有没有勇者尝试过呢
: 这年头做 Deep Learning 时 GPUs 用的越来越凶
: 真希望多点竞争赶快降价 XD
: ※ 引述《exeex (人非肾咸)》之铭言:
: : ※ 引述《geminitw (geminitw)》之铭言:
: : : 目前有在考虑购置第二台机器跑 DL/ML,
: : : 但因为... 2080ti 价格偏高, 也不知道哪个硬件版本稳定,
: : : 加上 7nm GG 盛名, 想说 GG 7nm 产能会被烂苹果影响,
: : : 干脆帮 AMD GPU 7nm 捧个场.
: : : 只是不知道 tensorflow based on AMD RoCm 目前跑起来的状况/效能如何?
: : : 请各位前辈指点迷津... 或者 推荐 2080ti 的版本也很可以
: : : (啥雪花? 金平? 太阳花? Turbo? 很乱... 我只是要跑 ML/DL)
: : : 感谢!
: : http://blog.gpueater.com/en/2018/04/23/00011_tech_cifar10_bench_on_tf13/
: : https://imgur.com/JMx1csU
: : 虽然这资料有点旧,单就效能论,是有资格和nvidia一战啦。
: : 但我觉得,要买vega来跑你还要加上debug的风险和时间。
: : 划不划算就看你认为这时间占多少成本。
: : 有的人就喜欢尝试研究,时间不占成本。那vega就划算
: : 有的人就喜欢稳,不喜欢花时间在这种没意义的除错上。那就nvidia划算。
: : 以下真香评论:
: : nvidia要保持领先也不是那么容易的事情
: : 若要问AMD的ROCm在做啥
: : 基本上就是把nvidia cuda的API照抄一遍
: : cuda有什么function我就改个名字,设计一个一毛一样的function
: : 然后再收录进我大ROCm的Library中
: : 最后再设计一个自动更名程式,把原本写给cuda的程式,自动改编为ROCm的程式
: : (https://github.com/ROCm-Developer-Tools/HIP )
: : 现在这个ROCm版的tensorflow,就是这样搞出来的。
: : 以上面的测试报告看来,Vega 12nm 的效能是有达到能与nvidia一战的水准
: : 就只差可靠度,以及软件支援速度(什么时候才会有官方pytorch??)。
: : 如果这年度Vega 7nm发售,且可靠度、支援速度能有所提升的话,那是挺值得买的。
: : 再搭配上AMD的HBCC内存技术,拿内存当显存用,直接让你突破16GB显存容量限制。
: : 这点简直令所有做AI的人垂涎三尺。
: : 但目前HBCC+ROCm应该还没成熟
: : (https://github.com/RadeonOpenCompute/ROCm/issues/525 )
: : 注:
: : 我是有一张Vega 56啦,之前买来挖矿,但目前拿来打电动比较实在。
: : 跑实验还是用1080ti