Re: [请益] 组机器/深度学习机,自行编译TensorFlow?

楼主: geminitw (geminitw)   2018-01-04 16:38:28
不好意思自己回复一下, 后来还是接受电虾版网友的建议就去
买了 i5 8600K + 1080ti, 因为老鲁很怕吵,
还买了 FD R5 静音机壳 基本上大概 50K 出头 (16G RAM + 256G 545 SSD etc)
安装 linux Ubuntu 16/17 都会导致黑画面 (Google 一下, 有很多人反应类似问题)
修改啥 boot 参数对我都没有用 (反正看讯息就知道一直进入 isr routine)
后来直接装 Ubuntu 14, nVidia driver 似乎就直接装好了 (384.90版本)
好像是因为安装过程中网络现有给他接上, Ubuntu 自行寻找需要升级的软件/modules.
装玩完一阵子没问题后, 再用软件升级到 Ubuntu 16.
然后安装一拖拉库的 cuDNN/Cuda 8 (记得启动 tf
如果有出现找不到 cuda *.so.6 的, 就记得再去下载更新版的 cuDNN library)
总之费了一番功伕... 跑起来之后, 大概时间可以缩减为 1/8,
但是 若有使用 batch learning 的话, 时间就只有缩减 1/2.
(网络上查, 应该是 我在 batch learning 采用最没效率的 feed_dict 方式,
使用 input pipeline 可以增快)
以上野人献曝~
※ 引述《geminitw (geminitw)》之铭言:
: 若本文有不恰当之处, 请各位老司机告知, 小的自行删除~
: 因为最近硬件贵松松, 所以一直都用 MacBook Pro 先胡乱用一下 numpy/tf
: 不过后来发觉一般 直接用 pip install tensorflow (conda install tensorflow)
: 所安装的 tf 并没有用到 intel SSE/AVX 等等指令集,
: 网络上找了有人人编译好的支援指令集的版本 tf 后, 一轮 epoch 居然可以从
: 耗时三分多钟进步到 大约一分四十秒...
: 请问各位... 组好机子之后, 会直接就上 tf 开始跑训练, 还是会先花时间把tf
: 由原始码重新编译并且安装?
: 感谢各位的经验分享

Links booklink

Contact Us: admin [ a t ] ucptt.com