- 问题: 当你想要问问题时,请使用这个类别
[问题类型]:
效能咨询(我想让R 跑更快)
[软件熟悉度]:
使用者(已经有用R 做过不少作品)
[问题叙述]:
我目前使用write.csv输出data,再利用bigmemory输出des/bin档,
因为资料量有点多,总共超过100G,只能利用这样的方式,降低RAM的使用量
实际上是,有将近50种变量,每个大约2~3GB,
想问问看有没有其他的方法,目前可能会朝购买SSD的方向走
直接买1TB的SSD
PS :
做data mining,不知道重要变量,所以只好生一堆变量出来,
再用一些算法去降维
谢谢