[分享] 五个用R 处理大资料的方法

楼主: Wush978 (拒看低质媒体)   2013-12-02 21:57:48
[关键字]: R, big data
[出处]: http://blog.eoda.de/2013/11/27/five-ways-to-handle-big-data-in-r/
[重点摘要]:
1. 怎样的资料算大?
Hadley Wickham: 当处理资料的时间超过开发程式的时间
Jan Wijffels:
- < 10^6, R 可以容易的处理
- 10^6 ~ 10^9: 花点心思可以用R 处理
- > 10^9: Map Reduce, R + Hadoop
2. 如何处理大资料:
- 抽样
- 扩充硬件 (64-bit R 最多可以吃 8TB的RAM)
- 在硬盘上处理 (请参考套件ff和ffbase)
- 和C++ 或java整合 (请参考套件Rcpp或rJava)
- 更强大的interpreter (请参考pqR, Renjin, TERR和Oracle R)
作者: ww2308 (Liang)   2013-02-02 23:43:00
感谢
作者: gsuper (Logit(odds))   2013-02-03 13:43:00
8TB = =a 是我在用的1000倍
作者: lin15 ( )   2013-02-03 15:52:00
内存大速度有变快吗?
作者: clickhere (It's time to go home.)   2013-02-04 00:30:00
memory加大不会变快,只是能加载较多的资料,相对是变慢1000台8G就有8TB了
楼主: Wush978 (拒看低质媒体)   2013-02-04 02:00:00
会不会变快要case by case来看,因为每个程式的瓶颈都不同
作者: obarisk (OSWALT)   2013-02-04 21:16:00
重点应是一般来说R只能在内存运作啊
作者: laba1014   2013-02-05 03:16:00
作者: super101 (pursue of happiness)   2013-02-10 20:06:00
8T机器去那买
作者: clickhere (It's time to go home.)   2013-02-10 23:23:00
去amazon or google租,不用买.

Links booklink

Contact Us: admin [ a t ] ucptt.com