最近看到一些公司在找人,把会用Hadoop认定是有大数据处理能力,
甚至会看研究所做的题目是不是Hadoop?
例如这篇
https://goo.gl/0cTk60
还有这篇
https://www.facebook.com/thank78/posts/630689647078714
但我对这种现象感到疑惑。
我认知的处理Big Data核心能力,是一些资料探勘、机器学习相关的算法,
以及相关应用(例如挖掘特定领域的资讯)。
Hadoop是一个分散档案系统的软件工具,或许符合"Big Data"字面上的意义,
但我们都知道data无用,information才有用,
因此这个时代谈的"Big Data"大多含有"挖掘、自动智慧"等意义,
而不是单纯的资料管理。
更何况论文研究出来的知识,不应该绑定在特定工具。
或许研究者本人只熟悉Hadoop或某种套装软件,这难免的。
但研究贡献、他人欲重现研究过程等,都不应该绑死在特定软件工具上。
或许因为我非资讯本科系、也不熟数据库,
请问,是不是我对 Hadoop 或 Big Data 有什么误解?
为什么 Big Data 的核心能力会是某种工具,而不是方法?