hadoop是怎么存储大数据的?
hadoop本身就是一个分布式框架。在hadoop框架下,我们需要配合hbase、hive等工具进行大数据计算。如果你想了解更多关于hdfs,map/reduce,任务机制等等。如果你想分析,你需要考虑其他的分析工具。大数据只有通过分析才有价值。用于分析大数据的工具主要包括开源和商业生态圈。开源大数据生态系统:1。hadoophdfs、hadoopmapreduce、hbase、hive逐渐诞生,早期的hadoop生态系统逐渐形成。
2.hypertable是另一种选择。它存在于hadoop生态系统之外,但也有一些用户。
3.nosql、membase、mongodb业务大数据生态系统:1。一体式数据库/数据仓库:ibmpuredata(netezza)、oracleexadata、saphana等2。数据仓库:teradata、asterdata、emcgreenplum、hpvertica等3。数据集市:中国的qlikview、tableau和永红数据集市。
原文标题:hadoop是做什么的 hadoop是怎么存储大数据的?,如若转载,请注明出处:https://www.saibowen.com/tougao/22260.html
免责声明:此资讯系转载自合作媒体或互联网其它网站,「赛伯温」登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,文章内容仅供参考。