学习hadoop需要哪些基础
这篇文章主要介绍学习hadoop需要哪些基础,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
所谓的难不会,会不难,必然也是建立你现在的基础之上的。假定你连基础的计算机基础都没有,那可能真的就是"难不会"了。如果你是有一个良好的计算机基础的,比如,虚拟机的配置你会、拥有JAVA基础和Linux操作基础,那学习hadoop对你来可能就是"会不难"哦!
当你看了很多介绍"学习hadoop需要什么基础"的文章后,你一定会得出一个结论,那就是学习hadoop所必须的三个基础技能:JAVA基础、Linux基础、虚拟机基础(上面已经说过了)。所有的文章在说完这个三个基础之后,好像在告诉我们所有人,你只要有这个三个基础就一定能够学好hadoop,从此走上人生巅峰······其实,也不尽然,只有当你真正接触了hadoop,你才会发现真正的问题所在。
接触过hadoop的人都知道,单独搭建hadoo里每个组建都需要运行环境、修改配置文件、测试等过程。如果仅仅是安装一下运行环境就行了,那你就大错特错了,几乎每个组件都是坑,这些坑几乎是不可能让初学者有一个愉快的学习过程的。Hadoop虽然起源于国外,但国内发行版本也蛮多,但是都没有去解决环境搭建的问题。如果说他们没有关注到运行环境搭建繁琐这样的问题话,我肯定是不相信的。真的不知道是他们现在的技术解决不了这个问题,还是不想去花费时间去解决?
今年3月初的时候,一个做程序开发的朋友给了一个国产发行版DKHadoop,是大快搜索开源的发行版hadoop。这款hadoop版本终于解决了运行环境搭建繁琐的问题,它将开源社区里多种常用的组件包括:HDFS,Hbase,Storm,Spark,Flume,Kafka,Mahout,ES等都集成到一个平台里,只需简单的一键安装就能完成,需要调用的时候直接调用即可,终于让我觉得不用在像以前拿样再去安装调试等等。
所以,我觉得学习hadoop需要的不仅仅是JAVA、虚拟机、Linux这三个方面的基础,选择的hadoop版本也是很重要。我们学习hadoop的重点是想要去开发一些东西,而不是为了学习运行环境的安装,这样会让人觉得有点本末倒置!
以上是"学习hadoop需要哪些基础"这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注行业资讯频道!