www.fltk.net > 学习hADoop,spArk需要学习spring等吗

学习hADoop,spArk需要学习spring等吗

不需要,你学习使用Git的时候也没让你会用SVN,甚至学习的比有SVN基础的更快!

不一定,如果你不用Hadoop的HDFS和YARN,完全可以在学习Spark的时候从本地载入数据,部署用standlone模式。Spark替代的是Hadoop中的MapReduce编程范式,不包括存储和资源管理模块。 Spark的算子很多,写程序来看比Hadoop MapReduce要灵活很多,...

当然,起码hadoop框架内的mapreduce(分布式计算模块)和HDFS(分布式文件存储系统)你要学习,MR能够帮助你深入理解分布式的计算思维,HDFS则是大数据领域内最为常用,最为常见的文件存储系统,Spark也同样要依托于HDFS进行很多的计算,另外还...

不一定,但是最好了解一下hadoop最核心的hdfs和mapreduce的思想。

不一定,如果你不用Hadoop的HDFS和YARN,完全可以在学习Spark的时候从本地载入数据,部署用standlone模式。 Spark替代的是Hadoop中的MapReduce编程范式,不包括存储和资源管理模块。

理论上来讲,学习spark和storm是不需要学习hadoop的。spark和storm都是独立的开源项目,在完整性上是self-constrained的,完全可以独立学习。从循序渐进天津众 维UI设计

如果只是应用Hadoop/Spark进行数据分析,那么JavaSE只需要基本了解就行了,重点在于深入理解Hadoop/Spark各自的计算模型和实现原理,以及常见的数据分析方法和分布式算法。实际的分析工作,甚至可以不使用java,使用各自的streaming接口用任意语...

理论上来讲,学习spark和storm是不需要学习hadoop的。spark和storm都是独立的开源项目,在完整性上是self-constrained的,完全可以独立学习。从循序渐进的角度,还是可以了解一下hadoop的,以spark为例,理解了hadoop的mapreduce,知道它的缺陷...

不需要,Hadoop有hdfs,mapreduce,yarn三部分,spark相当于mapreduce是分布式计算框架,mapreduce需要自己编写map和reduce很麻烦,所以有了spark,不用自己编写。

hadoop和spark是个生态互补,各有特点和应用场景。学习spark最好有一些hadoop的知识,因为spark使用了hadoop生态中好多组件。hadoop已经发展为当前大数据标准结合对比学习效果会更好,你可以专注spark的研究和学习,但一点不懂hadoop是不可能的...

网站地图

All rights reserved Powered by www.fltk.net

copyright ©right 2010-2021。
www.fltk.net内容来自网络,如有侵犯请联系客服。zhit325@qq.com