下面哪些是spark比Mapreduce计算快的原因()。
A.基于内存的计算;
B.基于DAG的调度框架;
C.基于Lineage的容错机制;
D.基于分布式计算的框架;
A.基于内存的计算;
B.基于DAG的调度框架;
C.基于Lineage的容错机制;
D.基于分布式计算的框架;
A、Scala是Spark的主要编程语言,但Spark还支持Java、Python、R作为编程语言
B、Spark提供了内存计算,可将中间结果放到内存中,对于迭代运算效率更高
C、Spark基于DAG的任务调度执行机制,要优于Hadoop MapReduce的迭代执行机制
D、Spark的计算模式也属于MapReduce,但编程模型比Hadoop MapReduce更灵活
A.Spark只是取代了Hadoop生态系统中的计算框架MapReduce,而Hadoop中的其他组件依然在企业大数据系统中发挥着重要的作用
D.[D]越来越多的企业放弃MapReduce,转而使用Spark开发企业应用
A.[A]Spark的计算模式也属于MapReduce,但不局限于Map和Reduce操作,还提供了多种数据集操作类型,编程模型比MapReduce更灵活
B.[B]Spark提供了内存计算,中间结果直接放到内存中,带来了更高的迭代运算效率
C.[C]Spark同时提供了存储功能,而MapReduce不支持存储
D.[D]Spark基于DAG的任务调度执行机制,要优于MapReduce的迭代执行机制
A.它们都是支持大数据处理的分布式并行计算框架。
B.它们都可以把大数据转化为小数据,然后分布在集群进行并行分析。
C.它们对机器学习算法的处理方法是一样的。
D.Haoop支持模型并行,Spark支持数据并行。
A、k-均值聚类需要大量的迭代,因此不能使用分布式计算。
B、k-均值的分布式实现需要MapReduce的各个数据节点共享假设的聚类中心。
C、k-均值算法的大量迭代运算在分布式环境下的效率一般更高。
D、k-均值在Spark内存计算框架下运行要比Hadoop MapReduce下运行要快的多。
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!