大数据挖掘选用Spark框架的原因有()
A.MR框架过多的磁盘操作,缺乏对分布式内存的支持
B.MR框架无法高效地支持迭代式计算
C.MR框架无法高效地支持交互式数据挖掘任务
D.MR框架无法进行分析性计算任务
- · 有3位网友选择 AC,占比33.33%
- · 有2位网友选择 BD,占比22.22%
- · 有2位网友选择 C,占比22.22%
- · 有1位网友选择 ABD,占比11.11%
- · 有1位网友选择 BC,占比11.11%
A.MR框架过多的磁盘操作,缺乏对分布式内存的支持
B.MR框架无法高效地支持迭代式计算
C.MR框架无法高效地支持交互式数据挖掘任务
D.MR框架无法进行分析性计算任务
A.它们都是支持大数据处理的分布式并行计算框架。
B.它们都可以把大数据转化为小数据,然后分布在集群进行并行分析。
C.它们对机器学习算法的处理方法是一样的。
D.Haoop支持模型并行,Spark支持数据并行。
A.Spark是基于内存的迭代计算框架,适用于需要多次操作特定数据集的应用场合
B.Spark不适用那种异步细粒度更新状态的应用
C.Spark基于非实时数据流的数据处理
D.Spark的适用面比较广泛且比较通用
A.Spark 将中间结果存储在内存中
B.Spark 不是一个分布式计算机框架
C.Spark 支持 Java 语言
D.Spark 需要基于 Hadoop 运行
A.RDD具有血统机制(Lineage)
B.RDD默认存储在磁盘
C.RDD是一个只读的,可分区的分布式数据集
D.RDD是Spark对基础数据的抽象
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!