下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().
A.FSDataInputStream扩展了DataInputStream以支持随机读
B.为实现细粒度并行,输入分片应该越小越好
C.一台机器可能被指派从输入文件的任意位置开始处理一个分片
D.输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割
A.FSDataInputStream扩展了DataInputStream以支持随机读
B.为实现细粒度并行,输入分片应该越小越好
C.一台机器可能被指派从输入文件的任意位置开始处理一个分片
D.输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割
A.FSDataInputStream扩展了DataInputStream以支持随机读
B.为实现细粒度并行,输入分片(Input Split)应该越小越好
C.一台机器可能被指派从输入文件的任意位置开始处理一个分片
D.输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割
B.为实现细粒度并行,输入分片(InputSplit)应该越小越好
C.一台机器可能被指派从输入文件的任意位置开始处理一个分片
D.输入分片是一种记录的逻辑划分,而数据块是对输入数据的物理分割
A.Hive最终将数据存储在HDFS中
B.Hive是Hadoop平台的数据仓库工具
C.HQL可以通过MapReduce执行任务
D.Hive对HBase有强依赖
A.HBase利用MapReduce来处理HBase中的海量数据,实现高性能计算
B.利用Zookeeper作为协同服务,实现稳定服务和失败恢复
C.使用HDFS作为高可靠的底层存储,利用廉价集群提供海量数据存储能力
D.利用Pig和Hive为HBase提供了高层语言支持
E.使用Sqoop为HBase提供了高效便捷的RDBMS数据导入功能
A.Hive最终将数据存储在HDFS中
B.HiveSQL其本质是执行MapReduce任务
C.Hive是Hadoop平台的数据仓库工具
D.Hvie对HBase有强依赖
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!