以下关于Hive SQL基本操作描述正确的是:()。
A.加载数据到Hive时数据必须是HDFS的一个路径
B.创建外部表必须要指定location信息
C.创建外部表使用external关键字,创建普通表需要指定internal关键字
D.创建表时可以指定列分隔符
A.加载数据到Hive时数据必须是HDFS的一个路径
B.创建外部表必须要指定location信息
C.创建外部表使用external关键字,创建普通表需要指定internal关键字
D.创建表时可以指定列分隔符
A.加载数据到Hive时数据必须是HDFS的一个路径
B.创建外部表必须要指定location信息
C.创建外部表使用external关键字,创建普通表需要指定internal关键字
D.创建表时可以指定列分隔符
A.创建外部表必须要指定location信息
B.创建外部表使用external 关键字.创建普通表需要指定internal关键字
C.加载数据到Hive时源数据必须是HDFS的一个路径
D.创建表时可以指定列分隔符
A.一旦表建好,不可再修改表名
B.一旦表建好,不可再增加新列
C.创建外部表时需要制定externa关键字
D.一旦表创建好,不可再修改列名
A.一旦表建好.不可再修改表名
B.一旦表建好.不可再增加新列
C.创建外部表时需要制定external关键字
D.一旦表创建好.不可再修改列名
A.Spark SQL 运行开发人员之间处理 RDD
B.Spark SQL 可以直接查询 hive 中的数据
C.Spark SQL 运行开发人员之间使用 SQL 进行复制的数据分析
D.Spark SQL 的性能上,和 Hive 类似
A.创建外部表时需要指定external关键字
B.一旦表创建好,不可再修改表名
C.一旦表创建好,不可再修改列名
D.一旦表创建好,不可再增加新列
A.Shark提供了类似Pig的功能
B.Shark把SQL语句转换成MapReduce作业
C.Shark重用了Hive中的HiveQL解析、逻辑执行计划翻译、执行计划优化等逻辑
D.Shark的性能比Hive差很多
A.在Shark原有的架构上重写了逻辑执行计划的优化部分,解决了Shark存在的问题
B.Spark SQL在Hive兼容层面仅依赖HiveQL解析和Hive元数据
C.Spark SQL执行计划生成和优化都由Catalyst(函数式关系查询优化框架)负责
D.Spark SQL执行计划生成和优化需要依赖Hive来完成
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!