加载数据到Hive表,哪种方式不正确()
A.直接将本地路径的文件 load 到 Hive 表中
B.将 HDFS 上的文件 load 到 Hive 表中
C.Hive支持insert into单条记录的方法.所以可以直接在命令行插入单条记录
D.将其他表的结果集 insert into 到 Hive 表
- · 有5位网友选择 D,占比50%
- · 有3位网友选择 C,占比30%
- · 有2位网友选择 B,占比20%
A.直接将本地路径的文件 load 到 Hive 表中
B.将 HDFS 上的文件 load 到 Hive 表中
C.Hive支持insert into单条记录的方法.所以可以直接在命令行插入单条记录
D.将其他表的结果集 insert into 到 Hive 表
A.内部表数据由Hive自身管理,外部表数据由HDFS管理
B.外部表数据的存储位置由自己制定
C.删除内部表会直接删除元数据(metadata)及存储数据
D.删除外部表,HDFS上的文件也会被删除
A.默认创建普通表
B.删除外部表时,只删除外部表数据而不删除元数据
C.外部表实质上是将已存在的HDFS文件路径与表关联起来
D.删除普通表时,元数据和数据同时被删除
A.Hive主要是为分析数据而设计的数据仓库
B.Hive的数据最终都保存为HDFS文件
C.Hive将用户的查询语句转换为MapReduce作业提交到Hadoop集群上执行
D.Hive能够在大规模数据集上实现低延迟快速的查询
A.加载数据到Hive时数据必须是HDFS的一个路径
B.创建外部表必须要指定location信息
C.创建外部表使用external关键字,创建普通表需要指定internal关键字
D.创建表时可以指定列分隔符
A.Hive依赖于HDFS处理数据
B.Hive依赖于MapReduce处理数据
C.Hive将处理结果保存到HDFS中
D.在某些场景下Pig可以作为Hive的替代工具
A.Hive 最终将数据存储在HDFS上
B.HQ L可以通过 MapReduce 执行任务
C.Hive是 Hadoop 平台的数据仓库工具
D.Hive 对 Hbase 强依赖
A.将文件从本地文件系统拷贝到HDFS
B.将文件或者目录从本地文件系统拷贝到HDFS
C.将文件从HDFS拷贝到本地文件系统
D.将文件或者目录从HDFS拷贝到本地文件系统
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!