搜题
网友您好,请在下方输入框内输入要搜索的题目:
搜题
题目内容 (请给出正确答案)
提问人:网友陈银桑 发布时间:2022-01-07
[单选题]

大数据计算服务(MaxCompute,原ODPS)中的日志表log是一张分区表,分区键是dt,每天产生一个分区用于存储当天新增的数据,现在共有dt=’20160101’至dt=’20160131’共31个分区的数据,为了删除20160101当天新增的数据,可以通过()方式实现。

A.deletefromlogwheredt=’20160101’

B.truncatetablewheredt=’20160101’

C.droppartitionlog(dt=’20160101’)

D.altertablelogdroppartition(dt=’20160101’)

参考答案
简答题官方参考答案 (由简答题聘请的专业题库老师提供的解答)
查看官方参考答案
网友提供的答案
位网友提供了参考答案,
查看全部
  • · 有4位网友选择 B,占比40%
  • · 有3位网友选择 D,占比30%
  • · 有2位网友选择 C,占比20%
  • · 有1位网友选择 A,占比10%
匿名网友[211.***.***.13]选择了 A
1天前
匿名网友[254.***.***.105]选择了 C
1天前
匿名网友[19.***.***.107]选择了 B
1天前
匿名网友[17.***.***.26]选择了 D
1天前
匿名网友[21.***.***.229]选择了 D
1天前
匿名网友[78.***.***.12]选择了 B
1天前
匿名网友[227.***.***.85]选择了 B
1天前
匿名网友[206.***.***.78]选择了 C
1天前
匿名网友[182.***.***.3]选择了 B
1天前
匿名网友[140.***.***.123]选择了 D
1天前
提交我的答案
登录提交答案,可赢取奖励机会。
更多“大数据计算服务(MaxCompute,原ODPS)中的日志表log是一张分区表,分区键是dt,每天产生一个分区”相关的问题
第1题
大数据计算服务(MaxCompute,原ODPS)中的用户表dim_user是一张非分区表,另外有一部分新增用户的数据存在user_delta表中,两张表的结构相同,为了在dim_user表中得到全量的用户数据,可以采用()方式。

A、select*fromuser_deltaintodim_user

B、insertintodim_userselect*fromuser_deltaunionallselect*fromdim_user

C、insertoverwritetabledim_userselect*fromuser_delta

D、insertintotabledim_userselect*fromuser_delta

点击查看答案
第2题
大数据计算服务(MaxCompute,原ODPS)中的客户表customer是一张非分区表,现在想要清空表的内容然后重新上传数据,可以通过()将数据清空。
A、deletefromcustomer

B、insertoverwritetablecustomerselect*fromcustomer

C、truncatetablecustomer

D、droptablecustomer

点击查看答案
第3题
大数据计算服务中的日志表log是一张分区表,分区键是dt,每天产生一个分区用于存储当天新增的数据,现在共有dt=‘20160101’至dt=‘20160131’共31个分区的数据,为了删除20160101当天新增的数据,可以通过()方式实现。

A、deletefromlogwheredt=‘20160101’

B、altertablelogdroppartition(dt=‘20160101’)

C、truncatetablewheredt=‘20160101’

D、droppartitionlog(dt=‘20160101’)

点击查看答案
第4题
Maxcompute表t1、t2都是分区表,分区键是pt,对于sql语句selectt 1.idfromt1leftouterjoint2ont1.id=t2.idwheret1.pt=’20140101’andt2.pt=’20140101’,()说法是正确的。

A、两张表都会进行分区裁剪

B、t2表会进行分区裁剪

C、t1表会进行分区裁剪

D、两张表都不会进行分区裁剪

点击查看答案
第5题
大数据计算服务中,日志表ods_order是一张非分区表,结构如下:createtableods_order(order_idstring,order_datestring,order_amtdecimal);fact_order是一张按日期分区的表,结构如下:createtablefact_order(order_idstring,order_amtdecimal)partitionedby(order_dtstring);现在需要将数据从ods_order加载到fact_order表中,并且按照order_date进行分区,执行了以下SQL:insertoverwritetablefact_orderpartition(order_dt)selectorder_id,order_amt,order_dateasorder_dtfromods_order;ods_order表中的order_date有部分记录取值为NULL,对执行结果描述正确的是:()。

A、语句可以正常执行,其中order_date为NULL的记录会被放入order_dt=’BAD’的分区

B、语句可以正常执行,在提交时会报语句错误

C、语句可以正常执行,其中的order_date为NULL值的记录会被丢弃

D、语句无法正常执行,系统会抛异常

点击查看答案
第6题
Maxcompute中一个表可以上限最多拥有()分区。
A、60000个

B、100000个

C、不限制

D、10000个

点击查看答案
第7题
在大数据计算服务(MaxCompute,原ODPS)的MapReduce中可以使用资源(Resource,包括jar包、压缩文件、表等)。在使用jar命令执行MR程序时,需要在参数resources中指定资源,以下说法正确的是:()。

A、包括已上传到大数据计算服务的MR程序本身所在的jar包,以及MR程序用到的大数据计算服务上的资源

B、仅包含MR程序中用到的大数据计算服务上的资源

C、仅包含保存在本地的MR程序本身所在的jar包

D、仅包含已上传到大数据计算服务的MR程序本身所在的jar包

点击查看答案
第8题
DataX是阿里集团发起的开源项目,是一种离线数据同步的工具,支持多种异构数据源之间的高效数据同步。DataX任务配置文件使用()文件格式。
A、java

B、bson

C、xml

D、json

点击查看答案
第9题
开发人员在使用大数据计算服务的图计算时,主要的输入数据在表中,另外还有一些非结构化的配置信息存在一个本地文件中,则可以采用()方式使得这些配置信息在图计算过程中可用。
A、将这个配置信息做为resource上传到大数据计算服务中,在图计算过程中可以读取resource中的数据

B、输入输出只能是Table,必须要把这部分数据放到表中

C、在group程序中直接读取本地的文件信息

D、输入只能是一张表,因此无法满足这个场景

点击查看答案
重要提示: 请勿将账号共享给其他人使用,违者账号将被封禁!
查看《购买须知》>>>
重置密码
账号:
旧密码:
新密码:
确认密码:
确认修改
购买搜题卡查看答案
购买前请仔细阅读《购买须知》
请选择支付方式
微信支付
支付宝支付
点击支付即表示你同意并接受《服务协议》《购买须知》
立即支付
搜题卡使用说明

1. 搜题次数扣减规则:

功能 扣减规则
基础费
(查看答案)
加收费
(AI功能)
文字搜题、查看答案 1/每题 0/每次
语音搜题、查看答案 1/每题 2/每次
单题拍照识别、查看答案 1/每题 2/每次
整页拍照识别、查看答案 1/每题 5/每次

备注:网站、APP、小程序均支持文字搜题、查看答案;语音搜题、单题拍照识别、整页拍照识别仅APP、小程序支持。

2. 使用语音搜索、拍照搜索等AI功能需安装APP(或打开微信小程序)。

3. 搜题卡过期将作废,不支持退款,请在有效期内使用完毕。

请使用微信扫码支付(元)

订单号:

遇到问题请联系在线客服

请不要关闭本页面,支付完成后请点击【支付完成】按钮
遇到问题请联系在线客服
恭喜您,购买搜题卡成功 系统为您生成的账号密码如下:
重要提示:请勿将账号共享给其他人使用,违者账号将被封禁。
发送账号到微信 保存账号查看答案
怕账号密码记不住?建议关注微信公众号绑定微信,开通微信扫码登录功能
警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

- 微信扫码关注简答题 -
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反简答题购买须知被冻结。您可在“简答题”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
- 微信扫码关注简答题 -
请用微信扫码测试
欢迎分享答案

为鼓励登录用户提交答案,简答题每个月将会抽取一批参与作答的用户给予奖励,具体奖励活动请关注官方微信公众号:简答题

简答题官方微信公众号

简答题
下载APP
关注公众号
TOP