Spark任务的Executor可以运行多个task。()
- · 有5位网友选择 错,占比62.5%
- · 有3位网友选择 对,占比37.5%
A.每个Executor可以运行多个Task
B.每个Worker可以运行多个Executor
C.每个Worker只能为一个拓扑运行Executor
D.每个Executor可以运行不同组件的Task
A、集群资源管理器(Cluster Manager)
B、执行进程(Executor)
C、Worker Node
D、任务控制节点Driver Program
A、集群资源管理器 Cluster Manager
B、运行作业任务的工作节点 Worker Node
C、每个应用的任务控制节点 Driver
D、每个工作节点上负责具体任务的执行进程 Executor
B、运行作业任务的工作节点Worker Node
C、每个应用的任务控制节点Driver
D、每个工作节点上负责具体任务的执行进程Executor
A.在Spark任务提交端,即应用服务器安装Spark即可
B.需要在集群各节点安装Spark才可以运行
C.不需在任何机器安装Spark
D.在NameNode上安装Spark
A.SparkContext 负责计算 RDD 之间依赖关系,构建 DAG 。
B.DAGScheduler 负责将 DAG 图分解成多个 Stage ,每个 Stage 中包含多个 Task 。
C.TaskScheduler 负责将每个 Task 分发给各个 Worker 节点。
D.Worker 节点上 Executor 执行相应 Task 。
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!