关于Spark程序运行过程,以下哪些选项是正确的?()
A.构建Spark Application的运行环境,启动SparkContext
B.SparkContext向资源管理器(Standalone、Mesos、Yarn)申请运行Executor资源SparkContext启动应用程序DAG调度、Stage划分,TaskSet生成
C.Task Scheduler调度Taskset,将Task发放给Executor运行
A.构建Spark Application的运行环境,启动SparkContext
B.SparkContext向资源管理器(Standalone、Mesos、Yarn)申请运行Executor资源SparkContext启动应用程序DAG调度、Stage划分,TaskSet生成
C.Task Scheduler调度Taskset,将Task发放给Executor运行
第2题
A.SparkContext 负责计算 RDD 之间依赖关系,构建 DAG 。
B.DAGScheduler 负责将 DAG 图分解成多个 Stage ,每个 Stage 中包含多个 Task 。
C.TaskScheduler 负责将每个 Task 分发给各个 Worker 节点。
D.Worker 节点上 Executor 执行相应 Task 。
第5题
A.Spark能够与Hadoop生态系统完美融合
B.几乎所有MapReduce程序都可以改造为Spark程序
C.对一些特定类型的应用(例如迭代型算法),Hadoop的性能超出Spark100倍以上
D.Spark能够将应用在磁盘上的运行速度提升10倍
第6题
A.基于Spark、Kafka、Druid、HDFS等大数据分析平台构建
B.对关联、认证、DHCP等13步全接入过程协议回放
C.支持多厂商组网下的网络性能分析并可视化呈现
D.基于http2+ProtoBuff协议的Telemetry 秒级采集
第7题
A.对关联、认证、DHCP等13步全接入过程协议回放
B.支持多厂商组网下的网络性能分析并可视化呈现
C.基于http2+ProtoBuff协议的Telemetry秒级采集
D.基于Spark、KafkaDruidHDFS等大数据分析平台构建
第8题
A.基于Spark、Kafka、Druid、HDFS等大数据分析平台构建
B.支持多厂商组网下的网络性能分析并可视化呈现
C.对关联、认证、DHCP等13步全接入过程协议回放
D.基于http2+ProtoBuff协议的Telemetry秒级采集
第9题
A.Spark能够与Hadoop生态系统完美融合
B.几乎所有Map Reduce程序都可以改造为Spark程序
C.对一些特定类型的应用(例如迭代型算法),Hadoop的性能超出Spark100倍以上
D.Spark能够将应用在磁盘上的运行速度提升10倍
第11题
A.对关联、认证、DHCP等13步全接入过程协议回放
B.支持多厂商组网下的网络性能分析并可视化呈现
C.基于http2+ProtoBuff协议的Telemetry秒级釆集
D.基于Spark、Kafka、Druid、HDFS等大数据分析平台构建
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!