下对Spark中窄依赖的描述哪些是错误的()
A.表现为存在一个父 RDD 的一个分区对应一个子 RDD 的多个分区,对输入进行协同划分
B.可以表现为一个父 RDD 的分区对应于一个子 RDD 的分区,对输入进行协同划分
C.可以表现为多个父 RDD 的分区对应于一个子 RDD 的分区,对输入进行非协同划分
D.表现为存在一个父 RDD 的一个分区对应一个子 RDD 的多个分区,对输入进行非协同划分
A.表现为存在一个父 RDD 的一个分区对应一个子 RDD 的多个分区,对输入进行协同划分
B.可以表现为一个父 RDD 的分区对应于一个子 RDD 的分区,对输入进行协同划分
C.可以表现为多个父 RDD 的分区对应于一个子 RDD 的分区,对输入进行非协同划分
D.表现为存在一个父 RDD 的一个分区对应一个子 RDD 的多个分区,对输入进行非协同划分
第2题
A.窄依赖:一个父 RDD 的每一个分区可以对应多个子 RDD 分区。
B.宽依赖:父 RDD 的每个分区都只能对应一个子 RDD 分区。
C.宽依赖:父 RDD 的每个分区只能对应多个子 RDD 分区。
D.窄依赖:一个父 RDD 的每一个分区可以对应于一个子 RDD 分区
第4题
A.相比Mapreduce,Spark的中间数据放在内存中,对于迭代运算的效率更高
B.Spark支持使用Scala、Java、Python和R语言进行编程
C.RDD可从文件创建或通过对其他RDD执行转换操作而创建
D.窄依赖是划分Stage的依据,遇到窄依赖就划分stage
第5题
A.在Shark原有的架构上重写了逻辑执行计划的优化部分,解决了Shark存在的问题
B.Spark SQL在Hive兼容层面仅依赖HiveQL解析和Hive元数据
C.Spark SQL执行计划生成和优化都由Catalyst(函数式关系查询优化框架)负责
D.Spark SQL执行计划生成和优化需要依赖Hive来完成
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!