Hadoop运行的是Map Reduce任务,类似地,Storm运行的任务叫做()。
A.Topology
B.Bolt
C.Tuple
D.Spout
A.Topology
B.Bolt
C.Tuple
D.Spout
第1题
A.每个split作为一个map任务的输入
B.每个split作为一个Reduce任务的输入
C.每个split作为一个Reduce任务的输出
D.以上都不对
第3题
A.分为映射,映射为Map阶段
B.分为减速,减速为Reduce阶段
C.分为映射,映射为Reduce阶段
D.分为减速,减速为Map阶段
第4题
A、Hive最终将数据存储在HDFS中
B、Hive是Hadoop平台的数据仓库工具
C、HQL可以通过Map Reduce执行任务
D、Hive对HBase有强依赖
第5题
A、Hive最佳使用场景是大数据集的批处理作业
B、Hive可以实现在大规模集群上实现低延迟快速查询
C、Hive构建在基于静态批量处理的Hadoop之上,Hadoop通常有较高的延迟并且在提交作业和调度的时候需要大量的开销
D、Hive查询操作过程严格遵循HadoopMap Reduce的作用执行模型,Hive将用户的HiveSQL语句通过解释器转换为Map ReduceHadoop集群上
第6题
A.Spark引进了弹性分布式数据集RDD(ResilientDistributedDataset)的抽象,容错性高
B.Spark提供的数据集操作类型不仅限于Map和Reduce,大致分为:Transformations和Actions两大类
C.Spark程序由Python语言进行编写,不支持Java语言进行的程序编写
D.Spark把中间数据放到内存中,迭代运算效率高
第7题
A、lob
B、Context
C、File System
D、Configuration
第8题
A、Fusion insight Manager的web界面
B、Loader Web界面
C、Solrweb界面
D、YamWeb界面
第10题
A.分为Map和Reduce两个阶段
B.Map阶段由一系列Map任务组成
C.Reduce阶段由一系列Reduce任务组成
D.Map阶段与Reduce阶段没有任何依赖关系