长春职业技术学院
  1. 起初的Hadoop是使用Java语言开发的。( )

  2. A:对 B:错
    答案:对
  3. Hive中show tables命令用来显示数据表名称。( )

  4. A:对 B:错
    答案:对
  5. 当客户端断开连接,此时客户端和服务器的连接就是SyncConnected状态,说明连接失败。( )

  6. A:对 B:错
    答案:错
  7. Zookeeper具有全局数据一致性、高容错性、无序性、原子性以及实时性。( )

  8. A:对 B:错
    答案:错
  9. HDFS是整个Hadoop体系的基础,负责数据的存储与管理。( )

  10. A:对 B:错
    答案:对
  11. Hive将元数据保存在关系数据库中,大大减少了在查询过程中执行语义检查的时间。( )

  12. A:错 B:对
    答案:对
  13. 传统关系型数据库数据定位是二维坐标,即行和列。( )

  14. A:对 B:错
    答案:对
  15. Client与HRegionServer进行数据读写类操作。( )

  16. A:对 B:错
    答案:对
  17. 大数据的计量单位已经越过TB级别发展到ZB,甚至更高的级别来衡量了。( )

  18. A:错 B:对
    答案:对
  19. Hadoop集群配置文件中配置Yarn运行所需的环境变量的是hdfs-site、xml。( )。

  20. A:错 B:对
  21. 查看Linux ip的命令是ifconfig( )。

  22. A:错 B:对
  23. 两个键值对<“hello”,1>和<“hello”,1>x,如果对其进行归并(merge),会得到<“hello”,<1,1>>,如果对其进行合并(combine),会得到<“hello”,2>。( )

  24. A:错 B:对
  25. 关于hdfs元数据,Edits编辑日志中记录了文件系统的所有操作。( )

  26. A:错 B:对
  27. 安装Hadoop时,配置项”dfs、replication”是配置在文件core-site、xml( )。

  28. A:错 B:对
  29. 内部表的数据有Hive自身管理,外部表的数据有HDFS管理。( )

  30. A:错 B:对
  31. 大数据主要具有四个特征:即大量(Volume)、多样(Variety)、高速(Velocity)和价值(Value),也就是所谓的“4V”特征。( )

  32. A:对 B:错
  33. Hadoop环境变量中的HADOOP_HEAPSIZE用于设置所有 Hadoop守护线程的内存。它默认是200 GB。( )。

  34. A:错 B:对
  35. Hive是数据库工具。( )

  36. A:对 B:错
  37. MapReduce设计的一个理念就是“计算向数据靠拢”,而不是“数据向计算靠拢”,因为,移动数据需要大量的网络传输开销。( )

  38. A:对 B:错
  39. HDFS具有高延迟性。它不适用于低延迟的数据访问。( )

  40. A:错 B:对
  41. hdfs系统不支持数据的修改。( )

  42. A:错 B:对
  43. HDFS集群开始启动时,其处于安全模式,可以进行读操作,不能进行写操作。( )

  44. A:错 B:对
  45. –append参数是将数据追加到HDFS上一个已存在的数据集上。( )

  46. A:对 B:错
  47. Hadoop实现了一个分布式文件系统,简称HDFS。( )。

  48. A:错 B:对
  49. 非全新集群选举时是优中选优,保证Leader是Zookeeper集群中数据最完整、最可靠的一台服务器。( )

  50. A:错 B:对
  51. HQL语言大小写敏感,但内容分大小写。( )

  52. A:错 B:对
  53. 在Hadoop中每个应用程序被表示成一个作业,每个作业又被分成多个任务,JobTracker的负责作业的分解、状态监控以及资源管理。( )

  54. A:错 B:对
  55. 大数据技术是一系列技术的总称,它是集合了数据采集与传输、数据存储、数据处理与分析、数据挖掘、数据可视化等技术,是一个庞大而复杂的技术体系。( )

  56. A:对 B:错
  57. SecondaryNameNode应与NameNode部署到一个节点( )。

  58. A:对 B:错
  59. InputFormat接口决定了输入文件如何被Hadoop分块。InputFormat能够从一个job中得到一个list集合。( )

  60. A:对 B:错
  61. 格式化文件系统指令( )。

  62. A:$ hadoop namenode -format B:source /etc/profile C:cd /opt/module/hadoop-3、1、3/sbin D:$ hdfs namenode -format
  63. 下面关于Hive SQL编译描述不正确的是( )

  64. A:MapReduce任务是需要遍历QueryBlock后生成的 B:编译器遍历AST Tree,抽象出查询的基本组成单元Operator Tree C:逻辑层优化器会进行算子转换,优化合并不必要的算子操作 D:Hive SQL的Parser层是为了将SQL转化为执行计划的
  65. 选举机制类型( )

  66. A:计数选举 B:非全新集群选举 C:全新集群选举 D:Leader选举
  67. 以下HDFS相关的shell命令不正确的是( )。

  68. A:hadoop dfs mkdir :创建 指定的文件夹 B:hadoop fs - copyFromLocal :将路径指定的文件或文件夹复制到路径指定的文件夹中 C:hadoop fs -ls :显示 指定的文件的详细信息 D:hdfs dfs -rm :删除路径 指定的文件
  69. Client使用HBase RPC机制与哪些组件进行通信?( )

  70. A:Zookeeper B:HMaster C:HDFS D:HRegionServer
  71. 关于HBase Region进行的管理控制,分别为下列中哪些选项?( )。

  72. A:合并 B:负载均衡 C:拆分 D:管理MetaStore
  73. 下面哪些是MapReduce的计划的主要配置参数?( )

  74. A:包含“map”功能类 B:在分布式文件系统作业的输入位置 C:输入格式 D:包含“reduce”功能类
  75. 下列关于hadoop集群启动中的所有进程及其作用,正确的有( )

  76. A:Namenode管理集群,记录namenode 文件信息 B:Secondary Namenode可以做备份,对一定范围内的数据做快照 C:Jobtracker管理任务,分配任务 D:Datanode存储数据
  77. 以下对名称节点理解正确的是( )。

  78. A:名称节点作为中心服务器,负责管理文件系统的命名空间及客户端对文件的访问 B:名称节点用来负责具体用户数据的存储 C:名称节点的数据保存在内存中 D:名称节点通常用来保存元数据
  79. 以下( )属于Sqoop的命令。

  80. A:SELECT B:export C:import D:list-databases
  81. 下面关于Hive数据模型描述正确的是( )

  82. A:Hive的数据模型只包含:表、分区 B:Hive的默认分隔符是^A(1001),使用的是UTF-8的编码 C:Hive中的桶—般是文件的形式存在的 D:Hive的元数据存储在HDFS中 E:拉祜语
  83. 关于HBase特性,是下列选项中的哪些?( )

  84. A:面向列 B:高性能 C:可伸缩 D:高可靠性
  85. 下列概念正确的有( )

  86. A:Epoch:逻辑时钟被称为投票次数,同一轮投票过程中逻辑时钟值相同,逻辑时钟起始值为1,每投一次票,数据增加。 B:myid :服务器ID(SID)用来唯一标识一台Zookeeper集群中的机器,每台机器不能重复。 C:ZXID :是指一个事务ID,用来唯一标识一次服务器状态的变更。该值越大则说明数据越新,在选举过程中数据越新权重越大。 D:过半机器数(Quorum) :指大于集群机器数量的一半,即大于或等于(n/2+1)。
  87. 关于MapReduce过程中的split阶段,说法正确的是:( )

  88. A:理想的split大小与HDFS块一样大 B:split大小不可以人为的设定 C:split 的多少决定了Reduce任务的数目 D:split 的多少决定了Map任务的数目
  89. 以下( )属于Sqoop的特点。

  90. A:导入SQL查询的结果 B:提供增量加载的功能 C:数据压缩 D:并行导入/导出
  91. 在设置Linux环境中,关闭防火墙的代码有哪些( )。

  92. A:systemctl status firewalld B:systemctl restart network C:systemctl stop firewalld D:systemctl disable firewalld
  93. 下列成员属于MapReduce体系结构中的有:( )

  94. A:DataNode B:NameNode C:TaskTracker D:JobTracker
  95. 在Hive进行表删除操作时,要区分内部表与外部表,下面描述正确的选项有哪些? 删除内部表时:。( )等。

  96. A:没有区别 B:外部表删除时,元数据被删除,数据本身不删除。 C:内部表删除将表的元数据和数据同时删除。 D:区别不明显
  97. Sqoop是连接传统关系型数据库和Hadoop的桥梁。包括( )两个方面。

  98. A:Sqoop使用元数据模型来判断数据类型,并在数据从数据源转移到Hadoop时无法确保类型安全的数据处理。 B:将关系型数据库的数据导入到Hadoop及其相关的系统中,如Hive和HBase。 C:将数据从Hadoop系统里抽取并导出到关系型数据库 D:Sqoop不能够分割数据集,通过创建maptask任务来处理每个区块。
  99. 下列选项中,属于Zookeeper集群的角色有( )。

  100. A:Worker B:Observer C:Leader D:Follower
  101. Zookeeper是由( )组成的树。

  102. A:字节 B:代码 C:数据 D:节点
  103. 在词频统计中,对于文本行"hello hadoop hello world",经过WordCount的Reduce函数处理后的结果是( )。

  104. A:<“hadoop”,1><“hello”,1><“hello”,1><“world”,1> B:<“hello”,2><“hadoop”,1><“world”,1> C:<“hadoop”,1><“hello”,2><“world”,1> D:<“hello”,1,1><“hadoop”,1><“world”,1>
  105. 大数据的文件系统是( )。

  106. A:MapReduce B:Spark C:HIVE D:HDFS
  107. Hadoop MapReduce计算的流程是( )。

  108. A:Map任务—Shuffle—Reduce任务 B:Reduce任务—Map任务—Shuffle C:Map任务—Reduce任务—Shuffle D:Shuffle—Map任务—Reduce任务
  109. Zookeeper中的数据存储结构和标准文件系统非常类似,两者采用的层次结构是( )。

  110. A:树形 B:分布式 C:网形 D:星形
  111. MapReduce体系结构主要由TaskTracker、Task、JobTracker和( )组成。

  112. A:TaskTracker B:Task C:Client D:JobTracker
  113. HDFS集群采用主从结构,节点主要包括( )和数据节点。

  114. A:元数据节点 B:文件节点 C:从节点 D:名称节点
  115. 关于Hadoop MapReduce的叙述错误的是( )。

  116. A:MapReduce采用“分而治之”的思想 B:MapReduce将计算过程划分为Map任务和Reduce任务 C:MapReduce的设计理念是“数据向计算靠拢” D:MapReduce的输入和输出都是键值对的形式
  117. 关于Sqoop的说法,不正确的是?( )

  118. A:主要设计目的是在Hadoop与传统数据库之间进行数据的ETL操作 B:Sqoop的Reduce 操作速度更快 C:数据导入导出通过MapReduce 完成 D:Sqoop 具备MapReduce的并行化和容错性
  119. 在Hadoop体系中,分布式文件系统是指( )

  120. A:Zookeeper B:Yarn C:MapReduce D:HDFS
  121. Hive有什么好处( )

  122. A:可以直接在表中插入数据 B:可以存储数据。 C:可以使用SQL,操作存储在HDFS中的数据 D:可以通过语句自动编译MapReduce
  123. 对MapReduce的体系结构,以下说法错误的是( )。

  124. A:分布式编程架构 B:分而治之的思想 C:将一个任务分解成多个子任务 D:以计算为中心,更看重吞吐率
  125. HBase依赖于Hadoop中的( )提供强大的计算能力。

  126. A:MapReduce B:Zookeeper C:RPC D:HDFS
  127. 下列对Sqoop描述正确的是?( )

  128. A:Sqoop可以将数据从MySQL转储到HDFS上 B:Sqoop可以数据从HDFS转储到Hbase上 C:Sqoop可以数据从HDFS转储到MySQL上 D:Sqoop可以将数据从Hbase转储到HDFS上
  129. Hadoop的生态系统组件之—Sqoop的功能是?( )

  130. A:提供高可靠性、高可用、分布式的海量日志采集 B:用来存储非结构化和半结构化的松散数据 C:用来在Hadoop和关系数据库之间的交换数据,改进数据的互操作性 D:负责集群资源调度管理的组件
  131. 在使用MapReduce程序WordCount进行词频统计时,对于文本行“hello hadoop hello world”,经过WordCount程序的Map函数处理后直接输出的中间结果,应该是下面哪种形式( )。

  132. A:<“hello”,1,1>、<“hadoop”,1>和<“world”,1> B:<“hello”,<1,1>>、<“hadoop”,1>和<“world”,1> C:<“hello”,1>、<“hello”,1>、<“hadoop”,1>和<“world”,1> D:<“hello”,2>、<“hadoop”,1>和<“world”,1>
  133. Zookeeper的顺序性主要分为两种,分别是( )和偏序。

  134. A:全局有序 B:局部有序 C:正序 D:正向有序
  135. 如何查看sqoop命令列表?( )

  136. A:help B:sqoop-help C:sqoop help list D:Sqoop help
  137. 编写MapReduce程序时,下列叙述错误的是( )。

  138. A:map函数的输出就是reduce函数的输入 B:启动MapReduce进行分布式并行计算的方法是start() C:reduce函数的输出默认是有序的 D:reduce函数所在的类必须继承自Reducer类
  139. Sqoop工具是通过( )进行导入导出数据的。

  140. A:mapreduce B:hive C:mysql D:shuffle
  141. 下列不属于Hadoop特点的是( )。

  142. A:高扩展性 B:高容错性 C:高成本 D:高可行性
  143. 从下列选项中,选择命令用于删除整行操作( )。

  144. A:deleteall ‘student’';‘xiaoming’ B:delete from ‘student’ . ‘xiaoming’ C:deleteall 'xiaoming' D:delete table from 'xiaoming'
  145. 当Zookeeper客户端连接认证失败,此时客户端和服务器的连接状态就是( )说明认证失败。

  146. A:cversion B:dataVersion C:AuthFailed D:NodeChildrentChanged
  147. Hadoop 集群的运行模式?( )。

  148. A:单机 B:各选项都是 C:伪分布式 D:全分布式
  149. Client 端上传文件的时候下列哪项正确?( )

  150. A:Client 只上传数据到一台 DataNode,然后由 NameNode 负责 Block 复制工作 B:各选项都不正确 C:Client 端将文件切分为 Block,依次上传 D:数据经过 NameNode 传递给 DataNode
  151. 下面关于Hive格式描述正确的是( )。

  152. A:TEXTFILE存储方式为列存储 B:使用TEXTFILE时Hive会对数据进行切分 C:TEXTFILE格式是Hive的默认存储格式 D:TEXTFILE格式是Hive的默认存储格式TEXTFILE格式的数据磁盘开销不大
  153. 当Zookeeper的节点数据发生变更时,被触发的事件是( )。

  154. A:NodeCreated B:NodeChildrentChanged C:NodeDeleted D:NodeDataChanged
  155. 下列关于传统并行计算框架(比如MPI)和MapReduce并行计算框架比较错误的是( )。

  156. A:前者是共享式(共享内存/共享存储),容错性差,后者是非共享式的,容错性好 B:前者适用于实时、细粒度计算、计算密集型,后者适用于批处理、非实时、数据密集型 C:前者所需硬件价格贵,可扩展性差,后者硬件便宜,扩展性好 D:后者相比前者学习起来更难
  157. Hadoop集群配置文件中,配置HDFS的属性的是以下哪一项( )。

  158. A:yarn-env、sh B:mapred-site、xml C:hadoop-env、sh D:hdfs-site、xml
  159. 下列说法错误的是( )

  160. A:MapReduce框架采用了Master/Slave架构,包括一个Master和若干个Slave B:不同的Map任务之间不能互相通信 C:Hadoop框架是用Java实现的,MapReduce应用程序则一定要用Java来写 D:Map函数将输入的元素转换成<key,value>形式的键值对

温馨提示支付 ¥5.00 元后可查看付费内容,请先翻页预览!
点赞(3) dxwkbang
返回
顶部