长春职业技术学院
- 起初的Hadoop是使用Java语言开发的。( )
- Hive中show tables命令用来显示数据表名称。( )
- 当客户端断开连接,此时客户端和服务器的连接就是SyncConnected状态,说明连接失败。( )
- Zookeeper具有全局数据一致性、高容错性、无序性、原子性以及实时性。( )
- HDFS是整个Hadoop体系的基础,负责数据的存储与管理。( )
- Hive将元数据保存在关系数据库中,大大减少了在查询过程中执行语义检查的时间。( )
- 传统关系型数据库数据定位是二维坐标,即行和列。( )
- Client与HRegionServer进行数据读写类操作。( )
- 大数据的计量单位已经越过TB级别发展到ZB,甚至更高的级别来衡量了。( )
- Hadoop集群配置文件中配置Yarn运行所需的环境变量的是hdfs-site、xml。( )。
- 查看Linux ip的命令是ifconfig( )。
- 两个键值对<“hello”,1>和<“hello”,1>x,如果对其进行归并(merge),会得到<“hello”,<1,1>>,如果对其进行合并(combine),会得到<“hello”,2>。( )
- 关于hdfs元数据,Edits编辑日志中记录了文件系统的所有操作。( )
- 安装Hadoop时,配置项”dfs、replication”是配置在文件core-site、xml( )。
- 内部表的数据有Hive自身管理,外部表的数据有HDFS管理。( )
- 大数据主要具有四个特征:即大量(Volume)、多样(Variety)、高速(Velocity)和价值(Value),也就是所谓的“4V”特征。( )
- Hadoop环境变量中的HADOOP_HEAPSIZE用于设置所有 Hadoop守护线程的内存。它默认是200 GB。( )。
- Hive是数据库工具。( )
- MapReduce设计的一个理念就是“计算向数据靠拢”,而不是“数据向计算靠拢”,因为,移动数据需要大量的网络传输开销。( )
- HDFS具有高延迟性。它不适用于低延迟的数据访问。( )
- hdfs系统不支持数据的修改。( )
- HDFS集群开始启动时,其处于安全模式,可以进行读操作,不能进行写操作。( )
- –append参数是将数据追加到HDFS上一个已存在的数据集上。( )
- Hadoop实现了一个分布式文件系统,简称HDFS。( )。
- 非全新集群选举时是优中选优,保证Leader是Zookeeper集群中数据最完整、最可靠的一台服务器。( )
- HQL语言大小写敏感,但内容分大小写。( )
- 在Hadoop中每个应用程序被表示成一个作业,每个作业又被分成多个任务,JobTracker的负责作业的分解、状态监控以及资源管理。( )
- 大数据技术是一系列技术的总称,它是集合了数据采集与传输、数据存储、数据处理与分析、数据挖掘、数据可视化等技术,是一个庞大而复杂的技术体系。( )
- SecondaryNameNode应与NameNode部署到一个节点( )。
- InputFormat接口决定了输入文件如何被Hadoop分块。InputFormat能够从一个job中得到一个list集合。( )
- 格式化文件系统指令( )。
- 下面关于Hive SQL编译描述不正确的是( )
- 选举机制类型( )
- 以下HDFS相关的shell命令不正确的是( )。
- Client使用HBase RPC机制与哪些组件进行通信?( )
- 关于HBase Region进行的管理控制,分别为下列中哪些选项?( )。
- 下面哪些是MapReduce的计划的主要配置参数?( )
- 下列关于hadoop集群启动中的所有进程及其作用,正确的有( )
- 以下对名称节点理解正确的是( )。
- 以下( )属于Sqoop的命令。
- 下面关于Hive数据模型描述正确的是( )
- 关于HBase特性,是下列选项中的哪些?( )
- 下列概念正确的有( )
- 关于MapReduce过程中的split阶段,说法正确的是:( )
- 以下( )属于Sqoop的特点。
- 在设置Linux环境中,关闭防火墙的代码有哪些( )。
- 下列成员属于MapReduce体系结构中的有:( )
- 在Hive进行表删除操作时,要区分内部表与外部表,下面描述正确的选项有哪些? 删除内部表时:。( )等。
- Sqoop是连接传统关系型数据库和Hadoop的桥梁。包括( )两个方面。
- 下列选项中,属于Zookeeper集群的角色有( )。
- Zookeeper是由( )组成的树。
- 在词频统计中,对于文本行"hello hadoop hello world",经过WordCount的Reduce函数处理后的结果是( )。
- 大数据的文件系统是( )。
- Hadoop MapReduce计算的流程是( )。
- Zookeeper中的数据存储结构和标准文件系统非常类似,两者采用的层次结构是( )。
- MapReduce体系结构主要由TaskTracker、Task、JobTracker和( )组成。
- HDFS集群采用主从结构,节点主要包括( )和数据节点。
- 关于Hadoop MapReduce的叙述错误的是( )。
- 关于Sqoop的说法,不正确的是?( )
- 在Hadoop体系中,分布式文件系统是指( )
- Hive有什么好处( )
- 对MapReduce的体系结构,以下说法错误的是( )。
- HBase依赖于Hadoop中的( )提供强大的计算能力。
- 下列对Sqoop描述正确的是?( )
- Hadoop的生态系统组件之—Sqoop的功能是?( )
- 在使用MapReduce程序WordCount进行词频统计时,对于文本行“hello hadoop hello world”,经过WordCount程序的Map函数处理后直接输出的中间结果,应该是下面哪种形式( )。
- Zookeeper的顺序性主要分为两种,分别是( )和偏序。
- 如何查看sqoop命令列表?( )
- 编写MapReduce程序时,下列叙述错误的是( )。
- Sqoop工具是通过( )进行导入导出数据的。
- 下列不属于Hadoop特点的是( )。
- 从下列选项中,选择命令用于删除整行操作( )。
- 当Zookeeper客户端连接认证失败,此时客户端和服务器的连接状态就是( )说明认证失败。
- Hadoop 集群的运行模式?( )。
- Client 端上传文件的时候下列哪项正确?( )
- 下面关于Hive格式描述正确的是( )。
- 当Zookeeper的节点数据发生变更时,被触发的事件是( )。
- 下列关于传统并行计算框架(比如MPI)和MapReduce并行计算框架比较错误的是( )。
- Hadoop集群配置文件中,配置HDFS的属性的是以下哪一项( )。
- 下列说法错误的是( )
A:对 B:错
答案:对
A:对 B:错
答案:对
A:对 B:错
答案:错
A:对 B:错
答案:错
A:对 B:错
答案:对
A:错 B:对
答案:对
A:对 B:错
答案:对
A:对 B:错
答案:对
A:错 B:对
答案:对
A:错 B:对
A:错 B:对
A:错 B:对
A:错 B:对
A:错 B:对
A:错 B:对
A:对 B:错
A:错 B:对
A:对 B:错
A:对 B:错
A:错 B:对
A:错 B:对
A:错 B:对
A:对 B:错
A:错 B:对
A:错 B:对
A:错 B:对
A:错 B:对
A:对 B:错
A:对 B:错
A:对 B:错
A:$ hadoop namenode -format B:source /etc/profile C:cd /opt/module/hadoop-3、1、3/sbin D:$ hdfs namenode -format
A:MapReduce任务是需要遍历QueryBlock后生成的 B:编译器遍历AST Tree,抽象出查询的基本组成单元Operator Tree C:逻辑层优化器会进行算子转换,优化合并不必要的算子操作 D:Hive SQL的Parser层是为了将SQL转化为执行计划的
A:计数选举 B:非全新集群选举 C:全新集群选举 D:Leader选举
A:hadoop dfs mkdir :创建 指定的文件夹 B:hadoop fs - copyFromLocal :将路径指定的文件或文件夹复制到路径指定的文件夹中 C:hadoop fs -ls :显示 指定的文件的详细信息 D:hdfs dfs -rm :删除路径 指定的文件
A:Zookeeper B:HMaster C:HDFS D:HRegionServer
A:合并 B:负载均衡 C:拆分 D:管理MetaStore
A:包含“map”功能类 B:在分布式文件系统作业的输入位置 C:输入格式 D:包含“reduce”功能类
A:Namenode管理集群,记录namenode 文件信息 B:Secondary Namenode可以做备份,对一定范围内的数据做快照 C:Jobtracker管理任务,分配任务 D:Datanode存储数据
A:名称节点作为中心服务器,负责管理文件系统的命名空间及客户端对文件的访问 B:名称节点用来负责具体用户数据的存储 C:名称节点的数据保存在内存中 D:名称节点通常用来保存元数据
A:SELECT B:export C:import D:list-databases
A:Hive的数据模型只包含:表、分区 B:Hive的默认分隔符是^A(1001),使用的是UTF-8的编码 C:Hive中的桶—般是文件的形式存在的 D:Hive的元数据存储在HDFS中 E:拉祜语
A:面向列 B:高性能 C:可伸缩 D:高可靠性
A:Epoch:逻辑时钟被称为投票次数,同一轮投票过程中逻辑时钟值相同,逻辑时钟起始值为1,每投一次票,数据增加。 B:myid :服务器ID(SID)用来唯一标识一台Zookeeper集群中的机器,每台机器不能重复。 C:ZXID :是指一个事务ID,用来唯一标识一次服务器状态的变更。该值越大则说明数据越新,在选举过程中数据越新权重越大。 D:过半机器数(Quorum) :指大于集群机器数量的一半,即大于或等于(n/2+1)。
A:理想的split大小与HDFS块一样大 B:split大小不可以人为的设定 C:split 的多少决定了Reduce任务的数目 D:split 的多少决定了Map任务的数目
A:导入SQL查询的结果 B:提供增量加载的功能 C:数据压缩 D:并行导入/导出
A:systemctl status firewalld B:systemctl restart network C:systemctl stop firewalld D:systemctl disable firewalld
A:DataNode B:NameNode C:TaskTracker D:JobTracker
A:没有区别 B:外部表删除时,元数据被删除,数据本身不删除。 C:内部表删除将表的元数据和数据同时删除。 D:区别不明显
A:Sqoop使用元数据模型来判断数据类型,并在数据从数据源转移到Hadoop时无法确保类型安全的数据处理。 B:将关系型数据库的数据导入到Hadoop及其相关的系统中,如Hive和HBase。 C:将数据从Hadoop系统里抽取并导出到关系型数据库 D:Sqoop不能够分割数据集,通过创建maptask任务来处理每个区块。
A:Worker B:Observer C:Leader D:Follower
A:字节 B:代码 C:数据 D:节点
A:<“hadoop”,1><“hello”,1><“hello”,1><“world”,1> B:<“hello”,2><“hadoop”,1><“world”,1> C:<“hadoop”,1><“hello”,2><“world”,1> D:<“hello”,1,1><“hadoop”,1><“world”,1>
A:MapReduce B:Spark C:HIVE D:HDFS
A:Map任务—Shuffle—Reduce任务 B:Reduce任务—Map任务—Shuffle C:Map任务—Reduce任务—Shuffle D:Shuffle—Map任务—Reduce任务
A:树形 B:分布式 C:网形 D:星形
A:TaskTracker B:Task C:Client D:JobTracker
A:元数据节点 B:文件节点 C:从节点 D:名称节点
A:MapReduce采用“分而治之”的思想 B:MapReduce将计算过程划分为Map任务和Reduce任务 C:MapReduce的设计理念是“数据向计算靠拢” D:MapReduce的输入和输出都是键值对的形式
A:主要设计目的是在Hadoop与传统数据库之间进行数据的ETL操作 B:Sqoop的Reduce 操作速度更快 C:数据导入导出通过MapReduce 完成 D:Sqoop 具备MapReduce的并行化和容错性
A:Zookeeper B:Yarn C:MapReduce D:HDFS
A:可以直接在表中插入数据 B:可以存储数据。 C:可以使用SQL,操作存储在HDFS中的数据 D:可以通过语句自动编译MapReduce
A:分布式编程架构 B:分而治之的思想 C:将一个任务分解成多个子任务 D:以计算为中心,更看重吞吐率
A:MapReduce B:Zookeeper C:RPC D:HDFS
A:Sqoop可以将数据从MySQL转储到HDFS上 B:Sqoop可以数据从HDFS转储到Hbase上 C:Sqoop可以数据从HDFS转储到MySQL上 D:Sqoop可以将数据从Hbase转储到HDFS上
A:提供高可靠性、高可用、分布式的海量日志采集 B:用来存储非结构化和半结构化的松散数据 C:用来在Hadoop和关系数据库之间的交换数据,改进数据的互操作性 D:负责集群资源调度管理的组件
A:<“hello”,1,1>、<“hadoop”,1>和<“world”,1> B:<“hello”,<1,1>>、<“hadoop”,1>和<“world”,1> C:<“hello”,1>、<“hello”,1>、<“hadoop”,1>和<“world”,1> D:<“hello”,2>、<“hadoop”,1>和<“world”,1>
A:全局有序 B:局部有序 C:正序 D:正向有序
A:help B:sqoop-help C:sqoop help list D:Sqoop help
A:map函数的输出就是reduce函数的输入 B:启动MapReduce进行分布式并行计算的方法是start() C:reduce函数的输出默认是有序的 D:reduce函数所在的类必须继承自Reducer类
A:mapreduce B:hive C:mysql D:shuffle
A:高扩展性 B:高容错性 C:高成本 D:高可行性
A:deleteall ‘student’';‘xiaoming’ B:delete from ‘student’ . ‘xiaoming’ C:deleteall 'xiaoming' D:delete table from 'xiaoming'
A:cversion B:dataVersion C:AuthFailed D:NodeChildrentChanged
A:单机 B:各选项都是 C:伪分布式 D:全分布式
A:Client 只上传数据到一台 DataNode,然后由 NameNode 负责 Block 复制工作 B:各选项都不正确 C:Client 端将文件切分为 Block,依次上传 D:数据经过 NameNode 传递给 DataNode
A:TEXTFILE存储方式为列存储 B:使用TEXTFILE时Hive会对数据进行切分 C:TEXTFILE格式是Hive的默认存储格式 D:TEXTFILE格式是Hive的默认存储格式TEXTFILE格式的数据磁盘开销不大
A:NodeCreated B:NodeChildrentChanged C:NodeDeleted D:NodeDataChanged
A:前者是共享式(共享内存/共享存储),容错性差,后者是非共享式的,容错性好 B:前者适用于实时、细粒度计算、计算密集型,后者适用于批处理、非实时、数据密集型 C:前者所需硬件价格贵,可扩展性差,后者硬件便宜,扩展性好 D:后者相比前者学习起来更难
A:yarn-env、sh B:mapred-site、xml C:hadoop-env、sh D:hdfs-site、xml
A:MapReduce框架采用了Master/Slave架构,包括一个Master和若干个Slave B:不同的Map任务之间不能互相通信 C:Hadoop框架是用Java实现的,MapReduce应用程序则一定要用Java来写 D:Map函数将输入的元素转换成<key,value>形式的键值对
温馨提示支付 ¥5.00 元后可查看付费内容,请先翻页预览!