1.ADS数据应用层,在ADS层中,进行最终指标统计,从而服务于报表系统的数据展示。( )
A:对 B:错
答案:对
2.使用列式存储数据采用LZO的压缩格式,目的是提高当前表数据在查询过程中的效率。( )
A:对 B:错
答案:对
3.Flume在数据传输过程中,事件中的Value即 body,body是一个字节数组,封装的是传输的数据。( )
A:对 B:错
答案:对
4.删除Kafka主题时,在配置文件中设置delete.topic.enable=true,才是完全删除,否则为标记删除。
A:错 B:对
答案:对
5.Flume的数据流可以根据headers的信息发送到不同的channel中。( )
A:正确 B:错误
答案:正确
6.外连接中,显示左表所有数据的是右外连接。( )
A:错 B:对
答案:错
7.Hadoop是Apache基金会开发的一款分布式系统基础架构,主要解决海量数据存储和海量数据计算两大问题,从广义上来说,Hadoop通常指的是Hadoop生态圈。( )
A:错 B:对
答案:对
8.MapReduce词频统计案例中,Driver阶段的Configuration会操作job对象实现案例需求( )。
A:错 B:对
答案:对
9.Hive本身没有存储功能,其数据要基于HDFS来存储。( )
A:对 B:错
答案:对
10.在项目中,关于数据迁移的实现是由sqoop完成,主要将HDFS上的数据抽取到MySQL。( )
A:对 B:错
答案:对
11.在HQL关联测试中,测试表是员工表和地址表。 ( )
A:对 B:错

12.Event的最大定义为1024字节,超过会被切割放到下一个Event中。( )
A:错 B:对 13.在使用PyEcharts绘制轮播多图时,需要事先导入Timeline类。( )
A:对 B:错 14.insert overwrite命令将数据写入表中( )
A:对 B:错 15.可以使用zkServer.sh stop命令开启Zookeeper。( )
A:对 B:错 16.在使用pyecharts绘制饼图时,需要事先导入PictorialBar类。( )
A:对 B:错 17.在Flume数据传输过程中,选择Kafka sink,能把数据写入Kafka对应的Topic中( )
A:错 B:对 18.在编写Flume拦截器代码时,configure方法的功能是可以获取到Flume进程在运行过程中的运行参数,然后对其进行引用。( )
A:错 B:对 19.在项目中,使用MySQL的应用场景有两个,一是用来存储Hive的元数据信息,二是存储数据仓库统计出来的指标结果( )
A:对 B:错 20.在设计Flume数据采集系统时,增加 source 个数,可以增大 source 读取能力。( )
A:错 B:对 21.在Flume数据传输过程中,Agent主要由( )组成。
A:Sink B:Channel C:App D:Source 22.根据在Flume数据采集脚步中的拦截器配置,程序首先对Builder内部类进行实例化,从而执行类中的两个方法,分别为( )。
A:Close B:initialize C:Build D:Configure 23.Flume在数据传输过程中,事件包含两部分( )。
A:Value B:action C:Method D:Key 24.下列属于事件日志数据合法校验步骤的是( )。
A:对数据进行校验 B:校验是否为json格式 C:校验服务器时间 D:对日志进行切割 25.DWT层,构建一张设备主题宽表的字段有哪些( )
A:手机型号 B:手机品牌 C:累积活跃天数 D:设备唯一标识 26.安装MySQL服务时,需要安装以下( )。
A:MySQL所需要的依赖库 B:MySQL的客户端服务 C:MySQL的公共服务 D:MySQL的服务端服务 27.内连接使用到的关键字是( )。
A:join B:Full join C:Left join D:inner join 28.下列关于zookeeper的描述,正确的是( )。
A:一次数据更新要么成功(半数以上节点成功),要么失败,不存在中间状态,即数据更新原子性 B:具有顺序性,即更新请求是按照顺序进行的 C:集群中只要有半数以上节点存活,Zookeeper集群就能正常服务 D:Zookeeper是一个领导者(Leader),多个跟随者(Follower)组成的集群 29.在HQL实现过程中,一个语句里要执行( )两部分操作。
A:分析数据 B:将查询结果直接保存到对应的统计结果表中 C:数据可视化的展示 D:查询业务数据表中的数据 30.外连接中,显示左表或者右表所有数据的是( )。
A:全外连接 B:左外连接 C:内连接 D:右外连接 31.整个MapReduce的执行过程可以分为split、map、( )五个阶段。
A:输出 B:输入 C:shuffle D:reduce 32.下列参数中,哪些是Sqoop导入全部数据命令时用到的参数( )?
A:--connect B:--table C:--password D:--username 33.配置hadoop的核心文件有( )。
A:core-site.xml , B:mapred-site.xml C:hadoop-env.sh D:hdfs-site.xml 34.yarn集群核心配置的文件是( )。
A:hdfs-site.xml B:yarn-site.xml C:core-site.xml D:mapred-site.xml 35.在本教材的实战操作中,打开hosts文件,设置三台虚拟机的IP地址及映射名称,需要输入( )内容。
A:192.168.100.5 node3 B:192.168.100.3 node1 C:192.168.100.4 node2 D:192.168.100.5 node4 36.以下描述正确的是( )
A:Map阶段产生的数据会通过shuffle阶段,在内存缓冲区中进行数据的分区、排序、分组的处理 B:Reduce阶段是将一个大的计算任务分解成多个小任务 C:shuffle阶段是整个MapReduce执行过程中最复杂的一步 D:整个MapReduce的执行过程可以分为五个阶段 37.使用pyecharts进行可视化时,可以用下哪个选项设置图例不显示?( )
A:label_opts=opts.LabelOpts(is_show=False) B:axisline_opts=opts.AxisLineOpts(is_show=False) C:xaxis_opts=opts.AxisOpts(is_show=False) D:legend_opts=opts.LegendOpts(is_show=False) 38.在Linux命令行中,使用schematool命令( )
A:格式化hive元数据库 B:刷新配置 C:删除hive元数据库 D:更新hive元数据库 39.Hive定义了类似于SQL语言的( )语言。
A:DQL B:EQL C:HQL D:VQL 40.Flume可以快速消费Kafka Topic数据,然后将消费后的数据转发到( )上。
A:HDFS B:Source C:Sink D:Channel 41.下列哪条命令可以为f1.sh脚本文件赋予权限( )。
A:./f1.sh start B:vim f1.sh C:./f1.sh stop D:chmod u+x f1.sh 42.使用hdfs dfs -count / 查看根目录下面数据文件的个数,显示结果为“14 9 458745”,其中9代表的是( )
A:文件的嵌套层数 B:子目录的个数 C:所有文件的字节数 D:文件个数 43.执行聚合统计的函数是( )
A:MIN B:COUNT C:SUM D:MAX 44.Sqoop的工作本质是( )。
A:迁移数据 B:存储数据 C:接收数据 D:处理数据 45.在纵向拼接中,可以实现去重的是( )。
A:Union all B:Distinct C:Full join D:union 46.( )命令可以查看当前HDFS上面文件内容的数据。
A:cat B:cd C:ls D:open 47.在Flume数据采集配置文件中,kafka.bootstrap.servers= node1:9092 ,该配置表示( )
A:配置Kafka的路径 B:配置Kafka的通信地址 C:配置kafka的Topic的数量 D:配置Kafka的消费组 48.在Hive中,给数据表添加数据,可以将数据文件当中的数据一次性加载到指定的表中的方法是( )。
A:insert into B:append C:add D:load 49.pyecharts中,用以下哪个配置项对图表标题进行设置?( )
A:LegendOpts B:AxisOpts C:TitleOpts D:InitOpts 50.pyecharts 中的()可以实现将多个图表在一个页面中进行布局。( )
A:Polar B:Page C:Pie D:PictorialBar 51.在Sqoop执行数据迁移过程中,当不需要做任何聚合操作时,只需要MR程序当中的( )阶段即可。
A:Shuffle B:Reduce C:Map D:Split 52.公共字段 cm中字段含义为设备唯一标识的字段是( )
A:vc B:mid C:uid D:vn

温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!
点赞(3) dxwkbang
返回
顶部