山西职业技术学院
  1. 在编写Flume拦截器代码中,实现 Interceptor需要重写( )方法

  2. A:initialize 初始化 B:public Event intercept(Event event) 处理单个 Event C:public List<Event> intercept(List<Event> events) 处理多个 Event,在这个方法中调用 Event intercept(Event event) D:close 方法
    答案:public Event intercept(Event event) 处理单个 Event###public List intercept(List events) 处理多个 Event,在这个方法中调用 Event intercept(Event event)###close 方法###initialize 初始化
  3. pyecharts的Page中内置了以下哪些布局方式?( )

  4. A:DraggablePageLayout B:DisplayPageLayout C:SimplePageLayout D:ComplexPageLayout
    答案:SimplePageLayout###DraggablePageLayout
  5. 以下描述正确的是( )

  6. A:整个MapReduce的执行过程可以分为五个阶段 B:shuffle阶段是整个MapReduce执行过程中最复杂的一步 C:Reduce阶段是将一个大的计算任务分解成多个小任务 D:Map阶段产生的数据会通过shuffle阶段,在内存缓冲区中进行数据的分区、排序、分组的处理
    答案:A/B/D
  7. 在HQL实现过程中,一个语句里要执行( )两部分操作。

  8. A:将查询结果直接保存到对应的统计结果表中 B:查询业务数据表中的数据 C:数据可视化的展示 D:分析数据
    答案:B: 查询业务数据表中的数据
  9. 本项目编写Flume自定义拦截器步骤( )

  10. A:实现 Exception B:重写四个方法 C:静态内部类,实现 Interceptor.Builder D:实现 Interceptor
    答案:重写四个方法###静态内部类,实现 Interceptor.Builder###实现 Interceptor
  11. flume中自定义的分流标记拦截器可以实现( )两种分流。

  12. A:错误日志流 B:启动日志流 C:事件日志流 D:时间日志流
    答案:启动日志流###事件日志流
  13. 下列属于事件日志数据合法校验步骤的是( )。

  14. A:对数据进行校验 B:对日志进行切割 C:校验服务器时间 D:校验是否为json格式
    答案:校验服务器时间###对数据进行校验###对日志进行切割###校验是否为json格式
  15. 在本教材的实战操作中,打开hosts文件,设置三台虚拟机的IP地址及映射名称,需要输入( )内容。

  16. A:192.168.100.5 node4 B:192.168.100.5 node3 C:192.168.100.3 node1 D:192.168.100.4 node2
    答案:192.168.100.3 node1###192.168.100.5 node3###192.168.100.4 node2
  17. 在JSON字符串中,Object结构是( )。

  18. A:value B:{key:value,key:value...} C:Key D:key , value
    答案:{key:value,key:value...}###key , value
  19. 创建活跃设备数据表中包含有哪些字段( )

  20. A:日期是否为周末和月末 B:统计日期 C:当周用户数量 D:当月用户数量
  21. Hadoop具有四大优势,是( )。

  22. A:高可靠性 B:高效性 C:高容错性 D:高扩展性
  23. 创建每日新增设备数据表包含有( )哪些字段

  24. A:统计日期字段 B:新增设备数量字段 C:设备唯一标识 D:用户ID,
  25. 以下关于Kafka的存储机制描述正确的是( )。

  26. A:顺序写入 B:分区存储 C:非顺序写入 D:可靠性
  27. yarn集群核心配置的文件是( )。

  28. A:yarn-site.xml B:hdfs-site.xml C:mapred-site.xml D:core-site.xml
  29. 下列属于事件日志数据的是( )。

  30. A:用户发表评论数据 B:商品点击数据 C:用户点赞数据 D:用户收藏数据
  31. 谷歌开源的三篇大数据论文有( )。

  32. A:HDFS B:GFS C:BigTable D:MapReduce
  33. 在Zookeeper的配置文件中,要设置的dataDir参数的功能是( )。

  34. A:配置启动Zookeeper B:指定Zookeeper存储数据的位置 C:接收客户端的访问请求 D:添加Zookeeper集群的映射信息
  35. 在ETL拦截器中,我们重写的初始化方法initialize()可以理解为是( )。

  36. A:进行流程控制 B:资源的申请 C:业务逻辑处理 D:资源的关闭
  37. 用于文件在网络间安全传输的软件是( ) 。

  38. A:VMware B:Xftp C:IDEA D:Xshell
  39. 使用hdfs dfs -count / 查看根目录下面数据文件的个数,显示结果为“14 7 248745”,其中14代表的是( )

  40. A:子目录的个数 B:文件的嵌套层数 C:所有文件的字节数 D:文件个数
  41. PyEcharts中,折线图类是( )。

  42. A:Bar B:Pie C:Liquid D:Line
  43. 在Linux系统中,( )目录默认为空,在本课程项目开发过程中是使用最多的目录。

  44. A:Root B:Home C:Etc D:opt
  45. Sqoop的工作本质是( )。

  46. A:存储数据 B:接收数据 C:处理数据 D:迁移数据
  47. 在编写Flume拦截器代码时,intercept(List events)方法的功能是用来接收source传递的批次数据,对其进行( )。

  48. A:获取进程 B:管理控制 C:开辟资源 D:扩容
  49. 项目实施流程中没有哪一步( )

  50. A:下载数据 B:数据访问 C:数据导出 D:数据仓库设计开发
  51. 在Flume数据传输系统中,Channel Processor 是( )。

  52. A:Channel 选择器 B:Channel 调节器 C:Channel 变压器 D:Channel 处理器
  53. 在编写Flume拦截器代码时,initialize() 方法的作用是:当程序中需要开辟某种资源时申请资源,该方法的特点是程序至始至终,只执行( );

  54. A:两次 B:一次 C:四次 D:三次
  55. 当Kafka启动之后,会把元数据保存到哪里( )?

  56. A:MySQL B:HDFS C:Zookeeper D:Hive
  57. 在Flume数据传输系统中,memory channel的特点是( )。

  58. A:数据存储于磁盘,优势:传输速度快;劣势:可靠性差 B:数据存储于磁盘,优势:可靠性高;劣势:传输速度慢 C:数据存储于内存,优势:可靠性高;劣势:传输速度慢 D:数据存储于内存,优势:传输速度快;劣势:可靠性差
  59. 在Flume数据传输过程中,Source的主要功能是和外部数据源对接,负责数据的采集,将采集回来的数据传递给( )。

  60. A:Sink B:App C:Channel D:Source
  61. 创建bigdata用户的命令是( )。

  62. A:su bigdata B:bigdata ALL C:useradd bigdata D:sudoers
  63. 在编写flume拦截器代码中event.getHeaders( )方法的功能是( )。

  64. A:从各个body中获取body的头部信息 B:从各个body中获取header的头部信息 C:从各个body中获取map的信息 D:从各个body中获取key的信息
  65. mapred-site.xml配置文件主要是针对MapReduce程序在YARN集群上运行的一些相关参数的配置,需要找到对应的文件。( )

  66. A:对 B:错
  67. Hadoop是Apache基金会开发的一款分布式系统基础架构,主要解决海量数据存储和海量数据计算两大问题,从广义上来说,Hadoop通常指的是Hadoop生态圈。( )

  68. A:错 B:对
  69. 通过Sqoop可以将关系型数据库的数据迁移到Hadoop平台,但是不可以将Hadoop平台的数据迁移到关系型数据库。( )

  70. A:对 B:错
  71. Sqoop数据迁移时,命令参数fields-terminated-by代表导入数据的切分格式。

  72. A:对 B:错
  73. 折线图主要以百分比形式显示每一类数值相对于总数值的大小。( )

  74. A:对 B:错
  75. 启动hive之前只需要启动hive --server metastore服务。( )

  76. A:错 B:对
  77. 数据仓库就是数据库。( )

  78. A:错 B:对
  79. Kafka内部有两个topic分别用来接收Flume传输过来的数据,topic_start接收启动日志数据,topic_event接收事件日志数据。( )

  80. A:错 B:对
  81. insert overwrite命令将数据写入表中( )

  82. A:错 B:对
  83. 删除Kafka主题时,在配置文件中设置delete.topic.enable=true,才是完全删除,否则为标记删除。

  84. A:对 B:错
  85. 在编写Flume拦截器代码时,build方法是拦截器类的核心方法,功能是将当前自定义的LogETLInterceptor类进行实例化,从而提供给Flume进程在运行过程中对其调用。( )

  86. A:对 B:错
  87. 在分流标记拦截器中,初始化和关闭方法进行空实现即可。( )

  88. A:错 B:对
  89. Kafka最大的特性就是可以实时的处理大量数据以满足各种需求场景,比如基于hadoop的批处理系统、低延迟的实时系统、storm/Spark流式处理引擎,web/nginx日志、访问日志,消息服务等。( )

  90. A:错 B:对
  91. 本项目中,/opt目录下存放着项目所安装的全部软件及所有数据文件。( )

  92. A:对 B:错
  93. 饼图主要用于展现数据的变化趋势。( )

  94. A:错 B:对
  95. 数据仓库主要是为决策分析提供数据。( )

  96. A:错 B:对
  97. 实现全外连接的关键字是join。( )

  98. A:错 B:对
  99. Event的最大定义为1024字节,超过会被切割放到下一个Event中。( )

  100. A:对 B:错
  101. Sqoop作为大数据平台的数据搬运工,比较轻松地打开了关系数据库与分布式存储体系之间方便之门。为传统数据仓库平稳过渡到大数据平台作出了重要贡献。( )

  102. A:对 B:错
  103. Flume基于事务传输event(批量传输),使用两个独立的事务分别处理source到channel和channel到sink,失败时会将所有数据回滚进行重试。该事务遵循“最少一次”语义,因此数据不会丢失,但有可能重复。( )

  104. A:错 B:对

温馨提示支付 ¥5.00 元后可查看付费内容,请先翻页预览!
点赞(4) dxwkbang
返回
顶部