大数据核心技术A卷
岭南师范学院2015 年- 2016 学年度第二学期
期末考试试题苍井空拍的电影A
(考试时间: 120 分钟)中国服装
考试科目:  大数据核心技术   
总评分人
复查人
30
16
20
24
10
得分
评卷人
一、单项选择题(每小题 2 分,共 30 )
请把答案写在下表中,写在试题后无效。
题号
1
2
3
4
5
6
7
8
答案
题号
9
10
11
12
13
14
15
答案
1. 下面哪个程序负责 HDFS 数据存储。                 
A. NameNode      B. Jobtracker
C. Datanode      D. secondaryNameNode
2.  HDFS 中的 block 默认保存几个备份。           
A. 3           B. 2
C. 1           D. 不确定
3.  HDFS1.0 默认 Block Size大小是多少。           
A. 32MB          B. 64MB
C. 128MB        D. 256MB
4. 下面哪个进程负责 MapReduce 任务调度。               
A. NameNode          B. Jobtracker
C. TaskTracker        D. secondaryNameNode
5. Hadoop1.0默认的调度器策略是哪个。                   
A. 先进先出调度器    B. 计算能力调度器
C. 公平调度器        D. 优先级调度器
6. Client 端上传文件的时候下列哪项正确?                  B
A. 数据经过 NameNode 传递给 DataNode
B. Client 端将文件切分为 Block,依次上传
C. Client 只上传数据到一台 DataNode,然后由 NameNode 负责 Block 复制工作
D. 以上都不正确
7. 在实验集的master节点使用jps命令查看进程时,终端出现以下哪项能说明Hadoop主节点启动成功?                                                D
A. Namenode, Datanode, TaskTracker     
B. Namenode, Datanode, secondaryNameNode
C. Namenode, Datanode, HMaster 
D. Namenode, JobTracker, secondaryNameNode
8. 若不针对MapReduce编程模型中的keyvalue值进行特别设置,下列哪一项是MapReduce不适宜的运算。                                                D
A. Max                B. Min
C. Count              D. Average
9. MapReduce编程模型,键值对<key, value>key必须实现哪个接口?     
A. WritableComparable    B. Comparable
C. Writable              D. LongWritable
10. 以下哪一项属于非结构化数据。(C
A. 企业ERP数据          B. 财务系统数据
C. 视频监控数据          D. 日志数据
11. HBase数据库的BlockCache缓存的数据块中,哪一项不一定能提高效率。 
A. –ROOT-            B. .META.
C. HFile index          D. 普通的数据块
12. HBase是分布式列式存储系统,记录按什么集中存放。                   
A. 列族                  B.
C.                     D. 不确定
13. HBaseRegion组成中,必须要有以下哪一项。                          B
A. StoreFile            B. MemStore
C. HFile                D. MetaStore
14. 客户端首次查询HBase数据库时,首先需要从哪个表开始查。           
A. .META.                B. –ROOT-
C. 用户表                D. 信息表
15、设计分布式数据仓库hive的数据表时,为取样更高效,一般可以对表中的连续字段进行什么操作。                                                                  A
A. 分桶                  B. 分区
C. 索引                  D. 分表
描写元宵节的古诗词
得分
评卷人
二、判断题(每题 2 分,共 16 )
请在下表中填写或者×,写在试题后无效。
题号
1
2
3
4
5
6
7
8
答案
  1. Hadoop 支持数据的随机读写。 hbase支持,hadoop不支持)                 
2. NameNode 负责管理元数据信息metadataclient 端每次读写请求,它都会从磁盘中读取或会写入 metadata 信息并反馈给 client 端。(内存中读取)        
3. MapReduce input split 一定是一个 block  (默认是)           错)
4. MapReduce适于PB级别以上的海量数据在线处理。  (离线)           
5. 链式MapReduce计算中,对任意一个MapReduce作业,MapReduce如何提升品牌知名度阶段可以有无限个Mapper,但Reducer只能有一个。                                     
6. MapReduce计算过程中,相同的key默认会被发送到同一个reduce task处理。( 
7. HBase对于空(NULL)的列,不需要占用存储空间。  (没有则空不存储)(  
8. HBase可以有列,可以没有列族column family)。  (有列族)       
得分
评卷人
三、简答题(每小题 5 分,共 20 )
    1. 简述大数据技术的特点。
  答:Volume(大体量):即可从数百TB到数十数百PB、甚至EB规模。
Variety(多样性):即大数据包括各种格式和形态的数据。
Velocity(时效性):即很多大数据需要在一定的时间限度下得到及时处理。
Veracity(准确性):即处理的结果要保证一定的准确性。
Value(大价值):即大数据包含很多深度的价值,大数据分析挖掘和利用带来巨大的商业
价值。
2. 启动Hadoop系统,当使用bin/start-all.sh命令启动时,请给出集各进程启动顺序。
答:启动顺序:namenode –> datanode -> secondarynamenode -> resourcemanager -> nodemanager 
3. 简述HBase的主要技术特点。
答:(1)列式存储
(2)表数据是稀疏的多维映射表
(3)读写的严格一致性
(4)提供很高的数据读写速度
(5)良好的线性可扩展性
(6)提供海量数据
(7)数据会自动分片
(8)对于数据故障,hbase是有自动的失效检测和恢复能力。
(9)提供了方便的与HDFSMAPREDUCE集成的能力。
4. Hive教师节老师的感谢语数据仓库中,创建了以下外部表,请给出对应的浙江湖州区号HQL查询语句
CREATE EXTERNAL TABLE sogou_ext (
ts  STRING,    uid  STRING,    keyword  STRING, 
rank INT,      order INT,      url  STRING, 
year INT,      month INT,      day  INT,    hour INT
)
COMMENT 'This is the sogou search data of extend data'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
STORED AS TEXTFILE
LOCATION '/sogou_ext/20160508';
1)给出独立uid总数的HQL语句
答:select count(distinct UID) from sogou_ext;
2)对于keyword,给出其频度最高的20个词的HQL语句
答:select keyword from sogou_ext group by keyword order by order desc limit 20;
得分
评卷人
四、设计题(每小题 8 分,共 24 )
  1. 100万个字符串,其中有些是相同的(重复),需要把重复的全部去掉,保留没有重复
的字符串。请结合MapReduce编程模型给出设计思路或核心代码。
P228
Public static class  ProjectionMap extends Mapper<LongWritable,Text,Text,NullWritable>
{
Private int clo;
Project void setup(Context context) throws IOException,InterruptedException{
    Configuration().getInt(col,0);

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。