Hadoop的两大核心是HDFS和MapReduce,HDFS用来存储数据,MapReduce用来处理数据。
第1题:
A.延迟高
B.只允许对文件执行追加操作,不能执行随机写操作
C.用MapReduce处理大量小文件时,会产生过多的Map任务,线程管理开销会大大增加
D.拥有复杂的数据模型
第2题:
A、NameNodeB、Jobtracker
B、Datanode
C、Secondary namenode
D、tasktracker
第3题:
hadoop中的hdfs是分布式()
第4题:
Hadoop分布式文件系统(HDFS)具有()的特性。
第5题:
Hive架构建立在Hadoop之上的,所有Hive中数据都是存储在HDFS中
第6题:
下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().
第7题:
MapReduce执行过程中,数据存储位置不是在GFS上的是()
第8题:
大量小文件存储
高容错,高吞吐量
低延迟读取
流式数据访问
第9题:
Hive最终将数据存储在HDFS中
HiveSQL其本质是执行MapReduce任务
Hive是Hadoop平台的数据仓库工具
Hive对HBase有强依赖
第10题:
适合数据批量处理
数据处理能力极强
最大化吞吐率
允许计算向数据迁移
适合多线程问题
第11题:
第12题:
NameNode
DataNode
ZooKeeper
JobTraoker
第13题:
此题为判断题(对,错)。
第14题:
hadoop中的hdfs实现底层是通过以下哪个选项实现的()
第15题:
在Bigtable中,()主要用来存储子表数据以及一些日志文件
第16题:
Hive?是建立在Hadoop?之上的,所有?Hive?的数据都是存储在HDFS?中的
第17题:
Spark可以使用Hadoop的YARN和ApacheMesos作为它的资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等
第18题:
随着谷歌()和()的发布,大数据不再仅用来描述大量的数据,还涵盖了处理数据的速度。
第19题:
下面哪个程序负责HDFS数据存储()。
第20题:
第21题:
支持回收站机制,以及副本数的动态设置机制
数据存储以数据块为单位,存储在操作系统的HDFS文件系统上
提供JAVAAPI,HTTP方式,SHELL方式访问HDFS数据
HDFS对外仅呈现多个统一的文件系统
第22题:
第23题:
大量小文件存储
流式数据访问
随机写入
低延迟读取
第24题:
FSDataInputStream扩展了DataInputStream以支持随机读
为实现细粒度并行,输入分片应该越小越好
一台机器可能被指派从输入文件的任意位置开始处理一个分片
输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割