1.启动Hadoop
start-all.sh
验证
http://master:50070
2、启动zookeeper
需要在在三台中分别启动
zkServer.sh start
zkServer.sh status
搭建Hbase
1、上传解压配置环境变量
tar -xvf hbase-1.4.6-bin.tar.gz
2、修改hbase-env.sh文件
增加java配置
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171
关闭默认zk配置
export HBASE_MANAGES_ZK=false
3、修改hbase-site.xml文件
<property><name>hbase.rootdir</name><value>hdfs://master:9000/hbase</value></property><property><name>hbase.cluster.distributed</name><value>true</value></property><property><name>hbase.zookeeper.quorum</name><value>node1,node2,master</value></property>
4、修改regionservers文件
增加
node1
node2
如果是伪分布式版本,增加master即可
5、同步到所有节点(如果是伪分布式不需要同步)
scp -r hbase-1.4.6/ node1:`pwd`
scp -r hbase-1.4.6/ node2:`pwd`
6、配置环境变量
vim /etc/profile
7、启动hbase集群 , 需要在master上执行
start-hbase.sh
8、验证hbase
http://master:16010
hbase日志文件所在的目录
/usr/local/soft/hbase-1.4.6/logs
关闭集群的命令
stop-hbase.sh
时间同步
yum install ntp -y
ntpdate -u time.windows.com
通过 hbase shell 进入到hbase的命令行
创建表 列簇 列式数据库
create \’test\’,\’info\’
插入数据
put \’test\’,\’000\’,\’info:name\’,\’zhaosi\’
put \’test\’,\’001\’,\’info:name\’,\’zhangsan\’
put \’test\’,\’002\’,\’info:name\’,\’lisi\’
put \’test\’,\’003\’,\’info:name\’,\’wangwu\’
put \’test\’,\’0011\’,\’info:name\’,\’wangwu2\’
查询数据
get \’test\’,\’001\’
hbase 搭建失败了 不知道问题出在哪里
重置hbase
1、关闭hbase集群
杀死进程
stop-hbase.sh
2、删除数据 hdfs
hadoop dfs -rmr /hbase
3、删除元数据 zk
zkCli.sh
rmr /hbase
4、重新启动hbase
start-hbase.sh
Hbase架构
1.Hbase简介
HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩、实时读写的分布式数据库
利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为其分布式协同服务
主要用来存储非结构化和半结构化的松散数据(列存 NoSQL 数据库)
Master
·为Region server分配region
·负责Region server的负载均衡
·发现失效的Region server并重新分配其上的region
·管理用户对table的增删改操作
RegionServer
· Region server维护region,处理对这些region的IO请求· Region server负责切分在运行过程中变得过大的region
Region
HBase自动把表水平划分成多个区域(region),每个region会保存一个表里面某段连续的数据;每个表一开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阀值的时候,region就会等分会两个新的region(裂变)。
当table中的行不断增多,就会有越来越多的region。这样一张完整的表被保存在多个Regionserver 上
Row key
唯一标识一行数据
可以通过RowKey获取一行数据
按照字典升序排序的。
Row key只能存储64k的字节数据 10-100byte
Column Family(列族)和qualifier(列)
HBase表中的每个列都归属于某个列族,列族必须作为表模式(schema)定义的一部分预先给出。如 create ‘test’, ‘course’。
列名以列族作为前缀,每个“列族”都可以有多个列成员(column);如course:math, course:english, 新的列族成员(列)可以随后按需、动态加入。
权限控制、存储以及调优都是在列族层面进行的;
HBase把同一列族里面的数据存储在同一目录下,由几个文件保存。
Memstore 与 storefile
一个region由多个store组成,一个store对应一个CF(列族)store包括位于内存中的memstore和位于磁盘的storefile写操作先写入memstore,当memstore中的数据达到某个阈值,hregionserver会启动flashcache进程写入storefile,每次写入形成单独的一个storefile
当storefile文件的数量增长到一定阈值后,系统会进行合并(minor、major compaction),在合并过程中会进行版本合并和删除工作(majar),形成更大的storefile
当一个region所有storefile的大小和数量超过一定阈值后,会把当前的region分割为两个,并由hmaster分配到相应的regionserver服务器,实现负载均衡
客户端检索数据,先在memstore找,找不到再找storefile
Timestamp时间戳
在HBase每个cell存储单元对同一份数据有多个版本,根据唯一的时间戳来区分每个版本之间的差异,不同版本的数据按照时间倒序排序,最新的数据版本排在最前面。
时间戳的类型是 64位整型。
时间戳可以由HBase(在数据写入时自动)赋值,此时时间戳是精确到毫秒的当前系统时间
时间戳也可以由客户显式赋值,如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。
Cell单元格
由行和列的坐标交叉决定。 单元格是有版本的。
单元格的内容是未解析的字节数组。 由{row key, column( =<family> +<qualifier>), version} 唯一确定的单元。
cell中的数据是没有类型的,全部是字节码形式存贮。
HLog(WAL log)
HLog文件就是一个普通的Hadoop Sequence File,Sequence File 的Key是HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和region名字外,同时还包括 sequence number和timestamp,timestamp是”写入时间”,sequence number的起始值为0,或者是最近一次存入文件系统中sequence number。
HLog SequeceFile的Value是HBase的KeyValue对象,即对应HFile中的KeyValue。