189 8069 5689

大数据数据库HBase的集群安装部署方法

这篇文章主要介绍“大数据数据库HBase的集群安装部署方法”,在日常操作中,相信很多人在大数据数据库HBase的集群安装部署方法问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”大数据数据库HBase的集群安装部署方法”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

创新互联专注于弋江网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供弋江营销型网站建设,弋江网站制作、弋江网页设计、弋江网站官网定制、小程序定制开发服务,打造弋江网络公司原创品牌,更为您提供弋江网站排名全网营销落地服务。

前言

Hive的学习告一段落,接下来开始了解大数据主流NoSql数据库HBase,本文主要讲解HBase集群的安装部署,为后续Hbase学习作准备。


1. HBase是什么(5分钟)

  • 漫画学习HBase----最易懂的Hbase架构原理解析

1.1 HBase的概念

  • HBase基于Google的BigTable论文,是建立的==HDFS==之上,提供高可靠性高性能列存储可伸缩实时读写的分布式数据库系统。

  • 在需要==实时读写随机访问==超大规模数据集时,可以使用HBase。

1.2 HBase的特点

  • ==海量存储==

    • 可以存储大批量的数据

  • ==列式存储==

    • HBase表的数据是基于列族进行存储的,列族是在列的方向上的划分。

  • ==极易扩展==

    • 底层依赖HDFS,当磁盘空间不足的时候,只需要动态增加datanode节点就可以了

    • 可以通过增加服务器来对集群的存储进行扩容

  • ==高并发==

    • 支持高并发的读写请求

  • ==稀疏==

    • 稀疏主要是针对HBase列的灵活性,在列族中,你可以指定任意多的列,在列数据为空的情况下,是不会占用存储空间的。

  • ==数据的多版本==

    • HBase表中的数据可以有多个版本值,默认情况下是根据版本号去区分,版本号就是插入数据的时间戳

  • ==数据类型单一==

    • 所有的数据在HBase中是以==字节数组==进行存储

2. HBase集群安装部署

2.1 准备安装包

  • 下载安装包并上传到node01服务器

  • 安装包下载地址:

    http://archive.cloudera.com/cdh6/cdh/5/hbase-1.2.0-cdh6.14.2.tar.gz

  • 将安装包上传到node01服务器/kkb/soft路径下,并进行解压

[hadoop@node01 ~]$ cd /kkb/soft/
[hadoop@node01 soft]$ tar -xzvf hbase-1.2.0-cdh6.14.2.tar.gz -C /kkb/install/

2.2 修改HBase配置文件

2.2.1 hbase-env.sh
  • 修改文件

[hadoop@node01 soft]$ cd /kkb/install/hbase-1.2.0-cdh6.14.2/conf/
[hadoop@node01 conf]$ vim hbase-env.sh
  • 修改如下两项内容,值如下

export JAVA_HOME=/kkb/install/jdk1.8.0_141
export HBASE_MANAGES_ZK=false

大数据数据库HBase的集群安装部署方法 大数据数据库HBase的集群安装部署方法

2.2.2 hbase-site.xml
  • 修改文件

[hadoop@node01 conf]$ vim hbase-site.xml

	
		hbase.rootdir
		hdfs://node01:8020/hbase  
	
	
		hbase.cluster.distributed
		true
	
	
	
		hbase.master.port
		16000
	
	
		hbase.zookeeper.quorum
		node01,node02,node03
	
    
	
		hbase.zookeeper.property.clientPort
		2181
	
	
		hbase.zookeeper.property.dataDir
		/kkb/install/zookeeper-3.4.5-cdh6.14.2/zkdatas
	
    
	
		zookeeper.znode.parent
		/hbase
	
2.2.3 regionservers
  • 修改文件

[hadoop@node01 conf]$ vim regionservers
  • 指定HBase集群的从节点;原内容清空,添加如下三行

node01
node02
node03
2.2.4 back-masters
  • 创建back-masters配置文件,里边包含备份HMaster节点的主机名,每个机器独占一行,实现HMaster的高可用

[hadoop@node01 conf]$ vim backup-masters

2.3 分发安装包

  • 将node01上的HBase安装包,拷贝到其他机器上

[hadoop@node01 conf]$ cd /kkb/install
[hadoop@node01 install]$ scp -r hbase-1.2.0-cdh6.14.2/ node02:$PWD
[hadoop@node01 install]$ scp -r hbase-1.2.0-cdh6.14.2/ node03:$PWD

2.4 创建软连接

  • **注意:三台机器**均做如下操作

  • 因为HBase集群需要读取hadoop的core-site.xml、hdfs-site.xml的配置文件信息,所以我们==三台机器==都要执行以下命令,在相应的目录创建这两个配置文件的软连接

ln -s /kkb/install/hadoop-2.6.0-cdh6.14.2/etc/hadoop/core-site.xml  /kkb/install/hbase-1.2.0-cdh6.14.2/conf/core-site.xml

ln -s /kkb/install/hadoop-2.6.0-cdh6.14.2/etc/hadoop/hdfs-site.xml  /kkb/install/hbase-1.2.0-cdh6.14.2/conf/hdfs-site.xml
  • 执行完后,出现如下效果,以node01为例 大数据数据库HBase的集群安装部署方法

2.5 添加HBase环境变量

  • **注意:三台机器**均执行以下命令,添加环境变量

sudo vim /etc/profile
  • 文件末尾添加如下内容

export HBASE_HOME=/kkb/install/hbase-1.2.0-cdh6.14.2
export PATH=$PATH:$HBASE_HOME/bin
  • 重新编译/etc/profile,让环境变量生效

source /etc/profile

2.6 HBase的启动与停止

  • 需要提前启动HDFS及ZooKeeper集群

  • 第一台机器==node01==(HBase主节点)执行以下命令,启动HBase集群

[hadoop@node01 ~]$ start-hbase.sh
  • 启动完后,jps查看HBase相关进程

    node01、node02上有进程HMaster、HRegionServer

    node03上有进程HRegionServer

  • 警告提示:HBase启动的时候会产生一个警告,这是因为jdk7与jdk8的问题导致的,如果linux服务器安装jdk8就会产生这样的一个警告

大数据数据库HBase的集群安装部署方法

  • 可以注释掉所有机器的hbase-env.sh当中的

    “HBASE_MASTER_OPTS”和“HBASE_REGIONSERVER_OPTS”配置 来解决这个问题。

    不过警告不影响我们正常运行,可以不用解决

  • 我们也可以执行以下命令,单节点启动相关进程

#HMaster节点上启动HMaster命令
hbase-daemon.sh start master

#启动HRegionServer命令
hbase-daemon.sh start regionserver

2.7 访问WEB页面

  • 浏览器页面访问

    http://node01:60010

大数据数据库HBase的集群安装部署方法

1.8 停止HBase集群

  • 停止HBase集群的正确顺序

  • node01上运行

[hadoop@node01 ~]$ stop-hbase.sh
  • 若需要关闭虚拟机,则还需要关闭ZooKeeper、Hadoop集群

到此,关于“大数据数据库HBase的集群安装部署方法”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!


网页标题:大数据数据库HBase的集群安装部署方法
文章源于:http://cdxtjz.cn/article/ghoiso.html

其他资讯