Hbase生产环境依赖于zookeeper组件,所以需要先将zk安装成功。
1.启动zk集群
/opt/zookeeper-3.4.5/bin/zkServer.sh start
2.Hadoop 集群的正常部署并启动:
$ ~/opt/hadoop-2.7.2/sbin/start-dfs.sh
$ ~/opt/hadoop-2.7.2/sbin/start-yarn.sh
3.HBase 的解压
tar -zxf /softwares/hbase-1.3.1-bin.tar.gz -C ~/opt/
4.HBase 的配置文件,文章转自微信ody_bigdata
需要修改 HBase 对应的配置文件。
hbase-env.sh 修改内容:
export JAVA_HOME=/opt/jdk1.8.0_121
export HBASE_MANAGES_ZK=false
5.hbase-site.xml 修改内容:
,文章转自微信ody_bigdata
hbase.rootdir
hdfs://hadoop的用户名或者ip:9000/hbase
hbase.cluster.distributed
true
hbase.master.port
16010
hbase.zookeeper.quorum
zk的用户名或ip:2181,zk的用户名或ip:2181,zk的用户名或ip:2181
hbase.zookeeper.property.dataDir
/opt/zookeeper-3.4.5/zkData
6.配置regionservers:
配置自己hbase的用户名
houda01
houda02
houda03
7.HBase 需要依赖的 Jar 包
由于 HBase 需要依赖 Hadoop,所以替换 HBase 的 lib 目录下的 jar 包,以解决兼容问题:
删除原有的 jar:
$ rm -rf /opt/hbase-1.3.1/lib/hadoop-*
$ rm -rf /opt/hbase-1.3.1/lib/zookeeper-3.4.6.jar
拷贝新 jar,涉及的 jar 有:本人安装的hadoop版本为2.7.2,其他版本也是可以的
hadoop-annotations-2.7.2.jar,文章转自微信ody_bigdata
hadoop-auth-2.7.2.jar
hadoop-client-2.7.2.jar
hadoop-common-2.7.2.jar
hadoop-hdfs-2.7.2.jar
hadoop-mapreduce-client-app-2.7.2.jar
hadoop-mapreduce-client-common-2.7.2.jar
hadoop-mapreduce-client-core-2.7.2.jar
hadoop-mapreduce-client-hs-2.7.2.jar
hadoop-mapreduce-client-hs-plugins-2.7.2.jar
hadoop-mapreduce-client-jobclient-2.7.2.jar
hadoop-mapreduce-client-jobclient-2.7.2-tests.jar
hadoop-mapreduce-client-shuffle-2.7.2.jar
hadoop-yarn-api-2.7.2.jar
hadoop-yarn-applications-distributedshell-2.7.2.jar
hadoop-yarn-applications-unmanaged-am-launcher-2.7.2.jar
hadoop-yarn-client-2.7.2.jar
hadoop-yarn-common-2.7.2.jar
hadoop-yarn-server-applicationhistoryservice-2.7.2.jar
hadoop-yarn-server-common-2.7.2.jar
hadoop-yarn-server-nodemanager-2.7.2.jar
hadoop-yarn-server-resourcemanager-2.7.2.jar
hadoop-yarn-server-tests-2.7.2.jar
hadoop-yarn-server-web-proxy-2.7.2.jar
zookeeper-3.4.5.jar
8.HBase 软连接 Hadoop 配置
$ ln -s ~/opt/hadoop-2.7.2/etc/hadoop/core-site.xml ~/opt/hbase-1.3.1/conf/core-site.xml
$ ln -s ~/opt/hadoop-2.7.2/etc/hadoop/hdfs-site.xml ~/opt/hbase-1.3.1/conf/hdfs-site.xml
9.HBase 远程 scp 到其他集群
$ scp -r /opt/hbase-1.3.1/ houda02:/opt/
$ scp -r /opt/hbase-1.3.1/ houda03:/opt/
10.HBase 服务的启动
方式一:
$ bin/hbase-daemon.sh start master
$ bin/hbase-daemon.sh start regionserver
方式二:
start-hbase.sh
对应的停止服务:
stop-hbase.sh,文章转自微信ody_bigdata
11.启动hbase服务,可以查看Hbase页面
可以通过“host:port”的方式来访问 HBase 管理页面,例如:
http://houda01:16010
提 示 : 如 果 Linux使 用 的 是JDK8以 上 版 本 , 则 应 在hbase-env.sh中 移 除
“HBASE_MASTER_OPTS”和“HBASE_REGIONSERVER_OPTS”配置。
转自微信:https://mp.weixin.qq.com/s/762j8W2Amiw0gGm4pQeEYg
作者:偶冬遇