文档说明

此文档为拉钩Java高薪训练营2期课程学习过程,完成作业的文档。顺便说一句拉钩的课程,整个课程,体系非常全,价格上也是所有培训课程中最便宜的。如果希望构建一个整体的技术视野,非常推荐。

前置环境

  • Zookeeper 正常安装并启动
  • Hadoop 正常安装并启动

    安装

  1. 上传并解压

    1. tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module
  2. 修改 hbase-env.sh

    1. export JAVA_HOME=/usr/java/jdk1.8.0_241
    2. export HBASE_MANAGES_ZK=false
    3. JDK1.8需要注释
    4. # export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
    5. # export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
  3. 修改 hbase-site.xml

    1. <configuration>
    2. <property>
    3. <name>hbase.rootdir</name>
    4. <value>hdfs://mycluster/hbase</value>
    5. <!-- hadoop 非 HA 配置 -->
    6. <!-- <value>hdfs://hadoop102:9000/hbase</value> -->
    7. </property>
    8. <property>
    9. <name>hbase.cluster.distributed</name>
    10. <value>true</value>
    11. </property>
    12. <!-- 0.98 后的新变动,之前版本没有.port,默认端口为60000 -->
    13. <property>
    14. <name>hbase.master.port</name>
    15. <value>16000</value>
    16. </property>
    17. <property>
    18. <name>hbase.zookeeper.quorum</name>
    19. <value>hadoop103:2181,hadoop104:2181,hadoop105:2181</value>
    20. </property>
    21. <property>
    22. <name>hbase.zookeeper.property.dataDir</name>
    23. <value>/opt/module/zookeeper-3.4.10/zkData</value>
    24. </property>
    25. </configuration>
  4. 修改 regionsservers

    1. hadoop103
    2. hadoop104
    3. hadoop105
  5. 软连接 hadoop配置文件到 hbase

    1. ln -s /opt/ha/hadoop-2.7.2/etc/hadoop/core-site.xml /opt/module/hbase-1.3.1/conf/core-site.xml
    2. ln -s /opt/ha/hadoop-2.7.2/etc/hadoop/hdfs-site.xml /opt/module/hbase-1.3.1/conf/hdfs-site.xml
  6. 将 hbase 安装文件分发到其他服务器

    可以使用自己编写的 xsync 脚本

  1. xsync hbase-1.3.1/

启动和停止

分开启动

启动

  1. hbase-daemon.sh start master
  2. hbase-daemon.sh start regionserver

停止

  1. hbase-daemon.sh stop master
  2. hbase-daemon.sh stop regionserver

一起启动

启动

  1. bin/start-hbase.sh # 在 Master 上执行

停止

  1. bin/stop-hbase.sh

访问 HBase 页面

  • http://hadoop103:16010

    HBase HA

    【HBase HA :直接再单独启动一个 Master 也可以: hbase-daemon.sh start master --backup ,启动的 Master 会自动加入】
  1. 关闭HBase集群(如果没有开启则跳过此步)
  2. 在conf目录下创建backup-masters文件:touch conf/backup-masters
  3. 在backup-masters文件中配置高可用HMaster节点:echo hadoop104 > conf/backup-masters
  4. 将该配置拷贝到所有节点。