大数据学习-HBase环境配置
HBase环境配置文章目录HBase环境配置0、前置1、压缩包下载2、HBase解压安装3、设置环境变量4、HBase文件配置5、启动并查看0、前置需要根据笔者之前的两篇博客完成:大数据学习-CentOS7安装大数据学习-大数据环境配置1、压缩包下载地址:https://mirrors.bfsu.edu.cn/apache/hbase/hbase-1.3.6/这里我们选择的版本是hbase-1.3
HBase环境配置
0、前置
需要根据笔者之前的两篇博客完成:
1、压缩包下载
地址:https://mirrors.bfsu.edu.cn/apache/hbase/hbase-1.3.6/
这里我们选择的版本是hbase-1.3.6-bin.tar.gz
将下载好的压缩包上传到 /bigdata/soft 下
三台机器都需要配置
2、HBase解压安装
tar -zxf /bigdata/soft/hbase-1.3.6-bin.tar.gz -C /bigdata/install/
3、设置环境变量
vi ~/.bashrc
添加以下内容
export HBASE_HOME=/bigdata/install/hbase-1.3.6
export PATH=.:$HBASE_HOME/bin:$PATH
保存退出后
source ~/.bashrc
4、HBase文件配置
先进入HBase安装目录的conf目录下
cd /bigdata/install/hbase-1.3.6/conf
1)配置hbase-env.sh文件
vi hbase-env.sh
找到并修改或没找到则添加以下:
export JAVA_HOME=/bigdata/install/jdk1.8.0_141
export HBASE_CLASSPATH=/bigdata/install/hadoop-2.6.0-cdh5.14.2/etc/hadoop
export HBASE_MANAGES_ZK=false
说明:
第一条:配置JDK的安装目录
第二条:配置hadoop master配置文件路径
第三条:true表示使用HBase自带的ZooKeeper,false代表使用外部安装的ZooKeeper
2)配置hbase-site.xml文件
vi hbase-site.xml
用以下替换空的configuration标签
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:8020/habse</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.zookeeper.property.datadir</name>
<value>/bigdata/install/hbase-1.3.6/zk_data</value>
</property>
</configuration>
说明:
①hbase.rootdir:配置HBase数据存放目录,这里使用的是HDFS,这个值的地址和端口需要与安装的Hadoop目录下etc/hadoop/core-site.xml文件中的fsdefaultFS属性值相同,即core-site.xml的值设置为hdfs://master:8020/,则hbase.rootdir的值设置为hdfs://master:8020/habse
②hbase.cluster.distributed:默认为false,表示单机运行,true表示在分布模式下运行
③hbase.zookeeper.quorum:该属性配置的是ZooKeeper集群个服务器的位置,一般为奇数个服务器
④hbase.zookeeper.property.clientPort:该属性配置的是ZooKeeper的端口号,这个属性和ZooKeeper安装目录下conf/zoo.cfg文件中的clientPort属性值一样
3)修改regionservers文件
vi regionservers
添加内容如下
master
slave1
slave2
5、启动并查看
注意启动前需要启动hadoop和zookeeper
#启动hadoop
start-all.sh
#启动zookeeper
#三台机器启动zookeeper服务这个命令三台机器都要执行
/bigdata/install/zookeeper-3.4.5-cdh5.14.2/bin/zkServer.sh start
#查看状态
/bigdata/install/zookeeper-3.4.5-cdh5.14.2/bin/zkServer.sh status
#如果没有成功,可以通过zkServer.sh stop停止后,在重新start试试
输入以下命令启动hbase
start-hbase.sh
输入jps命令查看进程
Jps
打开浏览器输入“http://192.168.49.130:16010”查看master信息
hdfs集群(http://192.168.49.130:50070)文件目录下多了hbase目录
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
所有评论(0)