前置准备:

VMware17

Tabby:https://github.com/Eugeny/tabby/releases/tag/v1.0.207

jdk-8u401:https://www.java.com/en/download/

hbase-1.3.1:https://archive.apache.org/dist/hbase/1.3.1/

hadoop-2.7.7:https://archive.apache.org/dist/hadoop/common/hadoop-2.7.7/

CentOS-7安装镜像:去找其他链接吧

打包在以下百度网盘链接里了

链接:https://pan.baidu.com/s/1VQGGVFOZ5uSo-9P-9reF9A?pwd=igcd

提取码:igcd

1、安装VMware17和Tabby

这里不再详细展开如何安装

45bd83c638dd4b25b34ada57a06c36ca.png

097a27cc67404b97a59b36441bede613.png

fd6245ceda904903b1c8b6a4e37b48e5.png

2、安装centos7

b2934600bbca4ae2a32a8e17f1068ac1.png

df05ad87ba0e4c49a12eaff55a298f22.png

b869f971a4bf495c99de0aa7132ffdd9.png

d02e7f20e1574d74bba77086d674e1d3.png

顺带一提,装好后关机打个快照可以方便之后克隆装好虚拟机的最纯净状态,不必再次安装虚拟机(能省半个小时它不香吗?)

3、配置静态ip

vim /etc/sysconfig/network-scripts/ifcfg-ens33

ad58ea070be9409fa32e554535d3c4fc.png

按a可以进入编辑模式

0ab2d523e38e40d5900c239e6db76d9e.png

不会看自己网段的看下图

03a8bf8e07184202841534d0e5e93335.png

要改的

BOOTPROTO="static"

要新增的

IPADDR="192.168.88.102"
GATEWAY="192.168.88.2"
NETMASK="255.255.255.0"
DNS="192.168.88.2"

配完后如下图

注意保存是先按esc键进入命令模式再输入:wq回车

f751a7fb2e814e6993e2db079b4db50e.png

重启网络

systemctl restart network

查看下ip

ifconfig

4cc9706ac8f34448b0aeb334d19c03e4.png

打个快照保存下,然后转战tabby

右键左侧当前虚拟机的名称选择快照->拍摄快照

173d439873db4365a88637b7f4641e2a.png

4、Tabby连接虚拟机并上传文件

774602e2a1ff422f9cd7328541a4a245.png

选择ssh连接

b017c5532bfa4aaa86e23d36f9012c7b.png

fe0e14fbb96541ab93eeda4fb0fd43b2.png

d4a287ce93054d9c99a33f320fcea43f.png

2bcf158e5e5540c09009c7230c627ec3.png

Tabby上传文件

b15e93ddcc0148899c167fd63d376e90.png

516ca9b5fbed4b88af7f80200a166bfc.png

查看一下上传的目录

ls /usr/local/

54618123eec4452da5810d57e63422ed.png

5、解压并配置环境变量

先给jdk创建一个新目录

mkdir -p /export/server

解压jdk:

tar -zxvf /usr/local/jdk-8u401-linux-x64.tar.gz -C /export/server/

21a805a53d8049b182cf6d82e8b0f257.png

解压hadoop:

tar -zxvf /usr/local/hadoop-2.7.7.tar.gz -C /usr/local/

解压hbase:

tar -zxvf /usr/local/hbase-1.3.1-bin.tar.gz -C /usr/local/

改名jdk:

mv /export/server/jdk1.8.0_401 /export/server/jdk

改名hadoop:

mv /usr/local/hadoop-2.7.7 /usr/local/hadoop

改名hbase:

mv /usr/local/hbase-1.3.1 /usr/local/hbase

eb1a002435f0421984f8e37bb9c80295.png

进入环境变量文件:

vim /etc/profile

bd306c4ac214405a8c2e5519ba759527.png

export JAVA_HOME=/export/server/jdk
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HBASE_HOME=/usr/local/hbase
export PATH=$PATH:$HBASE_HOME/bin

18fb7a3484584add84f9933eb72455fb.png

应用环境变量:

source /etc/profile

7e5785cdcaf94ed4a72c7d44cec119a3.png

6、一些其他的基础配置

关闭防火墙

关闭本次:

systemctl stop firewalld

关闭开机自启:

systemctl disable firewalld

ac55208e1c174959ad547a9c55694696.png

关闭selinux

临时关闭:

setenforce 0

修改配置文件:

vim /etc/sysconfig/selinux

27ebc541395640e1af8d601cca2bad66.png

SELINUX=disabled

bf8f9f9bc752452b919a99d4ca243812.png

更改主机名(这里的主机名要与后边配置hadoop和hbase时完全一致):

hostnamectl set-hostname node2

1679b67e061e4c389c53f8dbc074af16.png

修改hosts映射文件:

vim /etc/hosts

f80dab2e51144f07a369740672a19ca5.png

在里面添加一行:自己的ip(刚配的)+主机名

c0288547dc4e476397806a1ad82b6799.png

配置ssh免密登录:

ssh-keygen -t rsa

705eab9aab52406ba9780b6fb92a61ff.png

创建密钥文件:

cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

0204523164364f8e8bc201c24c471243.png

如果查看Java版本时(java -version)显示的不是1.8.0.401可以删除掉本机上自带的其他jdk

查看本机已安装jdk命令:

rpm -qa|grep java

f36394202e524518a48670d13126e103.png

删除命令:rpm -e --nodeps xxxxxx(xxxxxx指代你要删除的软件,示例见下图)

901f772c5de345bf9d6fe92a18d2734f.png

7、配置hadoop

配置hadoop-env.sh:

vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/export/server/jdk

076df609baf949bbb22283cbb6bae4d4.png

配置yarn-env.sh:

vim /usr/local/hadoop/etc/hadoop/yarn-env.sh
export JAVA_HOME=/export/server/jdk

99ff34ac642e40d1aa9949ac447c84c6.png

配置core-site.xml:

vim /usr/local/hadoop/etc/hadoop/core-site.xml
<property>
 <name>fs.defaultFS</name>
 <value>hdfs://192.168.88.102:8020</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/hadoop/tmp</value>
</property>

下图ip地址和代码块内对应不上,以代码块为主

配置hdfs-site.xml:

vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>

a8a9fdd0c6a64388be49c5386a96d30c.png

因为没有mapred-site.xml只有mapred-site.xml.template所以要复制一份

命令:

cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml

配置mapred-site.xml:

vim /usr/local/hadoop/etc/hadoop/mapred-site.xml
<property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
</property>

ce19add639734f089a62536186f455db.png

配置yarn-site.xml:

vim /usr/local/hadoop/etc/hadoop/yarn-site.xml
<property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
</property>

a4c3e2655d5e4453bb920cffabdee5df.png

格式化hadoop:

hadoop namenode -format

597a40627e814ae9a2af1bd93d991e1e.png

启动hadoop:

start-all.sh

查看是否成功方法1:

jps

309f17abb41b4a908ac656c8c4e98337.png

查看是否成功方法2:浏览器内输入地址http://192.168.88.102:50070/(ip改成自己的,能ping通虚拟机的都可以访问)

46d2de6d7cf94581a8e0b13a828c86f4.png

关闭hadoop命令为:

stop-all.sh

这里不做演示

配好了之后可以再拍个快照以防配错

8、配置hbase伪分布式模式

配置hbase-env.sh:

vim /usr/local/hbase/conf/hbase-env.sh

加上

export JAVA_HOME=/export/server/jdk
export HBASE_MANAGES_ZK=true

e3c3064af9034ccfbf07d3daafd2049b.png

配置hbase-site.xml:

vim /usr/local/hbase/conf/hbase-site.xml

注意一定要应该修改的一定要修改

<property>
 <name>hbase.rootdir</name>
 <value>hdfs://node2:8020/hbase</value>
</property>
<property>
 <name>hbase.zookeeper.quorum</name>
 <value>node2</value>
<!--改成自己的主机名,这是血的教训-->
</property>

<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>

<property>
 <name>hbase.cluster.distributed</name>
 <value>true</value>
</property>

<property>
 <name>hbase.zookeeper.property.dataDir</name>
 <value>/usr/local/hbase/data/zookeeper</value>
</property>

aa3d6ce20ee545b787e4de55b0bcc246.png

开启(开启前需要开启hadoop):

start-hbase.sh

查看是否成功方法1:

jps

067245ec19c94975bc95b9d9f7b1e9e6.png

查看是否成功方法2:浏览器内输入地址http://192.168.88.102:16010/(ip改成自己的,能ping通虚拟机的都可以访问)

6c8f9aa08b3742e29f3341a8aaf4894c.png

关闭时注意先关hbase再关hadoop。

关闭hbase:

stop-hbase.sh

配好后别忘了拍个快照备份一下

9、解决某些服务启动不起来的问题(持续更新)

9.1无namenode

一种可能的原因是格式化化多次但没有删除以前格式化时的文件,导致唯一识别标识集群id变化了。所以启动不起来namenode 

解决方法:删除以前格式化的文件重新格式化

删除临时文件:

rm -rf /tmp/hadoop*

删除在core-site.xml中配置的格式化文件地址的文件夹:

rm -rf /usr/local/hadoop/tmp

每个人配置的地址不同请查看自己的core-site.xml文件

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐