实验环境:
主机名 | IP地址 |
---|
Master | 10.30.59.130 |
Slave1 | 10.30.59.131 |
Slave2 | 10.30.59.132 |
软件要求:
软件名称 | 软件版本 |
---|
JDK | 8u77 |
Zookeeper | 3.4.5 |
Hadoop | 2.6.0 |
STORM | 1.0.6 |
先决条件:
实验步骤:
一、解压组件
[root@master ~]# cd /opt
[root@master opt]# tar -xzvf soft/apache-storm-1.0.6.tar.gz
[root@master opt]# mv apache-storm-1.0.6/ storm
二、填写配置文件
[root@master opt]# vi storm/conf/storm.yaml
storm.zookeeper.servers
- "master"
- "slave1"
- "slave2"
nimbus.seeds: ["master", "slave1"]
ui.port: 8081
storm.local.dir: "/opt/storm/tmp"
- 因为storm的web ui默认端口8080与spark默认端口冲突,所以这里修改为8081
三、配置环境变量并令其立即生效
[root@master opt]# vi /etc/profile.d/hadoop-etc.sh
export STORM_HOME=/opt/storm
export PATH=$PATH:$STORM_HOME/bin
[root@master opt]# source /etc/profile.d/hadoop-etc.sh
四、同步两台slave节点的配置并令其环境变量立即生效
[root@master opt]# scp -r storm slave1:/opt
[root@master opt]# scp -r storm slave2:/opt
[root@master opt]# scp /etc/profile.d/hadoop-etc.sh slave1:/etc/profile.d
[root@master opt]# scp /etc/profile.d/hadoop-etc.sh slave2:/etc/profile.d
[root@slave1 ~]# source /etc/profile.d/hadoop-etc.sh
[root@slave2 ~]# source /etc/profile.d/hadoop-etc.sh
五、启动STORM集群
[root@master opt]# storm nimbus &
[root@master opt]# storm ui &
[root@master opt]# storm logviewer &
[root@master opt]# storm supervisor &
[root@slave1 ~]# storm nimbus &
[root@slave1 ~]# storm supervisor &
[root@slave2 ~]# storm supervisor &
实验验证
- http://10.30.59.130:8081/