刘明帅
热爱生活!
刘明帅
STORM HA(高可用)集群搭建实战
STORM HA(高可用)集群搭建实战

实验环境:

  • Centos 7主机三台
主机名IP地址
Master10.30.59.130
Slave110.30.59.131
Slave210.30.59.132

软件要求:

软件名称软件版本
JDK8u77
Zookeeper3.4.5
Hadoop2.6.0
STORM1.0.6
  • 软件约定:
    • 安装包在 /opt/soft
    • 安装目录在 /opt

先决条件:

实验步骤:

一、解压组件

[root@master ~]# cd /opt 
[root@master opt]# tar -xzvf soft/apache-storm-1.0.6.tar.gz 
[root@master opt]# mv apache-storm-1.0.6/ storm  

二、填写配置文件

[root@master opt]# vi storm/conf/storm.yaml 
storm.zookeeper.servers
   - "master"
   - "slave1"
   - "slave2"
​
nimbus.seeds: ["master", "slave1"]
​
ui.port: 8081
​
storm.local.dir: "/opt/storm/tmp"
​
  • 因为storm的web ui默认端口8080与spark默认端口冲突,所以这里修改为8081

三、配置环境变量并令其立即生效

  • hadoop-etc.sh文件新增两条
[root@master opt]# vi /etc/profile.d/hadoop-etc.sh
export STORM_HOME=/opt/storm
export PATH=$PATH:$STORM_HOME/bin
​
[root@master opt]# source /etc/profile.d/hadoop-etc.sh

四、同步两台slave节点的配置并令其环境变量立即生效

[root@master opt]# scp -r storm slave1:/opt 
[root@master opt]# scp -r storm slave2:/opt 
[root@master opt]# scp /etc/profile.d/hadoop-etc.sh slave1:/etc/profile.d 
[root@master opt]# scp /etc/profile.d/hadoop-etc.sh slave2:/etc/profile.d 
  • 在两台slave节点上令其环境变量立即生效
[root@slave1 ~]# source /etc/profile.d/hadoop-etc.sh
[root@slave2 ~]# source /etc/profile.d/hadoop-etc.sh

五、启动STORM集群

  • master:
[root@master opt]# storm nimbus & 
[root@master opt]# storm ui &
[root@master opt]# storm logviewer & 
[root@master opt]# storm supervisor & 
  • slave1
[root@slave1 ~]# storm nimbus & 
[root@slave1 ~]# storm supervisor & 
  • slave2
[root@slave2 ~]# storm supervisor & 

实验验证

  • http://10.30.59.130:8081/
文章链接:https://lmshuai.com
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!

推荐文章

发表评论

textsms
account_circle
email

刘明帅

STORM HA(高可用)集群搭建实战
实验环境: Centos 7主机三台 主机名IP地址Master10.30.59.130Slave110.30.59.131Slave210.30.59.132 软件要求: 软件名称软件版本JDK8u77Zookeeper3.4.5Hadoop2.6.0STORM1.0.6…
扫描二维码继续阅读
2019-10-20