Flink standone HA模式部署文档
一、准备工作
1、机器
2.安装包和依赖包
flink的安装包:flflink-1.11.2-bin-scala_2.11.tgz
https://www.apache.org/dyn/closer.lua/flflink/flflink-1.11.2/flflink-1.11.2-bin-scala_2.11.tgz
所需要的依赖包:
https://mvnrepository.com/
https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.10.0/hadoop-2.10.0.tar.gz
?、Hdoop环境部署
1.安装ssh服务
-
检查是否已经安装好ssh服务,进?shell命令,输?如下命令,
-
如果只有?个结果,则没有安装
若没有,则使?如下命令进?安装:
2.设置主机名
机器1:
将主机名修改为hadoop1,此操作需要重启生效
若不进行重启,可临时设置如下:
3.设置 络域名
4.设置免密登录
4.1生产秘钥
之后的询问操作全部执行enter
4.2设置对自己免密
4.3将秘钥传递到另外一台机器上(其中36000为ssh连接的端口 ,根据实际情况修改)
输入密码
4.4验证能否免密登录其他机器
成功则执行exit进行退出
5.所有的机器节点重复步骤2 ,步骤3 ,步骤4
设置完成后,可在slave上执行如下操作验证
6.上传与解压
6.1 将hadoop安装包上传到服务器的/data/appa目录下
6.2 解压
6.3将解压后的文件重命名(将下面的hadoop-*替换解压后的文件名)
7.配置环境变量
添加
然后执行
8.hadoop配置修改
8.1 core-site.xml配置(/etc/hadoop下)
8.2 hdfs -site.xml(/etc/hadoop下)
8.3 hadoop-env.sh(/etc/hadoop下)
9.给文件路径赋权
添加如下内容
11.格式化(主节点上进行)
12.将hadoop的安装目录拷贝到另外一台机器上
并进行步骤7 :配置环境变量
13.在另一台机器上进行格式化
14.启动HDFS
14.1 批量启动
在主节点进入sbin目录下,执行
14.2 分开启动
启动hadoop1
进入sbin目录下,执行
启动hadoop2
进入sbin目录下,执行
可以用jps查看进程是否启动
15.web界面访问
http://10.0.3.192:50070
16.如果web页面访问不了,可能防火墙的原因,有以下两种方式解决方式
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!