Flink standone HA模式部署文档

Flink standone HA模式部署文档

一、准备工作

1、机器

2.安装包和依赖包

flink的安装包:flflink-1.11.2-bin-scala_2.11.tgz

https://www.apache.org/dyn/closer.lua/flflink/flflink-1.11.2/flflink-1.11.2-bin-scala_2.11.tgz

所需要的依赖包:

https://mvnrepository.com/

https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.10.0/hadoop-2.10.0.tar.gz

?、Hdoop环境部署

1.安装ssh服务

  1. 检查是否已经安装好ssh服务,进?shell命令,输?如下命令,

  2. 如果只有?个结果,则没有安装

    若没有,则使?如下命令进?安装:


2.设置主机名

机器1:

将主机名修改为hadoop1,此操作需要重启生效

若不进行重启,可临时设置如下:

3.设置 络域名

4.设置免密登录

4.1生产秘钥

之后的询问操作全部执行enter

4.2设置对自己免密

4.3将秘钥传递到另外一台机器上(其中36000为ssh连接的端口 ,根据实际情况修改)

输入密码

4.4验证能否免密登录其他机器

成功则执行exit进行退出

5.所有的机器节点重复步骤2 ,步骤3 ,步骤4

设置完成后,可在slave上执行如下操作验证

6.上传与解压

6.1 将hadoop安装包上传到服务器的/data/appa目录下

6.2 解压

6.3将解压后的文件重命名(将下面的hadoop-*替换解压后的文件名)

7.配置环境变量

添加

然后执行

8.hadoop配置修改

8.1 core-site.xml配置(/etc/hadoop下)

8.2 hdfs -site.xml(/etc/hadoop下)

8.3 hadoop-env.sh(/etc/hadoop下)

9.给文件路径赋权

添加如下内容

11.格式化(主节点上进行)

12.将hadoop的安装目录拷贝到另外一台机器上

并进行步骤7 :配置环境变量

13.在另一台机器上进行格式化

14.启动HDFS

14.1 批量启动

在主节点进入sbin目录下,执行

14.2 分开启动

启动hadoop1

进入sbin目录下,执行

启动hadoop2

进入sbin目录下,执行

可以用jps查看进程是否启动

15.web界面访问

http://10.0.3.192:50070

16.如果web页面访问不了,可能防火墙的原因,有以下两种方式解决方式

                                                        

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2021年2月2日
下一篇 2021年2月2日

相关推荐