【大数据实验环境安装】master节点下安装Hadoop

任何一个人不会我都会伤心OK/h1>

目录

1.需要的软件

2.首先对VirtualBox下手

初次见面

  乘胜追击

 3.Xftp

 4.XShell

   连接

正式开始


1.需要的软件

众所周知要安装三个软件,他们分别是:

  • Oracle VM VirtualBox

  • X Shell 5

  • Xftp5

2.首先对VirtualBox下手

初次见面

        从 上或者用老师给的安装包,傻瓜式安装(这里建议安装目录修改一下尽量不要放在C盘),然后打开软件。

        刚安装的界面是空空如也如下图,

        这时我们需要先准备好解压好的master文件夹(我相信每个需要做大数据实验的童鞋应该都有),然后选择【新建】→ 【专家模式】→【文件名:master】→【类别:Linux →RedHat64bit 】→【创建已有的虚拟文件】 →【把master添加进去】 →【创建完成】



        然后master就被导入到虚拟机里面了,之后开始运行,输入账 密码。

  乘胜追击

        进来之后我们先【ifconfig】命令查看虚拟机的IP地址,可以发现这个IP地址不是我们想要的。

        修改IP:输入如下命令

        进入该界面后,先点i进入修改模式,然后把文件内容修改成如下:

        然后点【Esc】→【:wq】,这个时候修改好的 卡并没有立刻生效(不信你可以ifconfig),接下来有两个选择,一是关掉虚拟机再重新打开,另一种就是输入命令:

        现在再【ifconfig】看到的 卡信息就是我们修改过的信息了。

        现在我们搁置一下虚拟机,打开电脑上的 络设置→更改适配器,大概会进入如下界面:

        右键【VirtualBox Host-Only Network 】进入属性→点击IPV4属性→进行如下修改:

然后让我们重回虚拟机主界面,在master上点击设置,在【 络】栏中,把【连接方式】设置为【仅主机 络】:

回到虚拟机中,尝试主机与虚拟机互通:

虚拟机部分到这里就先告一段落,下面来讲Xftp

 3.Xftp

xftp主要是用来传东西的,首先要明确的一点是启动xftp和xshell时,虚拟机master必须处于开启状态!

打开xftp之后新建会话:

【注】:这里的协议是SFTP!!!

这里要说明一下,主机一栏为【master】的原因:

这里默认master=192.168.50.200,在实际的操作中,我是先运行了xshell进行一些操作之后再打开的xftp,在c:windowssystem32driversetchosts中把名称和它所对应的地址加了进去:

 Windows和linux都要改,如Linux:vim /etc/hosts【用VirtualBox的就在xshell下的hosts里做如上修改】

  

首先你的电脑上要有Hadoop,jdk,然后通过xftp传进master下

 

从主机传入master中:(双击即可来回传送)

 4.XShell

【注意连接XShell的时候master还是开启状态哦】

   连接

【建立对话】→按照如下进行填写

这里会弹出是否保存用户,直接点是,然后输入密码,这样以后登录会方便许多

正式开始

接下来的步骤是安装Hadoop和jdk,好好看

首先是之前提到过的,用名称代表ip地址:输入【vim  /etc/hosts】把左图转换为右图

 找到压缩包路径,在local文件夹下:

 使用【rpm】命令先安装jdk:

 【java version】如果显示java版本则代表安装成功,如果不能显示那再看看哪一步出错了。


在安装Hadoop时需要先配置环境

进入文件内后在最后一行进行如下修改:

使路径立刻生效:【source /etc/profile】 


将Hadoop添加到环境变量,可以在任何目录启动Hadoop。

(1)获取Hadoop安装路径:【pwd】

(2)打开/etc/profile文件:【sudo vi /etc/profile】

在profile文件末尾添加JDK路径:(shitf+g)

##HADOOP_HOME

export HADOOP_HOME=/opt/module/hadoop-2.7.2

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

        export HADOOP_HOME=/opt/module/hadoop-2.7.2

        export PATH=$PATH:$HADOOP_HOME/bin

        export PATH=$PATH:$HADOOP_HOME/sbin


之后回到local文件下,这时环境已经配置好,我们可以对压缩包进行解压安装了,输入【tar –xvf Hadoop-2.7.3.tar.gz】→【hadoop version】确认Hadoop安装成功

 至此,万里长城第一步打好了地基,下一篇写hadoop集群测试~

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2022年3月10日
下一篇 2022年3月10日

相关推荐