网站运营
位置:首页>> 网站运营>> hadoop基于Linux7的安装配置图文详解

hadoop基于Linux7的安装配置图文详解

作者:跟着感觉走  发布时间:2023-08-05 18:13:55 

标签:hadoop,Linux7,安装,配置

hadoop基于Linux7的安装配置图文详解hadoop基于Linux7的安装配置图文详解 

如上图 准备好该准备的食材(ps:其中的hadoop-3.1.2-src更改为hadoop-3.1.2

src为源文件的意思? 反正就是换了 大家注意一下 后面截图有错的地方有空我再改吧 肝疼)

安装好centos7

hadoop基于Linux7的安装配置图文详解

桌面右键打开terminal——输入ifconfig——查看ens33的ip——记住然后打开xftp6

hadoop基于Linux7的安装配置图文详解

点击新建

hadoop基于Linux7的安装配置图文详解

hadoop基于Linux7的安装配置图文详解

hadoop基于Linux7的安装配置图文详解

把食材多选,右键传输即可,内网传输速度不快不慢 

所示很完美了

hadoop基于Linux7的安装配置图文详解 hadoop基于Linux7的安装配置图文详解 hadoop基于Linux7的安装配置图文详解

解压hadoop安装包 tar -zxvf hadoop-3.1.2-src.tar.gz

hadoop基于Linux7的安装配置图文详解

重新装了centos7 解压的时候分文件夹了

hadoop基于Linux7的安装配置图文详解 hadoop基于Linux7的安装配置图文详解

如上图编写

hadoop基于Linux7的安装配置图文详解 hadoop基于Linux7的安装配置图文详解 hadoop基于Linux7的安装配置图文详解 hadoop基于Linux7的安装配置图文详解

打开xshell 新建

hadoop基于Linux7的安装配置图文详解 

输入你的主机ip 在用户身份验证上写上用户名和密码

hadoop基于Linux7的安装配置图文详解

hadoop基于Linux7的安装配置图文详解 hadoop基于Linux7的安装配置图文详解

yes就完事了——然后三台机器都需要改了名字

hadoop基于Linux7的安装配置图文详解

时间同步 时区一致。要保证设置主机时间准确,每台机器时区必须一致。实验中我们需要同步网络时间,因此要首先选择一样的时区。先确保时区一样,否则同步以后时间也是有时区差。可以使用 date 命令查看自己的机器时间. 选择时区:tzselect

hadoop基于Linux7的安装配置图文详解

1.关闭防火墙

当其状态是 dead 时,即防火墙关闭。 关闭防火墙:systemctl stop firewalld 查看状态:systemctl status firewalld

2. hosts文件配置 (三台机器) 如下图输入各节点的ip

hadoop基于Linux7的安装配置图文详解 

3. master 作为 ntp 服务器,修改 ntp 配置文件。(master 上执行)


vi /etc/ntp.conf
server 127.127.1.0 # local clock
fudge 127.127.1.0 stratum 10 #stratum 设置为其它值也是可以的,其范围为 0~15

hadoop基于Linux7的安装配置图文详解


重启 ntp 服务。
/bin/systemctl restart ntpd.service
其他机器同步(slave1,slave2)
等待大概五分钟,再到其他机上同步该 master 服务器时间。
ntpdate master
如果配置平台式没有外网连接可以将三台机器设为统一时间,输入命令:
date -s 10:00(时间)


hadoop基于Linux7的安装配置图文详解

终于走到正题??? 别慌快了

1. SSH免密

(1)每个结点分别产生公私密钥:

ssh-keygen -t dsa -P ‘' -f ~/.ssh/id_dsa(三台机器)
秘钥产生目录在用户主目录下的.ssh 目录中,进入相应目录查看:
cd .ssh/

hadoop基于Linux7的安装配置图文详解

(2)Id_dsa.pub 为公钥,id_dsa 为私钥,紧接着将公钥文件复制成 authorized_keys 文 件:(仅 master)

cat id_dsa.pub >> authorized_keys(注意在.ssh/路径下操作)

hadoop基于Linux7的安装配置图文详解

在主机上连接自己,也叫做 ssh 内回环。
ssh master

hadoop基于Linux7的安装配置图文详解

(3)让主结点 master 能通过 SSH 免密码登录两个子结点 slave。(slave 中操作)

为了实现这个功能,两个 slave 结点的公钥文件中必须要包含主结点的公钥信息,这样
当 master 就可以顺利安全地访问这两个 slave 结点了。
slave1 结点通过 scp 命令远程登录 master 结点,并复制 master 的公钥文件到当前的目录
下,且重命名为 master_das.pub,这一过程需要密码验证。

scp master:~/.ssh/id_dsa.pub ./master_das.pub

hadoop基于Linux7的安装配置图文详解

将 master 结点的公钥文件追加至 authorized_keys 文件:

cat master_das.pub >> authorized_keys

(1)每个结点分别产生公私密钥: ssh-keygen -t dsa -P ‘' -f ~/.ssh/id_dsa(三台机器)秘钥产生目录在用户主目录下的.ssh 目录中,进入相应目录查看: cd .ssh/  (2)Id_dsa.pub 为公钥,id_dsa 为私钥,紧接着将公钥文件复制成 authorized_keys 文 件:(仅 master) cat id_dsa.pub >> authorized_keys(注意在.ssh/路径下操作)  在主机上连接自己,也叫做 ssh 内回环。 ssh master

hadoop基于Linux7的安装配置图文详解 这时,

master 就可以连接 slave1 了。

hadoop基于Linux7的安装配置图文详解

slave1 结点首次连接时需要,“yes”确认连接,这意味着 master 结点连接 slave1 结点时需要人工询问,无法自动连接,输入 yes 后成功接入,紧接着注销退出至 master 结点。

   同理 slave2 中也是这么操作

jdk之前已经安装好了,所以我们直接来配环境,就和windows的时候配环境变量一个道理(三台)


修改环境变量:vi /etc/profile
> 添加内容如下:
> export JAVA_HOME=/usr/java/jdk1.8.0_241
> export CLASSPATH=$JAVA_HOME/lib/export
> PATH=$PATH:$JAVA_HOME/bin
> export PATH JAVA_HOME CLASSPATH


生效环境变量:source /etc/profile

插播一个小技巧scp

hadoop基于Linux7的安装配置图文详解


scp /etc/profile slave1:/etc/profile ##这样就可以传给slave1 和slave2了

终于到hadoop了??? 恭喜宁!


配置环境变量:
vi/etc/profile
export HADOOP_HOME=/usr/hadoop/hadoop-3.1.2
export CLASSPATH=$CLASSPATH:$HADOOP_HOME/lib
export PATH=$PATH:$HADOOP_HOME/bin

我经常忘的一步大声告诉我是什么!

使用以下命令使profile生效: source /etc/profile

温馨提示 下面就是配置文件的内容了 本文暂时不做讲解内容但是我已经给大家准备好标准的配置文件了

hadoop基于Linux7的安装配置图文详解

编辑hadoop环境配置文件hadoop-env.sh


export JAVA_HOME=/usr/java/jdk1.8.0_241
在这个文件里面会有好多注释的语句,找到你要配置的模板把井号删除完善即可 耐心找一下

然后我偷懒的地方就要到了!!!!!我上传了几个配置文件 我们复制到这个文件夹中即可 系统提示是否覆盖时候就输入y即可


core-site.xml yarn-site.xml hdfs-site.xml mapred-site.xml


hadoop基于Linux7的安装配置图文详解

还需要写一下slave文件 加上slave1 slave2如下图

hadoop基于Linux7的安装配置图文详解

还有master文件

hadoop基于Linux7的安装配置图文详解


(9)分发hadoop:
scp -r /usr/hadoop root@slave1:/usr/
scp -r /usr/hadoop root@slave2:/usr/

master中格式化hadoop hadoop namenode -format 如果报错的话 看看是不是如下链接的错误 里面有解决办法

总结

以上所述是小编给大家介绍的hadoop基于Linux7的安装配置图文详解,希望对大家有所帮助!

来源:https://blog.csdn.net/qq_44172732/article/details/104263400

0
投稿

猜你喜欢

  • Overlay网络是指通过在现有网络上叠加一个软件定义的逻辑网络,最大程度的保留原有网络,通过定义其上的逻辑网络,实现业务逻辑,解决原有数据
  • 这部分是转载文章 在此标明出处,以前有文章是转的没标明的请谅解,因为有些已经无法找到出处,或者与其它原因。如有冒犯请联系本人,或删除,或标明
  • 对于大多数Web站点来说,有匿名访问或基本认证就足够了,或者干脆只保留匿名访问形式。在有些地方,最简单的往往是最有效的!8、为IIS5中的文
  • 大家都知道,让百度和google收录的方法不仅仅是向她提交自己的站点,这种方法在几年前经常使用,可是目前,大家所使用的恐怕都不这样做了,现在
  • 本文介绍了使用Docker部署 spring-boot maven应用,分享给大家,具体如下:部署过程分为以下几个步骤:创建一个简单的spr
  • 本人只是一个网络的小小草根,很像与大树平起平坐,但火候不够,在此发表一些自己的观点,希望站长朋友不要介意:网络发展迅猛异常,07年,中国的网
  • 在CentOS中,要查询使用yum中具安装的软件包具体的安装位置,可以使用yum -ql <软件包名>的方式进行查询。比如,我想
  • Linux 下对于目录的切换,大家肯定会想到一个命令:cd 命令。这个是 Linux 下再基本不过的命令,如果这个命令都不知道的话,赶紧剖腹
  • 北京时间11月11日上午消息,据国外媒体今日报道,&ldquo;PHP之父&rdquo;拉斯姆斯&middot;勒多
  • 近日由于虚拟机下安装软件过多,时不时弹出磁盘空间不足的问题。查找了很多资料,都没有很好的解决办法。朋友发来一个链接,还是老外有良心。翻译出来
  • 自从做卖站以来,遇到的形形色色的人,真是林子大了,什么鸟都有,现在我列出以下几种人,希望卖站新人能从中吸收到一些经验:1)没看清楚卖站的说明
  • WordPress系统本身,默认安装的情况下使用默认模板,实际上对搜索引擎并不友好,并没有针对搜索引擎进行很好的设计,下面我介绍一些方法可以
  • 在过去的几年中,越来越多的黑客、病毒和蠕虫带来的安全问题严重影响了网站的可访问性,尽管Apache服务器也常常是攻击者的目标,然而微软的In
  • 1.配置ip地址前首先ifconfig查看网卡信息并获取到网卡的名称2.进入到网卡配置目录cd /etc/sysconfig/network
  • [今早在网友的QQ空间看到下面一则,就此转载过来,声明:我是搞.net的]某日,一女遇劫匪,颤抖曰:"俺是搞java的,刚毕业,工
  • Flickr今天宣布将支持开放街道地图(OpenStreetMap,OSM)网站的标签。OSM是一家类似维基的地图网站,允许用户创建和编辑地
  • 阅读上一篇:一个完美网站的101项指标.第一部分.概述 内容是一个网站最有价值的部分,内容为王就是这个意思,用户访问您的网站的唯一目的是获取
  • 到底谁是真正的“开心网”?这个问题现在只能交由法律来最终裁定。昨日上午,北京市二中院开庭审理北京开心人信息技术有限公司(kaixin001.
  • Cookie会话跟踪除了上面提到的安全缺陷外,还存在如下缺点:(1)并不是每个浏览器都支持cookie,有些用户为了防止泄露隐私以及从安全性
  • 昨天和一好站友聊天,得知最近他要做个本地网站,与之交流探讨!高某人曾经也做过福州本地的网站,不幸的是挣扎数月后在百度收录中永远消失,幸运的是
手机版 网站运营 asp之家 www.aspxhome.com