Hadoop3.x完全分布式搭建(详细)

虚幻大学 xuhss 387℃ 0评论

Python微信订餐小程序课程视频

https://edu.csdn.net/course/detail/36074

Python实战量化交易理财系统

https://edu.csdn.net/course/detail/35475
环境准备

  1. vm虚拟机(自行安装Centos7系统)
  2. hadoop3.x安装包(linux版本)
  3. java1.8安装包(linux版本)

为了能够按照教程顺利操作,需要注意几点细节

  1. 不要不看文字直接复制粘贴
  2. 操作命令的用户很重要,否则后续会引发关于权限的问题
  3. ftp 与 终端工具需要自己操作使用本教程不涵盖操作,如有需要,自行百度,本教程均使用终端shell工具截图,其性质与linux系统右键打开终端相同。

开始啦!

  1. 使用root用户登录,用一个单独的用户管理hadoop集群,所以要用管理员(root)用户创建一个名字为hadoop的用户。
[root@hadoop102 ~]# useradd hadoop
  1. 设置 hadoop 用户的密码
[root@hadoop102 ~]# passwd hadoop
  1. 给 hadoop 用户提权,编辑如下路径文件
[root@hadoop102 ~]# vim /etc/sudoers

​ 将文件此处修改为这样(在100行左右)

586155858ee1c4486c8c0dbfe003741e - Hadoop3.x完全分布式搭建(详细)

  1. 修改静态IP
[root@hadoop102 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33

​ 静态ip文件修改如下

TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="385ea190-1b85-42cf-9df4-916f2dd86bc7"
DEVICE="ens33"
ONBOOT="yes"
#ip 写自己设置的
IPADDR=192.168.127.112
#子网掩码 固定的
NETMASK=255.255.255.0
#网关 就是将你ip最后一段改成1
GATEWAY=192.168.127.1
  1. 修改主机名
[root@hadoop102 ~]# vim /etc/hostname

​ 文件内写入自己的主机名字即可

  • 0c17a93712cc7b7932d5ab914e9dec04 - Hadoop3.x完全分布式搭建(详细)
  1. 修改主机域名映射
[root@hadoop102 ~]# vim /etc/hosts

​ hosts文件内容如下

8da00ea2d14ea747099a18cc2ac2d978 - Hadoop3.x完全分布式搭建(详细)

  1. 关闭防火墙(运行b即可永久关闭)

    1. 一次性关闭 -- 重启之后系统会默认打开防火墙
    [root@hadoop102 ~]# systemctl stop firewalld
    
    1. 永久关闭防火墙
    [root@hadoop102 ~]# systemctl disable firewalld
    
    1. 查看当前防火墙状态
    [root@hadoop102 ~]# systemctl status firewalld
    

    状态截图
    810cd3967cbb14c86921d03d0bbf9480 - Hadoop3.x完全分布式搭建(详细)

  2. 重启机器,生效所有配置,注意 下次登录直接使用 hadoop 账户信息登录系统,这样子直接创建目录权限就是属于hadoop的

    1. 如果想要终端连接虚拟机,待重启之后即可输入ip与用户信息即可登录终端。
      
      [root@hadoop102 ~]# reboot
9. 创建javajdk 和 hadoop 安装所需目录

    1. 创建软件安装包存放目录

        1. software目录用于存放安装包
        2. module目录用于软件的安装目录(或者叫解压目录)
[hadoop@hadoop102 /]$ sudo mkdir /opt/software
[hadoop@hadoop102 /]$ sudo mkdir /opt/module

```
2. 赋予software目录上传权限,可以看到下面的权限已经允许外部读取写入

```
[root@hadoop102 opt]# chmod +777 /opt/software /opt/module
[root@hadoop102 opt]# ll
总用量 12
drwxrwxrwx. 2 root root 4096 3月   9 21:56 module
drwxr-xr-x. 2 root root 4096 10月 31 2018 rh
drwxrwxrwx. 2 root root 4096 3月   9 21:56 software

```
3. 上传hadoop和java安装包(本操作不涵盖,注意:使用任意的ftp工具登录连接时候请使用 hadoop 用户登录操作)
4. 解压至module目录

```
[hadoop@hadoop102 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C ../module/
[hadoop@hadoop102 software]$ tar -zxvf jdk-8u212-linux-x64.tar.gz -C ../module/

```
  1. 配置java 和 hadoop的环境变量

    1. 切换至root用户操作系统文件,操作完成之后切换成hadoop用户
    [hadoop@hadoop102 software]$ su root
    
    1. 使用root用户修改环境变量文件,在文件末尾追加如下信息,如果你的安装路径跟我不同这里需要写你自己的,跟着教程走且是同一个版本安装包或者同一个安装文件夹名字的不需要任何修改
    #java
    export JAVA_HOME=/opt/module/jdk1.8.0_212
    export PATH=$PATH:$JAVA_HOME/bin
    
    #hadoop3.1.3
    export HADOOP_HOME=/opt/module/hadoop-3.1.3
    export PATH=$PATH:$HADOOP_HOME/bin
    
    1. 切换至hadoop用户,并生效配置文件,查看效果
    [hadoop@hadoop102 software]$ source /etc/profile
    
    1. 自行运行如下命令进行环境测试,足够自行不测试也可以的。
    [hadoop@hadoop102 software]$ java
    [hadoop@hadoop102 software]$ javac
    [hadoop@hadoop102 software]$ java -version
    [hadoop@hadoop102 software]$ hadoop version
    
  2. 配置hadoop

    1. 编辑core-site.xml文件
    [hadoop@hadoop102 /]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml
    
    
    <property>
        <name>fs.defaultFSname>
        <value>hdfs://hadoop102:8020value>
    property>
    
    <property>
        <name>hadoop.tmp.dirname>
        <value>/opt/module/hadoop-3.1.3/datavalue>
    property>
    
    1. 编辑hdfs-site.xml文件
    [hadoop@hadoop102 /]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/hdfs-site.xml
    
    
    <property>
        <name>dfs.namenode.http-addressname>
        <value>hadoop102:9870value>
    property>
    
    <property>
        <name>dfs.namenode.secondary.http-addressname>
        <value>hadoop104:9868value>
    property>
    
    1. 编辑yarn-site.xml文件
    [hadoop@hadoop102 /]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/yarn-site.xml
    
    
    <property>
        <name>yarn.nodemanager.aux-servicesname>
        <value>mapreduce_shufflevalue>
    property>
    
    <property>
        <name>yarn.resourcemanager.hostnamename>
        <value>hadoop103value>
    property>
    
    <property>
        <name>yarn.nodemanager.env-whitelistname>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOMEvalue>
    property>
    
    1. 编辑mapred-site.xml文件
    [hadoop@hadoop102 /]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/mapred-site.xml
    
    
    <property>
        <name>mapreduce.framework.namename>
        <value>yarnvalue>
    property>
    
    1. 编辑hadoop-env.sh文件
    [hadoop@hadoop102 /]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/hadoop-env.sh
    
    1. 文件末尾追加一行
    export JAVA_HOME=/opt/module/jdk1.8.0_212
    
    1. 编辑workers文件
    [hadoop@hadoop102 hadoop]$ vim workers
    
    1. 写入如下内容
    hadoop102
    hadoop103
    hadoop104
    
  3. 到此步骤,关闭虚拟机,克隆两台,请自行百度,待克隆完成之后,开启两个克隆的机器,不要通过终端连接,然后做下面操作,在vm中进行。

    1. 三台主机都使用root用户登录

      1. 修改克隆1机器的主机名
      [root@hadoop102 hadoop]# vim /etc/hostname
      

      内容如下

      hadoop103
      
      1. 修改克隆1的ip
      [root@hadoop102 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33 
      

      内容如下

      TYPE="Ethernet"
      PROXY_METHOD="none"
      BROWSER_ONLY="no"
      BOOTPROTO="static"
      DEFROUTE="yes"
      IPV4_FAILURE_FATAL="no"
      IPV6INIT="yes"
      IPV6_AUTOCONF="yes"
      IPV6_DEFROUTE="yes"
      IPV6_FAILURE_FATAL="no"
      IPV6_ADDR_GEN_MODE="stable-privacy"
      NAME="ens33"
      UUID="385ea190-1b85-42cf-9df4-916f2dd86bc7"
      DEVICE="ens33"
      ONBOOT="yes"
      IPADDR=192.168.127.113
      NETMASK=255.255.255.0
      GATEWAY=192.168.127.1
      
      1. 修改克隆2机器的主机名
      [root@hadoop102 hadoop]# vim /etc/hostname
      

      内容如下

      hadoop104
      
      1. 修改克隆2机器的ip
      [root@hadoop102 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33 
      

      内容如下

      TYPE="Ethernet"
      PROXY_METHOD="none"
      BROWSER_ONLY="no"
      BOOTPROTO="static"
      DEFROUTE="yes"
      IPV4_FAILURE_FATAL="no"
      IPV6INIT="yes"
      IPV6_AUTOCONF="yes"
      IPV6_DEFROUTE="yes"
      IPV6_FAILURE_FATAL="no"
      IPV6_ADDR_GEN_MODE="stable-privacy"
      NAME="ens33"
      UUID="385ea190-1b85-42cf-9df4-916f2dd86bc7"
      DEVICE="ens33"
      ONBOOT="yes"
      IPADDR=192.168.127.114
      NETMASK=255.255.255.0
      GATEWAY=192.168.127.1
      
      1. 重启两台克隆机器,使配置重新加载生效。
      [root@hadoop102 ~]#reboot
      
  4. 配置免密登录

    1. hadoop102生成免密并发送给其余两个节点(hadoop102,hadoop103,hadoop104)
    [hadoop@hadoop102 .ssh]$ ssh-keygen -t rsa
    [hadoop@hadoop104 .ssh]$ ssh-copy-id hadoop102
    [hadoop@hadoop102 .ssh]$ ssh-copy-id hadoop103
    [hadoop@hadoop102 .ssh]$ ssh-copy-id hadoop104
    
    1. hadoop103生成免密并发送给其余两个节点(hadoop102,hadoop103,hadoop104)
    [hadoop@hadoop103 .ssh]$ ssh-keygen -t rsa
    [hadoop@hadoop103 .ssh]$ ssh-copy-id hadoop102
    [hadoop@hadoop104 .ssh]$ ssh-copy-id hadoop103
    [hadoop@hadoop103 .ssh]$ ssh-copy-id hadoop104
    
    1. hadoop104生成免密并发送给其余两个节点(hadoop102,hadoop104,hadoop103)
    [hadoop@hadoop104 .ssh]$ ssh-keygen -t rsa
    [hadoop@hadoop104 .ssh]$ ssh-copy-id hadoop102
    [hadoop@hadoop104 .ssh]$ ssh-copy-id hadoop103
    [hadoop@hadoop104 .ssh]$ ssh-copy-id hadoop104
    
  5. 格式化(必须主节点操作,既hadoop102这个节点)
[hadoop@hadoop102 sbin]$ hdfs namenode -format
  1. 然后可以通过如下文本查看对应的信息
192.168.127.112:9870  --访问hadoop集群前台页面
192.168.127.113:8088  --访问hadoop的所有应用页面
还可以通过各个节点jps命令查看启动的任务节点状态。

__EOF__

刘先生 - 本文链接: https://blog.csdn.net/lszbk/p/15987604.html

  • 关于博主: 评论和私信会在第一时间回复。或者直接私信我。
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。

转载请注明:xuhss » Hadoop3.x完全分布式搭建(详细)

喜欢 (0)

您必须 登录 才能发表评论!