• Hadoop的HDFS的集群安装部署


    注意:主机名不要有/_等特殊的字符,不然后面会出问题。有问题可以看看第5点(问题)。

    1、下载

    1.1、去官网,点下载

    下载地址:https://hadoop.apache.org/
    在这里插入图片描述

    1.2、选择下载的版本

    1.2.1、最新版

    在这里插入图片描述在这里插入图片描述

    1.2.2、其他版本,我这里选择3.3.4

    在这里插入图片描述在这里插入图片描述
    在这里插入图片描述

    1.3、上传,解压

    HDFS是主从模式,所以在node1节点安装即可

    1.3.1、上传安装包node1节点

    在这里插入图片描述

    1.3.2、解压到/export/server下
    tar -zxvf hadoop-3.3.4.tar.gz -C /export/server
    
    • 1

    在这里插入图片描述

    1.3.3、构建软链接
    ln -s /export/server/hadoop-3.3.4 hadoop
    
    • 1

    在这里插入图片描述

    2、配置

    配置HDFS集群,我们主要涉及到如下文件的修改:

    • workers: 配置从节点(DataNode)有哪些
    • hadoop-env.sh: 配置Hadoop的相关环境变量
    • core-site.xml: Hadoop核心配置文件
    • hdfs-site.xml: HDFS核心配置文件

    这些文件均存在与$HADOOP_HOME/etc/hadoop文件夹中。

    进入etc下的Hadoop目录

    cd ./etc/hadoop
    
    • 1

    在这里插入图片描述

    2.1、配置workers文件

    2.1.1、进入Hadoop目录
    cd ./etc/hadoop
    
    • 1

    在这里插入图片描述

    2.1.2、编辑workers文件
    vim workers
    
    • 1

    配置主机名
    填入的bigdata_node1,2,3是三台主机的名称
    表明集群记录了三个从节点(DataNode)
    在这里插入图片描述

    2.2、配置hadoop-env.sh文件

    vim hadoop-env.sh
    
    • 1

    在这里插入图片描述
    在这里插入图片描述

    # 填入如下内容
    export JAVA_HOME=/export/server/jdk
    export HADOOP_HOME=/export/server/hadoop
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    export HADOOP_LOG_DIR=$HADOOP_HOME/logs
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • JAVA_HOME,指明JDK环境的位置在哪
    • HADOOP_HOME,指明Hadoop安装位置
    • HADOOP_CONF_DIR,指明Hadoop配置文件目录位置
    • HADOOP_LOG_DIR,指明Hadoop运行日志目录位置

    2.3、配置core-site.xml文件

    vim core-site.xml
    
    • 1
    在文件内部填入如下内容
    <configuration>
      <property>
        <name>fs.defaultFSname>
        <value>hdfs://bigdata_node1:8020value>
      property>
    
      <property>
        <name>io.file.buffer.sizename>
        <value>131072value>
      property>
    configuration>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • key:fs.defaultFS
      含义:HDFS文件系统的网络通讯路径

    • 值:hdfs://node1:8020
      协议为hdfs://
      namenode为bigdata_node1
      namenode通讯端口为8020

    • key:io.file.buffer.size
      含义:io操作文件缓冲区大小

    • 值:131072 bit

    hdfs://bigdata_node1:8020为整个HDFS内部的通讯地址,应用协议为hdfs://(Hadoop内置协议)。
    表明DataNode将和node1的8020端口通讯,bigdata_node1是NameNode所在机器。
    此配置固定了bigdata_node1必须启动NameNode进程。

    在这里插入图片描述

    2.4、配置hdfs-site.xml文件

    vim hdfs-site.xml
    
    • 1
    # 在文件内部填入如下内容
    <configuration>
      <property>
        <name>dfs.datanode.data.dir.permname>
        <value>700value>
      property>
      <property>
        <name>dfs.namenode.name.dirname>
        <value>/data/nnvalue>
      property>
      <property>
        <name>dfs.namenode.hostsname>
        <value>bigdata_node1,bigdata_node2,bigdata_node3value>
      property>
      
      <property>
        <name>dfs.blocksizename>
        <value>268435456value>
      property>
      <property>
        <name>dfs.namenode.handler.countname>
        <value>100value>
      property>
      <property>
        <name>dfs.datanode.data.dirname>
        <value>/data/dnvalue>
      property>
    configuration>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • key:dfs.datanode.data.dir.perm
      含义:hdfs文件系统,默认创建的文件权限设置

    • 值:700,即:rwx------

    • key:dfs.namenode.name.dir
      含义:NameNode元数据的存储位置

    • 值:/data/nn,在bigdata_node1节点的/data/nn目录下

    • key:dfs.namenode.hosts
      含义:NameNode允许哪几个节点的DataNode连接(即允许加入集群)

    • 值:bigdata_node1,bigdata_node2,bigdata_node3这三台服务器被授权

    • key:dfs.blocksize
      含义:hdfs默认块大小

    • 值:268435456(256MB)

    • key:dfs.namenode.handler.count
      含义:namenode处理的并发线程数

    • 值:100,以100个并行度处理文件系统的管理任务

    • key:dfs.datanode.data.dir
      含义:从节点DataNode的数据存储目录

    • 值:/data/dn,即数据存放在bigdata_node1,bigdata_node2,bigdata_node3三台机器的/data/dn内
      在这里插入图片描述

    2.5、根据下述2个配置项:

    在这里插入图片描述
    在这里插入图片描述

    • namenode数据存放bigdata_node1的/data/nn
    • datanode数据存放bigdata_node1,bigdata_node2,bigdata_node3的/data/dn

    所以应该

    • 在bigdata_node1节点:
      mkdir -p /data/nn
      mkdir -p /data/dn
      在这里插入图片描述

    • 在bigdata_node2和bigdata_node3节点:
      mkdir -p /data/dn
      在这里插入图片描述在这里插入图片描述

    2.6、分发Hadoop文件夹

    已经基本完成Hadoop的配置操作,可以从bigdata_node1将hadoop安装文件夹远程复制到bigdata_node2、bigdata_node3。

    在bigdata_node1执行如下命令

    cd /export/server
    scp -r hadoop-3.3.4 bigdata_node2:`pwd`/
    scp -r hadoop-3.3.4 bigdata_node3:`pwd`/
    
    • 1
    • 2
    • 3

    在这里插入图片描述
    在这里插入图片描述

    2.7、为hadoop配置软链接

    2.7.1、在bigdata_node2执行
    ln -s /export/server/hadoop-3.3.4 /export/server/hadoop
    
    • 1

    在这里插入图片描述

    2.7.2、在bigdata_node3执行
    ln -s /export/server/hadoop-3.3.4 /export/server/hadoop
    
    • 1

    在这里插入图片描述

    2.8、配置环境变量

    2.8.1、添加配置

    为了方便我们操作Hadoop,可以将Hadoop的一些脚本、程序配置到PATH中,方便后续使用。

    在Hadoop文件夹中的bin、sbin两个文件夹内有许多的脚本和程序,现在来配置一下环境变量。

    vim /etc/profile
    
    • 1

    在/etc/profile文件底部追加如下内容

    export HADOOP_HOME=/export/server/hadoop
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    
    • 1
    • 2

    在这里插入图片描述

    2.8.2、配置生效
    source /etc/profile
    
    • 1

    在这里插入图片描述

    三台服务器都要配置。

    3、授权为hadoop用户

    hadoop部署的准备工作基本完成。

    为了确保安全,hadoop系统不以root用户启动,我们以普通用户hadoop来启动整个Hadoop服务
    所以,现在需要对文件权限进行授权。

    ps:请确保已经提前创建好了hadoop用户,并配置好了hadoop用户之间的免密登录。

    以root身份,在bigdata_node1、bigdata_node2、bigdata_node3三台服务器上均执行如下命令

    chown -R hadoop:hadoop /data
    chown -R hadoop:hadoop /export
    
    • 1
    • 2

    三台服务器都要。
    在这里插入图片描述在这里插入图片描述

    4、格式化,启动,访问

    前期准备全部完成,现在对整个文件系统执行初始化。

    4.1、格式化namenode

    确保以hadoop用户执行

    su hadoop
    
    • 1

    格式化namenode

    hadoop namenode -format
    
    • 1

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    4.2、启动

    一键启动hdfs集群

    start-dfs.sh
    
    • 1

    在这里插入图片描述
    一键关闭hdfs集群

    stop-dfs.sh
    
    
    • 1
    • 2

    如果遇到命令未找到的错误,表明环境变量未配置好,可以以绝对路径执行

    /export/server/hadoop/sbin/start-dfs.sh
    /export/server/hadoop/sbin/stop-dfs.sh
    
    • 1
    • 2

    4.3、访问

    • 在本地系统配置host的文件,就可以直接使用域名访问。
      在这里插入图片描述

    在这里插入图片描述

    • http://bigdatanode1:9870,即可查看到hdfs文件系统的管理网页。
      在这里插入图片描述
      在这里插入图片描述

    5、问题

    5.1、一键启动hdfs集群后,jps查看没有启动的服务

    在这里插入图片描述

    5.2、检查日志log

    java.lang.IllegalArgumentException: Does not contain a valid host:port authority: bigdata_node1:8020
    	at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:232)
    	at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:189)
    	at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:169)
    	at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddress(DFSUtilClient.java:766)
    	at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddress(DFSUtilClient.java:792)
    	at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddressCheckLogical(DFSUtilClient.java:810)
    	at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddress(DFSUtilClient.java:772)
    	at org.apache.hadoop.hdfs.server.namenode.NameNode.getRpcServerAddress(NameNode.java:578)
    	at org.apache.hadoop.hdfs.server.namenode.NameNode.loginAsNameNodeUser(NameNode.java:718)
    	at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:738)
    	at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:1020)
    	at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:995)
    	at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1769)
    	at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1834)
    2023-09-11 00:28:53,873 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1: java.lang.IllegalArgumentException: Does not contain a valid host:port authority: bigdata_node1:8020
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    在这里插入图片描述

    5.3、问题原因

    说是我主机与端口不对

    5.3.1、ping端口号
    ping bigdata_node1
    
    • 1
    5.3.2、说是端口号没放开
    telnet bigdata_node1 8020
    
    • 1
    5.3.3、自己的真实原因

    主机使用的hostname不合法,修改为不包含着‘.’ ‘/’ '_'等非法字符的主机名。

    5.3.4、修改主机名,并把之前的配置的主机名全部改了
    hostnamectl set-hostname bigdatanode1
    
    • 1
    vim /etc/hosts
    
    • 1
    vim workers
    
    • 1
    vim core-site.xml
    
    • 1
    vim hdfs-site.xml
    
    • 1

    5.4、重启启动,成功

    5.4.1、先格式化namenode
    hadoop namenode -format
    
    • 1
    5.4.2、再启动

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    结束!!!!!!!
    hy:33


    						为什么害怕独处?因为人在独处的时候,总是会听到心灵深处的声音。
    
    • 1
  • 相关阅读:
    项目二--03.基于Nginx、keepalived的高可用集群之keepalived高可用实现
    计算机系统(23)--- 死锁的处理策略
    【设计模式】行为型模式-第 3 章第 3 讲【解释器模式】
    HTTP协议初始
    通过HTML网页对mysql数据库进行增删改查(CRUD实例)
    【论文笔记】基于深度强化学习的室内视觉局部路径规划
    代码随想录算法训练营第55天|392. 判断子序列,115.不同的子序列
    前端同一个接口同时被调用两次的原因
    基于Python实现的业务数据分析系统
    c语言从入门到实战——分支和循环
  • 原文地址:https://blog.csdn.net/weixin_49107940/article/details/132787883