码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • Windows环境部署Hadoop-3.3.2和Spark3.3.2


    目录

    一、Windows环境部署Hadoop-3.3.2

    1.CMD管理员解压Hadoop压缩包

    2.配置系统环境变量

    3.下载hadoop winutils文件

    4.修改D:\server\hadoop-3.3.2\etc\hadoop目录下的配置文件

    (1)core-site.xml

    (2)hdfs-site.xml

    (3)mapred-site.xml

    (4)yarn-site.xml

    (5)workers

    (6)hadoop-env.cmd

    5.初始化hadoop

    6.启动Hadoop

    7.进入浏览器查看

    二、Windows环境部署Spark-3.3.2

    1.下载压缩包

    2.解压后配置环境变量

    3.进入spark-shell

    4.进入浏览器


    一、Windows环境部署Hadoop-3.3.2

    1.CMD管理员解压Hadoop压缩包

    不可以直接用winRAR,会报错

     

    输入命令

    1. start winrar x -y 压缩包 压缩路径
    2. 例如,将xx.tar.gz解压到当前目录
    3. cd xxx // 进入到xx.tar.gz目录下
    4. start winrar x -y xx.tar.gz ./ // 即可
    5. ##############################################
    6. start winrar x -y hadoop-3.3.2.tar.gz ./

    2.配置系统环境变量

    PATH中添加

    3.下载hadoop winutils文件

    下载链接:https://github.com/cdarlint/winutils

    选择hadoop3.2.2的bin包即可

    下载并解压后,将winutils里面的bin目录中所有的文件复制到hadoop-3.3.2/bin目录下,注意不要直接替换整个bin目录,是把bin下的文件复制过去

    4.修改D:\server\hadoop-3.3.2\etc\hadoop目录下的配置文件

    (1)core-site.xml
    1. <configuration>
    2. <property>
    3. <name>hadoop.tmp.dirname>
    4. <value>/D:/server/hadoop-3.3.2/data/tmpvalue>
    5. property>
    6. <property>
    7. <name>fs.defaultFSname>
    8. <value>hdfs://localhost:9000value>
    9. property>
    10. configuration>
    (2)hdfs-site.xml
    1. <configuration>
    2. <property>
    3. <name>dfs.replicationname>
    4. <value>1value>
    5. property>
    6. <property>
    7. <name>dfs.namenode.name.dirname>
    8. <value>/D:/server/hadoop-3.3.2/data/namenodevalue>
    9. property>
    10. <property>
    11. <name>dfs.datanode.data.dirname>
    12. <value>/D:/server/hadoop-3.3.2/data/datanodevalue>
    13. property>
    14. configuration>
    (3)mapred-site.xml
    1. <configuration>
    2. <property>
    3. <name>mapreduce.framework.namename>
    4. <value>yarnvalue>
    5. property>
    6. <property>
    7. <name>mapred.job.trackername>
    8. <value>hdfs://localhost:9001value>
    9. property>
    10. configuration>
    (4)yarn-site.xml
    1. <configuration>
    2. <property>
    3. <name>yarn.nodemanager.aux-servicesname>
    4. <value>mapreduce_shufflevalue>
    5. property>
    6. <property>
    7. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.classname>
    8. <value>org.apache.hahoop.mapred.ShuffleHandlervalue>
    9. property>
    10. configuration>
    (5)workers
    localhost
    (6)hadoop-env.cmd
    1. # 大约在24行左右
    2. @rem The java implementation to use. Required.
    3. set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_333
    4. # 注意java目录要改成PROGRA~1的位置
    5. # 大约在在最后一行
    6. set HADOOP_IDENT_STRING=%"USERNAME"%

    5.初始化hadoop

    管理员运行CMD

    1. Microsoft Windows [版本 10.0.19045.4046]
    2. (c) Microsoft Corporation。保留所有权利。
    3. C:\WINDOWS\system32>D:
    4. D:\>cd server\hadoop-3.3.2
    5. D:\server\hadoop-3.3.2>hadoop version
    6. Hadoop 3.3.2
    7. Source code repository git@github.com:apache/hadoop.git -r 0bcb014209e219273cb6fd4152df7df713cbac61
    8. Compiled by chao on 2022-02-21T18:39Z
    9. Compiled with protoc 3.7.1
    10. From source with checksum 4b40fff8bb27201ba07b6fa5651217fb
    11. This command was run using /D:/server/hadoop-3.3.2/share/hadoop/common/hadoop-common-3.3.2.jar
    12. D:\server\hadoop-3.3.2>hdfs namenode -format

    6.启动Hadoop

    1. D:\server\hadoop-3.3.2>cd sbin
    2. D:\server\hadoop-3.3.2\sbin>start-all.cmd
    3. This script is Deprecated. Instead use start-dfs.cmd and start-yarn.cmd
    4. starting yarn daemons

    会出现4个窗口

    7.进入浏览器查看

    localhost:9870

    localhost:8088

    二、Windows环境部署Spark-3.3.2

    1.下载压缩包

    Index of /dist/spark/spark-3.3.2

     

    2.解压后配置环境变量

    解压命令和上面的解压hadoop命令一样

    配置环境变量:

    PATH路径添加%SPARK_HOME%\bin

    3.进入spark-shell

    4.进入浏览器

    localhost:4040

  • 相关阅读:
    async异步返回结果
    数据结构实战开发教程(二)泛型编程简介、智能指针示例、异常类构建、顶层父类的创建
    Linux下的管道通信
    java集合框架
    Ceph文件存储
    Qt+WebAssembly学习笔记(六)win10+Qt6.4.0rc1开发环境搭建
    牛逼啊!使用 Redis 实现一个轻量级的搜索引擎
    Java核心卷一 · 笔记05
    vue使用ant design Vue中的a-select组件实现下拉分页加载数据
    【0100】 using recovery command file “recovery.conf“ is not supported
  • 原文地址:https://blog.csdn.net/Helen_1997_1997/article/details/136627713
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号