

tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/server/



安装vim即可;
yum install -y vim


vim /etc/profile


按“o”进入编辑模式;
- #JDK环境变量
- export JAVA_HOME=/opt/server/jdk1.8.0_221
- export PATH=${JAVA_HOME}/bin:$PATH

编辑完内容后,“esc”-->“:”-->"wq"-->回车,执行保存并退出。
source /etc/profile

vim /etc/hosts

点"i"或者"o"进入编辑模式;

编辑完后,点"Esc"-->":"-->"wq",回车,保存退出。
生成公钥和私钥;(一直点下去即可)
ssh-keygen -t rsa
- cd ~/.ssh
-
- cat id_rsa.pub >> authorized_keys
-
- chmod 600 authorized_keys
- # 本机公钥拷贝到102服务器
- ssh-copy-id hadoop102
-
- # 回车,确认102密码后生效



vim hadoop-env.sh

vim core-site.xml


-
-
-
fs.defaultFS -
hdfs://server:8020 -
-
-
-
hadoop.tmp.dir -
/home/hadoop/data -
vim hdfs-site.xml


-
-
-
dfs.replication -
1 -
vim workers

server


- # 查看防火墙状态
- sudo firewall-cmd --state
- # 关闭防火墙:
- sudo systemctl stop firewalld
- # 禁止开机启动
- sudo systemctl disable firewalld




进入目录“/opt/server/hadoop-3.3.1/sbin”,编辑start-dfs.sh、stop-dfs.sh,在顶部加入以下内容;
- HDFS_DATANODE_USER=root
- HDFS_DATANODE_SECURE_USER=hdfs
- HDFS_NAMENODE_USER=root
- HDFS_SECONDARYNAMENODE_USER=root

start-dfs.sh如下:

stop-dfs.sh如下:

./start-dfs.sh

启动成功;




- #Hadoop环境变量
- export HADOOP_HOME=/opt/server/hadoop-3.3.1
- export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin;
执行“source /etc/profile”刷新,使其生效。

进入/opt/server/hadoop-3.3.1/etc/hadoop/目录;
vim mapred-site.xml


-
-
mapreduce.framework.name -
yarn -
-
-
yarn.app.mapreduce.am.env -
HADOOP_MAPRED_HOME=${HADOOP_HOME} -
-
-
mapreduce.map.env -
HADOOP_MAPRED_HOME=${HADOOP_HOME} -
-
-
mapreduce.reduce.env -
HADOOP_MAPRED_HOME=${HADOOP_HOME} -
vim yarn-site.xml

-
-
-
yarn.nodemanager.aux-services -
mapreduce_shuffle -
进入“/opt/server/hadoop-3.3.1/sbin/”目录;
- # start-yarn.sh stop-yarn.sh在两个文件顶部添加以下内容
- YARN_RESOURCEMANAGER_USER=root
- HADOOP_SECURE_DN_USER=yarn
- YARN_NODEMANAGER_USER=root
vim start-yarn.sh


vim stop-yarn.sh


进入“/opt/server/hadoop-3.3.1/sbin/”目录;
./start-yarn.sh


创建目录、上传文件失败。

这里“dr.who”表示的是在网页端访问hdfs时的默认用户名,而真实是不存在的,它的权限很小,为了保证数据安全,无法访问其他用户的数据。修改默认登录用户就可解决此处权限问题。

修改“/opt/server/hadoop-3.3.1/etc/hadoop/”目录下的core-site.xml;
添加下面属性;
-
-
-
hadoop.http.staticuser.user -
root -
重启hdfs服务即可。

创建目录成功;

原因:客户端web无法解析server域名到指定ip引起的。


解决方法:
在本地win10配置host对虚拟机地址的访问;
192.168.12.100 server


