前言
本文尝试源码安装部署hadoop3.1.0
系统为ubuntu16.04
需要具有一定基础,一些基本操作只是简略带过
我主要把各个部署方案的配置文件综合了起来,把一些常用的配置以及说明都写了上来
适合快速部署hadoop的朋友
服务器概览
序号 | 主机名 | IP | 配置 | 功能 | 备注 |
---|---|---|---|---|---|
1 | master | 192.168.136.148 | 内存:4G CPU:2vCores |
主节点 namenode resourcemanager |
|
2 | standby | 192.168.136 | 内存:4G CPU:2vCores |
备用主节点 secondaryNameNode |
默认在master上 |
3 | slave1 | 192.168.136.149 | 内存:2G CPU:1vCores |
从节点 DataNode NodeManager |
|
4 | slave2 | 192.168.136.150 | 内存:2G CPU:1vCores |
从节点 DataNode NodeManager |
部署
配置hosts文件,设置静态IP与主机名
1 | root@master:~# cat /etc/hosts |
配置时间同步
关闭防火墙(centos关闭selinux)
配置master免密登录其它节点
JDK安装
源码安装或者apt安装
环境变量(apt安装不需要配置环境变量)
1
2
3
4export JAVA_HOME=/opt/java/jdk1.8.0_172
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
安装hadoop
下载hadoop,将其解压至/opt/目录下
1 | [root@node1 opt]# cd /opt/ & mkdir hadoop && cd hadoop |
1 | source /etc/profile |
编辑配置文件
1 | 修改配置文件 |
hadoop-env.sh
vim hadoop-env.sh
export JAVA_HOME=/opt/java/jdk1.8.0_172/
export HDFS_NAMENODE_USER="root"
export HDFS_DATANODE_USER="root"
export HDFS_SECONDARYNAMENODE_USER="root"
export YARN_RESOURCEMANAGER_USER="root"
export YARN_NODEMANAGER_USER="root"
core-site.xml
1 | <configuration> |
hdfs-site.xml
1 | <configuration> |
mapred-site.xml
1 | <configuration> |
yarn-site.xml
1 | <configuration> |
masters
新建一个masters的文件,这里指定的是secondary namenode 的主机
1 | [root@node1 hadoop]# touch /opt/hadoop/hadoop-3.1.0/etc/hadoop/masters |
workers
在workers文件中添加slave节点
1 | [root@node1 hadoop]# vim /opt/hadoop/hadoop-3.1.0/etc/hadoop/workers |
创建文件夹
1 | [root@node1 hadoop]# mkdir -p /opt/hadoop/data/tmp |
复制到其他主机
1 | [root@node1 opt]# scp -r /opt/hadoop spark.node2:/opt/ |
格式化 第一次启动得格式化
1 | [root@node1 opt]# /opt/hadoop/hadoop-3.1.0/bin/hdfs namenode -format |
启动
1 | /opt/hadoop/hadoop-3.1.0/sbin/start-dfs.sh |
查看
1 | jps |
关闭 【只在master上操作】
1 | /opt/hadoop/hadoop-3.1.0/sbin/stop-dfs.sh |
删除(谨慎操作,只在master上操作)
重置hadoop环境 [移除hadoop hdfs log文件]
1 | rm -rf /opt/hadoop/hadoop-3.1.0/logs/* |