Hadoop部署(Ubuntu)

1.1 配置Java环境变量

命令:

tar -zxvf jdk-8u211-linux-x64.tar.gz -C /home/user/tools 

命令:

vim .bashrc 

在.bashrc文件中添加以下内容:

export JAVA_HOME=/home/user/tools/jdk1.8.0_211 export JRE_HOME=/home/user/tools/jdk1.8.0_211/jre export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH 

命令:

source .bashrc 

注意:所有节点都要配置

1.2 配置Hadoop环境变量

修改.bashrc文件:

export JAVA_HOME=/home/user/tools/jdk1.8.0_211 export JRE_HOME=/home/user/tools/jdk1.8.0_211/jre export HADOOP_HOME=/home/user/tools/hadoop-2.10.1 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH:$HADOOP_HOME/bin 

使环境变量生效,
命令:

source .bashrc 

1.3 配置hostname

修改3个节点的/etc/hostname文件,分别命名为hadoop01hadoop02hadoop03

1.4 配置hosts

修改3个节点的/etc/hosts文件,将IP地址与hostname相对应

172.16.70.165 hadoop01 172.16.70.166 hadoop02 172.16.70.167 hadoop03 

1.5 设置服务器间免密登录

命令:

ssh-keygen -t rsa 

命令:

ssh-copy-id -i ~/.ssh/id_rsa.pub user@<B服务器的IP> 

1.6 创建存储目录

将一块较大的磁盘挂载到/data/路径下,并修改/data/目录的权限,
命令:

chown –R user:user /data 

在全部3个节点上,在/data/路径下,
命令:

sudo mkdir tmp sudo chmod 777 -R tmp/ 

在全部3个节点上,在/data/路径下,
命令:

sudo mkdir hadoop-logs sudo chmod 777 -R hadoop-logs/ 

在全部3个节点上,在/data/路径下,
命令:

sudo mkdir yarn-logs sudo chmod 777 -R yarn-logs/ 

2.1 官网下载

2.2 解压

在全部3个节点上,
命令:

tar -zxvf hadoop-2.10.1.tar.gz -C /home/user/tools/hadoop-2.10.1/ 

3.1 core-site.xml文件

在主节点上,
修改~/hadoop-2.10.1/etc/hadoop/core-site.xml文件:

<configuration>  <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property>  <property> <name>hadoop.tmp.dir</name> <value>/data/tmp</value> </property> </configuration> 

3.2 hadoop-env.sh脚本

在主节点上,
修改~/hadoop-2.10.1/etc/hadoop/hadoop-env.sh脚本,添加环境变量:

export JAVA_HOME=/home/user/tools/jdk1.8.0_211(即JDK的安装路径) export HADOOP_LOG_DIR=/data/hadoop-logs 

3.3 hdfs-site.xml文件

在主节点上,
修改~/hadoop-2.10.1/etc/hadoop/hdfs-site.xml文件:

<configuration>  <property> <name>dfs.replication</name> <value>2</value> </property>  <property> <name>dfs.namenode.secondary.http-address</name> <value>172.16.80.21:50090</value> </property> </configuration> 

3.4 mapred-env.sh脚本

在主节点上,
修改~/hadoop-2.10.1/etc/hadoop/mapred-env.sh脚本,添加环境变量:

export JAVA_HOME=/home/user/tools/jdk1.8.0_211(即JDK的安装路径) 

3.5 mapred-site.xml文件

在主节点上的~/hadoop-2.10.1/etc/hadoop/路径下,
命令:

cp mapred-site.xml.template mapred-site.xml 

修改mapred-site.xml文件:

<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> 

3.6 yarn-env.sh脚本

在主节点上,
修改~/hadoop-2.10.1/etc/hadoop/yarn-env.sh脚本,添加环境变量:

export JAVA_HOME=/home/user/tools/jdk1.8.0_211(即JDK的安装路径) YARN_LOG_DIR="/data/yarn-logs" 

3.7 yarn-site.xml文件

在主节点上,
修改~/hadoop-2.10.1/etc/hadoop/yarn-site.xml文件:

<configuration>  <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>  <property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property>  <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property>  <property> <name>yarn.nodemanager.resource.cpu-vcores</name> <value>6</value> </property> <property> <name>yarn.scheduler.maximum-allocation-vcores</name> <value>6</value> </property>  <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>25600</value> </property> <property> <name>yarn.scheduler.minimum-allocation-mb</name> <value>1024</value> </property> <property> <name>yarn.scheduler.maximum-allocation-mb</name> <value>8192</value> </property> <property> <name>yarn.app.mapreduce.am.resource.mb</name> <value>1024</value> </property> <property> <name>mapreduce.map.memory.mb</name> <value>1536</value> </property> <property> <name>mapreduce.map.java.opts</name> <value>-Xmx1024M</value> </property> <property> <name>mapreduce.reduce.memory.mb</name> <value>3072</value> </property> <property> <name>mapreduce.reduce.java.opts</name> <value>-Xmx2560M</value> </property>  <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property>  <property> <name>yarn.log-aggregation.retain-seconds</name> <value>604800</value> </property> </configuration> 

3.8 slaves文件

在主节点上,
修改~/hadoop-2.10.1/etc/hadoop/slaves文件,添加其它节点的IP地址:

172.16.70.166 172.16.70.167 

注意:需要删除slaves文件中原来localhost那一行

将配置文件复制到其它2个节点上,
命令:

scp -r /home/user/tools/hadoop-2.10.1/ 172.16.70.166:`pwd` scp -r /home/user/tools/hadoop-2.10.1/ 172.16.70.167:`pwd` 

注意:此步骤仅需在第一次安装时执行
在主节点的~/hadoop-2.10.1/bin/路径下:
命令:

./hadoop namenode -format 
./hdfs namenode –format 

在主节点上,在~/hadoop-2.10.1/sbin/路径下,
命令:

./start-all.sh 

在主节点上,在~/hadoop-2.10.1/sbin/路径下,
命令:

./stop-all.sh 
  • Hadoop:http://<节点IP>:50070/
  • YARN:http://<节点IP>:8088/

原文链接:https://blog.csdn.net/michael_f2008/article/details/130739216

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享