[size=1em]---恢复内容开始---
[size=1em]1.CentOS主机配置
[size=1em]在配置Hadoop过程中,防火墙必须优先关闭SELinux,否则将影响后续Hadoop配置与使用,命令如下:
[size=1em]# 查看 “系统防火墙” 状态命令
[size=1em]systemctl status firewalld.service
[size=1em]# 关闭 “系统防火墙” 命令
[size=1em]systemctl stop firewalld.service
[size=1em]# 关闭 “系统防火墙” 自启动命令
[size=1em]systemctl disable firewalld.service
[size=1em]# 关闭 “SELinux”命令
[size=1em]setenforce 0
[size=1em]# 关闭“SELinux”系统系统自启动服务
[size=1em]vi /etc/selinux/config
[size=1em]# 修改内容
[size=1em]SELINUX=disabled
[size=1em](1)执行图结果如下:
[size=1em]
[size=1em](2)上图的防火墙处于运行状态,现在关闭防火墙,如下图:
[size=1em]
[size=1em](3)关闭防火墙后,因为重启服务器防火墙会自动重启,关闭系统自启动命令如下:
[size=1em]# systemctl firewalld.service
[size=1em]2.设置主机名称
[size=1em](1)使用vi编译器编译 #vi /etc/sysconfig/network,修改其内容:
[size=1em]# 修改为:
[size=1em]NETWORKING=yes
[size=1em]HOSTNAME=master
[size=1em](2)修改主机名,进入#vi /etc/hostname里修改内容:
[size=1em]# 修改为: master
[size=1em]3.配置hosts文件
[size=1em](1)编译#vi /etc/hosts添加内容,不用去掉原先内容:
[size=1em]#添加内容
[size=1em]192.168.56.110 master
[size=1em](2)192.168.56.110为IP地址。
[size=1em]4.验证配置结果
[size=1em](1)重启后主机为master。
[size=1em]# 重启系统命令
[size=1em]reboot now
[size=1em](2)在终端输入命令 #ping master -c 5查看是否成功。
[size=1em]
[size=1em]5.JavaJDK环境配置
[size=1em](1)上传JDK文件,使用xftp将jdk传到/opt目录下,如图:
[size=1em]
[size=1em](2)解压缩JDK安装包
[size=1em] 进入/opt 目录并解 压 缩 文 件 #tar -zxvf /opt/jdk-8u162-linux-x64.tar.gz
[size=1em](3)移动 javaJDK 目录至/usr/local/java 中 ,其环境变量地址与Java目录一致
[size=1em]#mv /opt/jdk1.8.0_162 /usr/local/java
[size=1em](4)配置环境变量
[size=1em]编辑 .bash_profile 文件 :
[size=1em]#vi /root/.bash_profile
[size=1em]添加内容 :
[size=1em]export JAVA_HOME=/usr/local/java
[size=1em]export PATH=$JAVA_HOME/bin:$PATH
[size=1em] 使环境变量生效:
[size=1em]#source /root/.bash_profile
[size=1em](5)验证JDK配置是否成功,使用# java -version,结果如下:
[size=1em]
[size=1em]6.Hadoop安装与配置
[size=1em](1)使用xftp将Hadoop软件包上传至/opt下,如图:
[size=1em]
[size=1em](2)解压Hadoop
[size=1em]上传完成后,解压缩文件 #tar -zxvf /opt/hadoop-2.7.5.tar.gz
[size=1em]修改 hadoop-2.7.6-src 目录名称为 hadoop
[size=1em]#mv /opt/hadoop-2.7.5 /opt/hadoo
[size=1em](3)配置环境变量
[size=1em] 编辑 .bash_profile 文件:
[size=1em]#vi /root/.bash_profile
添加内容 :
[size=1em]export HADOOP_HOME=/opt/hadoop
[size=1em]export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
[size=1em](4)添加完成后,输入命令 #source /root/.bash_profile 使环境变量生效。
[size=1em]
[size=1em]7.配置其文件
[size=1em](1)配置core-site.xml 文件
[size=1em]#vi /opt/hadoop/etc/hadoop/core-site.xml
[size=1em]配置其内容:
[size=1em]在<configuration>补充区域</configuration>中间补充
[size=1em]补充内容,如下
[size=1em]<property>
[size=1em] <name>fs.defaultFS</name>
[size=1em] <value>hdfs://master:9000</value>
[size=1em]</property>
[size=1em]<property>
[size=1em] <name>hadoop.tmp.dir</name>
[size=1em] <value>/opt/hadoop/hadoopdata</value>
[size=1em]</property>
[size=1em](2)配置文件系统hdfs-site.xml
[size=1em]# vi /opt/hadoop/etc/hadoop/hdfs-site.xml
配置内容如下 :
[size=1em]<property>
[size=1em] <name>dfs.replication</name>
[size=1em] <value>1</value>
[size=1em]</property>
[size=1em](3)配置资源管理器yarn-site.xml
[size=1em]#vi /opt/hadoop/etc/hadoop/yarn-site.xml
[size=1em]补充内容:
[size=1em]<property>
<name>yarn.nodemanager.aux-services</name>
[size=1em] <value>mapreduce_shuffle</value>
[size=1em]</property>
[size=1em]<property>
[size=1em] <name>yarn.resourcemanager.address</name>
[size=1em] <value>master:18040</value>
[size=1em]</property>
[size=1em]<property>
[size=1em] <name>yarn.resourcemanager.scheduler.address</name>
[size=1em] <value>master:18030</value>
[size=1em]</property>
[size=1em]<property>
[size=1em] <name>yarn.resourcemanager.resource-tracker.address</name>
[size=1em] <value>master:18025</value>
[size=1em]</property>
[size=1em]<property>
[size=1em] <name>yarn.resourcemanager.admin.address</name>
[size=1em] <value>master:18141</value>
[size=1em]</property>
[size=1em]<property>
[size=1em] <name>yarn.resourcemanager.webapp.address</name>
[size=1em] <value>master:18088</value>
[size=1em]</property>
[size=1em](4)配置添加计算框架mapred-site.xml
[size=1em]复制文件
[size=1em]#cp /opt/hadoop/etc/hadoop/mapred-site.xml.template /opt/hadoop/etc/hadoop/mapredsite.xml
[size=1em]编辑文件
[size=1em]#vi /opt/hadoop/etc/hadoop/mapred-site.xml
[size=1em]配置内容
[size=1em]<property>
[size=1em] <name>mapreduce.framework.name</name>
[size=1em] <value>yarn</value>
[size=1em]</property>
[size=1em](5)创建数据文件
[size=1em]创建文件
[size=1em]#mkdir /opt/hadoop/hadoopdata
[size=1em]格式化文件系统
[size=1em]#hadoop namenode -format
[size=1em]8.设置SSH网络
[size=1em](1)ssh-keygen免密登陆设置,输入命令键回车三次
[size=1em]生成免登入密匙 #ssh-keygen -t rsa
[size=1em]
[size=1em]注意:输入 yes 回车 yes
[size=1em]输入密码 ,密码为xshell密码。
[size=1em]
[size=1em](3)ssh 连接 master
[size=1em]#ssh master
[size=1em](4)直接输入 JavaJDK 物理路径
[size=1em]配置文件
[size=1em]# vi /opt/hadoop/etc/hadoop/hadoop-env.sh
[size=1em]内容为 JAVA 路径 :
[size=1em]export JAVA_HOME=/usr/local/java
[size=1em]9.启动Hadoop
[size=1em](1)开启命令 #start-all.sh
[size=1em]停止命令 #stop-all.sh
[size=1em](2)验证配置是否成功
[size=1em] 查看 Hadoop 进程
[size=1em]# jps
[size=1em]
[size=1em](3)计算PI,看Hadoop是否运行的起
[size=1em]Hadoop 运行 jar 包命令
[size=1em]# hadoop jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.j ar pi 10 10
[size=1em]
[size=1em]10.多节点配置Hadoop
[size=1em](1) 编辑文件
[size=1em]#vi /opt/hadoop/etc/hadoop/slaves
[size=1em] 内容 :
[size=1em]slave1
[size=1em]slave2
[size=1em](2)配置hosts主机文件
[size=1em]#vi /etc/hosts
[size=1em]添加内容
[size=1em]192.168.56.111 slave1
[size=1em]192.168.56.112 slave2
[size=1em](3)虚拟机克隆IP地址
[size=1em]
[size=1em](4)修改克隆主机名
[size=1em]#slave1
[size=1em]NETWORKING=yes
[size=1em]HOSTNAME=slave1
#slave2
[size=1em]NETWORKING=yes
[size=1em]HOSTNAME=slave2
配置文件
[size=1em]#/etc/sysconfig/hostname
[size=1em]修改文件 slave1
修改文件 slave2
[size=1em](5)配置三台机子免密登陆
[size=1em]ssh-copy-id -i ~/.ssh/id_rsa root@master
[size=1em]ssh-copy-id -i ~/.ssh/id_rsa root@slave1
[size=1em]ssh-copy-id -i ~/.ssh/id_rsa root@slave2