下载Hadoop 官网:http://hadoop.apache.org/releases.html

先配置jdk环境(教程:https://www.jb51.net/article/108936.htm)

下载以后 解压到到/usr/local

tar -zxvf hadoop-2.8.0.tar.gz -C /usr/local

为了方便操作 把hadoop-2.8.0 改为hadoop

mv /usr/local/hadoop-2.8.0 /usr/local/hadoop 

查看主机名

hostname //第一个参数为主机名

检查是否可以免密码

ssh localhost //这里的localhost为主机名

注意:一般初次安装都需要密码

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub  ~/.ssh/authorized_keys

再次验证

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub  ~/.ssh/authorized_keys

注意:如没有Enter password 就说明免密码了

配置环境变量

vim /etc/profile 

末尾添加

export HADOOP_HOME=/usr/local/hadoop 
export PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$HADOOP_HOME/bin 

使环境变量立即生效

source /etc/profile 

创建Hadoop的临时文件存放地

mkdir /usr/local/hadoop/tmp

编辑Hadoop的配置文件

cd /usr/local/hadoop/etc/hadoop/
vim hadoop-env.sh

末尾添加

export JAVA_HOME=/usr/local/java/jdk1.8.0_131/ 
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop

注意:路径要对

使环境变量立即生效

source hadoop-env.sh

配置另一个文件

vim core-site.xml 

在<configuration></configuration>中添加以下内容

<property> 
    <name>fs.defaultFS</name> 
    <value>hdfs://localhost:9000</value> 
  </property> 
<property> 
<name>hadoop.tmp.dir</name> 
<value>file:/usr/local/hadoop/tmp</value> 
    </property> 

配置下一个文件 hdfs-site.xml

vim hdfs-site.xml

在<configuration></configuration>中添加以下内容

<property> 
    <name>dfs.replication</name> 
    <value>1</value> 
  </property> 
 <property> 
    <name>dfs.namenode.name.dir</name> 
    <value>file:/usr/local/hadoop/tmp/dfs/name</value> 
    </property> 
    <property> 
     <name>dfs.datanode.data.dir</name> 
     <value>file:/usr/local/hadoop/tmp/dfs/data</value> 
    </property> 

配置下一个文件mapred-site.xml 因为这个文件默认不存在 我们把mapred-site.xml.template作为模板来配置

cp mapred-site.xml.template mapred-site.xml 

vim mapred-site.xml

在<configuration></configuration>中添加以下内容

<property> 
    <name>mapreduce.framework.name</name> 
    <value>yarn</value> 
  </property>

配置下下个文件yarn-site.xml

vim yarn-site.xml

在<configuration></configuration>中添加以下内容

<property> 
    <name>yarn.nodemanager.aux-services</name> 
    <value>mapreduce_shuffle</value> 
  </property>

配置最后一个文件yarn-env.sh

vim yarn-env.sh

注意:在第23行左右 export JAVA_HOME (删除# 去掉注释),并更改正确jdk的路径

格式化namenode

cd /usr/local/hadoop
bin/hdfs namenode-format

注意:成功的话,会看到 “successfully formatted” 和 “Exitting withstatus 0” 的提示,若为 “Exitting with status 1” 则是出错了

通过脚本启动hdfs

sbin/start-dfs.sh

打开浏览器访问http://localhost:50070,验证是否hdfs配置成功

Linux中Centos7搭建Hadoop服务步骤

再来启动yarn

sbin/start-yarn.sh

打开浏览器访问http://localhost:8088,验证yarn是否配置成功

Linux中Centos7搭建Hadoop服务步骤

注意:由于浏览器存在缓存问题 打开地址可能会失败关闭浏览器 重新打开一两次就好,如果还是失败 检查配置文件是否有误

查看已启动的hadoop进程

jps

注意:如果没有 NameNode 或 DataNode ,那就是配置不成功

广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!

RTX 5090要首发 性能要翻倍!三星展示GDDR7显存

三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。

首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。

据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。