一、节点参数

namenode
master
192.168.56.101
datanode
node0
192.168.56.102

二、配置主机名

192.168.56.101 master192.168.56.102 node0

三、在master上,下载hadoop 3.0.0并解压

wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.0.0-alpha1/hadoop-3.0.0-alpha1.tar.gzcp  hadoop-3.0.0-alpha1.tar.gz /opt/tar xvzf hadoop-3.0.0-alpha1.tar.gz

四、在所有节点上安装jdk

yum install java-1.8.0-openjdk -y

五、在master上配置hadoop

以下操作默认工作路径为

/opt/hadoop-3.0.0-alpha1

1、编辑etc/hadoop/hadoop-env.sh

export JAVA_HOME='/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.102-1.b14.el7_2.x86_64/jre'

2、编辑etc/hadoop/core-site.xml

    
        
fs.defaultFS
        
hdfs://192.168.56.101:9000
    
    
        
hadoop.tmp.dir
        
/opt/hadoop_root/hdfs/tmp
    

3、编辑etc/hadoop/hdfs-site.xml

    
        
dfs.namenode.name.dir
        
/opt/hadoop_root/hdfs/name
    
    
        
dfs.datanode.data.dir
        
/opt/hadoop_root/hdfs/data
    
    
        
dfs.replication
        
1
    

五、将master上配置好的hadoop复制到node0上

scp -r /opt/hadoop-3.0.0-alpha1 root@node0:/opt/

六、启动hadoop

1、在namenode上格式化文件系统

bin/hdfs namenode -format

2、启动namenode,登录master

bin/hdfs --daemon start namenode

3、启动datanode,登录node0

bin/hdfs --daemon start datanode

至此,hdfs搭建完成