一、节点参数
namenode | master | 192.168.56.101 |
datanode | node0 | 192.168.56.102 |
二、配置主机名
192.168.56.101 master192.168.56.102 node0
三、在master上,下载hadoop 3.0.0并解压
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.0.0-alpha1/hadoop-3.0.0-alpha1.tar.gzcp hadoop-3.0.0-alpha1.tar.gz /opt/tar xvzf hadoop-3.0.0-alpha1.tar.gz
四、在所有节点上安装jdk
yum install java-1.8.0-openjdk -y
五、在master上配置hadoop
以下操作默认工作路径为
/opt/hadoop-3.0.0-alpha1
1、编辑etc/hadoop/hadoop-env.sh
export JAVA_HOME='/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.102-1.b14.el7_2.x86_64/jre'
2、编辑etc/hadoop/core-site.xml
fs.defaultFS hdfs://192.168.56.101:9000 hadoop.tmp.dir /opt/hadoop_root/hdfs/tmp
3、编辑etc/hadoop/hdfs-site.xml
dfs.namenode.name.dir /opt/hadoop_root/hdfs/name dfs.datanode.data.dir /opt/hadoop_root/hdfs/data dfs.replication 1
五、将master上配置好的hadoop复制到node0上
scp -r /opt/hadoop-3.0.0-alpha1 root@node0:/opt/
六、启动hadoop
1、在namenode上格式化文件系统
bin/hdfs namenode -format
2、启动namenode,登录master
bin/hdfs --daemon start namenode
3、启动datanode,登录node0
bin/hdfs --daemon start datanode
至此,hdfs搭建完成