主要的参考文章:
首先:java的安装
这里说的非常清楚,下载的时候去oracle的官网
注意8u5 代表1.8.0_05.
而我们发现官网此时支持的是8u20
具体代表哪个看自动生成的文件名
题外话:
解压缩应用程序。默认生成在usr/程序名文件夹
新建用户。在home文件夹。
Step 2:
ssh localhost //跟之前安装mpi时一样。遇到问题
http://blog.csdn.net/greemeet/article/details/9284991
Step 4.1:
Now edit $HADOOP_HOME/etc/hadoop/hadoop-env.sh file and set JAVA_HOME environment variable
export JAVA_HOME=/opt/jdk1.8.0_05/
务必改成自己的安装路径java
否则后面报错无穷
另外,进不去文档。可以root加权限
手工一层一层进入
Step 4.1:
First we need to set environment variable uses by hadoop. Edit ~/.bashrc file and append following values at end of file.
export HADOOP_HOME=/home/hadoop/hadoop
上面!!这里还有一个问题。我的这个环境变量并不是这个
而是/home/hadoop/hadoop2.4.0
当时我傻傻的未发现这个问题
所以改了我的文件夹名字
其实,改这个就可以啦
细心。多思考,一定成功
Step 4.2:
ls后发现没有mapred-site.xml
之后的评论里面也有提到是加template
这个是因为被前面的Step 4.1给坑了。。
hdfs namenode -format
Step 5:
start-dfs.sh
脚本运行时,要求输入hadoop用户名密码
多次输入,不止一次完事。注意
Step 6:
http://svr1.tecadmin.net:50070/
网址失败,明显是带有作者个人特色的
尝试localhost:50070失败
后采用openstack思路
本机ip
192.168.179.129:50070成功~