Hadoop 安装以及附带程序运行

1.运行环境 Hyper-V 构建1台MasterNode,4台SlaveNode,IP地址分别为192.168.1.200 ~ 192.168.1.204

2.操作系统为Redhat Enterprise Linux 6.2,Basic Server 安装

SSH默认已经安装,JAVA环境需要安装新的SUN JDK,并且设置etc/profile

文件,添加以下几行,并且设置SSH无密码直接登录(google之)

3安装hadoop,新加用户hadoop,并且设置其home为/home/hadoop

设置sudo权限。

4.format 磁盘 (hadoop format)

5.运行sample

1)在home/hadoop下新加input目录,然后添加2个文本文件f1 f2

  1. hadoop上新建目录 /tmp /tmp/input

2)upload到hadoop  。./hadoop fs –put /home/hadoop/input/* /tmp/input

  1. 执行 结果如下

最终清理output目录