这里有两个数据集合在两个不同的文件中,如下所示:

DEPT_ID 键在这两个文件中常见的。
目标是使用 MapReduce 加入来组合这些文件。
输入: 我们的输入数据集是两个txt文件:DeptName.txt 和 DepStrength.txt
下载输入文件
前提条件:
本教程是在 Linux 上开发 - Ubuntu操作系统
已经安装的Hadoop(本教程使用2.7.1版本)
Java的开发运行环境已经在系统上安装(本教程使用的版本是:1.8.0)
在我们开始实际操作之前,使用的用户 'hduser_'(使用 Hadoop 的用户)。
yiibai@ubuntu:~$ su hduser_
|
步骤
Step 1) 复制 zip 文件到您选择的位置
hduser_@ubuntu:/home/yiibai$ cp
/home/yiibai/Downloads/MapReduceJoin.tar.gz
/home/hduser_/ hduser_@ubuntu:/home/yiibai$ ls
/home/hduser_/
|
操作过程及结果如下:

Step 2) 解压缩ZIP文件,使用以下命令:
hduser_@ubuntu:~$ sudo tar -xvf MapReduceJoin.tar.gz
|

Step 3) 进入目录 MapReduceJoin/
hduser_@ubuntu:~$ cd MapReduceJoin/
|
Step 4) 启动 Hadoop
hduser_@ubuntu:~/MapReduceJoin$
$HADOOP_HOME/sbin/start-dfs.sh hduser_@ubuntu:~/MapReduceJoin
$ $HADOOP_HOME/sbin/start-yarn.sh
|

Step 5) DeptStrength.txt 和 DeptName.txt 用于此项目的输入文件
这些文件需要使用以下命令 - 复制到 HDFS 的根目录下,使用以下命令:
hduser_@ubuntu:~/MapReduceJoin$
$HADOOP_HOME/bin/hdfs dfs
-copyFromLocal DeptStrength.txt
DeptName.txt /
|
Step 6) 使用以下命令 - 运行程序
hduser_@ubuntu:~/MapReduceJoin$
$HADOOP_HOME/bin/hadoop jar MapReduceJoin.jar /DeptStrength.txt
/DeptName.txt /output_mapreducejoin
|

Step 7)
在执行命令后, 输出文件 (named 'part-00000') 将会存储在 HDFS目录 /output_mapreducejoin
结果可以使用命令行界面可以看到:
hduser_@ubuntu:~/MapReduceJoin$ 
;$HADOOP_HOME/bin/hdfs dfs -cat /output_mapreducejoin/part-00000
|

结果也可以通过 Web 界面查看(这里我的虚拟机的IP是 192.168.1.109),如下图所示:

现在,选择 “Browse the filesystem”,并浏览到 /output_mapreducejoin

打开 part-r-00000

结果如下所示,点击 Download 链接下载:

打开下载后的 文件,结果如下所示:

注:请注意,下一次运行此程序之前,需要删除输出目录 /output_mapreducejoin
$HADOOP_HOME/bin/hdfs dfs -rm -r /output_mapreducejoin
另一种方法是使用不同的名称作为输出目录。
|