首页 > Windows开发 > 详细

Spark API编程动手实战-07-join操作深入实战

时间:2015-02-05 14:58:27      阅读:417      评论:0      收藏:0      [点我收藏+]

我们在hdfs的/data/join创建两个文件:

技术分享

上传第一个文件名称为1.txt

内容第一列是日期,第二列uid(普通用户id)

技术分享

上传第二个文件名称为2.txt

内容第一列是日期,第二列uid(普通用户id)

技术分享

执行上传到hdfs:

技术分享

hdfs命令行查询:

技术分享

web控制台管理查询:

技术分享

首先在命令行中设置日期格式:

技术分享

然后声明两个case class:Register、Login

技术分享

读取第一个文件(1.txt)并进行操作:

技术分享


take操作:

技术分享

该操作是首先读取文件的内容,然后以Tab键进行分词,然后以第二列为key,每一行的所有内容为Value构建起的Register作为Value的值;


读取第二个文件(2.txt)并进行操作:

技术分享

take操作:

技术分享


下面对文件执行join操作:

技术分享

取出join操作的结果:

技术分享

take结果:

技术分享


或者把执行结果保存到HDFS:

技术分享

到Web控制台上查看执行结果:

技术分享

技术分享


在hdfs查看一下其执行结果:

技术分享


Spark API编程动手实战-07-join操作深入实战

原文:http://blog.csdn.net/stark_summer/article/details/43057391

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!