首页 > 其他 > 详细

Hadoop综合大作业

时间:2018-05-25 22:30:36      阅读:196      评论:0      收藏:0      [点我收藏+]

---恢复内容开始---

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

在虚拟机上网下载一个著名的《教父》的英文小说,下载到本地。

 技术分享图片

首先要启动dfs:

技术分享图片

 在hdfs上创建文件夹:

技术分享图片

查看hdfs上的所有文件:

技术分享图片

把下载的文件上传到hdfs:

技术分享图片

启动hive:

技术分享图片

创建表:

技术分享图片

把hdsf上的文件内容添加进去表里:

技术分享图片

创建一个新的表存放词频统计:

技术分享图片

 

 查找表的前十条记录:

技术分享图片

 

2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

首先在本地把统计好的词频转化成csv格式

技术分享图片

把文件上传到虚拟机

技术分享图片

启动hive

技术分享图片

创建表

技术分享图片

存放到表

技术分享图片

查看前十

技术分享图片

 

技术分享图片

 

 分析:说明大家喜欢的小说类型一般主题都是言情,男女之类的小说

Hadoop综合大作业

原文:https://www.cnblogs.com/a305810827/p/9090849.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!