首页 > 其他 > 详细

Hadoop综合大作业

时间:2018-05-23 20:20:47      阅读:300      评论:0      收藏:0      [点我收藏+]

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

通过QQ邮箱,将英语长篇小说的文本文件下载并放于虚拟机 /home/hadoop/wc 目录下:

技术分享图片

启动hadoop:

技术分享图片

技术分享图片

上传到hdfs/data文件中

技术分享图片

启动Hive 

技术分享图片

技术分享图片

在hive数据库创建表 world:

技术分享图片

导入文本world.txt并查看:

技术分享图片

 技术分享图片

用HQL进行词频统计并保持到表 word_count

技术分享图片

技术分享图片

2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

同上,将爬虫大作业产生的txt文件放入bdlab数据库表bigdata_count中:

通过QQ邮箱,将爬虫大作业文本文件下载并放于虚拟机 /home/hadoop/wc 目录下,爬虫一共爬取了广州大学新闻网的全部新闻,共8300多条。

 创建用于存放csv数据目录:

 技术分享图片

把文件放入文件夹中

技术分享图片

查看文件中的数据:

技术分享图片

导入数据库表中

技术分享图片

技术分享图片

技术分享图片

查看数据:

技术分享图片

主要是爬取广州大学的校园新闻,让我们能更进一步地了解到其他校园的校园新闻,获取其他学校的信息,来对比我们学校与其学校的异同之处。

 

Hadoop综合大作业

原文:https://www.cnblogs.com/qq2647409627/p/9078814.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!