首页 > 系统服务 > 详细

ubuntu下Sprak(IDE)wordcount例子

时间:2014-10-29 23:29:09      阅读:560      评论:0      收藏:0      [点我收藏+]

一、进入IDE界面

cd ~/Downloads/idea/bin

idea.sh

bubuko.com,布布扣

 

二、建立scala项目

Step 1:导入Spark-hadoop对应的包,次选择“File”–> “Project Structure” –> “Libraries”,选择“+”,将spark-hadoop 对应的包导入:

bubuko.com,布布扣

bubuko.com,布布扣

 

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

点击“OK”确认:

bubuko.com,布布扣

bubuko.com,布布扣

点击“OK”:

bubuko.com,布布扣

bubuko.com,布布扣

IDEA工作完成后会发现Spark的jar包导入到了我们的工程中:

bubuko.com,布布扣

第二步、写scala代码实现wordcount

import SparkContext

import SparkContext._
object Wordcount {
def main(args: Array[String]) {
val sc = new SparkContext("local", "Simple App", "home\\yuanqin\\Downloads\\spark-0.9.0-incubating-bin-hadoop1",null)
//List("lib/spark-assembly_2.10-0.9.0-incubating-hadoop1.0.4.jar")
val logFile = sc.textFile("hdfs://Master:9000/user/root/input/file.txt") // Should be some file on your system
val count=logFile.flatMap(line => line.split(" ")).map(word => (word,1)).reduceByKey(_+_)
println(count)
count.saveAsTextFile("home\\yuanqin\\output\\2014")

}
}

第三步、右击run as....

bubuko.com,布布扣

 

bubuko.com,布布扣

 

ubuntu下Sprak(IDE)wordcount例子

原文:http://www.cnblogs.com/yuanqin/p/4060562.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!