我们已经了解了在spark命令行当中使用交互方式完成词频统计,本节将阐述在idea当中使用sbt环境完成scala代码,并进行词频统计。
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.0"
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
object ScalaWordCount {
def main(args: Array[String]): Unit = {
//在windows下执行,必须设置本地的hadoop安装路径,倘若打成jar包,上传到linux,则不需要设置
System.setProperty("hadoop.home.dir", "C:\\hadoop2.7.2")
val conf: SparkConf = new SparkConf().setAppName("WordCount").setMaster("local[2]")
// 创建SparkContext
val sc: SparkContext = new SparkContext(conf)
sc.textFile("hdfs://192.168.100.200:9000/word")
.flatMap(_.split(" "))
.map((_,1))
.reduceByKey(_+_)
.saveAsTextFile("hdfs://192.168.100.200:9000/outputscala")
// 释放资源
sc.stop()
}
}
原文:https://www.cnblogs.com/alichengxuyuan/p/12576807.html