没用过IDEA工具,听说跟Eclipse差不多,sbt在Idea其实就等于maven在Eclipse。Spark运行在JVM中,所以要在Idea下运行spark,就先要安装JDK 1.8+ 然后加入Scala和Spark的依赖包就可以进行开发了,不要安装低版本的JDK。
先下载IDEA的社区版
https://www.jetbrains.com/idea/download/download-thanks.html?platform=windows&code=IIC
Scala、Spark环境
安装完后下载Scala插件
新建sbt工程
这里需要注意,如果选择Spark2.0以上,那么Scala要选2.11以上。因为我用的是Spark2.0.2,所以就选择2.11.1,选择JDK版本后确认。
工程创建成功后的目录
编辑build.sbt文件,添加Spark依赖
name := “Scala”
version := “1.0” scalaVersion := “2.11.1”
libraryDependencies+= “org.apache.spark” % “spark-core_2.11” % “2.0.2”
保存,等待下载完依赖的包。
PS: Scala版本对应的Spark可在官网查询
Helloworld
在project下 src/scala包下创建一个scala.class
helloworld.scala
import org.apache.spark.{SparkConf, SparkContext}
/**
* Created by Jan on 2016/12/19.
*/
object Helloworld {
def main(args: Array[String]) {
val logFile= “./README.md” // Should be some file on your server.
val conf = new SparkConf().setAppName(“Simple Application”).setMaster(“local”)
val sc= new SparkContext(conf)
val logData= sc.textFile(logFile, 2).cache()
val numAs= logData.filter(line => line.contains(“h”)).count()
val numBs= logData.filter(line => line.contains(“j”)).count()
println(“Lines with h: %s, Lines with j: %s”.format(numAs, numBs))
}
}
上面代码目的是:在本地读取一个叫README.md的文件,通过Spark内存分析,计算字母“h”和字母“j”在文件中出现多少次。
运行代码
可能出现的错误:
Java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.
原因是缺少了winutils.exe文件,这个而且没有设置HADOOP_HOME
1. 下载hadoop到本机并添加bin目录到环境变量
http://hadoop.apache.org/releases.html
2. 下载winutils.exe文件,下载后放到hadoop的bin目录下
到Linux公社资源站下载:
——————————————分割线——————————————
免费下载地址在 http://linux.linuxidc.com/
用户名与密码都是www.linuxidc.com
具体下载目录在 /2016年资料/12月/22日/IDEA下用SBT搭建Spark Helloworld/
下载方法见 http://www.linuxidc.com/Linux/2013-07/87684.htm
——————————————分割线——————————————
本文永久更新链接地址:http://www.linuxidc.com/Linux/2016-12/138698.htm