# Spark 使用入门
# 环境准备(Windows 10)
参考文档:Windows上安装运行Spark (opens new window)、Spark学习笔记--Spark在Windows下的环境搭建 (opens new window)
Java SDK(8或者11以上)
Scala:https://www.scala-lang.org/download/ (opens new window),此处版本
2.11.12(msi)Spark:此处版本为
spark-2.4.7-bin-hadoop2.7,配置环境变量Hadoop:此处版本为
2.7.1,解压到C盘,配置环境变量
一切准备就绪后,在命令行中输入 spark-shell,如果得到以下输出,表示环境已经搭建好了。此时就可以在shell中以交互方式调用Spark的API了

# VS Code 下开发 Spark(Scala)
参考文档:VS Code下的Spark(Scala)开发 (opens new window)、sbt 安装 (opens new window)
安装SBT,此处为最新版本
1.4.7,自动配置环境变量。配置镜像仓库aliyum-maven: https://maven.aliyun.com/repository/central。安装 VS Code 插件
Scala (Metals)- 不知道是不是网络的原因,sbt 启动、构建十分缓慢(常常挂掉报错)
创建 Spark 应用,点击左侧导航的插件(Scala),创建一个新的 Scala 项目(scala/hello-word.g8),创建完成后,进到项目目录,执行
sbt命令进入sbt:hello-world>,此时就可以编译(compile)、运行(run)项目了
除了 Scala 以外,Spark 还可以用 Java、Python、R 来开发
# IDEA 下开发 Spark(Scala)
环境准备
IDEA 最新社区版
Scala 插件:https://plugins.jetbrains.com/plugin/1347-scala (opens new window)
Windows 10 下安装 Hadoop:https://www.cnblogs.com/yelao/p/12577412.html (opens new window),基本流程差不多,将 hadoop 版本替换为自己的版本
创建 Maven 项目,添加 Scala 依赖:https://www.cnblogs.com/studyNotesSL/p/11377099.html (opens new window),本地、集群运行应用
← Hive 自定义函数 Spark 介绍 →