Mac M3电脑上使用IntelliJ IDEA搭建Spark开发环境教程
创作时间:
作者:
@小白创作中心
Mac M3电脑上使用IntelliJ IDEA搭建Spark开发环境教程
引用
CSDN
1.
https://m.blog.csdn.net/qq_45257495/article/details/144417685
本文将详细介绍如何在Mac M3电脑上使用IntelliJ IDEA搭建Spark开发环境。从环境准备(JDK、Spark、Maven安装)到IDE配置(Scala插件安装)、项目创建、依赖配置,再到编写和运行第一个Spark程序,手把手教你快速入门Spark开发。
1. 准备工作
1.1 安装 JDK
确保Mac 上已经安装了 JDK 8 或更高版本。可通过以下命令查看是否安装:
java -version
如果输出显示已安装JDK,则说明安装成功。若未安装,可参考JDK8安装教程进行安装。
1.2 安装 Apache Spark
- 下载 Spark 二进制包:Spark-3.3.1
- 解压缩到目标目录,例如 /opt/spark
- 配置环境变量:
export SPARK_HOME=/opt/spark
export PATH=$SPARK_HOME/bin:$PATH
- 验证 Spark 是否安装成功:
spark-shell
如果出现Spark shell界面,说明Spark安装成功。
1.3 安装 Maven(如果未安装)
- 安装命令:
brew install maven
- 验证:
mvn -v
如果显示Maven版本信息,说明安装成功。
2. 配置 IntelliJ IDEA
2.1 打开IDEA
启动IntelliJ IDEA。
2.2 安装 Scala 插件
- 打开 IDEA -> Preferences -> Plugins -> Marketplace
- 搜索 Scala 并安装插件。
2.3 创建新项目
- 选择New Project
- 选择Maven Archetype
- 配置JDK,选择已安装的JDK8
- 填写项目名称和目录,点击Finish
- GroupId:你的组织或项目名称,例如 com.example。
- ArtifactId:项目的名称,例如 spark-app。
- Version:默认即可(例如 1.0-SNAPSHOT)。
2.4 配置 Spark 依赖
- 打开项目中的 pom.xml 文件,添加 Spark 相关依赖:
<dependencies>
<!-- Spark Core -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.12</artifactId>
<version>3.4.1</version>
</dependency>
<!-- Spark SQL -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.12</artifactId>
<version>3.4.1</version>
</dependency>
</dependencies>
- 点击 IDEA 中的 Maven 面板,点击刷新按钮(右上角的箭头),下载依赖。
3. 编写 Spark 程序
- 在
src/main/java或src/main/scala中创建你的程序文件。例如创建一个WordCountApp.java。 - 编写 Spark 应用程序:
import org.apache.spark.api.java.function.FlatMapFunction;
import org.apache.spark.sql.*;
import java.util.Arrays;
public class WordCountApp {
public static void main(String[] args) {
SparkSession spark = SparkSession.builder()
.appName("WordCountApp")
.master("local[*]") //本地运行模式
.getOrCreate();
Dataset<Row> data = spark.read().text("input.txt");
Dataset<Row> wordCounts = data
.flatMap((FlatMapFunction<Row,String>)row -> Arrays.asList(row.getString(0).split(" ")).iterator(), Encoders.STRING())
.groupBy("value")
.count();
wordCounts.show();
spark.stop();
}
}
input.txt的内容如下:
hello world
hello spark
hello world from java
spark is fun and easy to use
apache spark is a fast and general engine for large-scale data processing
data processing with spark is both fast and simple
spark can be used for streaming batch processing machine learning and graph processing
hello apache spark
4. 运行和调试
- 在 IDEA 中,右键点击 WordCountApp 文件,选择 Run ‘WordCountApp’。
- 如果运行成功,你会看到 Spark 的日志输出以及程序的运行结果。
运行结果如下:
热门推荐
25个专业品茶术语,让你喝茶时气场全开!
油边是哪个部位?解析与介绍
互联网医院:线上预约挂号
海上生明月,天涯共此时。
杭帮菜,已经成为预制菜的代名词了
燃脂操和爬楼梯燃脂,楼梯运动法
冬至:民俗美食“节味儿”浓
冬至将至,牢记“5大习俗,3大禁忌”,遵循传统,为家人祈福
石河子大学怎么样?双一流学科、专业设置及校园环境全解析
上海土地拍卖再掀热潮,央国企占主导
正回购融资的操作方法与风险控制全解析
租车违章的查询方法有哪些?租车违章的处理流程是怎样的?
4S店倒闭潮下,消费者该如何维权?
新车有小问题时可以要求换车吗?
高中生健康减肥全攻略:从饮食到运动的全方位指南
高中生减肥全攻略:运动+饮食,轻松打造健康体形
上海首个马拉松运动康复门诊试运营,可评估是否适合跑步
昆明发布6条黄金旅游线路,全方位体验春城秋日魅力
水生植物在河道生态修复工程中的应用
RTP快速退火炉助力半导体产业发展
虎和兔配婚姻好不好 属虎和属兔人要怎么相处
E3处理器,性价比之王?
武汉文化遗产保护:修旧如旧,非遗创新,戏曲传承
足球高手守门技巧教学:如何成为一名出色的守门员
成都龙泉山:打造生态消费带,绘就绿色发展新画卷
龙泉山:自然奇观与文化瑰宝的完美融合
河南山区之旅,探秘中原的壮丽与神秘
当经典不止一种模样,翻唱成为我们认识原创的起点
碗莲怎么养殖才是正确方法
碗莲中最优品种的选择(从品质、颜色、叶子形态等多个角度探讨)