Mac M3电脑上使用IntelliJ IDEA搭建Spark开发环境教程
创作时间:
作者:
@小白创作中心
Mac M3电脑上使用IntelliJ IDEA搭建Spark开发环境教程
引用
CSDN
1.
https://m.blog.csdn.net/qq_45257495/article/details/144417685
本文将详细介绍如何在Mac M3电脑上使用IntelliJ IDEA搭建Spark开发环境。从环境准备(JDK、Spark、Maven安装)到IDE配置(Scala插件安装)、项目创建、依赖配置,再到编写和运行第一个Spark程序,手把手教你快速入门Spark开发。
1. 准备工作
1.1 安装 JDK
确保Mac 上已经安装了 JDK 8 或更高版本。可通过以下命令查看是否安装:
java -version
如果输出显示已安装JDK,则说明安装成功。若未安装,可参考JDK8安装教程进行安装。
1.2 安装 Apache Spark
- 下载 Spark 二进制包:Spark-3.3.1
- 解压缩到目标目录,例如 /opt/spark
- 配置环境变量:
export SPARK_HOME=/opt/spark
export PATH=$SPARK_HOME/bin:$PATH
- 验证 Spark 是否安装成功:
spark-shell
如果出现Spark shell界面,说明Spark安装成功。
1.3 安装 Maven(如果未安装)
- 安装命令:
brew install maven
- 验证:
mvn -v
如果显示Maven版本信息,说明安装成功。
2. 配置 IntelliJ IDEA
2.1 打开IDEA
启动IntelliJ IDEA。
2.2 安装 Scala 插件
- 打开 IDEA -> Preferences -> Plugins -> Marketplace
- 搜索 Scala 并安装插件。
2.3 创建新项目
- 选择New Project
- 选择Maven Archetype
- 配置JDK,选择已安装的JDK8
- 填写项目名称和目录,点击Finish
- GroupId:你的组织或项目名称,例如 com.example。
- ArtifactId:项目的名称,例如 spark-app。
- Version:默认即可(例如 1.0-SNAPSHOT)。
2.4 配置 Spark 依赖
- 打开项目中的 pom.xml 文件,添加 Spark 相关依赖:
<dependencies>
<!-- Spark Core -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.12</artifactId>
<version>3.4.1</version>
</dependency>
<!-- Spark SQL -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.12</artifactId>
<version>3.4.1</version>
</dependency>
</dependencies>
- 点击 IDEA 中的 Maven 面板,点击刷新按钮(右上角的箭头),下载依赖。
3. 编写 Spark 程序
- 在
src/main/java或src/main/scala中创建你的程序文件。例如创建一个WordCountApp.java。 - 编写 Spark 应用程序:
import org.apache.spark.api.java.function.FlatMapFunction;
import org.apache.spark.sql.*;
import java.util.Arrays;
public class WordCountApp {
public static void main(String[] args) {
SparkSession spark = SparkSession.builder()
.appName("WordCountApp")
.master("local[*]") //本地运行模式
.getOrCreate();
Dataset<Row> data = spark.read().text("input.txt");
Dataset<Row> wordCounts = data
.flatMap((FlatMapFunction<Row,String>)row -> Arrays.asList(row.getString(0).split(" ")).iterator(), Encoders.STRING())
.groupBy("value")
.count();
wordCounts.show();
spark.stop();
}
}
input.txt的内容如下:
hello world
hello spark
hello world from java
spark is fun and easy to use
apache spark is a fast and general engine for large-scale data processing
data processing with spark is both fast and simple
spark can be used for streaming batch processing machine learning and graph processing
hello apache spark
4. 运行和调试
- 在 IDEA 中,右键点击 WordCountApp 文件,选择 Run ‘WordCountApp’。
- 如果运行成功,你会看到 Spark 的日志输出以及程序的运行结果。
运行结果如下:
热门推荐
无人驾驶真的要来了!首都机场和新国展之间将开通接驳专线
什么是再生纤维素纤维?它值得购买吗?
听神经瘤的诊断和护理措施有哪些?
光猫选购指南:如何选择适合你的高速光纤宽带设备
免费设计3D立体LOGO:使用3ds Max创建字体模型
定积分怎么算 有哪些方法
苏州工业园区娄葑街道星湾社区:“团”聚青年力量 擦亮“青”字招牌
北京地铁12号线最新进展,5个地铁车站开建!
张本智和的AB面:场上喜欢大吼大叫,场下的他却冷静谦虚有素养
茫崖冷湖 星河璀璨
小孩子能吃海苔吗?食用海苔的注意事项
尚食是什么意思 何为尚食
路易斯·康:极致的自然光影秩序美学私宅及公共空间
倒班工作应对指南:从睡眠到心理的全方位调适方案
小青柑茶叶的健康益处详解
问卷填写率优化:吸引更多受访者的秘诀
甲减的并发症有哪些
颗粒补牙材料真能用吗?医生紧急拆解3大风险,揭秘真相别踩坑!
给手机装上“石家庄芯”,要分几步走?
环保面料的优缺点有哪些?
用AI爆改土味短剧,抖快怎么想的?
如何策划一场成功的企业内部技术交流会?——企业内部技术交流会方案策划全攻略
如何进行团队交流会活动
低压配电系统接地方式详解:TN、TT、IT系统原理与应用指南
雪崩击穿和齐纳击穿的区别,等你揭晓!
准备材料,成功上诉:一份详尽的上诉指南
打官司上诉流程是怎样的
抽烟被辞退怎么处罚:企业法律法规解析
如何完整进行春节结婚祭祖仪式?
《寺庙祭祀亲人完整流程指南》