spark 面试题
1、spark 任务如何解决第三方依赖
比如机器学习的包,需要在本地安装?--py-files 添加 py、zip、egg 文件不需要在各个节点安装
2、spark 数据倾斜怎么解决
spark 中数据倾斜指的是 shuffle 过程中出现的数据倾斜,主要是由于 key 对应的数据不同导致不同 task 所处理的数据量不同。
例如,reduce点一共要处理100万条数据,第一个和第二个task分别被分配到了1万条数据,计算5分钟内完成,第三个task分配到了98万数据,此时第三个task可能需要10个小时完成,这使得整个Spark作业需要10个小时才能运行完成,这就是数据倾斜所带来的后果。
数据倾斜的表现:
-
Spark作业的大部分task都执行迅速,只有有限的几个task执行的非常慢,此时可能出现了数据倾斜,作业可以运行,但是运行得非常慢 -
Spark作业的大部分task都执行迅速,但是有的task在运行过程中会突然报出OOM,反复执行几次都在某一个task报出OOM错误,此时可能出现了数据倾斜,作业无法正常运行
定位数据倾斜问题:
-
查阅代码中的
shuffle算子,例如reduceByKey、countByKey、groupByKey、join等算子,根据代码逻辑判断此处是否会出现数据倾斜 -
查看
Spark作业的log文件,log文件对于错误的记录会精确到代码的某一行,可以根据异常定位到的代码位置来明确错误发生在第几个stage,对应的shuffle算子是哪一个
3、spark Driver和Executor
在执行 Spark 的应用程序时,Spark集群会启动Driver和Executor两种JVM进程,
-
Driver:负责创建spark上下文,提交spark作业job,并将作业转换为计算任务task,在各个Executor进程间协调任务的调度 -
Excutor:负责在工作节点执行具体的计算任务,并将结果返回给Driver,同时为需要持久化的RDD提供存储功能
4、spark 堆内和堆外内存
spark 内存管理中,涉及到的堆内内存(On-heap Memory)和堆外内存(Off-heap Memory) 两种,因为 Driver 的内存管理相对简单,因此下面说的内存特指的 Excutor 端的内存
Excutor 作为一个 JVM 进程,其内存管理建立在 JVM 内存管理之上,Spark 对 JVM 的堆内空间进行更为详细的分配,以便充分利用内存。同时也引入了堆外内存,使之可以直接在工作节点的系统内存中开辟空间,进一步优化了内存的使用。
堆内内存的大小,由Spark应用程序启动时的–executor-memory或spark.executor.memory参数配置
堆内内存分区
Excutor 堆内内存主要可分为四大块:
-
Excutor内存:主要用于shuffle、join、sort、aggregation等计算过程中的临时数据 -
Storage内存:主要用于存储cache数据,如:rdd的缓存、unroll数据 -
用户内存
User Memory:主要用于存储rdd转换操作需要的数据,如:rdd依赖等信息 -
预留内存
Reserved Memory:系统预留内存,用于存储spark内部对象,防止 OOM,因为spark堆内内存大小记录是不准确的,需要留出保险区域(在 Spark 2.2.1 中是写死的,其值等于 300MB,这个值是不能修改的)
# systemMaxMemory 取决于当前 JVM 堆内内存大小,其实就是通过 spark.executor.memory 或 --executor-memory 配置的 可用的存储内存 = systemMaxMemory * spark.storage.memoryFraction * spark.storage.safety Fraction 可用的执行内存 = systemMaxMemory * spark.shuffle.memoryFraction * spark.shuffle.safety Fraction usableMemory = systemMemory - reservedMemory,这个就是 Spark 可用内存
堆外内存
堆外的空间分配较为简单,只有存储内存和执行内存。
可用的执行内存和存储内存占用的空间大小直接由参数 spark.memory.storageFraction 决定,由于堆外内存占用的空间可以被精确计算,所以无需再设定保险区域
spark.memory.offHeap.enabled true spark.memory.offHeap.size 10737418240
两者区别
| 内存类别 | 区域划分 | 管理方式 | 优缺点 |
|---|---|---|---|
| on-heap | Execution Memory、Storage Memory、User Memory、Reserved Memory | 使用 JVM 管理 | |
| off-heap | Execution Memory、Storage Memory | 手动管理,不经过JVM | 可以避免频繁的 GC 但是必须自己编写内存申请和释放的逻辑 |
5、spark 血缘关系
父子 rdd 的构建存在依赖关系,通过这种依赖关系可以实现 rdd 的容错,多个连续 rdd 的依赖关系成为血缘关系
每个 rdd 不会保存数据,但会保存血缘关系,若当前 rdd 在计算过程中出现错误,可以根据其保存的血缘关系将数据源重新读取进行计算
6、spark 宽窄依赖
窄依赖
若依赖关系在设计时即可确定,不需要考虑父 rdd 分区中的记录,且父 rdd 中的每个分区最多只有一个子分区
-
父
rdd的每个分区最多被一个子rdd的分区使用 -
子
rdd中的分区要么只依赖一个父rdd中的一个分区(如:map、filter操作) -
要么就是在设计时就能确定子
rdd是 父rdd的一个子集(如:coalesce) -
窄依赖的转换可以在任何的的一个分区上单独执行, 而不需要其他分区的任何信息
宽依赖
-
父
rdd的分区被多个子rdd的分区依赖即为宽依赖 -
宽依赖计算时不能随意在某些记录一运行,而是需要使用特殊的方式(如:按照
key来获取分区中的所以数据) -
如:在排序
sort时,数据必须被分区,同样范围的key必须在同一分区 -
具有宽依赖的
transform操作包括:sort、reduceByKey、groupByKey、join和调用reParation函数的任何操作
7、常见的 transform和action 操作
-
transform:-
map(func): 返回一个新的rdd,其结果由每一个输入元素经过func函数处理后组成 -
mapPartition(func):类似于map,但独立地在rdd每个分片一运行。假设有 n 个元素,m 个分区,map的函数将被调用n次,而mapPartition被调用m次,一次处理所有分区 -
flatMap(func):对集合中每个元素进行操作然后再扁平化 -
filter(func):返回一个新的rdd,rdd中每个元素会经过func函数的逻辑进行过滤 -
reduceByKey(func, [numTask]):在一个(K,V)的RDD上调用,返回一个(K,V)的RDD,使用reduce函数将相同key的值聚合在一起,reduce任务的个数可以通过第二个参数设置
-
-
action:first、count、collect、saveAsTextFile、take、foraech、countByKey
8、spark 有几种部署方式
-
Local:运行在一台机器上,通常用来练手或者测试
-
Standalone:基于
Master + Slaves的资源调度集群,spark任务提交给Master运行,是spark自身的一个调度系统 -
Yarn:有
yarn-client、yarn-cluster两种模式,主要区别在于Driver程序的运行节点,Spark客户端直接连接Yarn,不需要额外构建Spark集群 -
Mesos:国内大环境比较少用










