看模式:
client:
1.如果是client-windows:dirver在windows上执行
2.如果是client-linux: driver在spark-submit脚本
cluster:
1.如果是cluster:Master决定哪台空闲在哪台上跑
Master会让worker启动一个进程——Driver
Driver启动后会向Master请求很多资源
Master会根据需求让Worker启动多个Executor
spark代码层次:
shuffle 清洗 = map+reduce
|
|