先执行stop-all.sh,再执行start-all.sh,前一次启动的worker还在

来源:3-5 Spark Standalone模式环境搭建

OjQuery

2017-07-18

先执行stop-all.sh,再执行start-all.sh,前一次启动的worker还在,SPARK_WORKER_INSTANCES=1这个没起作用似的,worker个数好像跟slaves中主机个数有关,到了一定个数就不增加了

写回答

2回答

Michael_PK

2017-07-18

你先停再起,你咋知道存在的worker是上一次的,stop后立刻看下

0
0

Michael_PK

2017-07-18

你要注意start-all到底是spark的还是hadoop的,这问题很多人不注意就会遇到

0
1
OjQuery
是spark的
2017-07-18
共1条回复

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程