在YARN上提交打包的作业之后,提示已杀死,这是为什么呢?

来源:9-25 -数据清洗作业运行到YARN上

weixin_慕尼黑434357

2019-08-08

报错情况
图片描述

在YARN上看到的是这样,提交了很多次都是succeeded
图片描述

然而HDFS上并没有相应的输出文件,只有这样一个文件夹,里面的内容也是空的
图片描述

///////////////////////////////// 修改为500M后的异常情况图

先是出现了这样的WARN,大概重复了5 6次
图片描述

然后就是下面的ERROR
图片描述

接上图
图片描述

接上图
图片描述

接上图
图片描述
图片描述

----------------------- 再次尝试后
我先试了一下Pi的例子,是可以出结果的(但是executor-memory设置为500M的话会失败,设置为2G可以成功运行,下一张也有YARN上记录的Pi失败任务)
图片描述

然后我再提交项目中的作业任务(内存设置的2G,Yarn和Spark都开启了),会在这个进度条一直卡住一分钟多,然后告诉我失败
图片描述

这是Yarn上的application具体信息
图片描述

控制台信息
图片描述

图片描述
图片描述
图片描述

//////////////////////////// 代码和脚本
这是我的代码,没有找到您说的new SparkConf,是这个原因吗?
图片描述

这是提交作业的脚本
图片描述

/////////////////////// 1G + 2个executor
图片描述

图片描述

图片描述

图片描述

写回答

2回答

weixin_慕尼黑434357

提问者

2019-08-08

可是跑课程中的Pi案例是没问题的, yarn和yarn-cluster都成功了呢, 我是伪分布式的

0
16
weixin_慕尼黑434357
回复
Michael_PK
是的...我一会儿再去看看吧, 感觉有点迷, 本地操作都是没啥问题的
2019-08-09
共16条回复

Michael_PK

2019-08-08

你这日志说明环境有问题,yarn作业都没跑成功的呢

0
0

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程