这个错误在stack overflow找到一个同样的情况,但是他的解决方案怎么解决啊?不知道怎么操作?

来源:9-24 -Spark on YARN基础

asdhjhg

2017-10-24

http://img1.sycdn.imooc.com/szimg/59eedac4000156bd28801800.jpg

INFO ui.SparkUI: Stopped Spark web UI at http://192.168.1.100:4040
17/10/24 13:42:27 ERROR yarn.Client: Failed to contact YARN for application application_1508818607838_0004.
java.io.InterruptedIOException: Call interrupted
	at org.apache.hadoop.ipc.Client.call(Client.java:1465)
	at org.apache.hadoop.ipc.Client.call(Client.java:1408)
	at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:230)
	at com.sun.proxy.$Proxy14.getApplicationReport(Unknown Source)
	at org.apache.hadoop.yarn.api.impl.pb.client.ApplicationClientProtocolPBClientImpl.getApplicationReport(ApplicationClientProtocolPBClientImpl.java:187)
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
	at java.lang.reflect.Method.invoke(Method.java:498)
	at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:256)
	at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:104)
	at com.sun.proxy.$Proxy15.getApplicationReport(Unknown Source)
	at org.apache.hadoop.yarn.client.api.impl.YarnClientImpl.getApplicationReport(YarnClientImpl.java:399)
	at org.apache.spark.deploy.yarn.Client.getApplicationReport(Client.scala:284)
	at org.apache.spark.deploy.yarn.Client.monitorApplication(Client.scala:998)
	at org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend$MonitorThread.run(YarnClientSchedulerBackend.scala:105)
17/10/24 13:42:27 ERROR cluster.YarnClientSchedulerBackend: Yarn application has already exited with state FAILED!

下面是找到的一样的错误。

http://img1.sycdn.imooc.com/szimg/59eedb2a0001fc1821901648.jpg

写回答

2回答

Michael_PK

2017-10-24

你的spark是自己指定hadoop编译的不

0
2
asdhjhg
client模式报这个错误,cluster模式就不会报错,查看日志也是正常输出pi的值。就是client模式不行
2017-10-24
共2条回复

Michael_PK

2017-10-24

你的spark是自己制定hadoop版本的编译的不

0
0

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程