Uploading resource file:/tmp/spark-xxx:9000/user/root.sparkxxx
来源:9-24 -Spark on YARN基础

_Gloria
2019-03-05
hadoop 运行正常,复制了老师笔记中的命令,修改了spark的安装目录。就会出现如标题一样的提示,上传一个文件到hdfs 上,然后就卡在这儿动不了了,进程也kill不掉,除了重启没别的办法了。
hadoop001:50070 上边 livenode 1 ;
spark.env.sh 也做了修改 HADOOP_CONF_DIR=/root/hadoop-2.6.0-cdh5.7.0/etc/hadoop
在hdfs做了查看,确实有上传的目录,不过都是空的。。。
写回答
2回答
-
这个过程是把本地的包都要传到HDFS上去的,是需要一定的过程的,好几百兆的。阿里云2G的内存大小,这种机器建议不用了,几乎就是积累,Hadoop的进程 Spark的进程 占用默认可能都比这样的大了。建议改大资源的云主机配置,或者就搞个VM 至少6G来运行
012019-03-05 -
Michael_PK
2019-03-05
你集群的data node和node manage r呢?
012019-03-05
相似问题