启动spark-shell的时候遇到这个的错误
来源:2-7 -Spark源码编译及部署
harry8933
2020-02-10
我用的是老师给的环境, 遇到这样的问题 后天查了半天不知道为啥,后头找了一个帖子 让我通过Hadoop 建立个文件夹, hadoop fs -mkdir /directory,神奇是的 再次运行的时候 就结果 也能通过浏览器浏览hadoop000:4040. 问题是不明白为什么?不知道老师有没有遇到过
写回答
1回答
-
报错信息已经给的非常明确就是没有那个hdfs的目录,因为那个目录是用来存放spark的作业日志的
012020-02-11
相似问题