启动spark-shell的时候遇到这个的错误

来源:2-7 -Spark源码编译及部署

harry8933

2020-02-10

图片描述

我用的是老师给的环境, 遇到这样的问题 后天查了半天不知道为啥,后头找了一个帖子 让我通过Hadoop 建立个文件夹, hadoop fs -mkdir /directory,神奇是的 再次运行的时候 就结果 也能通过浏览器浏览hadoop000:4040. 问题是不明白为什么?不知道老师有没有遇到过

写回答

1回答

Michael_PK

2020-02-10

报错信息已经给的非常明确就是没有那个hdfs的目录,因为那个目录是用来存放spark的作业日志的

0
1
harry8933
非常感谢!
2020-02-11
共1条回复

Python3实战Spark大数据分析及调度

使用Python3对Spark应用程序进行开发调优,掌握Azkaban任务调度

1046 学习 · 434 问题

查看课程