关于在Spark集群中读取本地文件抛出找不到文件异常的问题
来源:6-6 -Spark缓存的作用
Yelena_Nic
2018-09-06
老师 执行lines=textFile(“file:///home/hadoop/data/page_views.dat”) 报错
Caused by: java.io.FileNotFoundException: File file::///home/hadoop/data/page_views.dat does not exist
是为什么呢?
我搭建的是集群。。我看网上说
关于在Spark集群中读取本地文件抛出找不到文件异常的问题
一般情况下,我们在本地ide里写好程序,打成jar包上传到集群取运行,有时候需要读取数据文件,这个时候需要注意,如果程序中读取的是本地文件,那么,要在所有的节点都有这个数据文件,只在master中有这个数据文件时执行程序时一直报找不到文件
解决方式1:让每个Worker节点的相应位置都有要读取的数据文件。
解决方式2:直接将数据文件上传到hdfs,达到数据共享。(强烈推荐,比格更高更专业)
是这样吗???
写回答
2回答
-
Michael_PK
2018-09-06
你说的是对的
00 -
Michael_PK
2018-09-06
99.9%都是操作HDFS 的数据的,本地file 的方式测试用
042018-09-07
相似问题
管理员还是没有上传资料文件,学习时间紧
回答 2
spark-submit 报错
回答 1