Spark删除hive表后HDFS对应目录文件没有被删除
来源:6-6 hive数据源案例

某不入流码农
2020-07-22
描述:使用SparkSQL往Hive中saveAsTable了一张表,查看表的desc,发现它是一个内部表,然后再beeline里面使用drop table将其删除,再次跑jar,抛出hdfs目录已存在异常。
问题:请问老师,记得之前的Hadoop课程中说过,如果是hive内部表,在删除内部表之后,hdfs存储的文件也应该被删除,为什么使用spark sql beeline删除表后,hdfs对应的文件仍然存在呢?
写回答
1回答
-
Michael_PK
2020-07-22
有个问题要确认下,你spark代码写进去的表和beeline连都确定是同一个metastore数据吗,换句话说元数据是不是同一份
022020-07-22
相似问题