pyspark 启动是Python版本是2.x 的同学请进
来源:3-8 -pyspark
Muller_Lcy
2018-07-11
进入编译后的 spark安装 目录下的 conf 目录下 修改 spark-env.sh # vim spark2.3(安装路径)/conf/spark-env.sh
任意找一行 写:
export PYSPARK_PYTHON=Python3的安装目录下的python 文件
比方:
export PYSPARK_PYTHON=/home/test/python3(安装路径)/bin/python3 # 就是Python3的shell文件哦
写回答
1回答
-
Michael_PK
2018-07-11
这个默认应该把py3加到环境变量里就行了
012018-07-11
相似问题