pyspark 启动是Python版本是2.x 的同学请进

来源:3-8 -pyspark

Muller_Lcy

2018-07-11

进入编译后的 spark安装 目录下的 conf 目录下 修改 spark-env.sh      # vim spark2.3(安装路径)/conf/spark-env.sh

任意找一行 写:

export PYSPARK_PYTHON=Python3的安装目录下的python 文件

比方:

    export PYSPARK_PYTHON=/home/test/python3(安装路径)/bin/python3         # 就是Python3的shell文件哦

写回答

1回答

Michael_PK

2018-07-11

这个默认应该把py3加到环境变量里就行了

0
1
Muller_Lcy
对的 没错 您后面得视频有讲, 我当时还没看到后面的视频 添加环境变量的方式简单了许多
2018-07-11
共1条回复

Python3实战Spark大数据分析及调度

使用Python3对Spark应用程序进行开发调优,掌握Azkaban任务调度

1046 学习 · 434 问题

查看课程