iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >MAC下Anaconda+Pyspark安装配置详细步骤
  • 871
分享到

MAC下Anaconda+Pyspark安装配置详细步骤

2024-04-02 19:04:59 871人浏览 薄情痞子

Python 官方文档:入门教程 => 点击学习

摘要

在Mac的Anaconda上使用pyspark,主要包括以下步骤: 在MAC下安装Spark,并配置环境变量。 在Anaconda中安装引用pyspark。 1.

Mac的Anaconda上使用pyspark,主要包括以下步骤:

  • 在MAC下安装Spark,并配置环境变量。
  • 在Anaconda中安装引用pyspark。

1. MAC下安装Spark

  到Apark Spark官网上下载Spark文件,无论是windows系统,还是MAC系统,亦或者linux系统,都可以下载这个文件(独立于系统)。

在这里插入图片描述

将下载的文件进行解压(可以使用命令行进行解压,也可以使用解压软件)。解压之后的文件如下:

在这里插入图片描述

配置环境变量。打开MAC命令行窗口,输入如下命令:


sudo vi ~/.bash_profile #bash_profile是当前用户的环境变量文件

打开bash_profile文件,并在该文件中增加以下两行命令:


export SPARK_HOME="/Users/sherry/documents/spark/spark-3.1.2-bin-hadoop2.7" #spark文件的完整解压目录
export PATH=${PATH}:${SPARK_HOME}/bin

如下图

在这里插入图片描述

保存并退出之后,运行以下命令:


source ~/.bash_profile #让修改的bash_profile生效
echo $PATH #查看环境变量,可以看到新增的路径名

一般MAC上使用的是zsh的shell工具,需要修改zshrc文件来使环境变量永久生效(若不修改该文件,在命令行中输入spark- shell或者pyspark时可能会提示zsh:command not found:pysparkzsh:command not found spark-shell )。输入以下命令:


vi ~/.zshrc

修改该文件,添加如下命令:


if [ -f ~/.bash_profile ]; then
        source ~/.bash_profile
fi 

保存并退出即可。下面来验证spark是否正确安装,具体如下:
(1)命令行中输入spark-shell

在这里插入图片描述

(2)命令行中输入pyspark

在这里插入图片描述

至此,spark已经安装成功。

2.在Anaconda中引用pyspark

  想要在Anacond中使用pyspark, 只需将spark解压文件中python文件夹下的pyspark复制到Anaconda下的site-packages文件中。下面来验证一下是否能在spyder中使用pyspark, 使用如下代码:


from pyspark import SparkContext, SparkConf

if __name__ == "__main__":
    spark_conf = SparkConf()\
        .setAppName('Python_Spark_WordCount')\
        .setMaster('local[2]') 
    #使用spark最原始的api进行数据分析
    sc = SparkContext(conf=spark_conf)
    sc.setLogLevel('WARN')
    print (sc)
   # ------创建RDD,需要分析的数据 --------------------------------------
    def local_rdd(spark_context):
        datas = ['hadoop spark','hadoop Hive spark','hadoop hive spark',\
                 'hadoop python spark','hadoop python spark',]
        return spark_context.parallelize(datas)

    rdd = local_rdd(sc)
    print (rdd.count())
    print (rdd.first())
    sc.stop()

运行发现提示如下错误:

在这里插入图片描述

从提示信息可以知道,找不到SPARK_HOME。可以在上述主函数中增加如下代码:


import os
#添加spark安装目录
os.environ['SPARK_HOME'] ='/Users/sherry/documents/spark/spark-3.1.2-bin-hadoop2.7'

重新运行即可得到如下结果:

5

hadoop spark

到此这篇关于MAC+Anaconda+Pyspark安装配置教程的文章就介绍到这了,更多相关Anaconda Pyspark安装配置内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

--结束END--

本文标题: MAC下Anaconda+Pyspark安装配置详细步骤

本文链接: https://www.lsjlt.com/news/158915.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作