文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

spark编程python代码分析

2023-07-05 04:37

关注

今天小编给大家分享一下spark编程python代码分析的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。

spark编程python实例

ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[])

1.pyspark在jupyter notebook中开发,测试,提交

1.启动

IPYTHON_OPTS="notebook" /opt/spark/bin/pyspark

spark编程python代码分析

下载应用,将应用下载为.py文件(默认notebook后缀是.ipynb)

spark编程python代码分析

2.在shell中提交应用

wxl@wxl-pc:/opt/spark/bin$ spark-submit /bin/spark-submit /home/wxl/Downloads/pysparkdemo.py

spark编程python代码分析

3.遇到的错误及解决

ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*])
d*

1.错误

ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*])
d*

ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*]) created by <module> at /usr/local/lib/python2.7/dist-packages/IPython/utils/py3compat.py:288

spark编程python代码分析

2.解决,成功运行

在from之后添加

try:    sc.stop()except:    passsc=SparkContext('local[2]','First Spark App')

spark编程python代码分析

贴上错误解决方法来源StackOverFlow

4.源码

pysparkdemo.ipynb

{ "cells": [  {   "cell_type": "code",   "execution_count": 1,   "metadata": {    "collapsed": true   },   "outputs": [],   "source": [    "from pyspark import SparkContext"   ]  },  {   "cell_type": "code",   "execution_count": 2,   "metadata": {    "collapsed": true   },   "outputs": [],   "source": [    "try:\n",    "    sc.stop()\n",    "except:\n",    "    pass\n",    "sc=SparkContext('local[2]','First Spark App')"   ]  },  {   "cell_type": "code",   "execution_count": 3,   "metadata": {    "collapsed": true   },   "outputs": [],   "source": [    "data = sc.textFile(\"data/UserPurchaseHistory.csv\").map(lambda line: line.split(\",\")).map(lambda record: (record[0], record[1], record[2]))"   ]  },  {   "cell_type": "code",   "execution_count": 4,   "metadata": {    "collapsed": false,    "scrolled": true   },   "outputs": [    {     "name": "stdout",     "output_type": "stream",     "text": [      "Total purchases: 5\n"     ]    }   ],   "source": [    "numPurchases = data.count()\n",    "print \"Total purchases: %d\" % numPurchases"   ]  },  {   "cell_type": "code",   "execution_count": null,   "metadata": {    "collapsed": true   },   "outputs": [],   "source": []  } ], "metadata": {  "kernelspec": {   "display_name": "Python 2",   "language": "python",   "name": "python2"  },  "language_info": {   "codemirror_mode": {    "name": "ipython",    "version": 2   },   "file_extension": ".py",   "mimetype": "text/x-python",   "name": "python",   "nbconvert_exporter": "python",   "pygments_lexer": "ipython2",   "version": "2.7.12"  } }, "nbformat": 4, "nbformat_minor": 0}

pysparkdemo.py

# coding: utf-8# In[1]:from pyspark import SparkContext# In[2]:try:    sc.stop()except:    passsc=SparkContext('local[2]','First Spark App')# In[3]:data = sc.textFile("data/UserPurchaseHistory.csv").map(lambda line: line.split(",")).map(lambda record: (record[0], record[1], record[2]))# In[4]:numPurchases = data.count()print "Total purchases: %d" % numPurchases# In[ ]:

以上就是“spark编程python代码分析”这篇文章的所有内容,感谢各位的阅读!相信大家阅读完这篇文章都有很大的收获,小编每天都会为大家更新不同的知识,如果还想学习更多的知识,请关注编程网行业资讯频道。

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯