文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

怎么用Docker-Compose搭建Spark集群

2023-06-30 17:30

关注

这篇文章主要讲解了“怎么用Docker-Compose搭建Spark集群”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么用Docker-Compose搭建Spark集群”吧!

docker-compose.yml

对于Spark集群,我们采用一个mater节点和两个worker节点进行构建。其中,所有的work节点均分配1一个core和 1GB的内存。

Docker镜像选择了bitnami/spark的开源镜像,选择的spark版本为2.4.3,docker-compose配置如下:

  master:    image: bitnami/spark:2.4.3    container_name: master    user: root    environment:      - SPARK_MODE=master      - SPARK_RPC_AUTHENTICATION_ENABLED=no      - SPARK_RPC_ENCRYPTION_ENABLED=no      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no      - SPARK_SSL_ENABLED=no    ports:      - '8080:8080'      - '7077:7077'    volumes:      - ./python:/python  worker1:    image: bitnami/spark:2.4.3    container_name: worker1    user: root    environment:      - SPARK_MODE=worker      - SPARK_MASTER_URL=spark://master:7077      - SPARK_WORKER_MEMORY=1G      - SPARK_WORKER_CORES=1      - SPARK_RPC_AUTHENTICATION_ENABLED=no      - SPARK_RPC_ENCRYPTION_ENABLED=no      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no      - SPARK_SSL_ENABLED=no  worker2:    image: bitnami/spark:2.4.3    container_name: worker2    user: root    environment:      - SPARK_MODE=worker      - SPARK_MASTER_URL=spark://master:7077      - SPARK_WORKER_MEMORY=1G      - SPARK_WORKER_CORES=1      - SPARK_RPC_AUTHENTICATION_ENABLED=no      - SPARK_RPC_ENCRYPTION_ENABLED=no      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no      - SPARK_SSL_ENABLED=no

在master节点中,也映射了一个/python目录,用于存放pyspark代码,方便运行。

对于master节点,暴露出7077端口和8080端口分别用于连接spark以及浏览器查看spark UI,在spark UI中,集群状态如下图(启动后):

怎么用Docker-Compose搭建Spark集群

如果有需要,可以自行添加worker节点,其中可以修改SPARK_WORKER_MEMORYSPARK_WORKER_CORES对节点分配的资源进行修改。

对于该镜像而言,默认exec进去是无用户的,会导致一些安装命令权限的不足,无法安装。例如需要运行pyspark,可能需要安装numpy、pandas等库,就无法使用pip完成安装。而通过user: root就能设置默认用户为root用户,避免上述问题。

启动集群

同上文一样,在docker-compose.yml的目录下执行docker-compose up -d命令,就能一键构建集群(但是如果需要用到numpy等库,还是需要自己到各节点内进行安装)。

进入master节点执行spark-shell,成功进入:

怎么用Docker-Compose搭建Spark集群

结合hdfs使用

将上文的Hadoop的docker-compose.yml与本次的结合,得到新的docker-compose.yml:

version: "1.0"services:  namenode:    image: bde2020/hadoop-namenode:2.0.0-hadoop3.2.1-java8    container_name: namenode    ports:      - 9870:9870      - 9000:9000    volumes:      - ./hadoop/dfs/name:/hadoop/dfs/name      - ./input:/input    environment:      - CLUSTER_NAME=test    env_file:      - ./hadoop.env  datanode:    image: bde2020/hadoop-datanode:2.0.0-hadoop3.2.1-java8    container_name: datanode    depends_on:      - namenode    volumes:      - ./hadoop/dfs/data:/hadoop/dfs/data    environment:      SERVICE_PRECONDITION: "namenode:9870"    env_file:      - ./hadoop.env    resourcemanager:    image: bde2020/hadoop-resourcemanager:2.0.0-hadoop3.2.1-java8    container_name: resourcemanager    environment:      SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864"    env_file:      - ./hadoop.env  nodemanager1:    image: bde2020/hadoop-nodemanager:2.0.0-hadoop3.2.1-java8    container_name: nodemanager    environment:      SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864 resourcemanager:8088"    env_file:      - ./hadoop.env    historyserver:    image: bde2020/hadoop-historyserver:2.0.0-hadoop3.2.1-java8    container_name: historyserver    environment:      SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864 resourcemanager:8088"    volumes:      - ./hadoop/yarn/timeline:/hadoop/yarn/timeline    env_file:      - ./hadoop.env      master:    image: bitnami/spark:2.4.3-debian-9-r81    container_name: master    user: root    environment:      - SPARK_MODE=master      - SPARK_RPC_AUTHENTICATION_ENABLED=no      - SPARK_RPC_ENCRYPTION_ENABLED=no      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no      - SPARK_SSL_ENABLED=no    ports:      - '8080:8080'      - '7077:7077'    volumes:      - ./python:/python  worker1:    image: bitnami/spark:2.4.3-debian-9-r81    container_name: worker1    user: root    environment:      - SPARK_MODE=worker      - SPARK_MASTER_URL=spark://master:7077      - SPARK_WORKER_MEMORY=1G      - SPARK_WORKER_CORES=1      - SPARK_RPC_AUTHENTICATION_ENABLED=no      - SPARK_RPC_ENCRYPTION_ENABLED=no      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no      - SPARK_SSL_ENABLED=no  worker2:    image: bitnami/spark:2.4.3-debian-9-r81    container_name: worker2    user: root    environment:      - SPARK_MODE=worker      - SPARK_MASTER_URL=spark://master:7077      - SPARK_WORKER_MEMORY=1G      - SPARK_WORKER_CORES=1      - SPARK_RPC_AUTHENTICATION_ENABLED=no      - SPARK_RPC_ENCRYPTION_ENABLED=no      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no      - SPARK_SSL_ENABLED=no

运行集群(还需要一个hadoop.env文件见上文)长这样:

怎么用Docker-Compose搭建Spark集群

通过Docker容器的映射功能,将本地文件与spark集群的master节点的/python进行了文件映射,编写的pyspark通过映射可与容器中进行同步,并通过docker exec指令,完成代码执行:

怎么用Docker-Compose搭建Spark集群

运行了一个回归程序,集群功能正常:

怎么用Docker-Compose搭建Spark集群

感谢各位的阅读,以上就是“怎么用Docker-Compose搭建Spark集群”的内容了,经过本文的学习后,相信大家对怎么用Docker-Compose搭建Spark集群这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     807人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     351人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     314人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     433人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     221人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯