使用docker快速搭建Spark集群的方法教程

2025-05-27 0 107

前言

spark 是 berkeley 开发的分布式计算的框架,相对于 hadoop 来说,spark 可以缓存中间结果到内存而提高某些需要迭代的计算场景的效率,目前收到广泛关注。下面来一起看看使用docker快速搭建spark集群的方法教程。

适用人群

  • 正在使用spark的开发者
  • 正在学习docker或者spark的开发者

准备工作

  • 安装docker
  • (可选)下载java和spark with hadoop

spark集群

spark运行时架构图

使用docker快速搭建Spark集群的方法教程

如上图: spark集群由以下两个部分组成

  • 集群管理器(mesos, yarn或者standalone mode)
  • 工作节点(worker)

如何docker化(本例使用standalone模式)

1、将spark集群拆分

base(基础镜像)

master(主节点镜像)

worker(工作镜像)

2、编写base dockerfile

注: 为方便切换版本基础镜像选择的是centos, 所以要下载java和spark, 方便调试, 可以下载好安装文件后本地搭建一个静态文件服务器, 使用node.js 的http-server可以快速搞定

命令如下

?

1

2
npm install http-server -g

http-server -p 54321 ~/downloads

正式开始写dockerfile

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29
from centos:7

maintainer ravenzz <raven.zhu@outlook.com>

# 安装系统工具

run yum update -y

run yum upgrade -y

run yum install -y byobu curl htop man unzip nano wget

run yum clean all

# 安装 java

env jdk_version 8u11

env jdk_build_version b12

# 如果网速快,可以直接从源站下载

#run curl -lo "http://download.oracle.com/otn-pub/java/jdk/$jdk_version-$jdk_build_version/jdk-$jdk_version-linux-x64.rpm" -h 'cookie: oraclelicense=accept-securebackup-cookie' && rpm -i jdk-$jdk_version-linux-x64.rpm; rm -f jdk-$jdk_version-linux-x64.rpm;

run curl -lo "http://192.168.199.102:54321/jdk-8u11-linux-x64.rpm" && rpm -i jdk-$jdk_version-linux-x64.rpm; rm -f jdk-$jdk_version-linux-x64.rpm;

env java_home /usr/java/default

run yum remove curl; yum clean all

workdir spark

run \\

curl -lo 'http://192.168.199.102:54321/spark-2.1.0-bin-hadoop2.7.tgz' && \\

tar zxf spark-2.1.0-bin-hadoop2.7.tgz

run rm -rf spark-2.1.0-bin-hadoop2.7.tgz

run mv spark-2.1.0-bin-hadoop2.7/* ./

env spark_home /spark

env path /spark/bin:$path

env path /spark/sbin:$path

3、编写master dockerfile

?

1

2

3

4

5

6

7

8

9

10

11

12

13
from ravenzz/spark-hadoop

maintainer ravenzz <raven.zhu@outlook.com>

copy master.sh /

env spark_master_port 7077

env spark_master_webui_port 8080

env spark_master_log /spark/logs

expose 8080 7077 6066

cmd ["/bin/bash","/master.sh"]

4、编写worker dockerfile

?

1

2

3

4

5

6

7

8

9

10

11

12
from ravenzz/spark-hadoop

maintainer ravenzz <raven.zhu@outlook.com>

copy worker.sh /

env spark_worker_webui_port 8081

env spark_worker_log /spark/logs

env spark_master "spark://spark-master:32769"

expose 8081

cmd ["/bin/bash","/worker.sh"]

5、docker-compose

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35
version: '3'

services:

spark-master:

build:

context: ./master

dockerfile: dockerfile

ports:

- "50001:6066"

- "50002:7077" # spark_master_port

- "50003:8080" # spark_master_webui_port

expose:

- 7077

spark-worker1:

build:

context: ./worker

dockerfile: dockerfile

ports:

- "50004:8081"

links:

- spark-master

environment:

- spark_master=spark://spark-master:7077

spark-worker2:

build:

context: ./worker

dockerfile: dockerfile

ports:

- "50005:8081"

links:

- spark-master

environment:

- spark_master=spark://spark-master:7077

6、测试集群

?

1
docker-compose up

访问http://localhost:50003/ 结果如图

使用docker快速搭建Spark集群的方法教程

参考链接

本例源代码

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对快网idc的支持。

原文链接:http://www.jianshu.com/p/4801bb7ab9e0

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

快网idc优惠网 行业资讯 使用docker快速搭建Spark集群的方法教程 https://www.kuaiidc.com/68463.html

相关文章

发表评论
暂无评论