Spring Boot与Spark、Cassandra系统集成开发示例

2025-05-29 0 100

本文演示以Spark作为分析引擎,Cassandra作为数据存储,而使用Spring Boot来开发驱动程序的示例。

1.前置条件

  • 安装Spark(本文使用Spark-1.5.1,如安装目录为/opt/spark)
  • 安装Cassandra(3.0+)

创建keyspace

?

1
CREATE KEYSPACE hfcb WITH REPLICATION = { 'class' : 'SimpleStrategy', 'replication_factor' : 3 };

创建table

?

1

2

3

4

5
CREATE TABLE person (

id text PRIMARY KEY,

first_name text,

last_name text

);

插入测试数据

?

1

2

3

4

5
insert into person (id,first_name,last_name) values('1','wang','yunfei');

insert into person (id,first_name,last_name) values('2','peng','chao');

insert into person (id,first_name,last_name) values('3','li','jian');

insert into person (id,first_name,last_name) values('4','zhang','jie');

insert into person (id,first_name,last_name) values('5','liang','wei');

2.spark-cassandra-connector安装

让Spark-1.5.1能够使用Cassandra作为数据存储,需要加上下面jar包的依赖(示例将包放置于 /opt/spark/managed-lib/ 目录,可任意):

?

1

2

3

4

5

6

7

8
cassandra-clientutil-3.0.2.jar

cassandra-driver-core-3.1.4.jar

guava-16.0.1.jar

cassandra-thrift-3.0.2.jar

joda-convert-1.2.jar

joda-time-2.9.9.jar

libthrift-0.9.1.jar

spark-cassandra-connector_2.10-1.5.1.jar

在 /opt/spark/conf 目录下,新建 spark-env.sh 文件,输入下面内容

?

1
SPARK_CLASSPATH=/opt/spark/managed-lib/*

3.Spring Boot应用开发

添加 spark-cassandra-connector 和 spark 依赖

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15
<dependency>

<groupId>com.datastax.spark</groupId>

<artifactId>spark-cassandra-connector_2.10</artifactId>

<version>1.5.1</version>

</dependency>

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-core_2.10</artifactId>

<version>1.5.1</version>

</dependency>

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-sql_2.10</artifactId>

<version>1.5.1</version>

</dependency>

在 application.yml 中配置 spark 与 cassandra 路径

?

1

2

3
spark.master: spark://master:7077

cassandra.host: 192.168.1.140

cassandra.keyspace: hfcb

此处特别说明 spark://master:7077 是域名形式而不是ip地址,可修改本地 hosts 文件将 master 与 ip 地址映射。

配置 SparkContext 和 CassandraSQLContext

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25
@Configuration

public class SparkCassandraConfig {

@Value("${spark.master}")

String sparkMasterUrl;

@Value("${cassandra.host}")

String cassandraHost;

@Value("${cassandra.keyspace}")

String cassandraKeyspace;

@Bean

public JavaSparkContext javaSparkContext(){

SparkConf conf = new SparkConf(true)

.set("spark.cassandra.connection.host", cassandraHost)

// .set("spark.cassandra.auth.username", "cassandra")

// .set("spark.cassandra.auth.password", "cassandra")

.set("spark.submit.deployMode", "client");

JavaSparkContext context = new JavaSparkContext(sparkMasterUrl, "SparkDemo", conf);

return context;

}

@Bean

public CassandraSQLContext sqlContext(){

CassandraSQLContext cassandraSQLContext = new CassandraSQLContext(javaSparkContext().sc());

cassandraSQLContext.setKeyspace(cassandraKeyspace);

return cassandraSQLContext;

}

}

简单调用

?

1

2

3

4

5

6

7

8

9
@Repository

public class PersonRepository {

@Autowired

CassandraSQLContext cassandraSQLContext;

public Long countPerson(){

DataFrame people = cassandraSQLContext.sql("select * from person order by id");

return people.count();

}

}

启动即可如常规Spring Boot程序一样执行。

源码地址: https://github.com/wiselyman/spring-spark-cassandra.git

总结

以上所述是小编给大家介绍的Spring Boot与Spark、Cassandra系统集成开发示例,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对快网idc网站的支持!

原文链接:http://www.wisely.top/2018/02/01/spring_boot-spark-cassandra-integration/

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

快网idc优惠网 建站教程 Spring Boot与Spark、Cassandra系统集成开发示例 https://www.kuaiidc.com/112807.html

相关文章

发表评论
暂无评论