本文演示以Spark作为分析引擎,Cassandra作为数据存储,而使用Spring Boot来开发驱动程序的示例。
1.前置条件
创建keyspace
1
|
CREATE KEYSPACE hfcb WITH REPLICATION = { 'class' : 'SimpleStrategy' , 'replication_factor' : 3 };
|
创建table
1
2
3
4
5
|
CREATE TABLE person (
id text PRIMARY KEY,
first_name text,
last_name text
);
|
插入测试数据
1
2
3
4
5
|
insert into person (id,first_name,last_name) values( '1' , 'wang' , 'yunfei' );
insert into person (id,first_name,last_name) values( '2' , 'peng' , 'chao' );
insert into person (id,first_name,last_name) values( '3' , 'li' , 'jian' );
insert into person (id,first_name,last_name) values( '4' , 'zhang' , 'jie' );
insert into person (id,first_name,last_name) values( '5' , 'liang' , 'wei' );
|
2.spark-cassandra-connector安装
让Spark-1.5.1能够使用Cassandra作为数据存储,需要加上下面jar包的依赖(示例将包放置于 /opt/spark/managed-lib/ 目录,可任意):
1
2
3
4
5
6
7
8
|
cassandra-clientutil- 3.0 . 2 .jar
cassandra-driver-core- 3.1 . 4 .jar
guava- 16.0 . 1 .jar
cassandra-thrift- 3.0 . 2 .jar
joda-convert- 1.2 .jar
joda-time- 2.9 . 9 .jar
libthrift- 0.9 . 1 .jar
spark-cassandra-connector_2. 10 - 1.5 . 1 .jar
|
在 /opt/spark/conf 目录下,新建 spark-env.sh 文件,输入下面内容
1
|
SPARK_CLASSPATH=/opt/spark/managed-lib/*
|
3.Spring Boot应用开发
添加 spark-cassandra-connector 和 spark 依赖
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_2. 10 </artifactId>
<version> 1.5 . 1 </version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2. 10 </artifactId>
<version> 1.5 . 1 </version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2. 10 </artifactId>
<version> 1.5 . 1 </version>
</dependency>
|
在 application.yml 中配置 spark 与 cassandra 路径
1
2
3
|
spark.master: spark: //master:7077
cassandra.host: 192.168 . 1.140
cassandra.keyspace: hfcb
|
此处特别说明 spark://master:7077 是域名形式而不是ip地址,可修改本地 hosts 文件将 master 与 ip 地址映射。
配置 SparkContext 和 CassandraSQLContext
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
@Configuration
public class SparkCassandraConfig {
@Value ( "${spark.master}" )
String sparkMasterUrl;
@Value ( "${cassandra.host}" )
String cassandraHost;
@Value ( "${cassandra.keyspace}" )
String cassandraKeyspace;
@Bean
public JavaSparkContext javaSparkContext(){
SparkConf conf = new SparkConf( true )
.set( "spark.cassandra.connection.host" , cassandraHost)
// .set("spark.cassandra.auth.username", "cassandra")
// .set("spark.cassandra.auth.password", "cassandra")
.set( "spark.submit.deployMode" , "client" );
JavaSparkContext context = new JavaSparkContext(sparkMasterUrl, "SparkDemo" , conf);
return context;
}
@Bean
public CassandraSQLContext sqlContext(){
CassandraSQLContext cassandraSQLContext = new CassandraSQLContext(javaSparkContext().sc());
cassandraSQLContext.setKeyspace(cassandraKeyspace);
return cassandraSQLContext;
}
}
|
简单调用
1
2
3
4
5
6
7
8
9
|
@Repository
public class PersonRepository {
@Autowired
CassandraSQLContext cassandraSQLContext;
public Long countPerson(){
DataFrame people = cassandraSQLContext.sql( "select * from person order by id" );
return people.count();
}
}
|
启动即可如常规Spring Boot程序一样执行。
源码地址: https://github.com/wiselyman/spring-spark-cassandra.git
总结
以上所述是小编给大家介绍的Spring Boot与Spark、Cassandra系统集成开发示例,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对快网idc网站的支持!
原文链接:http://www.wisely.top/2018/02/01/spring_boot-spark-cassandra-integration/
相关文章
- ASP.NET本地开发时常见的配置错误及解决方法? 2025-06-10
- ASP.NET自助建站系统的数据库备份与恢复操作指南 2025-06-10
- 个人网站服务器域名解析设置指南:从购买到绑定全流程 2025-06-10
- 个人网站搭建:如何挑选具有弹性扩展能力的服务器? 2025-06-10
- 个人服务器网站搭建:如何选择适合自己的建站程序或框架? 2025-06-10
- 2025-07-10 怎样使用阿里云的安全工具进行服务器漏洞扫描和修复?
- 2025-07-10 怎样使用命令行工具优化Linux云服务器的Ping性能?
- 2025-07-10 怎样使用Xshell连接华为云服务器,实现高效远程管理?
- 2025-07-10 怎样利用云服务器D盘搭建稳定、高效的网站托管环境?
- 2025-07-10 怎样使用阿里云的安全组功能来增强服务器防火墙的安全性?
快网idc优惠网
QQ交流群
-
2025-05-27 94
-
2025-05-27 51
-
2025-05-29 40
-
2025-05-29 16
-
2025-05-27 83