文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

Spring Batch真是个优秀的批处理框架,用完爱不释手!

2024-12-03 17:52

关注

Spring Batch是一个轻量级的、完善的批处理框架,作为Spring体系中的一员,它拥有灵活、方便、生产可用的特点。在应对高效处理大量信息、定时处理大量数据等场景十分简便。

结合调度框架能更大地发挥Spring Batch的作用。

2 Spring Batch的概念知识

2.1 分层架构

Spring Batch的分层架构图如下:

通过例子讲解Spring Batch入门,优秀的批处理框架

可以看到它分为三层,分别是:

2.2 关键概念

理解下图所涉及的概念至关重要,不然很难进行后续开发和问题分析。

通过例子讲解Spring Batch入门,优秀的批处理框架

2.2.1 JobRepository

专门负责与数据库打交道,对整个批处理的新增、更新、执行进行记录。所以Spring Batch是需要依赖数据库来管理的。

2.2.2 任务启动器JobLauncher

负责启动任务Job。

2.2.3 任务Job

Job是封装整个批处理过程的单位,跑一个批处理任务,就是跑一个Job所定义的内容。

通过例子讲解Spring Batch入门,优秀的批处理框架

上图介绍了Job的一些相关概念:

所以,开发人员要做的事情,就是定义Job。

2.2.4 步骤Step

Step是对Job某个过程的封装,一个Job可以包含一个或多个Step,一步步的Step按特定逻辑执行,才代表Job执行完成。

通过例子讲解Spring Batch入门,优秀的批处理框架

通过定义Step来组装Job可以更灵活地实现复杂的业务逻辑。

2.2.5 输入——处理——输出

所以,定义一个Job关键是定义好一个或多个Step,然后把它们组装好即可。而定义Step有多种方法,但有一种常用的模型就是输入——处理——输出,即Item Reader、Item Processor和Item Writer。比如通过Item Reader从文件输入数据,然后通过Item Processor进行业务处理和数据转换,最后通过Item Writer写到数据库中去。

Spring Batch为我们提供了许多开箱即用的Reader和Writer,非常方便。

3 代码实例

理解了基本概念后,就直接通过代码来感受一下吧。整个项目的功能是从多个csv文件中读数据,处理后输出到一个csv文件。

3.1 基本框架

添加依赖: 

  1. <dependency>  
  2.   <groupId>org.springframework.bootgroupId>  
  3.   <artifactId>spring-boot-starter-batchartifactId>  
  4. dependency>  
  5. <dependency>  
  6.   <groupId>com.h2databasegroupId>  
  7.   <artifactId>h2artifactId>  
  8.   <scope>runtimescope>  
  9. dependency> 

需要添加Spring Batch的依赖,同时使用H2作为内存数据库比较方便,实际生产肯定是要使用外部的数据库,如Oracle、PostgreSQL。

入口主类: 

  1. @SpringBootApplication  
  2. @EnableBatchProcessing  
  3. public class PkslowBatchJobMain {  
  4.     public static void main(String[] args) {  
  5.         SpringApplication.run(PkslowBatchJobMain.class, args);  
  6.     } 
  7.  

也很简单,只是在Springboot的基础上添加注解@EnableBatchProcessing。

领域实体类Employee: 

  1. package com.pkslow.batch.entity;  
  2. public class Employee {  
  3.     String id;  
  4.     String firstName;  
  5.     String lastName;  

对应的csv文件内容如下: 

  1. id,firstName,lastName  
  2. 1,Lokesh,Gupta  
  3. 2,Amit,Mishra  
  4. 3,Pankaj,Kumar  
  5. 4,David,Miller 

3.2 输入——处理——输出

3.2.1 读取ItemReader

因为有多个输入文件,所以定义如下: 

  1. @Value("input/inputData*.csv")  
  2. private Resource[] inputResources;  
  3. @Bean  
  4. public MultiResourceItemReader<Employee> multiResourceItemReader()  
  5.   MultiResourceItemReader<Employee> resourceItemReader = new MultiResourceItemReader<Employee>();  
  6.   resourceItemReader.setResources(inputResources);  
  7.   resourceItemReader.setDelegate(reader()); 
  8.   return resourceItemReader;  
  9.  
  10. @Bean 
  11. public FlatFileItemReader<Employee> reader()  
  12.  
  13.   FlatFileItemReader<Employee> reader = new FlatFileItemReader<Employee>();  
  14.   //跳过csv文件第一行,为表头  
  15.   reader.setLinesToSkip(1);  
  16.   reader.setLineMapper(new DefaultLineMapper() {  
  17.     {  
  18.       setLineTokenizer(new DelimitedLineTokenizer() {  
  19.         {  
  20.           //字段名 
  21.            setNames(new String[] { "id", "firstName", "lastName" });  
  22.         }  
  23.       });  
  24.       setFieldSetMapper(new BeanWrapperFieldSetMapper<Employee>() {  
  25.         {  
  26.           //转换化后的目标类  
  27.           setTargetType(Employee.class);  
  28.         }  
  29.       });  
  30.     }  
  31.   });  
  32.   return reader;  

这里使用了FlatFileItemReader,方便我们从文件读取数据。

3.2.2 处理ItemProcessor

为了简单演示,处理很简单,就是把最后一列转为大写: 

  1. public ItemProcessor<Employee, Employee> itemProcessor() {  
  2.   return employee -> {  
  3.     employee.setLastName(employee.getLastName().toUpperCase()); 
  4.      return employee;  
  5.   };  

2.3 输出ItremWriter

比较简单,代码及注释如下: 

  1. private Resource outputResource = new FileSystemResource("output/outputData.csv");  
  2. @Bean  
  3. public FlatFileItemWriter<Employee> writer()  
  4.  
  5.   FlatFileItemWriter<Employee> writer = new FlatFileItemWriter<>();  
  6.   writer.setResource(outputResource);  
  7.   //是否为追加模式 
  8.    writer.setAppendAllowed(true);  
  9.   writer.setLineAggregator(new DelimitedLineAggregator<Employee>() {  
  10.     {  
  11.       //设置分割符 
  12.        setDelimiter(",");  
  13.       setFieldExtractor(new BeanWrapperFieldExtractor<Employee>() {  
  14.         {  
  15.           //设置字段  
  16.           setNames(new String[] { "id", "firstName", "lastName" });  
  17.         }  
  18.       });  
  19.     }  
  20.   });  
  21.   return writer;  

3.3 Step

有了Reader-Processor-Writer后,就可以定义Step了: 

  1. @Bean  
  2. public Step csvStep() {  
  3.   return stepBuilderFactory.get("csvStep").<Employee, Employee>chunk(5)  
  4.     .reader(multiResourceItemReader())  
  5.     .processor(itemProcessor())  
  6.     .writer(writer())  
  7.     .build();  

这里有一个chunk的设置,值为5,意思是5条记录后再提交输出,可以根据自己需求定义。

3.4 Job

完成了Step的编码,定义Job就容易了: 

  1. @Bean  
  2. public Job pkslowCsvJob() {  
  3.   return jobBuilderFactory  
  4.     .get("pkslowCsvJob")  
  5.     .incrementer(new RunIdIncrementer())  
  6.     .start(csvStep())  
  7.     .build();  

3.5 运行

完成以上编码后,执行程序,结果如下:

通过例子讲解Spring Batch入门,优秀的批处理框架

成功读取数据,并将最后字段转为大写,并输出到outputData.csv文件。

4 监听Listener

可以通过Listener接口对特定事件进行监听,以实现更多业务功能。比如如果处理失败,就记录一条失败日志;处理完成,就通知下游拿数据等。

我们分别对Read、Process和Write事件进行监听,对应分别要实现ItemReadListener接口、ItemProcessListener接口和ItemWriteListener接口。因为代码比较简单,就是打印一下日志,这里只贴出ItemWriteListener的实现代码: 

  1. public class PkslowWriteListener implements ItemWriteListener<Employee> {  
  2.     private static final Log logger = LogFactory.getLog(PkslowWriteListener.class);  
  3.     @Override  
  4.     public void beforeWrite(List extends Employee> list) {  
  5.         logger.info("beforeWrite: " + list);  
  6.     }  
  7.     @Override  
  8.     public void afterWrite(List extends Employee> list) {  
  9.         logger.info("afterWrite: " + list);  
  10.     }  
  11.     @Override  
  12.     public void onWriteError(Exception e, List extends Employee> list) {  
  13.         logger.info("onWriteError: " + list);  
  14.     }  

把实现的监听器listener整合到Step中去: 

  1. @Bean  
  2. public Step csvStep() {  
  3.   return stepBuilderFactory.get("csvStep").<Employee, Employee>chunk(5)  
  4.     .reader(multiResourceItemReader())  
  5.     .listener(new PkslowReadListener())  
  6.     .processor(itemProcessor())  
  7.     .listener(new PkslowProcessListener())  
  8.     .writer(writer())  
  9.     .listener(new PkslowWriteListener())  
  10.     .build();  

执行后看一下日志:

通过例子讲解Spring Batch入门,优秀的批处理框架

这里就能明显看到之前设置的chunk的作用了。Writer每次是处理5条记录,如果一条输出一次,会对IO造成压力。

5 总结

Spring Batch还有许多优秀的特性,如面对大量数据时的并行处理。本文主要入门介绍为主,不一一介绍,后续会专门讲解。 

 

来源:java版web项目内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯