文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

Mybatis批量插入数据的两种方式

2023-09-07 16:12

关注

软件开发过程中需要批量插入数据的场景有几种:

  1. 从离线文件(excel, csv等)导入大批量数据到系统。
  2. 从其它系统定时或者人工同步大批量数据到系统。
  3. 程序自身的某些算法执行时会生成大批量数据保存到数据库。

上面这些场景都是长时间的处理过程,在软件设计时需要将其设计成带进度展示的异步任务(同步任务微服务有http请求超时的风险)。异步任务可以使用消息框架。

使用批量插入技术能提升数据持久化的性能。用mybatis有两种批量插入数据的方式可选:1. 拼接批量插入多条数据的SQL. 2. 使用Batch Insert技术。

mapper接口代码

        void insertDataList(@Param("list") List<BatchData> dataList);

XML文件配置

    <insert id="batchInsertData" useGeneratedKeys="true" keyColumn="id" keyProperty="id">        INSERT INTO t_batch_data (            column1,            column2,            column3,            column4,            column5,            column6,            column7,            column8,            column9,            column10        ) VALUES        <foreach item="data" collection="list" separator=",">            (                #{data.column1},                #{data.column2},                #{data.column3},                #{data.column4},                #{data.column5},                #{data.column6},                #{data.column7},                #{data.column8},                #{data.column9},                #{data.column10}            )        foreach>    insert>

可以看到,XML配置文件使用 foreach 对多条数据做了拼接,Value部分用逗号分隔。拼接后的SQL样式:

INSERT INTO t_batch_data (            column1,            column2,            column3,            column4,            column5,            column6,            column7,            column8,            column9,            column10        ) VALUES                      (                ?,                ?,                ?,                ?,                ?,                ?,                ?,                ?,                ?,                ?            )         ,             (                ?,                ?,                ?,                ?,                ?,                ?,                ?,                ?,                ?,                ?            )         ,             (                ?,                ?,                ?,                ?,                ?,                ?,                ?,                ?,                ?,                ?            )

可以看到,拼接的SQL长度跟批量插入数据的条数和单条数据的字段数相关。对于像postgres这样限定了参数个数的数据库,需要提前对大批量数据做拆分处理。

下面的示例代码对批量数据按200条一组做拆分,然后再入库。

    public long foreachBatchInsert(@PathVariable("amount") int amount) {        long beginTime = System.currentTimeMillis();        List<BatchData> dataList = buildDataList(amount);        // 大数据分批处理入库        List<List<BatchData>> dataGroup = ListUtil.splitList(dataList, 200);        for (List<BatchData> group : dataGroup) {            batchInsertMapper.insertDataList(group);        }        return System.currentTimeMillis() - beginTime;    }

Mapper接口代码

        void insertData(@Param("data") BatchData data);

XML文件配置

    <insert id="insertData" useGeneratedKeys="true" keyProperty="data.id" keyColumn="id">        INSERT INTO t_batch_data (            column1,            column2,            column3,            column4,            column5,            column6,            column7,            column8,            column9,            column10        ) VALUES (            #{data.column1},            #{data.column2},            #{data.column3},            #{data.column4},            #{data.column5},            #{data.column6},            #{data.column7},            #{data.column8},            #{data.column9},            #{data.column10}        )    insert>

映射实例接口和SQL代码与插入单个对象无异。关键代码在应用层。

应用层代码

    public long mybatisBatchInsert(@PathVariable("amount") int amount) {        SqlSession session = sqlSessionFactory.openSession(ExecutorType.BATCH, false);        long beginTime = System.currentTimeMillis();        try {            BatchInsertMapper insertMapper = session.getMapper(BatchInsertMapper.class);            List<BatchData> dataList = buildDataList(amount);            for (BatchData data : dataList) {                insertMapper.insertData(data);            }            session.commit();            session.clearCache();        } catch (Exception e) {            session.rollback();        } finally {            session.close();        }        return System.currentTimeMillis() - beginTime;    }

查看打印出执行的SQL语句:

INSERT INTO t_batch_data (            column1,            column2,            column3,            column4,            column5,            column6,            column7,            column8,            column9,            column10        ) VALUES (            ?,            ?,            ?,            ?,            ?,            ?,            ?,            ?,            ?,            ?        )

拦截StatementHandler的prepare执行方法,可以看到只执行了一次预编译。批量插入不会出现参数个数超限或者SQL语句超长的问题。

性能对比

在postgres数据库中新建了一个包含10个text类型字段的表(t_batch_data)验证了一下,插入20万条数据时间都在15秒左右,相差不大。方案1必须做分组(参数个数超过限制);方案二本身是调用的mapper的插入单个对象的接口, 不需要做分批。

应用场景分析

如表字段是固定的,字段数量也不大可以使用方案一;如表字段数量不固定(元数据驱动)推荐使用第二种方案。第二种方案在代码执行到session.commit()时数据才真正入库,如果在这之前使用数据库的数据或者回填的自增ID是有问题的。

实际产品开发过程中,即使采用第二种方案也建议对大数量做分组处理,将单次操作数据库的时间控制在2秒以内。

Demo代码地址: https://github.com/ylforever/elon-postgres.git

来源地址:https://blog.csdn.net/ylforever/article/details/126592028

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯