iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >如何解决mybatis-plus查询耗时慢的问题
  • 358
分享到

如何解决mybatis-plus查询耗时慢的问题

2023-06-20 13:06:05 358人浏览 八月长安
摘要

这篇文章主要介绍如何解决mybatis-plus查询耗时慢的问题,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!mybatis-plus 查询耗时慢1、现象查出30000多条id然后用EntityWrapper&nbs

这篇文章主要介绍如何解决mybatis-plus查询耗时慢的问题,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

mybatis-plus 查询耗时慢

1、现象

查出30000多条id

然后用

EntityWrapper ew = new EntityWrapper<>(); ew.in(TableFieldConstant.F_AUTH_RESULT_ID, ids);

查询会很慢

2、原因

跟了一下mybatis-plus源码

 protected String fORMatsqlIfNeed(boolean need, String sqlStr, Object... params) {        if (need && !StringUtils.isEmpty(sqlStr)) {            if (ArrayUtils.isNotEmpty(params)) {                for(int i = 0; i < params.length; ++i) {                    String genParamName = "MPGENVAL" + this.paramNameSeq.incrementAndGet();                    sqlStr = sqlStr.replace(String.format("{%s}", i), String.format("#{%s.paramNameValuePairs.%s}", this.getParamAlias(), genParamName));                    this.paramNameValuePairs.put(genParamName, params[i]);                }            }             return sqlStr;        } else {            return null;        }    }

问题出现在

sqlStr = sqlStr.replace(String.format("{%s}", i), String.format("#{%s.paramNameValuePairs.%s}", this.getParamAlias(), genParamName));

对replace 测试 发现当数据量大时替换会很耗时 测试的遍历了30000次拼接从1到30000 替换耗时20多秒

对 apache-commons-lang 的StringUtis.replace测试是耗时7秒多

3、总结

把使用mybaits 批量查询改为 手写sql查询 之后问题解决

使用mybatis-plus批量操作时要谨慎 能写sql尽量写sql

这个跟mybatis-plus 的小伙伴提了问题后已经解决 可以升级jar版本 3.x

mybatis-plus 处理大数据量太慢

大批量数据插入方法是Mybatis的foreach拼接SQL

我发现不管改成Mybatis Batch提交或者原生JDBC Batch的方法都不起作用,实际上在插入的时候仍然是一条条记录的插,速度远不如原来Mybatis的foreach拼接SQL的方法。

// 第一步判断更新或添加 String[] splitUserId = userGroup.getUserId().split(","); String[] spiltUserName = userGroup.getUserName().split(","); if (StringUtils.isBlank(userGroup.getId())) {  userGroup.setNum(spiltUserName.length);  userGroupMapper.insert(userGroup); } else {  userGroup.setNum(spiltUserName.length);  userGroupMapper.updateById(userGroup); }  Map<String, Object> columnMap = new HashMap<String, Object>(); columnMap.put("USER_GROUP_ID", userGroup.getId()); groupUsersService.removeByMap(columnMap);  if (splitUserId.length != 0) {  List<GroupUsers> groupUsersList = Lists.newArrayList();  for (int i = 0; i < splitUserId.length; i++) {   GroupUsers gu = new GroupUsers();   gu.setUserId(splitUserId[i]);   gu.setUserName(spiltUserName[i]);   gu.setUserGroupId(userGroup.getId());   groupUsersList.add(gu);  }  groupUsersService.saveBatch(groupUsersList); }

就是这样的一种情景也很符合大部分的开发场景,可就是1000条数据的情况下用了8秒 ,这可能与计算机的性能有很大的关系,但就是如此也不至于用八秒钟,那么用户体验会很惨的。

JDBC连接URL字符串中需要新增一个参数:

rewriteBatchedStatements=true url: jdbc:mysql://192.168.1.143:3306/rt_xxxxxx_test?useUnicode=true&characterEncoding=utf-8&rewriteBatchedStatements=true

Mysql的JDBC连接的url中要加rewriteBatchedStatements参数,并保证5.1.13以上版本的驱动,才能实现高性能的批量插入。

mysql JDBC驱动在默认情况下会无视executeBatch()语句,把我们期望批量执行的一组sql语句拆散,一条一条地发给MySQL数据库,批量插入实际上是单条插入,直接造成较低的性能。

只有把rewriteBatchedStatements参数置为true, 驱动才会帮你批量执行SQL

另外这个选项对INSERT/UPDATE/DELETE都有效

以上是“如何解决mybatis-plus查询耗时慢的问题”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注编程网精选频道!

--结束END--

本文标题: 如何解决mybatis-plus查询耗时慢的问题

本文链接: https://www.lsjlt.com/news/297050.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作