Mybatis-Plus批量插入
没有绝路,人也不会死在绝路上,大众只会迷失于路口
mybatis-plus
的IService
接口默认提供saveBatch
批量插入,也是唯一一个默认批量插入,在数据量不是很大的情况下可以直接使用,但这种是一条一条执行的效率上会有一定的瓶颈,今天我们就来研究研究mybatis-plus中的批量插入。
1. 准备测试环境
新建一个测试表,用插入5000
条数据来测试
CREATE TABLE `users` (
`id` bigint(20) NOT NULL AUTO_INCREMENT,
`create_time` datetime DEFAULT CURRENT_TIMESTAMP,
`user_name` varchar(255) DEFAULT NULL,
`age` int(11) DEFAULT NULL,
`email` varchar(255) DEFAULT NULL,
`address` varchar(255) DEFAULT NULL,
`account` varchar(255) DEFAULT NULL,
`password` varchar(255) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=60204 DEFAULT CHARSET=utf8;
pom
依赖
<dependencies>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
<version>2.7.2</version>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<version>2.7.2</version>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<version>1.18.10</version>
</dependency>
<dependency>
<groupId>com.baomidou</groupId>
<artifactId>mybatis-plus-boot-starter</artifactId>
<version>3.5.2</version>
</dependency>
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>8.0.13</version>
</dependency>
</dependencies>
yml
配置
spring:
application:
name: example-server
datasource:
driver-class-name: com.mysql.cj.jdbc.Driver
url: jdbc:mysql://127.0.0.1:3306/my_user?useUnicode=true&characterEncoding=utf8&useSSL=false&allowMultiQueries=true&serverTimezone=Asia/Shanghai
username: root
password: root
main:
allow-circular-references: true
mybatis-plus:
configuration:
log-impl: org.apache.ibatis.logging.stdout.StdOutImpl #开启SQL语句打印
实体类
/**
* @description: 默认驼峰转换
* @author: yh
* @date: 2022/8/29
*/
@Data
public class Users extends Model<Users> {
/**
* id自增
*/
@TableId(value = "id", type = IdType.AUTO)
private Long id;
private LocalDateTime createTime;
private String userName;
private Integer age;
private String email;
private String address;
private String account;
private String password;
}
UsersMapper
public interface UsersMapper extends BaseMapper<Users> {
}
UsersMapper.xml
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
<mapper namespace="com.example.mapper.UsersMapper">
</mapper>
service接口
public interface UsersService extends IService<Users> {
}
service实现
@Service
public class UsersServiceImpl extends ServiceImpl<UsersMapper, Users> implements UsersService {
}
配置扫描
@MapperScan("com.example.mapper")
@SpringBootApplication
public class SpringExampleApplication {
public static void main(String[] args) {
SpringApplication.run(SpringExampleApplication.class, args);
}
}
环境准备完成。
2. saveBatch
@RequestMapping(value = "/api")
@RestController
@Slf4j
public class ExampleController {
@Autowired
private UsersService usersService;
@RequestMapping(value = "/load", method = RequestMethod.GET)
public void load() {
List<Users> list = new ArrayList<>();
for (int i = 0; i < 5000; i++) {
Users users = new Users();
users.setUserName("yy" + i);
users.setAge(18);
users.setEmail("123@qq.com");
users.setAddress("临汾" + i);
users.setAccount("account" + i);
users.setPassword("password" + i);
list.add(users);
}
long start = System.currentTimeMillis();
usersService.saveBatch(list);
long end = System.currentTimeMillis();
System.out.println("5000条数据插入,耗时:" + (end - start));
}
}
执行过程:
5000条数据被分成了5次执行,每次1000条,整体是一个事务
耗时:48.5
秒
2.1 分析
点进saveBatch
方法,看看内部是怎么实现的
注意看,方法有一个事务注解,说明插入整批数据会作为一个事务进行
默认1000条一次,怪不得执行时每隔1000条会处于一个准备执行状态,等待几秒后才会往下执行(这里等待的时间就是1000个单条的insert
语句执行的时间)
再往下点是一个saveBatch
接口,参数分别是插入的对象集合、插入批次数量也就是默认的1000
查看它的实现类
这里也有一个事务的注解,这是因为saveBatch
是一个重载方法,插入的时候也可以指定插入批次数量调用
继续往下进入executeBatch
再往下
这里就是真正执行的方法了,idxLimit
会对比DEFAULT_BATCH_SIZE
和集合长度两个数中的最小数,作为批量大小,也就是说当集合长度不够1000,那么执行的时候批量大小就是集合的长度,就执行一次。
for
循环中的consumer
:对应的类型是一个函数式接口,代表一个接受两个输入参数且不返回任何内容的操作符。意思是给定两个参数sqlSession
、循环中当前element
对象,执行一次传递过来的consumer
匿名函数。也就是上边源码里的插入匿名函数。
当i == indLimit
时:执行一次预插入,并重新计算idxLimit
的值
if
中idxLimit
计算规则:当前idxLimit
加batchSize
(默认1000) 和 集合长度 取最小值,计算出来的结果肯定不会超过集合的长度,最后的批次时idxLimit
等于集合的长度,将这个值作为下一次执行预插入的时间点。
sqlSession.flushStatements()
:当有处于事务中的时候,起到一种预插入的作用,执行了这行代码之后,要插入的数据会锁定数据库的一行记录,并把数据库默认返回的主键赋值给插入的对象,这样就可以把该对象的主键赋值给其他需要的对象中去了,这里不是事务提交啊。
最后方法执行完后@Transactional
注解会默认提交事务,如果调用的方法上还有@Transactional
注解,默认的事务传播类型是Propagation.REQUIRED
,不会新开启事务,如果没有@Transactional
注解才会新开起事务
详细介绍请看Spring @Transactional事务管理
3. insert单条插入
把数据库中的数据清空,还原到空表状态
@Service
public class UsersServiceImpl extends ServiceImpl<UsersMapper, Users> implements UsersService {
@Override
public void insertList() {
List<Users> list = new ArrayList<>();
for (int i = 0; i < 5000; i++) {
Users users = new Users();
users.setUserName("yy" + i);
users.setAge(18);
users.setEmail("123@qq.com");
users.setAddress("临汾" + i);
users.setAccount("1" + i);
users.setPassword("pw" + i);
list.add(users);
}
long start = System.currentTimeMillis();
for (int i = 0; i < list.size(); i++) {
baseMapper.insert(list.get(i));
}
long end = System.currentTimeMillis();
System.out.println("5000条数据插入,耗时:" + (end - start));
}
}
5000条数据每条都是一个单独的事务。就是一条条插入,成功失败都不会互相影响
耗时:161.2
秒
4. 自定义sql插入
UsersMapper.xml
<insert id="insertList">
insert into users(user_name, age, email, address, account, password) values
<foreach collection="list" item="it" separator=",">
(#{it.userName}, #{it.age}, #{it.email}, #{it.address}, #{it.account}, #{it.password})
</foreach>
</insert>
UsersMapper
void insertList(@Param("list") List<Users> list);
@Service
public class UsersServiceImpl extends ServiceImpl<UsersMapper, Users> implements UsersService {
@Override
public void insertList() {
List<Users> list = new ArrayList<>();
for (int i = 0; i < 5000; i++) {
Users users = new Users();
users.setUserName("yy" + i);
users.setAge(18);
users.setEmail("123@qq.com");
users.setAddress("临汾" + i);
users.setAccount("1" + i);
users.setPassword("pw" + i);
list.add(users);
}
long start = System.currentTimeMillis();
baseMapper.insertList(list);
long end = System.currentTimeMillis();
System.out.println("5000条数据插入,耗时:" + (end - start));
}
}
这里是把要插入的数据拼接在一个insert
语句后面执行
INSERT INTO users (user_name,age,email,address,account,password)
VALUES (?,?,?,?,?,?) , (?,?,?,?,?,?) , (?,?,?,?,?,?).....
这种效率是最高的,但是这种需要我们在每个批量插入对应的xml
中取写sql语句,有点不太符合现在提倡的免sql开发,下面介绍一下它的升级版
5. insertBatchSomeColumn
mybatis-plus提供了InsertBatchSomeColumn
批量insert方法。通过SQL 自动注入器接口 ISqlInjector
注入通用方法 SQL 语句 然后继承 BaseMapper
添加自定义方法,全局配置 sqlInjector
注入 MP 会自动将类所有方法注入到 mybatis
容器中。我们需要通过这种方式注入下。
MySqlInjector.java
/**
* 自定义Sql注入
* @author: yh
* @date: 2022/8/30
*/
public class MySqlInjector extends DefaultSqlInjector {
@Override
public List<AbstractMethod> getMethodList(Class<?> mapperClass, TableInfo tableInfo) {
List<AbstractMethod> methodList = super.getMethodList(mapperClass, tableInfo);
//增加自定义方法,字段注解上不等于FieldFill.DEFAULT的字段才会插入
methodList.add(new InsertBatchSomeColumn(i -> i.getFieldFill() != FieldFill.DEFAULT));
return methodList;
}
}
MybatisPlusConfig.java
@Configuration
public class MybatisPlusConfig {
@Bean
public MySqlInjector sqlInjector() {
return new MySqlInjector();
}
}
自定义MyBaseMapper
public interface MyBaseMapper <T> extends BaseMapper<T> {
int insertBatchSomeColumn(List<T> entityList);
}
mapper继承的这里也改下
public interface UsersMapper extends MyBaseMapper<Users> {
}
插入的时候过滤字段,需要配置属性
@Data
public class Users extends Model<Users> {
/**
* id
*/
@TableId(value = "id", type = IdType.AUTO)
private Long id;
// 插入的时候过滤这个字段,默认值就是FieldFill.DEFAULT
@TableField(fill = FieldFill.DEFAULT)
private LocalDateTime createTime;
@TableField(fill = FieldFill.INSERT)
private String userName;
@TableField(fill = FieldFill.INSERT)
private Integer age;
@TableField(fill = FieldFill.INSERT)
private String email;
@TableField(fill = FieldFill.INSERT)
private String address;
@TableField(fill = FieldFill.INSERT)
private String account;
@TableField(fill = FieldFill.INSERT)
private String password;
}
修改一下service
调用
@Service
public class UsersServiceImpl extends ServiceImpl<UsersMapper, Users> implements UsersService {
@Autowired
private SqlSessionFactory sqlSessionFactory;
@Override
public void insertList() {
List<Users> list = new ArrayList<>();
for (int i = 0; i < 5000; i++) {
Users users = new Users();
users.setUserName("yy" + i);
users.setAge(18);
users.setEmail("123@qq.com");
users.setAddress("临汾" + i);
users.setAccount("1" + i);
users.setPassword("pw" + i);
list.add(users);
}
long start = System.currentTimeMillis();
baseMapper.insertBatchSomeColumn(list);
long end = System.currentTimeMillis();
System.out.println("5000条数据插入,耗时:" + (end - start));
}
}
运行结果:
createTime
字段被过滤掉了
执行时间和上边自定义sql一样,在1秒内浮动,如果量太大几十万条建议多线程分批处理。
到此,本章内容就介绍完啦,如果有帮助到你 欢迎点个赞👍👍👍吧!! 有问题评论区交流
- 点赞
- 收藏
- 关注作者
评论(0)