如何提高Mysql批量插入和更新,数据库的效
使用场景: 测试时需要插入100w甚至1000w,1亿以上的数据,跑sql脚本循环插入或者程序遍历插入非常慢。
解决思路:写入文件
文件导入到mysql中
实现举例(以100w为例) 1. 使用sql 生成100w数据到txt文件中。 2. 数据库中将数据导入表中: 耗费时间: 本方案的缺点: 1.权限。 非admin用户没有导入。 2. 写文件代码。对测试人员来说,写文件不仅仅限于任何语言,可以使用任何语言实现之。mysql批量更新10000+的数据,有什么效率比较高的方法
https://m.toutiaocdn.com/i6729690465265779212/
上面是我写的批量更新的方法,适合在程序中批量更新数据!
如果是单次更新大量数据,可结合停用索引,建立中间临时表,或者根据数据特点分段更新数据。
还没有评论,来说两句吧...