大数据量入库,每分钟1W条,算快的吗?
想问下多线程,大数据量入库,每分钟多少条算快的?
我现在1个线程读,10个线程,或者20个线程,30个线程入库,都是每分钟大概1W条,
请问算快的吗?
[解决办法]
先搞清楚性能瓶颈在哪,在考虑优化的方法。
[解决办法]
您这贴子应该发到数据库中去。
[解决办法]
瓶颈在数据库啊,你客户端开再多的线程有毛用啊
[解决办法]
可以换成其他的方式试试,
把所有东西(或部分量的数据)写入文件里,在load data infile 到mysql里.
[解决办法]
#3楼说的很对
你的瓶颈应该在事务上,你应该设置事务手动提交,
然后在根据一部分的数据量来提交事务...比如1000每次 5000每次
我记得我以前是有1W条数据 1200条左右一提交是比较快的.
如果那个表需求是基本每分钟都是大数据量插入 那就应该换表的结构了
使用myisam来替换表结构 这个要看你们的需求了
[解决办法]
如果表中索引多了,那数据量大了,做插入操作也会影响效率吧。