读书人

大数据量入库每分钟1W条算快的吗?

发布时间: 2013-08-29 10:33:01 作者: rapoo

大数据量入库,每分钟1W条,算快的吗?
想问下多线程,大数据量入库,每分钟多少条算快的?

我现在1个线程读,10个线程,或者20个线程,30个线程入库,都是每分钟大概1W条,

请问算快的吗?

[解决办法]
先搞清楚性能瓶颈在哪,在考虑优化的方法。
[解决办法]
您这贴子应该发到数据库中去。
[解决办法]

引用:
回复3楼,现在是每个县城一次批量插入1000条,自动提交。有10个插入线程是1分钟1W,20个线程还是1分钟1W。费解啊,不知瓶颈在哪里。c3p0的连接池也改过了,难道是mysql的并发限制???


瓶颈在数据库啊,你客户端开再多的线程有毛用啊
[解决办法]
可以换成其他的方式试试,
把所有东西(或部分量的数据)写入文件里,在load data infile 到mysql里.


[解决办法]
#3楼说的很对
你的瓶颈应该在事务上,你应该设置事务手动提交,
然后在根据一部分的数据量来提交事务...比如1000每次 5000每次

我记得我以前是有1W条数据 1200条左右一提交是比较快的.

如果那个表需求是基本每分钟都是大数据量插入 那就应该换表的结构了
使用myisam来替换表结构 这个要看你们的需求了
[解决办法]
如果表中索引多了,那数据量大了,做插入操作也会影响效率吧。

读书人网 >J2EE开发

热点推荐