首页 > 其他 > 详细

solr 亿万级数据查询性能测试

时间:2014-10-14 15:33:00      阅读:464      评论:0      收藏:0      [点我收藏+]

废话不多说,我电脑配置 i7四核cpu 8G内存

插入数据文档中有5个字段,其中有两个分词,一个int,一个date

批量插入测试一次10万循环10次总共100万用时85秒

批量插入测试一次10万循环100次总共1000万用时865秒

插入性能还是不错的

查询测试

在12166454数据中(约等于一千两百万)总共占用硬盘2.8G

查询分词字段 title:中国用时0.031秒

非分词字段查询 view_count:1 用时 0.030秒

范围查询 view_count:[0 TO 1000] 用时0.125秒

上面这些查询第二次查询的时候用时都在0.001秒之下应该是因为有缓存的原因

相对数据库的模糊查询优势及其明显,我用mysql两千万数据查询“%中国%”直接数据库卡掉了

(不过这么比较美意思,全文检索存储方式跟sql不一样,各有优劣)

在过亿的数据量中

插入一亿数据耗时1小时40分钟35秒
插入过程中 内存占用70%左右 cpu没多少变化 11%左右

(上班写的,未完待续)


solr 亿万级数据查询性能测试

原文:http://blog.csdn.net/h348592532/article/details/40076487

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!