+ -
当前位置:首页 → 问答吧 → 查询大数据量时该如何优化?

查询大数据量时该如何优化?

时间:2011-11-02

来源:互联网

假设这么一个场景,mysql服务器同时有60个左右客户端在访问。

其中既有读也有写还有更新。假设10个左右客户端是在查询数据,在同一张表中查询,该表有300万行数据,每行数据大概15个数据项。

假设每次查询的结果大概5千到10万不等。

此时,我该如何优化查询?

1、是用limit语句,每次查100条数据?

2、还是一次性取可能10万数据到客户端?

3、或者别的什么好办法?谢谢!!

作者: yangyunzhao   发布时间: 2011-11-02

方法1 即可

作者: wwwwb   发布时间: 2011-11-02

恩,有个顾虑啊,这样假设查询1万数据,就得和服务器交互100次哦。会不会比较慢?

作者: yangyunzhao   发布时间: 2011-11-02

肯定是第一个了,第二个的话一次性读取再加上带宽的话,估计很多用户都不耐烦的跑了,第二种从web理论上就有问题,不过limit要做好优化,如索引还有语句等等

作者: kyzy_yy_pm   发布时间: 2011-11-02

2对数据库是减压

作者: rucypli   发布时间: 2011-11-02

既然所有的记录都必须传送到客户端去分析,则应该直接使用 "2、还是一次性取可能10万数据到客户端" 否则查100次产生的负载会更多。
需要考虑的是这个查询语句本身是否可以优化。 或者可否将这 5千到10万不等不等的记录在数据库端进行直接处理,然后仅将需要的结果返回到客户端。

作者: ACMAIN_CHM   发布时间: 2011-11-02

相关阅读 更多