1、实际上很多业务无法放到普通的php中处理,如一些较复杂的排序、筛选,通过普通的php来实现的话效率还不如mysql。
2、cache的命中率也不好保证,特别是对一些使用关键词进行查询的业务,关键词变化太多。
若是遇到恶意刷的话,db服务器容易直接挂掉,因此我们可以在程序层面上加一层限制器,限制并发数,该限制器具备以下特点:
1、高效(废话么,否则直接刷限制器就刷爆了)。现在是使用memcache进行原子操作计数,可以扩展成使用其他方法。
2、精确到action层。可以单独限制单个页面。
3、方便。见仁见智吧
4、成本低廉。包括研发成本与硬件成本。
根据压测,原先只能100并发的搜索功能,限制100后,压测800结果正常。
代码如下:
check($limitname, $limit)) { ajaxoutput(0, $this->lang->line('multi_search_limit')); } /*----复杂变态的业务逻辑-----*/ $xxxmodel->search($params); } //end func?>
扩展话题:
1、若是该业务被刷,可能导致正常用户无法查看内容。 -- 这个问题要解决只能是从系统层面去操作,可见这边:http://johnsteven.blog.51cto.com/2523007/818209
2、限制数最好能与缓存命中率相结合,一定范围内自动变更限制数,提高限制的精准度。 -- 这个后期可以进行研究,与缓存类相结合
3、根据服务器负载进行动态控制。 -- 涉及到底层及服务器权限,研究成本较高,有兴趣的话可以研究。
注:
本文只说明思路,具体代码由于一些原因暂时不开放
http://www.bkjia.com/phpjc/440330.htmlwww.bkjia.comtruehttp://www.bkjia.com/phpjc/440330.htmltecharticle一般来说,一个项目中总是会有一些较难处理的业务,比如业务复杂花样繁多的搜索,使用搜索系统如sphinx,lucence等来处理的话,数据源的...
