最佳线程数
影响最佳线程数的主要因素:
1、IO
2、CPU
根据公式:服务器端最佳线程数量=((线程等待时间+线程cpu时间)/线程cpu时间) * cpu数量
一般来说是IO和CPU。IO开销较多的应用其CPU线程等待时间会比较长,所以线程数量可以开的多一些,相反则线程数量要少一些,其实有两种极端,纯IO的应用,比如proxy,则线程数量可以开到非常大(实在太大了则需要考虑线程切换的开销),这种应用基本上后端(比如这个proxy是代理搜索的)的QPS能有多少,proxy就有多少。
另一种是耗CPU的计算,这种情况一般来讲只能开到CPU个数的线程数量。但是并不是说这种应用的QPS就不高,往往这种应用的QPS可以很高。
上面的有点难计算,简便公式是CPU数量 *2 + 2
但是你要知道一台电脑上不可能只跑你一个程序,所以别太认真了
转载请注明:码农场 » 多核CPU开几个线程最好
转自 http://iamzhongyong.iteye.com/blog/1924745
最近在关注性能的事情,所以对于多线程程序中,如何设置最佳的线程数,找了一些文章。虽然有公式可以套用,
但是,其实最佳的话只是相对的,了解了过程之后,处理线程数的设置就会游刃有余了。
名字解释:
1、QPS:系统每秒处理的请求数(query per second)
2、RT:系统的响应时间,一个请求的响应时间,也可以是一段时间的平均值
3、最佳线程数量:刚好消耗完服务器瓶颈资源的临界线程数
?
QPS和RT的关系:
对于单线程:QPS=1000/RT
对于多线程:QPS=1000*线程数量/RT
性能的两个点:
吞吐量和延迟,其实通俗的解释就是QPS和RT(我的理解),虽然有上面的公式,但是两者的关系并不是完全线性的。
至于为啥?原因很多,系统表现远远比我们想想的要复杂。
最佳线程数有公式吗?
答案是肯定的。
服务器端最佳线程数量=((线程等待时间+线程cpu时间)/线程cpu时间) * cpu数量 (CPU瓶颈类型)
在达到最佳线程数的时候,线程数增加,则QPS不变,而响应时间变长,线程数量继续增加,则QPS下降(上下文切换耗时)。
最佳线程数是动态的,在不同的状态下会进行变化。
瓶颈资源可以是CPU、内存、数据库连接池、锁资源、IO等。
超过最佳线程数,会导致资源竞争加剧,同时响应时间也会增加。
如何获取最佳线程数呢?
有了公式,其实并没有实质性的解决问题。
1、逐步压测,不断的调整线程数来观察系统的负载,这个最土,但是最实用
2、如果确切的知道瓶颈资源的使用情况,则可以直接使用公式;
3、单用户压测,查看CPU的使用情况,然后基于公式得出一个值,上下微调;
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。