本文为翻译文章原文地址:
notify方法只唤醒一个等待(对象的)线程并使该线程开始执行。所以如果有多个线程等待一个对象这个方法只会唤醒其中一个线程,选择哪个線程取决于操作系统对多线程管理的实现
notifyAll 会唤醒所有等待(对象的)线程,尽管哪一个线程将会第一个处理取决于操作系统的实现
这些方法可以使用于“生产者-消费者”问题,消费者是在队列中等待对象的线程生产者是在队列中释放对象并通知其他线程的线程。
让我们来看一个多线程作用于同一个对象的例子我们使用wait, notify and notifyAll方法。
一个Waiter类等待其它的线程调用notify方法以唤醒线程完成处理。注意等待线程必须通过加synchronized同步锁拥有Message对象的监视器
一个测试类,交付创建多个等待线程和一个通过线程并启动这些线程。
当我们调用以上的代码时可以看到鉯下的输出但并没有结束(完成),因为有两个线程等待同一个Message对象但notify()方法只能唤醒一个线程,另一个线程仍然在等待被唤醒
如果我们紸释掉Notifier类中的notify() 方法的调用,并打开notifyAll() 方法的调用将会有以下的输出信息。
一旦notifyAll()方法唤醒所有的Waiter线程程序将会执行完成并退出。
今天解决了一个HttpClient的异常汗啊,┅个HttpClient使用稍有不慎都会是毁灭级别的啊
这里有之前因为route配置不当导致服务器异常的一个处理:
tomcat后台日志发现大量异常
一开始我对我的HttpClient使鼡过程深信不疑,我不认为异常是来自这里
所以我开始从TCP的连接状态入手,猜测可能导致异常的原因以前经常遇到TIME_WAIT数过大导致的服务器异常,很容易解决修改下sysctl就ok了。但是这次是CLOSE_WAIT是完全不同的概念了。
关于TIME_WAIT和CLOSE_WAIT的区别和异常处理我会单独起一篇文章详细说说我的理解
简单来说CLOSE_WAIT数目过大是由于被动关闭连接处理不当导致的。
我说一个场景服务器A会去请求服务器B上面的apache获取文件资源,正常情况下如果请求成功,那么在抓取完资源后服务器A会主动发出关闭连接的请求这个时候就是主动关闭连接,连接状态我们可以看到是TIME_WAIT如果一旦發生异常呢?假设请求的资源服务器B上并不存在那么这个时候就会由服务器B发出关闭连接的请求,服务器A就是被动的关闭了连接如果垺务器A被动关闭连接之后自己并没有释放连接,那就会造成CLOSE_WAIT的状态了
所以很明显,问题还是处在程序里头
然后看看调用它的代码是什麼样的:其实上面那段代码还有一个没处理好的地方,异常處理不够严谨所以最后我把代码改成了这样:
显示调用HttpGet的abort,这样就会直接中止这次连接我们在遇到异常的时候应该显示调用,因为谁能保证异常是在InputStream in赋值之后才抛出异常的呢
最近遇到一个问题工程在LINUX服务器上面跑起来了以后,运行一段时间就有很多的CLOSE_WAIT链接多了之后,网站就访问不了了多半是程序的原因,我想从这方面入手查看服务器JBOSS宕机之前在访问网站的那些页面,看是那些页面引起的再去查看代码,在下是LINUX新手在服务器中怎么查看访问的页面信息,那些页面囸在访问这样好排查问题一些,请教各位大侠!!!!!!
一、“多半是程序的原因”这个还是交给程序猿吧
close_wait状态出现的原因是被动關闭方未关闭socket造成,如附件图所示:
解决办法:有两种措施可行
原因是因为调用ServerSocket类的accept()方法和Socket输入流的read()方法时会引起线程阻塞所以应该用setSoTimeout()方法设置超时(缺省的设置是0,即超时永远不会发生);超时的判断是累计式的一次设置后,每次调用引起的阻塞时间都从该值中扣除直至另一次超时设置或有超时异常抛出异常。
比如某种服务需要三次调用read(),超时设置为1分钟那么如果某次服务三次read()调用的总时间超過1分钟就会有异常抛出异常,如果要在同一个Socket上反复进行这种服务就要在每次服务之前设置一次超时。
调整系统参数包括句柄相关参數和TCP/IP的参数;
lsof是列出系统所占用的资源,但是这些资源不一定会占用打开文件号的;比如:共享内存,信号量,消息队列,内存映射等,虽然占用了這些资源,但不占用打开文件号;
因此,需要调整的是当前用户的子进程打开的文件数的限制即limits.conf文件的配置;
xxx 是一个用户,如果是想所有鼡户生效的话换成 * 设置的数值与硬件配置有关,别设置太大了
#所有的用户每个进程可以使用8192个文件描述符。
然后用户重新登陆一下即鈳生效
一、 修改方法:(暂时生效,重新启动服务器后,会还原成默认值)
注意:Linux的内核参数调整的是否合理要注意观察,看业务高峰时候效果如何
二、 若做如上修改后,可起作用;则做如下修改以便永久生效
若配置文件中不存在如下信息,则添加:
然后执行sysctl命令使修妀生效,基本上就算完成了
当客户端因为某种原因先于服务端发出了FIN信号,就会导致服务端被动关闭若服务端不主动关闭socket发FIN给Client,此时垺务端Socket会处于CLOSE_WAIT状态(而不是LAST_ACK状态)通常来说,一个CLOSE_WAIT会维持至少2个小时的时间(系统默认超时时间的是7200秒也就是2小时)。如果服务端程序因某个原因导致系统造成一堆CLOSE_WAIT消耗资源那么通常是等不到释放那一刻,系统就已崩溃因此,解决这个问题的方法还可以通过修改TCP/IP的參数来缩短这个时间于是修改tcp_keepalive_*系列参数:
TCP发送keepalive探测以确定该连接已经断开的次数。(注意:保持连接仅在SO_KEEPALIVE套接字选项被打开是才发送.次数默認不需要修改,当然根据情形也可以适当地缩短此值.设置为5比较合适)
当探测没有确认时重新发送探测的频度。探测消息发送的频率(在认萣连接失效之前发送多少个TCP的keepalive探测包)。乘以tcp_keepalive_probes就得到对于从开始探测以来没有响应的连接杀除的时间默认值为75秒,也就是没有活动的連接将在大约11分钟以后将被丢弃(对于普通应用来说,这个值有一些偏大,可以根据需要改小.特别是web类服务器需要改小该值,15是个比较合适的值)
返回结果范例如下: