读书人

java.net.SocketException: Too many

发布时间: 2012-10-25 10:58:57 作者: rapoo

java.net.SocketException: Too many open files解决方法

SEVERE: Endpoint ServerSocket[addr=0.0.0.0/0.0.0.0,port=0,localport=8080] ignored exception: java.net.SocketException: Too many open filesjava.net.SocketException: Too many open filesat java.net.PlainSocketImpl.socketAccept(Native Method)at java.net.PlainSocketImpl.accept(PlainSocketImpl.java:384)at java.net.ServerSocket.implAccept(ServerSocket.java:450)at java.net.ServerSocket.accept(ServerSocket.java:421)at org.apache.tomcat.util.net.DefaultServerSocketFactory.acceptSocket(DefaultServerSocketFactory.java:61)at org.apache.tomcat.util.net.PoolTcpEndpoint.acceptSocket(PoolTcpEndpoint.java:408)at org.apache.tomcat.util.net.LeaderFollowerWorkerThread.runIt(LeaderFollowerWorkerThread.java:71)at org.apache.tomcat.util.threads.ThreadPool$ControlRunnable.run(ThreadPool.java:689)at java.lang.Thread.run(Thread.java:595)

?

原本以为是tomcat的配置或是应用本身的问题,"谷歌"一把后才发现,该问题的根本原因是由于系统文件资源的限制导致的。

具体可以参考?http://www.bea.com.cn/support_pattern/Too_Many_Open_Files_Pattern.html?
的说明。具体的解决方式可以参考一下:
1。ulimit -a?查看系统目前资源限制的设定。
?? [root@test security]# umlimit -a?
-bash: umlimit: command not found
[root@test security]# ulimit -a
core file size??????? (blocks, -c) 0
data seg size???????? (kbytes, -d) unlimited
file size???????????? (blocks, -f) unlimited
max locked memory???? (kbytes, -l) unlimited
max memory size?????? (kbytes, -m) unlimited
open files??????????????????? (-n) 1024
pipe size????????? (512 bytes, -p) 8
stack size??????????? (kbytes, -s) 8192
cpu time???????????? (seconds, -t) unlimited
max user processes??????????? (-u) 7168
virtual memory??????? (kbytes, -v) unlimited
[root@test security]#?
通过以上命令,我们可以看到open files 的最大数为1024
那么我们可以通过一下命令修改该参数的最大值
2.?ulimit -n 4096
[root@test security]# ulimit -n 4096
[root@test security]# ulimit -a
core file size??????? (blocks, -c) 0
data seg size???????? (kbytes, -d) unlimited
file size???????????? (blocks, -f) unlimited
max locked memory???? (kbytes, -l) unlimited
max memory size?????? (kbytes, -m) unlimited
open files??????????????????? (-n) 4096
pipe size????????? (512 bytes, -p) 8
stack size??????????? (kbytes, -s) 8192
cpu time???????????? (seconds, -t) unlimited
max user processes??????????? (-u) 7168
virtual memory??????? (kbytes, -v) unlimited

这样我们就修改了系统在同一时间打开文件资源的最大数,基本解决以上问题。

以上部分是查找网络上的解决方法。设置了之后段时间内有作用。

后来仔细想来,问题还是要从根本上解决,于是把以前的代码由认真地看了一遍。终于找到了,罪魁祸首。

在读取文件时,有一些使用的BufferedReader 没有关闭。导致文件一直处于打开状态。造成资源的严重浪费。

?

public   void  test(){    BufferedReader reader  = null ;     try {        reader  =  读取文件;        String line  =   "" ;         while ( ( ine = reader.readLine()) != null ){           其他操作        }    }  catch  (IOException e){        System.out.println(e);    }  finally {            if (reader  != null ){                 try  {                    reader.close();                }  catch  (IOException e) {                      e.printStackTrace();                }          }    }}

client = new HttpClient();client.getParams().setBooleanParameter("http.protocol.expect-continue", false);HttpMethod httpMethod = ...;httpMethod.addRequestHeader("Connection", "close");client.executeMethod(httpMethod);?其它的API应该也可以加这两个值.
用unlimit放大操作系统最大打开文件数的确可以短时间解决 Too many open files的现象,但这不是本质原因。?
本质原因肯定能够是你的程序中没有及时close掉文件(在linux/unix中Socket也是文件)。否则只有在上千的绝对同时并发时,才可能出现Too many open files错误。

-----------------------------------------重新登陆后又会恢复,所以需要永久设置open files 的值才行啊, 用ulimit -n 修改open files 总是不能保持。所以用下面一个简单的办法更好些。修改/etc/security/limits.conf 添加如下一行:* - nofile 1006154修改/etc/pam.d/login添加如下一行session required /lib/security/pam_limits.so 这次永久修改后程序就再没那个问题了,一直稳定运行。 另外遇到这个问题这后还需要检查我们的程序对于操作io的流是否在操作完之后关闭,这才是从最更本上的解决。

读书人网 >Web前端

热点推荐