linux + tcp +h2 shutdowntcpserver+怎样重用套接字

您所在位置: &
&nbsp&&nbsp&nbsp&&nbsp
linux 套接字编程.ppt 44页
本文档一共被下载:
次 ,您可全文免费在线阅读后下载本文档。
下载提示
1.本站不保证该用户上传的文档完整性,不预览、不比对内容而直接下载产生的反悔问题本站不予受理。
2.该文档所得收入(下载+内容+预览三)归上传者、原创者。
3.登录后可充值,立即自动返金币,充值渠道很便利
需要金币:40 &&
你可能关注的文档:
··········
··········
Unix Network Programming 第三章 套接字 套接字是一种网络API(应用程序编程接口)。它定义了许多函数和例程,程序员可以用它开发网络应用程序。套接字接口本意在于提供一种进程间通信的方法,使得在相同或不同主机上的进程能以相同的规范进行双向信息传送。 进程通过调用套接字接口API来实现相互之间的通信。套接字接口又利用下层的网络通信协议功能和系统调用实现实际的通信工作。 本章内容 3.1 套接字类型 3.2 套接字地址结构 3.3 位顺序调整 3.4 带外数据 3.5 连接类型 3.6 TCP套接字 3.7 UDP套接字 3.8 小结
3.1 套接字类型 套接字支持各种通信域,即多种不同的通信协议。目前UNIX系统主要支持以下几种协议: UNIX:UNIX系统内部协议 INET: IP版本4 INET6: IP版本6
UNIX系统支持多种套接字类型。套接字类型:是指创建套接字的应用程序所希望的通信服务类型。目前,UNIX系统主要定义如下: SOCK_STREAM:提供可靠的面向连接传输的数据流,保证数据在传输过程中无丢失、无损坏和无冗余。INET地址簇中的TCP协议支持该套接字。 SOCK_DGRAM:提供数据的双向传输,但不保证消息地准确到达,即使消息能够到达,也无法保证其顺序性,并可能有冗余或损坏。INET地址簇中的UDP协议支持该套接字。 SOCK_RAM:是低于传输层的低级协议或物理网络提供的套接字类型。它可以访问内部网络接口。例如,可以接收和发送ICMP报。 SOCK_SEQPACKET:提供可靠的、双向的、顺序化的以及面向连接的数据通信。类似于STREAM方式,但它的报文大小可变(最大报文长度固定)。 SOCK_RDM:类似于SOCK_DGRAM,但它可保证数据的正确到达。
3.2 套接字地址结构 多数套接字函数需要一个指向地址结构的参数。对应于不同的协议簇,有不同的地址结构。在头文件&linux/socket.h&中定义了以下结构来保持套接字函数调用参数的一致性。 struct sockaddr{
unsigned short sa_ /* 地址类型,格式为AF_XXX */
char sa_data[14]; /* 14字节的协议地址 */ }; 其中的sa_family为套接字的协议簇地址类型,TCP/IP的协议对于IPv4地址类型为AF_INET。sa_data中存储具体的协议地址,不同的协议簇有不同的地址格式。 但一般编程中并不直接针对此数据结构操作,而是使用另一个与sockaddr等价的数据结构sockaddr_in (在netinet/in.h中定义): struct sockaddr_in{
unsigned short int sin_
/* IPv4地址长度 */
short int sin_ /* 地址类型 */
unsigned short int sin_ /* 存储端口号 */
struct in_addr sin_
/*存储IP地址 */
unsigned char sin_zero[8];
/* 空字节 */ }; 在编程中大多数是使用sockaddr_in这个结构来设置/获取地址信息。 在IPv6中套接字地址结构采用另外的定义: #DEFINE SIN6_LEN /* 如果系统支持套接字地址结构中的长度成员,则此常值必须定义*/ struct sockaddr_in6{
unsigned short int sin6_ /*IPv6结构体长度 */
short int sin6_
/*地址类型 */
unsigned short int sin6_ /*存储端口号,网络字节顺序*/
unsigned short int sin6_ /*优先级和流量标志,网络字节顺序 */
struct in6_addr sin6_ /*IPv6地址,网络字节顺序*/ }; struct in6_addr{
unsigned long s6_ /*128位IPv6地址,网络字节顺序*/ }; 比较IPv4和IPv6的地址结构 设置地址信息的实例(IPv4) struct sockaddr_ /*设置sockaddr_in的结构体变量mysock */ mysock.sin_family=AF_INET; /*TCP地址结构*/ mysock.sin_port=htons(3490); /*short,NBO*/ mysock.sin_addr.
正在加载中,请稍后...LINUX TCP套接字详细配置 - anruy - 博客园
随笔 - 119, 文章 - 61, 评论 - 0, 引用 - 0
提高服务器的负载能力,是一个永恒的话题。在一台服务器CPU和内存资源额定有限的情况下,最大的压榨服务器的性能,是最终的目的。要提高 Linux系统下的负载能力,可以先启用Apache的Worker模式,来提高单位时间内的并发量。但是即使这么做了,当网站发展起来之后,连接数过多 的问题就会日益明显。在节省成本的情况下,可以考虑修改Linux的内核TCP/IP参数,来最大的压榨服务器的性能。当然,如果通过修改内核参数也无法 解决的负载问题,也只能考虑升级服务器了,这是硬件所限,没有办法的事。
Linux系统下,TCP/IP连接断开后,会以TIME_WAIT状态保留一定的时间,然后才会释放端口。当并发请求过多的时候,就会产生大量的 TIME_WAIT状态的连接,无法及时断开的话,会占用大量的端口资源和服务器资源(因为关闭后进程才会退出)。这个时候我们可以考虑优化TCP/IP 的内核参数,来及时将TIME_WAIT状态的端口清理掉。本文介绍的方法只对拥有大量TIME_WAIT状态的连接导致系统资源消耗有效,不是这个原因的情况下,效果可能不明显。那么,到哪儿去查 TIME_WAIT状态的连接呢?那就是使用netstat命令。我们可以输入一个复核命令,去查看当前TCP/IP连接的状态和对应的个数:
#netstat -n | awk &/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}&
这个命令会显示出类似下面的结果:
LAST_ACK 14SYN_RECV 348ESTABLISHED 70FIN_WAIT1 229FIN_WAIT2 30CLOSING 33TIME_WAIT 18122
我们只用关心TIME_WAIT的个数,在这里可以看到,有18000多个TIME_WAIT,这样就占用了18000多个端口。要知道端口的数量 只有65535个,占用一个少一个,会严重的影响到后继的新连接。这种情况下,我们就有必要调整下Linux的TCP/IP内核参数,让系统更快的释放 TIME_WAIT连接。
我们用vim打开配置文件:
#vim /etc/sysctl.conf
然后,在这个文件中,加入下面的几行内容:
net.ipv4.tcp_syncookies = 1net.ipv4.tcp_tw_reuse = 1net.ipv4.tcp_tw_recycle = 1net.ipv4.tcp_fin_timeout = 30
最后输入下面的命令,让内核参数生效:
#/sbin/sysctl -p
简单的说明下,上面的参数的含义:
net.ipv4.tcp_syncookies = 1 表示开启SYN Cookies。当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭;net.ipv4.tcp_tw_reuse = 1 表示开启重用。允许将TIME-WAIT sockets重新用于新的TCP连接,默认为0,表示关闭;net.ipv4.tcp_tw_recycle = 1 表示开启TCP连接中TIME-WAIT sockets的快速回收,默认为0,表示关闭;net.ipv4.tcp_fin_timeout 修改系統默认的 TIMEOUT 时间。
在经过这样的调整之后,除了会进一步提升服务器的负载能力之外,还能够防御一定程度的DDoS、CC和SYN攻击,是个一举两得的做法。
此外,如果你的连接数本身就很多,我们可以再优化一下TCP/IP的可使用端口范围,进一步提升服务器的并发能力。依然是往上面的参数文件中,加入下面这些配置:
net.ipv4.tcp_keepalive_time = 1200net.ipv4.ip_local_port_range = net.ipv4.tcp_max_syn_backlog = 8192net.ipv4.tcp_max_tw_buckets = 5000
这几个参数,建议只在流量非常大的服务器上开启,会有显著的效果。一般的流量小的服务器上,没有必要去设置这几个参数。这几个参数的含义如下:
net.ipv4.tcp_keepalive_time = 1200 表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改为20分钟。net.ipv4.ip_local_port_range =
表示用于向外连接的端口范围。缺省情况下很小:3,改为1。(注意:这里不要将最低值设的太低,否则可能会占用掉正常的端口!)net.ipv4.tcp_max_syn_backlog = 8192 表示SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数。net.ipv4.tcp_max_tw_buckets = 5000 表示系统同时保持TIME_WAIT的最大数量,如果超过这个数字,TIME_WAIT将立刻被清除并打印警告信息。默 认为180000,改为5000。对于Apache、Nginx等服务器,上几行的参数可以很好地减少TIME_WAIT套接字数量,但是对于 Squid,效果却不大。此项参数可以控制TIME_WAIT的最大数量,避免Squid服务器被大量的TIME_WAIT拖死。
经过这样的配置之后,你的服务器的TCP/IP并发能力又会上一个新台阶。
们这里应用的是CentOS5.3,并内核使用的是2.6.18-128.el5PAE #1 SMP 。修改部分TCP ,有的是为了提高性能与负载,但是存在降低稳定性的风险。有的则是安全方面的配置,则有可能牺牲了性能。
1.TCP keepalive TCP连接保鲜设置
1800 & /proc/sys/net/ipv4/tcp_keepalive_time
echo 15 & /proc/sys/net/ipv4/tcp_keepalive_intvl
echo 5 & /proc/sys/net/ipv4/tcp_keepalive_probes
keepalive是TCP保鲜定时器。当网络两端建立了TCP连接之后,闲置idle(双方没有任何数据流发送往来)了tcp_keepalive_time后,服务器内核就会尝试向客户端发送侦测包,来判断TCP连接状况(有可能客户端崩溃、强制关闭了应用、主机不可达等等)。如果没有收到对方的回答(ack包),则会在tcp_keepalive_intvl后再次尝试发送侦测包,直到收到对对方的ack,如果一直没有收到对方的ack,一共会尝试tcp_keepalive_probes次,每次的间隔时间在这里分别是15s, 30s, 45s, 60s, 75s。如果尝试tcp_keepalive_probes,依然没有收到对方的ack包,则会丢弃该TCP连接。
2. syn cookies设置
echo 0 & /proc/sys/net/ipv4/tcp_syncookies
在CentOS5.3中,该选项默认值是1,即启用syn cookies功能。我们建议先关闭,直到确定受到syn flood攻击的时候再开启syn cookies功能,有效地防止syn flood攻击。也可以通过规则拒绝syn flood攻击。
3.TCP& 连接建立设置
echo 8192 & /proc/sys/net/ipv4/tcp_max_syn_backlog
echo 2 & /proc/sys/net/ipv4/tcp_syn_retries
echo 2 & /proc/sys/net/ipv4/tcp_synack_retries
tcp_max_syn_backlog& SYN队列的长度,时常称之为未建立连接队列。系统内核维护着这样的一个队列,用于容纳状态为SYN_RESC的TCP连接(half-open connection),即那些依然尚未得到客户端确认(ack)的TCP连接请求。加大该值,可以容纳更多的等待连接的网络连接数。
tcp_syn_retries& 新建TCP连接请求,需要发送一个SYN包,该值决定内核需要尝试发送多少次syn连接请求才决定放弃建立连接。默认值是5. 对于高负责且通信良好的物理网络而言,调整为2
tcp_synack_retries& 对于远端SYN连接请求,内核会发送SYN+ACK数据包来确认收到了上一个SYN连接请求包,然后等待远端的确认(ack数据包)。该值则指定了内核会向远端发送tcp_synack_retires次SYN+ACK数据包。默认设定值是5,可以调整为2
4. TCP 连接断开相关设置
/proc/sys/net/ipv4/tcp_fin_timeout
echo 15000 & /proc/sys/net/ipv4/tcp_max_tw_buckets
echo 1 & /proc/sys/net/ipv4/tcp_tw_reuse
/proc/sys/net/ipv4/tcp_tw_recycle
tcp_fin_timeout 对于由本端主动断开连接的TCP连接,本端会主动发送一个FIN数据报,在收到远端ACK后,且并没有收到远端FIN包之前,该TCP连接的状态是FIN_WAIT_2状态,此时当远端关闭了应用,网络不可达(拔网张),程序不可断僵死等等,本端会一直保留状态为FIN_WAIT_2状态的TCP连接,该值tcp_fin_timeout则指定了状态为FIN_WAIT_2的TCP连接保存多长时间,一个FIN_WAIT_2的TCP连接最多占1.5k内存。系统默认值是60秒,可以将此值调整为30秒,甚至10秒。
tcp_max_tw_buckets 系统同时处理TIME_WAIT sockets数目。如果一旦TIME_WAIT tcp连接数超过了这个数目,系统会强制清除并且显示警告消息。设立该限制,主要是防止那些简单的DoS攻击,加大该值有可能消耗更多的内存资源。如果TIME_WAIT socket过多,则有可能耗尽内存资源。默认值是18w,可以将此值设置为tcp_tw_resue 是否可以使用TIME_WAIT tcp连接用于建立新的tcp连接。
tcp_tw_recycle 是否开启快带回收TIME_WAIT tcp连接的功能。
5. tcp 内存资源使用相参数设定
& /proc/sys/net/core/rmem_max
& /proc/sys/net/core/wmem_max
/proc/sys/net/ipv4/tcp_mem
echo & &P & /proc/sys/net/ipv4/tcp_rmem
echo & &P & /proc/sys/net/ipv4/tcp_wmem
rmem_max 定义了接收窗口可以使用的最大值,可以根据BDP值进行调节。wmem_max 定义了发送窗口可以使用的最大值,可以根据BDP什值进行调整。tcp_mem [low, pressure, high] TCP用这三个值来跟踪内存使用情况,来限定资源占用。通常情况下,在系统boot之时,内核会根据可用内存总数计算出这些值。如果出现了Out of socket memory,则可以试着修改这个参数。1)low: 当TCP使用了低于该值的内存页面数时,TCP不会考滤释放内存。2)pressure: 当TCP使用了超过该值的内存页面数量,TCP试图稳定其对内存的占用,进入pressure模式,直到内存消耗达于low值,退出该模式。3)hight:允许所有tcp sockets用于排队缓冲数据报的内存页数。tcp_rmem [min, default, max]1)min 为每个TCP连接(tcp socket)预留用于接收缓冲的内存数量,即使在内存出现紧张情况下TCP socket都至少会有这么多数量的内存用于接收缓冲。2)default 为TCP socket预留用于接收缓冲的内存数量,默认情况下该值影响其它协议使用的 rmem_default的值,所以有可能被rmem_default覆盖。3)max 该值为每个tcp连接(tcp socket)用于接收缓冲的内存最大值。该值不会影响wmem_max的值,设置了选项参数 SO_SNDBUF则不受该值影响。tcp_wmem [min, default, max] 如上(tcp_rmen)只不过用于发送缓存。
注:1)可以通过&-&或者写入/etc/sysctl.conf永久保存2)性能调优仅在于需要的时候进行调整,调整以后需要采集数据与基准测试数据进行比较。建议,不需要盲从地调整这些参数。
CLOSE_WAIT,TCP的癌症,TCP的朋友。CLOSE_WAIT状态的生成原因首先我们知道,如果我们的服务器程序APACHE处于CLOSE_WAIT状态的话,说明套接字是被动关闭的!因为如果是CLIENT端主动断掉当前连接的话,那么双方关闭这个TCP连接共需要四个packet:&&&&&&Client &&&&FIN&&&&&&Server&&&&&&Client &&&&ACK&&&&&&Server这时候Client端处于FIN_WAIT_2状态;而Server 程序处于CLOSE_WAIT状态。&&&&&&Client &&&&FIN&&&&&&Server这时Server 发送FIN给Client,Server 就置为LAST_ACK状态。&&&&&& Client &&&&ACK&&&&&&ServerClient回应了ACK,那么Server 的套接字才会真正置为CLOSED状态。Server 程序处于CLOSE_WAIT状态,而不是LAST_ACK状态,说明还没有发FIN给Client,那么可能是在关闭连接之前还有许多数据要发送或者其他事要做,导致没有发这个FIN packet。通常来说,一个CLOSE_WAIT会维持至少2个小时的时间。如果有个流氓特地写了个程序,给你造成一堆的CLOSE_WAIT,消耗你的资源,那么通常是等不到释放那一刻,系统就已经解决崩溃了。只能通过修改一下TCP/IP的参数,来缩短这个时间:修改tcp_keepalive_*系列参数有助于解决这个问题。proc/sys/net/ipv4/下各项的意义/proc/sys/net/ipv4/icmp_timeexceed_rate这个在traceroute时导致著名的&Solaris middle star&。这个文件控制发送ICMP Time Exceeded消息的比率。/proc/sys/net/ipv4/igmp_max_memberships主机上最多有多少个igmp (多播)套接字进行监听。/proc/sys/net/ipv4/inet_peer_gc_maxtime求 助: Add a little explanation about the inet peer storage? Minimum interval between garbage collection passes. This interval is in effect under low (or absent) memory pressure on the pool. Measured in jiffies./proc/sys/net/ipv4/inet_peer_gc_mintime每一遍碎片收集之间的最小时间间隔。当内存压力比较大的时候,调整这个间隔很有效。以jiffies计。/proc/sys/net/ipv4/inet_peer_maxttlentries的最大生存期。在pool没有内存压力的情况下(比如,pool中entries的数量很少的时候),未使用的entries经过一段时间就会过期。以jiffies计。/proc/sys/net/ipv4/inet_peer_minttlentries的最小生存期。应该不小于汇聚端分片的生存期。当pool的大小不大于inet_peer_threshold时,这个最小生存期必须予以保证。以jiffies计。/proc/sys/net/ipv4/inet_peer_thresholdThe approximate size of the INET peer storage. Starting from this threshold entries will be thrown aggressively. This threshold also determines entries& time-to-live and time intervals between garbage collection passes. More entries, less time-to-live, less GC interval./proc/sys/net/ipv4/ip_autoconfig这个文件里面写着一个数字,表示主机是否通过RARP、BOOTP、DHCP或者其它机制取得其IP配置。否则就是0。/proc/sys/net/ipv4/ip_default_ttl数据包的生存期。设置为64是安全的。如果你的网络规模巨大就提高这个值。不要因为好玩而这么做??那样会产生有害的路由环路。实际上,在很多情况下你要考虑能否减小这个值。/proc/sys/net/ipv4/ip_dynaddr/proc/sys/net/ipv4/icmp_destunreach_rate如果你有一个动态地址的自动拨号接口,就得设置它。当你的自动拨号接口激活的时候,本地所有没有收到答复的TCP套接字会重新绑定到正确的地址上。这可以解决引发拨号的套接字本身无法工作,重试一次却可以的问题。/proc/sys/net/ipv4/ip_forward内核是否转发数据包。缺省禁止。/proc/sys/net/ipv4/ip_local_port_range用于向外连接的端口范围。缺省情况下其实很小:。/proc/sys/net/ipv4/ip_no_pmtu_disc如果你想禁止&沿途MTU发现&就设置它。&沿途MTU发现&是一种技术,可以在传输路径上检测出最大可能的MTU值。参见Cookbook一章中关于&沿途MTU发现&的内容。/proc/sys/net/ipv4/ipfrag_high_thresh用 于IP分片汇聚的最大内存用量。分配了这么多字节的内存后,一旦用尽,分片处理程序就会丢弃分片。When ipfrag_high_thresh bytes of memory is allocated for this purpose, the fragment handler will toss packets until ipfrag_low_thresh is reached./proc/sys/net/ipv4/ip_nonlocal_bind如果你希望你的应用程序能够绑定到不属于本地网卡的地址上时,设置这个选项。如果你的机器没有专线连接(甚至是动态连接)时非常有用,即使你的连接断开,你的服务也可以启动并绑定在一个指定的地址上。/proc/sys/net/ipv4/ipfrag_low_thresh用于IP分片汇聚的最小内存用量。/proc/sys/net/ipv4/ipfrag_timeIP分片在内存中的保留时间(秒数)。/proc/sys/net/ipv4/tcp_abort_on_overflow一个布尔类型的标志,控制着当有很多的连接请求时内核的行为。启用的话,如果服务超载,内核将主动地发送RST包。/proc/sys/net/ipv4/tcp_fin_timeout如 果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间。对端可以出错并永远不关闭连接,甚至意外当机。缺省值是60秒。2.2 内核的通常值是180秒,你可以按这个设置,但要记住的是,即使你的机器是一个轻载的WEB服务器,也有因为大量的死套接字而内存溢出的风险,FIN- WAIT-2的危险性比FIN-WAIT-1要小,因为它最多只能吃掉1.5K内存,但是它们的生存期长些。参见tcp_max_orphans。/proc/sys/net/ipv4/tcp_keepalive_time当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时。/proc/sys/net/ipv4/tcp_keepalive_intvl当探测没有确认时,重新发送探测的频度。缺省是75秒。/proc/sys/net/ipv4/tcp_keepalive_probes在认定连接失效之前,发送多少个TCP的keepalive探测包。缺省值是9。这个值乘以tcp_keepalive_intvl之后决定了,一个连接发送了keepalive之后可以有多少时间没有回应。/proc/sys/net/ipv4/tcp_max_orphans系 统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,孤儿连接将即刻被复位并打印出警告信息。这个限制仅仅是为了防止简单 的DoS攻击,你绝对不能过分依靠它或者人为地减小这个值,更应该增加这个值(如果增加了内存之后)。This limit exists only to prevent simple DoS attacks, you _must_ not rely on this or lower the limit artificially, but rather increase it (probably, after increasing installed memory), if network conditions require more than default value, and tune network services to linger and kill such states more aggressively. 让我再次提醒你:每个孤儿套接字最多能够吃掉你64K不可交换的内存。/proc/sys/net/ipv4/tcp_orphan_retries本端试图关闭TCP连接之前重试多少次。缺省值是7,相当于50秒~16分钟(取决于RTO)。如果你的机器是一个重载的WEB服务器,你应该考虑减低这个值,因为这样的套接字会消耗很多重要的资源。参见tcp_max_orphans。/proc/sys/net/ipv4/tcp_max_syn_backlog记 录的那些尚未收到客户端确认信息的连接请求的最大值。对于有128M内存的系统而言,缺省值是1024,小内存的系统则是128。如果服务器不堪重负,试 试提高这个值。注意!如果你设置这个值大于1024,最好同时调整include/net/tcp.h中的TCP_SYNQ_HSIZE,以保证 TCP_SYNQ_HSIZE*16 &tcp_max_syn_backlo,然后重新编译内核。/proc/sys/net/ipv4/tcp_max_tw_buckets系 统同时保持timewait套接字的最大数量。如果超过这个数字,time-wait套接字将立刻被清除并打印警告信息。这个限制仅仅是为了防止简单的 DoS攻击,你绝对不能过分依靠它或者人为地减小这个值,如果网络实际需要大于缺省值,更应该增加这个值(如果增加了内存之后)。/proc/sys/net/ipv4/tcp_retrans_collapse为兼容某些糟糕的打印机设置的&将错就错&选项。再次发送时,把数据包增大一些,来避免某些TCP协议栈的BUG。/proc/sys/net/ipv4/tcp_retries1在认定出错并向网络层提交错误报告之前,重试多少次。缺省设置为RFC规定的最小值:3,相当于3秒~8分钟(取决于RIO)。/proc/sys/net/ipv4/tcp_retries2在杀死一个活动的TCP连接之前重试多少次。RFC 1122规定这个限制应该长于100秒。这个值太小了。缺省值是15,相当于13~30分钟(取决于RIO)。/proc/sys/net/ipv4/tcp_rfc1337这个开关可以启动对于在RFC1337中描述的&tcp的time-wait暗杀危机&问题的修复。启用后,内核将丢弃那些发往time-wait状态TCP套接字的RST包。却省为0。/proc/sys/net/ipv4/tcp_sack特别针对丢失的数据包使用选择性ACK,这样有助于快速恢复。/proc/sys/net/ipv4/tcp_stdurg使用TCP紧急指针的主机需求解释。因为绝大多数主机采用BSD解释,所以如果你在Linux上打开它,可能会影响它与其它机器的正常通讯。缺省是FALSE。/proc/sys/net/ipv4/tcp_syn_retries在内核放弃建立连接之前发送SYN包的数量。/proc/sys/net/ipv4/tcp_synack_retries为了打开对端的连接,内核需要发送一个SYN并附带一个回应前面一个SYN的ACK。也就是所谓三次握手中的第二次握手。这个设置决定了内核放弃连接之前发送SYN ACK包的数量。/proc/sys/net/ipv4/tcp_timestamps时间戳可以避免序列号的卷绕。一个1Gbps的链路肯定会遇到以前用过的序列号。时间戳能够让内核接受这种&异常&的数据包。/proc/sys/net/ipv4/tcp_tw_recycle能够更快地回收TIME-WAIT套接字。缺省值是1。除非有技术专家的建议和要求,否则不应修改。/proc/sys/net/ipv4/tcp_window_scaling一般来说TCP/IP允许窗口尺寸达到65535字节。对于速度确实很高的网络而言这个值可能还是太小。这个选项允许设置上G字节的窗口大小,有利于在带宽*延迟很大的环境中使用。一旦内核认为它无法发包,就会丢弃这个包,并向发包的主机发送ICMP通知。/proc/sys/net/ipv4/icmp_echo_ignore_all根本不要响应echo包。请不要设置为缺省,它可能在你正被利用成为DoS攻击的跳板时可能有用。/proc/sys/net/ipv4/icmp_echo_ignore_broadcasts [Useful]如果你ping子网的子网地址,所有的机器都应该予以回应。这可能成为非常好用的拒绝服务攻击工具。设置为1来忽略这些子网广播消息。/proc/sys/net/ipv4/icmp_echoreply_rate设置了向任意主机回应echo请求的比率。/proc/sys/net/ipv4/icmp_ignore_bogus_error_responses设置它之后,可以忽略由网络中的那些声称回应地址是广播地址的主机生成的ICMP错误。/proc/sys/net/ipv4/icmp_paramprob_rate一个相对不很明确的ICMP消息,用来回应IP头或TCP头损坏的异常数据包。你可以通过这个文件控制消息的发送比率。================================================================
http://skylove.study-area.org/blog/2006/07/linuxip_29.html
tcp_syn_retries :INTEGER默认值是5对于一个新建连接,内核要发送多少个 SYN 连接请求才决定放弃。不应该大于255,默认值是5,对应于180秒左右时间。(对于大负载而物理通信良好的网络而言,这个值偏高,可修改为2.这个值仅 仅是针对对外的连接,对进来的连接,是由tcp_retries1 决定的)tcp_synack_retries :INTEGER默认值是5对于远端的连接请求SYN,内核会发送SYN + ACK数据报,以确认收到上一个 SYN连接请求包。这是所谓的三次握手( threeway handshake)机制的第二个步骤。这里决定内核在放弃连接之前所送出的 SYN ACK 数目。不应该大于255,默认值是5,对应于180秒左右时间。(可以根据上面的 tcp_syn_retries 来决定这个值)tcp_keepalive_time :INTEGER默认值是7200(2小时)当keepalive打开的情况下,TCP发送keepalive消息的频率。(由于目前网络攻击等因素,造成了利用这个进行的攻击很频繁,曾经也有cu 的朋友提到过,说如果2边建立了连接,然后不发送任何数据或者rst/fin消息,那么持续的时间是不是就是2小时,空连接攻击? tcp_keepalive_time就是预防此情形的.我个人在做nat服务的时候的修改值为1800秒)tcp_keepalive_probes:INTEGER默认值是9TCP发送keepalive探测以确定该连接已经断开的次数。(注意:保持连接仅在SO_KEEPALIVE套接字选项被打开是才发送.次数默认不需要修改,当然根据情形也可以适当地缩短此值.设置为5比较合适)tcp_keepalive_intvl:INTEGER默认值为75探测消息发送的频率,乘以tcp_keepalive_probes就得到对于从开始探测以来没有响应的连接杀除的时间。默认值为75秒,也就是没有活动 的连接将在大约11分钟以后将被丢弃。(对于普通应用来说,这个值有一些偏大,可以根据需要改小.特别是web类服务器需要改小该值,15是个比较合适的 值)tcp_retries1 :INTEGER默认值是3放弃回应一个TCP连接请求前?需要进行多少次重试。RFC 规定最低的数值是3?这也是默认值?根据RTO的值大约在3秒 & 8分钟之间。(注意:这个值同时还决定进入的syn连接)tcp_retries2 :INTEGER默认值为15在丢弃激活(已建立通讯状况)的TCP连接之前?需要进行多少次重试。默认值为15,根据RTO的值来决定,相当于13-30分钟(RFC1122规定,必须大于100秒).(这个值根据目前的网络设置,可以适当地改小,我的网络内修改为了5)tcp_orphan_retries :INTEGER默认值是7在近端丢弃TCP连接之前?要进行多少次重试。默认值是7个?相当于 50秒 & 16分钟?视 RTO 而定。如果您的系统是负载很大的web服务器?那么也许需要降低该值?这类 sockets 可能会耗费大量的资源。另外参的考 tcp_max_orphans 。(事实上做NAT的时候,降低该值也是好处显著的,我本人的网络环境中降低该值为3)tcp_fin_timeout :INTEGER默认值是 60对于本端断开的socket连接,TCP保持在FIN-WAIT-2状态的时间。对方可能会断开连接或一直不结束连接或不可预料的进程死亡。默认值为 60 秒。过去在2.2版本的内核中是 180 秒。您可以设置该值?但需要注意?如果您的机器为负载很重的web服务器?您可能要冒内存被大量无效数据报填满的风险?FIN-WAIT-2 sockets 的危险性低于 FIN-WAIT-1 ?因为它们最多只吃 1.5K 的内存?但是它们存在时间更长。另外参考 tcp_max_orphans。(事实上做NAT的时候,降低该值也是好处显著的,我本人的网络环境中降低该值为30)tcp_max_tw_buckets :INTEGER默认值是180000系 统在同时所处理的最大 timewait sockets 数目。如果超过此数的话?time-wait socket 会被立即砍除并且显示警告信息。之所以要设定这个限制?纯粹为了抵御那些简单的 DoS 攻击?千万不要人为的降低这个限制?不过?如果网络条件需要比默认值更多?则可以提高它(或许还要增加内存)。(事实上做NAT的时候最好可以适当地增加 该值)tcp_tw_recycle :BOOLEAN默认值是0打开快速 TIME-WAIT sockets 回收。除非得到技术专家的建议或要求?请不要随意修改这个值。(做NAT的时候,建议打开它)tcp_tw_reuse:BOOLEAN默认值是0该文件表示是否允许重新应用处于TIME-WAIT状态的socket用于新的TCP连接(这个对快速重启动某些服务,而启动后提示端口已经被使用的情形非常有帮助)tcp_max_orphans :INTEGER缺省值是8192系统所能处理不属于任何进程的TCP sockets最大数量。假如超过这个数量?那么不属于任何进程的连接会被立即reset,并同时显示警告信息。之所以要设定这个限制?纯粹为了抵御那些 简单的 DoS 攻击?千万不要依赖这个或是人为的降低这个限制(这个值Redhat AS版本中设置为32768,但是很多防火墙修改的时候,建议该值修改为2000)tcp_abort_on_overflow :BOOLEAN缺省值是0当守护进程太忙而不能接受新的连接,就象对方发送reset消息,默认值是false。这意味着当溢出的原因是因为一个偶然的猝发,那么连接将恢复状态。 只有在你确信守护进程真的不能完成连接请求时才打开该选项,该选项会影响客户的使用。(对待已经满载的sendmail,apache这类服务的时候,这 个可以很快让客户端终止连接,可以给予服务程序处理已有连接的缓冲机会,所以很多防火墙上推荐打开它)tcp_syncookies :BOOLEAN默认值是0只有在内核编译时选择了CONFIG_SYNCOOKIES时才会发生作用。当出现syn等候队列出现溢出时象对方发送syncookies。目的是为了防止syn flood攻击。注意:该选项千万不能用于那些没有收到攻击的高负载服务器,如果在日志中出现synflood消息,但是调查发现没有收到synflood攻击,而是合法用户的连接负载过高的原因,你应该调整其它参数来提高服务器性能。参考:tcp_max_syn_backlogtcp_synack_retriestcp_abort_on_overflowsyncookie严重的违背TCP协议,不允许使用TCP扩展,可能对某些服务导致严重的性能影响(如SMTP转发)。(注意,该实现与BSD上面使用 的tcp proxy一样,是违反了RFC中关于tcp连接的三次握手实现的,但是对于防御syn-flood的确很有用.)tcp_stdurg :BOOLEAN默认值为0使用 TCP urg pointer 字段中的主机请求解释功能。大部份的主机都使用老旧的 BSD解释,因此如果您在 Linux 打开它?或会导致不能和它们正确沟通。tcp_max_syn_backlog :INTEGER对于那些依然还未获得客户端确认的连接请求?需要保存在队列中最大数目。对于超过 128Mb 内存的系统?默认值是 1024 ?低于 128Mb 的则为 128。如果服务器经常出现过载?可以尝试增加这个数字。警告?假如您将此值设为大于 1024?最好修改 include/net/tcp.h 里面的 TCP_SYNQ_HSIZE ?以保持 TCP_SYNQ_HSIZE*16&=tcp_max_syn_backlog ?并且编进核心之内。(SYN Flood攻击利用TCP协议散布握手的缺陷,伪造虚假源IP地址发送大量TCP-SYN半打开连接到目标系统,最终导致目标系统Socket队列资源耗 尽而无法接受新的连接。为了应付这种攻击,现代Unix系统中普遍采用多连接队列处理的方式来缓冲(而不是解决)这种攻击,是用一个基本队列处理正常的完 全连接应用(Connect()和Accept() ),是用另一个队列单独存放半打开连接。这种双队列处理方式和其他一些系统内核措施(例如Syn-Cookies/Caches)联合应用时,能够比较有 效的缓解小规模的SYN Flood攻击(事实证明&1000p/s)加大SYN队列长度可以容纳更多等待连接的网络连接数,所以对Server来说可以考虑增大该值.)tcp_window_scaling :INTEGER缺省值为1该 文件表示设置tcp/ip会话的滑动窗口大小是否可变。参数值为布尔值,为1时表示可变,为0时表示不可变。tcp/ip通常使用的窗口最大可达到 65535 字节,对于高速网络,该值可能太小,这时候如果启用了该功能,可以使tcp/ip滑动窗口大小增大数个数量级,从而提高数据传输的能力(RFC 1323)。(对普通地百M网络而言,关闭会降低开销,所以如果不是高速网络,可以考虑设置为0)tcp_timestamps :BOOLEAN缺省值为1Timestamps 用在其它一些东西中?可以防范那些伪造的 sequence 号码。一条1G的宽带线路或许会重遇到带 out-of-line数值的旧sequence 号码(假如它是由于上次产生的)。Timestamp 会让它知道这是个 &旧封包&。(该文件表示是否启用以一种比超时重发更精确的方法(RFC 1323)来启用对 RTT 的计算;为了实现更好的性能应该启用这个选项。)tcp_sack :BOOLEAN缺省值为1使 用 Selective ACK?它可以用来查找特定的遗失的数据报& 因此有助于快速恢复状态。该文件表示是否启用有选择的应答(Selective Acknowledgment),这可以通过有选择地应答乱序接收到的报文来提高性能(这样可以让发送者只发送丢失的报文段)。(对于广域网通信来说这个 选项应该启用,但是这会增加对 CPU 的占用。)tcp_fack :BOOLEAN缺省值为1打开FACK拥塞避免和快速重传功能。(注意,当tcp_sack设置为0的时候,这个值即使设置为1也无效)tcp_dsack :BOOLEAN缺省值为1允许TCP发送&两个完全相同&的SACK。tcp_ecn :BOOLEAN缺省值为0打开TCP的直接拥塞通告功能。tcp_reordering :INTEGER默认值是3TCP流中重排序的数据报最大数量 。 (一般有看到推荐把这个数值略微调整大一些,比如5)tcp_retrans_collapse :BOOLEAN缺省值为1对于某些有bug的打印机提供针对其bug的兼容性。(一般不需要这个支持,可以关闭它)tcp_wmem(3个INTEGER变量): min, default, maxmin:为TCP socket预留用于发送缓冲的内存最小值。每个tcp socket都可以在建议以后都可以使用它。默认值为4096(4K)。default:为TCP socket预留用于发送缓冲的内存数量,默认情况下该值会影响其它协议使用的net.core.wmem_default 值,一般要低于net.core.wmem_default的值。默认值为16384(16K)。max: 用于TCP socket发送缓冲的内存最大值。该值不会影响net.core.wmem_max,&静态&选择参数SO_SNDBUF则不受该值影响。默认值为 K)。(对于服务器而言,增加这个参数的值对于发送数据很有帮助,在我的网络环境中,修改为了 204800)tcp_rmem (3个INTEGER变量): min, default, maxmin:为TCP socket预留用于接收缓冲的内存数量,即使在内存出现紧张情况下tcp socket都至少会有这么多数量的内存用于接收缓冲,默认值为8K。default:为TCP socket预留用于接收缓冲的内存数量,默认情况下该值影响其它协议使用的 net.core.wmem_default 值。该值决定了在tcp_adv_win_scale、tcp_app_win和tcp_app_win=0默认值情况下,TCP窗口大小为65535。 默认值为87380max:用于TCP socket接收缓冲的内存最大值。该值不会影响 net.core.wmem_max,&静态&选择参数 SO_SNDBUF则不受该值影响。默认值为 128K。默认值为87380*2 bytes。(可以看出,.max的设置最好是default的两倍,对于NAT来说主要该增加它,我的网络里为
204800)tcp_mem(3个INTEGER变量):low, pressure, highlow:当TCP使用了低于该值的内存页面数时,TCP不会考虑释放内存。(理想情况下,这个值应与指定给 tcp_wmem 的第 2 个值相匹配 & 这第 2 个值表明,最大页面大小乘以最大并发请求数除以页大小 (131072 * 300 / 4096)。 )pressure:当TCP使用了超过该值的内存页面数量时,TCP试图稳定其内存使用,进入pressure模式,当内存消耗低于low值时则退出 pressure状态。(理想情况下这个值应该是 TCP 可以使用的总缓冲区大小的最大值 (204800 * 300 / 4096)。 )high:允许所有tcp sockets用于排队缓冲数据报的页面量。(如果超过这个值,TCP 连接将被拒绝,这就是为什么不要令其过于保守 (512000 * 300 / 4096) 的原因了。 在这种情况下,提供的价值很大,它能处理很多连接,是所预期的 2.5 倍;或者使现有连接能够传输 2.5 倍的数据。 我的网络里为000 732000)一般情况下这些值是在系统启动时根据系统内存数量计算得到的。tcp_app_win : INTEGER默认值是31保留max(window/2^tcp_app_win, mss)数量的窗口由于应用缓冲。当为0时表示不需要缓冲。tcp_adv_win_scale : INTEGER默认值为2计算缓冲开销bytes/2^tcp_adv_win_scale(如果tcp_adv_win_scale & 0)或者bytes-bytes/2^(-tcp_adv_win_scale)(如果tcp_adv_win_scale &= 0)。tcp_rfc1337 :BOOLEAN缺省值为0这个开关可以启动对于在RFC1337中描述的&tcp 的time-wait暗杀危机&问题的修复。启用后,内核将丢弃那些发往time-wait状态TCP套接字的RST 包.tcp_low_latency : BOOLEAN缺省值为0允许 TCP/IP 栈适应在高吞吐量情况下低延时的情况;这个选项一般情形是的禁用。(但在构建Beowulf 集群的时候,打开它很有帮助)tcp_westwood :BOOLEAN缺省值为0启用发送者端的拥塞控制算法,它可以维护对吞吐量的评估,并试图对带宽的整体利用情况进行优化;对于 WAN 通信来说应该启用这个选项。tcp_bic :BOOLEAN缺省值为0为快速长距离网络启用 Binary Increase Congestion;这样可以更好地利用以 GB 速度进行操作的链接;对于 WAN 通信应该启用这个选项。# 以下一段为抵抗syn flood攻击,平时建议关闭sysctl -w net.ipv4.tcp_syncookies=1&&&&&&&&&&&&&&# tcp syncookie,默认关闭sysctl -w net.ipv4.tcp_max_syn_backlog=1280&& # syn队列,默认1024,& 1280可能工作不稳定,需要修改内核源码参数sysctl -w net.ipv4.tcp_synack_retries=2&&&&&&&&&&&& # syn-ack握手状态重试次数,默认5,遭受syn-flood攻击时改为1或2sysctl -w net.ipv4.tcp_syn_retries=2&&&&&&&&&&&&&&&&&&# 外向syn握手重试次数,默认4# 以下一段为应对tcp connect连接耗尽攻击,如果开启iptables connlimit模块可禁用# 有严重连接性能影响和不稳定因素,慎用sysctl -w tcp_tw_recycle=1&&&&&&&&&&&&&&&&&&&&&&&&&& # 默认0,tw快速回收sysctl -w tcp_tw_reuse=1&&&&&&&&&&&&&&&&&&&&&&&&&&&& # 默认0,tw重用sysctl -w tcp_keepalive_intvl=60&&&&&&&&&&&&&&&&&&&&# 默认75,tcp keeplive探测轮询时间sysctl -w tcp_keepalive_probes=3&&&&&&&&&&&&&&&&&&# 默认9,tcp keeplive探测轮询次数sysctl -w tcp_keepalive_time=1800&&&&&&&&&&&&&&&&# 默认7200,tcp keeplive时间sysctl -w tcp_fin_timeout=30&&&&&&&&&&&&&&&&&&&&&&&&# 默认60,tcp fin状态超时时间#sysctl -w net.ipv4.tcp_retries1=2&&&&&&&&&&&&&&&&&&&& # tcp连接重传参数,慎用#sysctl -w net.ipv4.tcp_retries2=8sysctl -w net.ipv4.ip_conntrack_max=65535&&&&&&&&&&# 增大iptables状态跟踪表

我要回帖

更多关于 tcp shutdown close 的文章

 

随机推荐