跳至主要内容

【转】提高Linux的连接限制

一般linux下TCP连接的限制在TD_SETSIZE,系统默认为1024,由FD_SETSIZE决定。

1.修改方法:
  修改/usr/etc/security/limits.conf文件,加入
    *soft nofile 20000
    *hard nofile 20000
  然后reboot系统。
服务器就可以建立连接到20000个了,其连接方法是直接用connect,accept,注意这里用select是不可以的。

2.上面的方法在不用select方法的情况下是不可以的,如果你用select,那么仍然只能打开1024个,这是因为select的数目由FD_SETSIZE决定的。那么我们可以改用poll来替代select,poll数组大小可以根据我们自己的需要来定义,这样就解决了这个问题。

3.linux中的是通过文件方式来管理系统的,因此系统能承载多少TCP连接和系统文件打开数目能力是相关的。
另外在/proc/sys/file-max中定义了,系统最多能够打开的文件数目。

附代码:
 服务器端:pollserver.cpp
   #include <iostream>
#include <ctype.h>
#include <errno.h>
#include <signal.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <sys/file.h>
#include <sys/ioctl.h>
#include <sys/wait.h>
#include <sys/types.h>
//#include <asm/poll.h>
#include <netdb.h>
#include <unistd.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <string>
#include <sys/poll.h>
#include <limits.h> /* for OPEN_MAX */

#define LPORT 3333
#define LISTENQ 1024
#define OPEN_MAX 50000
#define MAX_LINE 100
void setnonblocking(int sock)
{
 int opts;
 opts=fcntl(sock,F_GETFL);
 if(opts<0)
 {
  perror("fcntl(sock,GETFL)");
  exit(1);
 }

 opts = opts|O_NONBLOCK;
 if(fcntl(sock,F_SETFL,opts)<0)
 {
  perror("fcntl(sock,SETFL,opts)");
  exit(1);
 }   
}
int main(int argc, char **argv)
{
 //int i, maxi, listenfd, connfd, sockfd;
 //int nready; ssize_t n;


 int listenfd;
 struct sockaddr_in cliaddr;  //客户端的sock描述
 struct sockaddr_in servaddr; //服务器的sock描述


 struct pollfd *array_conn;
 array_conn =  new pollfd[OPEN_MAX];

 if ((listenfd = socket(AF_INET, SOCK_STREAM, 0)) == -1)
 {
  perror("socket create error!");
  exit(1);
 }
 bzero(&servaddr, sizeof(servaddr));
 servaddr.sin_family = AF_INET;
 servaddr.sin_addr.s_addr = htonl(INADDR_ANY);
 servaddr.sin_port = htons(LPORT);

 /* 置 socket 重新使用  */
 int opt = 1;
 if (setsockopt(listenfd,SOL_SOCKET,SO_REUSEADDR,(char *) &opt,sizeof(opt))<0)
 {
  close(listenfd);
  perror("!cserver::init_comm() setsockopt error!");
  exit(1);
 }

 if (bind(listenfd, (struct sockaddr *)&servaddr, sizeof(servaddr))== -1)
 {
  perror("bind error!");
  exit(1);
 }
 listen(listenfd, LISTENQ);

 array_conn[0].fd = listenfd;
 array_conn[0].events = POLLRDNORM;
 int i;
 for (  i = 1; i < OPEN_MAX; i++)  array_conn[i].fd = -1; /* -1 indicates available entry */
 int maxi = 0;

 int connfd;
 int nready;
 int clilen;
 size_t n;
 int x; x=0;
 for ( ; ; ) {
  int nready = poll(array_conn, maxi+1, 0);

  if (array_conn[0].revents & POLLRDNORM)
  {
   clilen = sizeof(cliaddr);
   connfd = accept(listenfd, (struct sockaddr *) &cliaddr,(socklen_t*) &clilen);
            printf(" ||%d: Connection from %s:%d\n",x++, inet_ntoa(cliaddr.sin_addr),cliaddr.sin_port);
   // setnonblocking(connfd);
   for (i = 1; i < OPEN_MAX; i++)
    if (array_conn[i].fd < 0)
    {
     array_conn[i].fd = connfd; // save descriptor
     break;
    }
    if (i == OPEN_MAX)
    {
     printf("too many clients");
     break;
    }
    array_conn[i].events = POLLRDNORM;
    if (i > maxi) maxi = i; 
    if (--nready <= 0) continue; /* no more readable descriptors */
  }

  /* check all clients for data */
     char line[100];
  int sockfd;
  for (i = 1; i <= maxi; i++)
  { /* check all clients for data */
   if ( (sockfd = array_conn[i].fd) < 0) continue;
   if (array_conn[i].revents & (POLLRDNORM | POLLERR))
   {
    if ( (n = read(sockfd, line, MAX_LINE)) < 0)
    {
     if (errno == ECONNRESET)
     {
      /*4connection reset by client */
      close(sockfd);
      array_conn[i].fd = -1;
     } else
     {
      printf("readline error\n");
     }
    }
    else if (n == 0)
    {
     /*4connection closed by client */
     close(sockfd);
     array_conn[i].fd = -1;
    } else
    {
     char sb[10];
     printf("Recv:%s from socket %d",line,sockfd);
     sprintf(sb,"Pong!");
     write(sockfd, sb, 10);
    }
    if (--nready <= 0)
     break; /* no more readable descriptors */
   }
  }

 }
}
客户端pollclient.cpp
#include <sys/types.h>
#include <sys/socket.h>
#include <stdio.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <unistd.h>

int main()
{
 int sockfd;
 int address_len;
 int connect_flag;
 struct sockaddr_in address;
 int connect_result;
 char client_ch,server_ch;

 int *sock;
 sock= new int [50000];
 int index=0;
 int n=0;
 int ssock;
 address.sin_family=AF_INET;
 address.sin_addr.s_addr=inet_addr("192.168.1.249");
 address.sin_port=htons(3333);
 address_len=sizeof(address);
 while(1)
 {
  ssock=socket(AF_INET,SOCK_STREAM,0);
  if(ssock<0)
  {
   printf("local sockfd error \n");
   break;
  }


  connect_flag=connect(ssock,(struct sockaddr *)&address,address_len);
  if(connect_flag==-1)
  {
   perror("client");
   break;
  }
  printf("%d Connected! ",n++);
  char cch[10];
  sprintf(cch,"Ping*");
  write(ssock,cch,10);
  char rbuf[100];
  read(ssock,rbuf,100);
  printf( "%d Receive from server ;%s\n",n,rbuf);
  //char c_ch;
  //c_ch='*';
  //write(ssock,&c_ch,1);
  //char rbuf[100];
  //read(ssock,rbuf,100);
  //printf( "%d Receive from server ;%s\n",n,rbuf);

 }
 delete [] sock;
 return 0;
}

 

评论

此博客中的热门博文

【转】AMBA、AHB、APB总线简介

AMBA 简介 随着深亚微米工艺技术日益成熟,集成电路芯片的规模越来越大。数字IC从基于时序驱动的设计方法,发展到基于IP复用的设计方法,并在SOC设计中得到了广泛应用。在基于IP复用的SoC设计中,片上总线设计是最关键的问题。为此,业界出现了很多片上总线标准。其中,由ARM公司推出的AMBA片上总线受到了广大IP开发商和SoC系统集成者的青睐,已成为一种流行的工业标准片上结构。AMBA规范主要包括了AHB(Advanced High performance Bus)系统总线和APB(Advanced Peripheral Bus)外围总线。   AMBA 片上总线        AMBA 2.0 规范包括四个部分:AHB、ASB、APB和Test Methodology。AHB的相互连接采用了传统的带有主模块和从模块的共享总线,接口与互连功能分离,这对芯片上模块之间的互连具有重要意义。AMBA已不仅是一种总线,更是一种带有接口模块的互连体系。下面将简要介绍比较重要的AHB和APB总线。 基于 AMBA 的片上系统        一个典型的基于AMBA总线的系统框图如图3所示。        大多数挂在总线上的模块(包括处理器)只是单一属性的功能模块:主模块或者从模块。主模块是向从模块发出读写操作的模块,如CPU,DSP等;从模块是接受命令并做出反应的模块,如片上的RAM,AHB/APB 桥等。另外,还有一些模块同时具有两种属性,例如直接存储器存取(DMA)在被编程时是从模块,但在系统读传输数据时必须是主模块。如果总线上存在多个主模块,就需要仲裁器来决定如何控制各种主模块对总线的访问。虽然仲裁规范是AMBA总线规范中的一部分,但具体使用的算法由RTL设计工程师决定,其中两个最常用的算法是固定优先级算法和循环制算法。AHB总线上最多可以有16个主模块和任意多个从模块,如果主模块数目大于16,则需再加一层结构(具体参阅ARM公司推出的Multi-layer AHB规范)。APB 桥既是APB总线上唯一的主模块,也是AHB系统总线上的从模块。其主要功能是锁存来自AHB系统总...

【转】VxWorks入门

1.VxWorks开发方式:交叉开发,即将开发分为主机(host)和目标机(target)两部分。 类似于dos下C语言程序的开发。 合并开发的优点:简单 缺点:资源消耗量大,CPU支持,非标准体系的支持 host (Tornado) target(vxWork) 小程序模块 vxWorks实际采用开发模式 Tornado提供:编辑,编译,调试,性能分析工具,是vxWorks的开发工具 vxWorks:面向对象可以剪裁的实际运行操作系统 2.vxWorks启动方式 <1>Rom方式 (vxWork_rom) vxWorks直接烧入rom <2>Rom引导方式(bootrom+vxWorks) 其中bootrom烧入rom,vxWorks可以通过从串口,网口,硬盘,flash等下载!这里的bootrom不是开发环境中的bootable,在开发环境里bootable指的是vxWorks,downloadable指application 3.调试 <1>attachs/20060907_164540_564.rar 用来在多任务调试时将调试对象绑定到某个任务 <2>任务级调试(attachs/20060907_164540_564.rar taskName) 单个任务的调试不会影响到其他任务的运行,主要用来调用户的应用程序。 全局断点:在调另一任务或本任务时,系统运行本任务断点,则停下。各任务要配合使用。 任务断点:调本任务时,系统运行到本任务断点,则停下。如果没有attachs/20060907_164540_564.rar到本任务,不起作用。 一次性断点:跑到一次之后自动删除。 <3>系统级调试(attachs/20060907_164540_564.rar system) 把所有task和系统core、中断看成一个整体,可用于调试系统和中断。对中断调试,如果不是系统级调试,无论是那种断点都不起作用 !wdbAgent不在调试范围内,当任务级调试时工作在中断方式,系统级调试工作在轮询方式。 !可是使用命令行方式的调试,参看crossWind教程。 4.调度 优先级调度(无条件) 时间片:同优先级,如果时间片没有打开,任务采取先到先运行,运行完毕在交出cpu,如果打开,则轮流使用cpu。 !死循环使比它...

【转】C++/CLI程序进程之间的通讯

 现在,把大型软件项目分解为一些相交互的小程序似乎变得越来越普遍,程序各部分之间的通讯可使用某种类型的通讯协议,这些程序可能运行在不同的机器上、不同的操作系统中、以不同的语言编写,但也有可能只在同一台机器上,实际上,这些程序可看成是同一程序中的不同线程。而本文主要讨论C++/CLI程序间的通讯,当然,在此是讨论进程间通讯,而不是网络通讯。    简介   试想一个包含数据库查询功能的应用,通常有一个被称为服务端的程序,等待另一个被称为客户端程序发送请求,当接收到请求时,服务端执行相应功能,并把结果(或者错误信息)返回给客户端。在许多情况中,有着多个客户端,所有的请求都会在同一时间发送到同一服务端,这就要求服务端程序要更加高级、完善。   在某些针对此任务的环境中,服务端程序可能只是众多程序中的一个程序,其他可能也是服务端或者客户端程序,实际上,如果我们的数据库服务端需要访问不存在于本机的文件,那么它就可能成为其他某个文件服务器的一个客户端。一个程序中可能会有一个服务线程及一个或多个客户线程,因此,我们需小心使用客户端及服务端这个术语,虽然它们表达了近似的抽象含义,但在具体实现上却大不相同。从一般的观点来看,客户端即为服务端所提供服务的"消费者",而服务端也能成为其他某些服务的客户端。    服务端套接字   让我们从一个具体有代表性的服务端程序开始(请看例1),此程序等待客户端发送一对整数,把它们相加之后返回结果给客户端。   例1: using namespace System; using namespace System::IO; using namespace System::Net; using namespace System::Net::Sockets; int main(array<String^>^ argv) { if (argv->Length != 1) { Console::WriteLine("Usage: Server port"); Environment::Exit(1); } int port = 0; try { port = Int32::Parse(argv[0]); } catch (FormatException^ e) { Console::Wri...