2012-01-02 3 views
0

Мои серверы posix tcp все, кажется, протекают. Я слежу за ними с помощью инструментов, таких как ps и top, и они думают, что память постоянно растет. Это происходит, когда клиент входит и/или уходит.Общий утечка памяти сервера Tcp

Например. скажем, что ps сообщает 100 VSZ. Клиент входит, и он поднимается до 238. Затем клиент выходит и падает до 138. Не 100! Каждый раз, когда клиент входит и выходит, память увеличивается.

Я пробовал тонну различных инструментов утечки памяти, например, например. valgrind, и ни один из них не находит ничего. (И они не думают, что это просачивается.)

Это ps и топ, который смущен? Это кажется маловероятным.

Я сделал небольшой общий пример, демонстрирующий мой код и потенциальную утечку:

#include <stdio.h> 
#include <stdlib.h> 
#include <pthread.h> 
#include <sys/socket.h> 
#include <arpa/inet.h> 
#include <signal.h> 
#include <unistd.h> 

#define MAX_BUFFER 100*1024 

void* server_process_thread(void* args) 
{ 
    int client = (int)args; 
    unsigned char* buffer = NULL; 
    int r; 

    /* allocate something huge */ 
    if((buffer = malloc(MAX_BUFFER)) == NULL) 
    { 
     perror("Couldn't allocate"); 
     goto exit; 
    } 

    printf("Client processing ...\n"); 

    //echo all that comes 
    while(1) 
    { 
     r = read(client, buffer, MAX_BUFFER); 
     if(r <= 0) break; 
     write(client, buffer, r); 
    } 

exit: 
    printf("Client exit\n"); 
    free(buffer); 
    close(client); 
    pthread_exit(NULL); 
} 

int main(void) 
{ 
    struct sockaddr_in server_sockaddr = {0}; 
    struct sockaddr_in clientSockAddr = {0}; 
    int flags = 1; 
    int server = 0; 
    int client = 0; 
    pthread_t thread = 0; 
    socklen_t clientSockSize = sizeof(clientSockAddr); 

    //init tcp 
    signal(SIGCHLD, SIG_IGN); 
    signal(SIGPIPE, SIG_IGN); 
    signal(SIGALRM, SIG_IGN); 

    if ((server = socket(AF_INET, SOCK_STREAM, IPPROTO_TCP)) == -1) 
    { 
     perror("Couldn't open socket"); 
     return -1; 
    } 

    flags = 1; 
    if ((setsockopt(server, SOL_SOCKET, SO_REUSEADDR, (void *) &flags, sizeof(flags))) == -1) 
    { 
     perror("Couldn't set socket reuse"); 
     return -1; 
    } 

    server_sockaddr.sin_family = AF_INET; 
    server_sockaddr.sin_port = htons(666); 
    server_sockaddr.sin_addr.s_addr = htonl(INADDR_ANY); //IP 

    if (bind(server, (struct sockaddr *) &server_sockaddr, sizeof(server_sockaddr)) == -1) 
    { 
     perror("Couldn't bind socket"); 
     return -1; 
    } 

    //LISTEN 
    if (listen(server, SOMAXCONN) == -1) 
    { 
     perror("Couldn't listen on socket"); 
     return -1; 
    } 

    printf("TCP Echo Server started ...\n"); 

    //wait for clients 
    while(1) 
    { 
     client = accept(server, (struct sockaddr*) (&clientSockAddr), &clientSockSize); 

     if(pthread_create(&thread, NULL, server_process_thread, (void*)client) != 0) 
     { 
      perror("Couldn't create thread"); 
      return -1; 
     } 
    } 

    //dispose 
    printf("Server exit\n"); 
    close(server); 
    return EXIT_SUCCESS; 
} 

Теперь, я мог бы пропустить некоторые обработки ошибок здесь и там, но есть некоторая фундаментальная ошибка в этом коде?

ответ

3

Вы просачиваете потоки, по крайней мере.

По умолчанию pthreads не "очищаются", когда он выходит, пока кто-то не называет pthread_join().

Если вы создаете поток как отдельный поток, его ресурсы будут очищены, когда он выйдет (но вы уже не можете pthread_join()). Самый простой способ сделать это - позвонить pthread_detach(pthread_self()); как первое, что есть в вашем server_process_thread.

+0

Я думал, что уже пробовал, но, похоже, работает, когда добавляется к образцу. – Illishar

Смежные вопросы