Buongiorno a tutti.
Sto sviluppando un'applicazione client-server con un server sequenziale, ovvero che accetti una connessione per volta. Per far si che un client non si appropri del server per un tempo illimitato ho impostato (NEL CODICE DEL CLIENT) un timer, tramite la funzione alarm(60) e gestito il relativo segnale SIGALRM (TRAMITE HANDLER) in modo tale che ogni client pu� occupare per una stessa sessione un server per al pi� un minuto, dopodich� il socket del client viene chiuso.
Nel server invece vorrei fare in modo che esso attenda eventuali connessioni di client per al massimo 30 secondi; se entro tale periodo nessun client si connette al server, esso deve chiudere il relativo socket automaticamente. Avevo pensato di gestire la cosa sempre tramite un alarm(30). Il problema � che se in quei 30 secondi in cui il server � in attesa di connessioni, un client si connette, il segnale SIGALRM viene comunque inviato all'applicazione. In conclusione, mi sapreste consigliare un modo per far si che questo segnale venga inviato soltanto allo se scadere dei 30 secondi? O meglio la funzione alarm(30), una volta partita, pu� essere bloccata se un client si connette?