Mi sto imputtanando con dei calcoli cretini perchè sono negato e necessito di aiuto
Duunnque stiamo parlando di code e di server che smaltiscono le code, l'esercizio mi dice che:
- "Un server elabora una richiesta in 20 msec", ovvero lo interpreto come ha tempo di elaborazione 20 msec;
- "Il sistema è sottopoto ad un flusso di 40 richieste al secondo", ovvero lo interpreto come una frequenza cioè 40 rich/sec
Voglio sapere il ritardo medio complessivo ovvero 1/(freq di elaborazione - freq di arrivo)
Ora se per i calcoli voglio lavorare con i secondi il professore ha fatto vedere che basta fare è 1/20/1000 = 50 rich/sec e cosi passo dal tempo alle frequenze e passo anche dai msec ai secondi.
Ora considerando che per la formula che mi serve dopo mi servono le frequenze e non il tempo, se volessi lavorare in millisecondi che cappero dovrei fare?
Dovrei sicuramente trasformare il tempo di elaborazione in frequenze ed immagino basta fare 1/20 = 0.05 rich/msec.
Per trasformare invece le 40 rich/sec in rich/msec quello che ho fatto è stato trasformarlo in tempo quindi 1/40 = 0.025 sec e moltiplicarlo per 1000 quindi 25 msec e ritrasformarlo in frequenza 1/25 =0.04 rich/msec ed i conti tornano.
Ora mi chiedo ho fatto bene i conti o è solo una casualità che poi i risultati finali tornino? e sopratutto ce qualche formula più diretta per farlo invece di tutti quei passaggi?