Allora ho un programma stupido con un timer il cui intervallo è impostato su 1 (quindi 1 millisecondo). Nell'evento Tick del timer, riempio una varibile con i tick che vengono chiamati. Quindi in teoria, dopo 1 secondo, questa variabile dovrebbe contenere 1000.
Ora questa varibile la mostro a monitor in una label tutte le volte che si verifica l'evento tick. Mi aspetto che arrivi a 1000 dopo un secondo, ma in realtà ci mette molto ma molto più tempo...
cosa sbaglio?!
Così a naso potrebbe essere che il pc non riesce a gestire tempistiche così brevi e mostrare il tutto a monitor?
Il tutto perchè ho bisogno di far vedere a monitor un cronometro per prendere un tempo: il cronometro deve avere minuti, secondi e millisecondi.
Il codice non lo posto in quanto ci sono solo 2 righe di codice stupide...