Ammetto di esser un novello programmatore....
Spero di non essere troppo off topic ma in qualche forum dovevo postare questa domanda. Credo che il mio dubbio possa essere esteso un po' a tutti i linguaggi (penso ma potrei anche aver detto una stronzata !).
Non riesco a capire come il concetto di 'buffer' sia legato all'ouput video. Una volta che i dati vengono elaborati dal server questo, prima di rispedirli al client, inserisce tutto in un buffer per poi farli partire?
SCUSATE il linguaggio poco forbito ma, come detto sopra, non ho assolutamente le idee chiare!
Ma non è tutto....se così fosse, i buffer hanno una capacità massima di dati che posono contenere?
Infine.... cosa significa 'rischiare di avere un problema di over buffering' (o qualcosa di genere)? Frase che ho sentito da un sistemista che prefigurava possibili problemi legati all'elaborazione di una mole di dati abnorme per una query.
E' possibile che abbia sparato una marea di str***ate in questo 3d come non se ne sono mai viste ( ) ma preferisco aver tirato fuori questa serie di dubbi perchè non riesco a trovare in giro risposte chiare e organiche.
GRAZIE a tutti!