Salve a tutti,
Ho ricercato online una descrizione a questo problema ma non riesco a trovarla.
Sto facendo un confronto sulla tempistica tra un algoritmo basato sulla lettura dei dati su disco e uno invece che fa un uso smodato della memoria. Per piccoli insiemi di dati ovviamente vince il secondo, per enormi insiemi il secondo non viene eseguito. Con una via di mezzo il primo algoritmo termina in un tempo inferiore. In quest'ultimo caso cosa avviene in memoria RAM? Suppongo che finisca in overflow ma comunque l'algoritmo arriva a terminazione. Come viene gestito il problema della memoria piena su windows (non so se linux sia uguale)?
Appena si riempie si usa una tecnica di least recently used e si dealloca spazio, si usano buffer temporanei, si scrivono dati temporanei su disco...
Mi potreste dare anche solo una piccola descrizione Grazie