Guarda io ultimamente non ho dovuto realizzare sistemi che avevano grosso carico, ma qualche tempo addietro ho dovuto realizzare un sistema che per velocizzare le operazioni utilizzava delle tabelle su memory e ci stavano dentro 2 milioni di records ... li la situazione era abb. particolareOriginariamente inviato da w_t
ho fatto il test in una macchina dove stavo importando nuovamente in una tabella di copia i 15.000.000 recodr, il processore era impegnato al 97%,
ma il risultato non e' cambiato.
ma come mai stai tentando di importare 15 milioni di records li dentro? considera che queste tabelle non sono fatte per contenere una marea immensa di dati bensì per gestire continue operazioni di aggiornamento. Possibilmente non noti differenza per via della cache perché con la cache abilitata, una volta che estrai i dati, e non li cambi, li hai in cache
Non è che tu importi i record li per avere una specie di cache in memoria dei dati? questa operazione la fa già lui tramite la cache delle query

Rispondi quotando