![]()
L'idea strana.. mi è venuta ipotizzando un rallentamento delle operazioni in concomitanza con l'aumentare dell'array di contenimento del report finale delle stesse...
Cerco di spiegarmi meglio...
Ho 120.000 righe di 3 elementi separati da virgola in un file FILE1
Ho 5.000 righe di 5 elementi separati da virgola in un secondo file FILE2
Io faccio un confronto X OGNI RIGA di FILE1 con OGNI RIGA di FILE2 e segno eventuali presenze uguali tra gli elementi separati da virgola...
Il tutto poi lo metto con dati riassuntivi x ogni riga di FILE1 in un apposito array che alla fine
conterrà 120.000 elementi.
Ora siccome all'inizio del processo... è piuttosto sveltino.. e per passare da una riga all'altra di FILE1 ci mette anche un solo sec.. e poi verso la metà questo rallenta enormemente fino a superare il minuto.. pensavo che questo rallentamento fosse dovuto non ai files particolarmente corposi.. bensì all'immagazzinamento nell'array e all'aumentare di questo via via dell'evolversi delle elaborazioni..
Di qui l'idea strana di svuotarlo... ogni 1000 righe di FILE1 e creare nel contempo un relativo file.
Sperando di essere stato un pò + chiaro vi saluto e vi ringrazio per l'attenzione postami fin qui.
![]()