Ciao,
chiedo a voi sistemisti un parere sulla gestione dei files.
Un processo collegato ad una web application produce files in quantità elevata e sempre crescente.
I files vengono salvati su disco (non su DB).
Il DB gestisce la nomenclatura, tiene nota delle locazioni dei files e dei loro attributi, e decide anche quando creare una nuova directory in base a:
[list=1][*]criteri semplici come il mese/anno della creazione dei files;[*]criteri meno semplici come la giusta quantità di files per cartella.[/list=1]
Il secondo punto è quello che mi interessa: non avendo files di dimensione fissa, non posso stabilire dei parametri costanti per creare una nuova cartella.
:ignore:
Avendo per esempio 3000 piccoli files da 10KB l'uno tutti nella stessa cartella, avrei una bassa velocità di accesso ai dati.
Con 500 files di cui la metà di peso superiore a 10MB, il filesystem sarebbe ugualmente lento, dovendo gestire una cartella da 5GB in 500 files.
Per cui chiedo: quale è il miglior criterio che permette al filesystem di offrire performance apprezzabili considerando sia dimensione che numero di files per directory?

Rispondi quotando