Originariamente inviato da daniele_dll
io metterei tutto su db ... magari facendo una tabella per categoria in modo da evitare tabelle troppo grandi

per quanto riguarda le prestazioni del filesystem, se si tratta di sistemi posix-like o bsd-like, dipende dal filesystem, cmq se devi avere TUTTI i file in una sola cartella ti consiglio XFS per via dell'efficentissimo sistema di caching e comunque gli hd in raid oppure metti i raptor sata da 10.000 giri al sec della western digital o della samsung (ora non ricordo)

come ram, ovviamente, almeno un GB

l'anteprima, farla con php è un suicidio:
- va fatta al momento dell'upload delle immagini
- non va fatta con le GD ... prova ad usare le imagemagick o altri tool (vedi XnView ... è un missile)


io il memory limit lo abbasserei più che altro per verificare che i propri script rientrino nella soglia di un mb ... un mb e mezzo, massimo, in modo da evitare, per via delle troppe visite, un totale scoppio del server
gazie per i consigli,
premetto che la macchina è linux (fedora 1) con dischi scsi in raid.
L'anteprime le creo con le gd ma al momento dell'upload della pagina, di fatto quindi le immagini grosse non vengono quasi mai utilizzare, uno vede l'anteprima, può scaricare quella da 800 pixel e solo se paga arriva a quella da 5 mb.

adesso cerco qualche cosa su XnView.

le prestazioni dei sistemi unix si degradano se il numero dei files in una cartella è molto alto.
questo mi spaventa, ma quanto alto? se dividessi le foto per tipologia e grandezza e diciamo facessi cartelle da 10.000 file è comunque troppo?


eraclito