Buondì.
Ho la necessità di fare upload di files di grandi dimensioni (dell'ordine anche di un centinaio di MB); so che posso impostare i limiti massimi di peso dei files in upload, il peso massimo del totale di dati inviati in POST dai form, ed il tempo di timeout degli script PHP, ma resta un problema: se la connessione dell'utente ha problemi di varia natura (connessione non a banda larga, oppure banda larga con dei problemi... in generale lentezza i connessione), il PHP può comunque andare in timeout.
Quello che ho pensato di fare è fare in modo che il grande file venga uploadato a spezzoni, anzichè tutto intero, e dopo l'upload di un singolo spezzone lo script fa un reload di se stesso, e invia il prossimo spezzone di file. Procedendo così fino a quando non si termina l'invio dell'ultimo spezzone. In questo modo (essendoci una serie di reload successivi) dovrebbe essere possibile scongiurare il timeout visto che l'esecuzione dello script è più breve rispetto a quando si invia l'intero file tutto assieme.
Mi chiedevo però se è possibile, visto che non sono riuscito a leggere il file dal computer dell'utente in spezzoni. A voi è mai capitato di fare una cosa simile, o avete qualche idea da cui partire?
Posso fare anche upload in FTP tramite PHP (voglio dire, usando le funzioni PHP per gestire gli FTP...)
Grazie e ciao.