Spiego rapidamente la situazione.
Devo aggiornare in automatico un sito alle 4.30 circa.
1)I dati aggiornati li prendo da una cartella ftp in automatico sotto forma di database mdb access. --> fino a qui tutto bene
2)leggo i dati da php e li inserisco in una tabella mysql --> tutto ok
3) esporto la tabella in un file xxxx.sql --> ok ma alla fine della creazione del file lo script si blocca e non passa al punto 4
4) invio tramite ftp il file xxxx.sql al server in remoto. --> ok
5) chiamo la pagina che importa il file xxx.sql nel database mysql (BigDump modificato) --> ok ma non passa alla fase successiva
6) chiamo la pagina che esegue l'update delle altre tabelle
Note: quando genero il file xxx.sql devo imposto l'header nel seguente modo
# Definisco le intestazioni
header("Content-type: text/plain");
header("Content-Disposition: attachment; filename = $file_name");
# Stampo il contenuto
echo $table1;
questa impostazione blocca l'esecuzione della pagina quando il file è completo e non mi manda avanti al successivo include.
Allo stesso modo quando finisco le query del BigDump lo script si arresta e non procede a chiamare la pagina di aggiornamento delle altre tabelle.
Ho pensato di fare una pagina a parte che chiama i vari passaggi uno per volta ma il risultato non cambia.
Qualcuno riesce a darmi una mano per favore?
P.S. mi hanno detto che usando il cron è possibile pianificare le operazioni in modo da eseguire un passo per volta ma non ho la più pallida idea di come funzioni.