Pagina 3 di 4 primaprima 1 2 3 4 ultimoultimo
Visualizzazione dei risultati da 21 a 30 su 37
  1. #21
    Il mio che è ancora in fase embrionale dovrebbe processare parti di log, quindi data, keyword, referer e li esporta su grafico. Quindi vedresti il tal giorno quante ricerche sono state effettuate per quella key, la distribuzione dei referer, poi grafico settimanale e mensile.

    La cosa migliore è:
    - elaborazioni dati incrementale;
    - uso cache per keyword note e acquisite (almeno per le più forti).

    Iceblu che ne dici, visto che sei più volenteroso di me.
    Non puoi pretendere qualcosa da Google, dovresti pretenderlo dalla RAI

    webalizer tips | aggiungi un sito | Berlusconi counter

  2. #22
    Utente di HTML.it L'avatar di iceblu
    Registrato dal
    Jun 2006
    Messaggi
    246
    In questo momento vedo come come problema standardizzare il lasso temporale, cioè se il programma permette di caricare un file CSV, questo può essere con o senza data, se non è presente la data la inserisci tu contestualmente all'importazione del file....ora però se importi i dati una volta la settimana il trend assumera come unità base 7 giorni, ma se un giorno inizi a farlo giornaliero....si sballeranno i dati.

    - elaborazioni dati incrementale;
    - uso cache per keyword note e acquisite (almeno per le più forti).
    Concordo con la prima ma mi sfugge la seconda voce...

    Mi prendo la nottata :rollo: per darvi una risposta esaustiva

  3. #23
    Originariamente inviato da iceblu
    In questo momento vedo come come problema standardizzare il lasso temporale, cioè se il programma permette di caricare un file CSV, questo può essere con o senza data, se non è presente la data la inserisci tu contestualmente all'importazione del file....ora però se importi i dati una volta la settimana il trend assumera come unità base 7 giorni, ma se un giorno inizi a farlo giornaliero....si sballeranno i dati.



    Concordo con la prima ma mi sfugge la seconda voce...

    Mi prendo la nottata :rollo: per darvi una risposta esaustiva
    Dopo aver riletto il thread ho visto che non stai facendo una applicazione che gira in remoto, quindi il caching delle parole chiave più note si può anche non fare.

    Col caching intendevo che le parole chiave più cercate ed usate non vengono processate ogni volta, ma solo dopo aver inserito i nuovi dati e dopo la prima richiesta di quella parola chiave. In questo modo salvi il risultato per quella chiave in un flat file per esempio, oppure in una tabella dedicata, senza dover ogni volta caricare il database di lavoro.
    Non puoi pretendere qualcosa da Google, dovresti pretenderlo dalla RAI

    webalizer tips | aggiungi un sito | Berlusconi counter

  4. #24
    Utente di HTML.it
    Registrato dal
    Jul 1999
    Messaggi
    457
    Originariamente inviato da iceblu
    se importi i dati una volta la settimana il trend assumera come unità base 7 giorni, ma se un giorno inizi a farlo giornaliero....si sballeranno i dati.
    E' corretto quello che dici e non sono in grado di trovare una soluzione. Però ci provo (non sono responsabile delle conseguenze :-)

    Si potrebbe ipotizzare che il programma lavori sempre su base giornaliera e che quando riceve dati su scala diversa (ad esempio 7 giorni), allora le chiavi e i relativi numeri vengono spalmati uniformemente: ogni giorno che compone la settimana avrà chiavi con valori uguale a: numero/7

    ... Dei profili? E ogni profilo gestisce il lasso temporale uniformemente?

    Che te/ve ne pare?

  5. #25
    Utente di HTML.it L'avatar di iceblu
    Registrato dal
    Jun 2006
    Messaggi
    246
    Il mio punto della situazione del mio prog:
    Dato un file CSV così composto key,num. ricerche, opz. la data inserisce i campi nel db.

    A questo punto manca l'output in xml poi il gioco è fatto perché se rispetto il tracciato del grafico in flash fa tutto lui....

    I profili? si credo che ci debbano essere, anche perché non potresti controllare più siti...
    Vediamo le prossime 24 ore, completo l'output xml e lo rilascio a voi, vediamo se può avere un futuro per tutti

  6. #26
    Utente di HTML.it
    Registrato dal
    Jul 1999
    Messaggi
    457
    Grande iceblu, non vedo l'ora di metterlo alla prova.


  7. #27

  8. #28
    Utente di HTML.it
    Registrato dal
    Jul 1999
    Messaggi
    457
    Originariamente inviato da iceblu
    Il mio punto della situazione del mio prog:

    ...

    Vediamo le prossime 24 ore, completo l'output xml e lo rilascio a voi, vediamo se può avere un futuro per tutti

  9. #29
    Utente bannato
    Registrato dal
    Jul 2005
    Messaggi
    1,838

    Re: Re: Re: unire e analizzare grossi quantitativi di key e keyfrase

    Originariamente inviato da PiccoloElfo2
    e lo fai manualmente? VVoVe: non saprei neppure da dove cominciare
    Ho velocizzato il sistema di classificazione usando Access!

    Man mano che abbino le voci ad un gruppo di classificazione, sviluppo un DB che "Mergiato" con l'ultimo DB di referrers, automaticamente abbina i guppo lasciano solo un 25% di records nuovi da classificare!

    Sono un genio!
    Sono un Mito!
    Sono Superman!
    Sono ..... da ricoverare ... prefavore!

  10. #30
    Scusate,l'intrusione vorrei chiedere una domanda semplice, da neofita.
    Ho una lista di migliaia di keywords in formato txt.
    Come posso archiviarli in un semplice database per poi poter fare delle semplici query?
    Grazie.

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.