Visualizzazione dei risultati da 1 a 8 su 8
  1. #1
    Utente di HTML.it
    Registrato dal
    Feb 2006
    Messaggi
    258

    Recuperare info da siti specializzati...

    Salve ragazzi,
    vorrei chiedervi un aiuto.
    Sto imparando asp.net 2.0 e sto provando a realizzare un'applicazione web personale utilizzando il C#.
    La mia applicazione è per la catalogazione di dvd personali e vorrei tenere traccia di ogni titolo mostrandone anche una scheda personale con le informazioni basilari.
    Ho trovato in internet un software, filmup, che consente, inserito un titolo, di recuperare tutte le info al riguardo da vari siti specializzati (35mm, mymovies..).
    Mi chiedevo quale fosse il vero funzionamento, mi sembra di aver capito si tratti di rss.
    Ma sono pubblici questi file? Cioè, potrei connettermi con 35mm, passargli il titolo di un film e recuperare correttamente tutte le info che mi servono, magari tramite un xml?
    Come? Mi dareste una mano per orientarmi?
    Grazie mille

  2. #2
    gli RSS sono dei file XML.. cerca qualche scriptino pronto per leggerli

    ce ne saranno su html.it....
    Fiore Bat - www.bcscommunity.it

  3. #3
    Utente di HTML.it
    Registrato dal
    Feb 2006
    Messaggi
    258
    ...grazie per la risposta.
    In realtà vorrei anke sapere se è così che dovrebbe funzionare concettualmente, cioè questi siti espongono xml per la lettura? O cos'altro?Grazie

  4. #4
    ad esempio questo è un feed rss di html.it.. cliccaci sopra e dovresti vedere la struttura dell'xml!

    http://rss.html.it/alldaily.xml

    qui' è spiegato un po' concettualmente:
    http://webdesign.html.it/articoli/le...duzione-a-rss/
    Fiore Bat - www.bcscommunity.it

  5. #5
    Utente di HTML.it
    Registrato dal
    Jan 2002
    Messaggi
    4
    ...e se il sito in questione (www.35mm.it) non esponesse nessun feed rss.

    C'è qualcuno che mi può postare qualche esempio per fare web clipping?
    Nel caso specifico anche a me servirebbe per recuperare recensioni o copertine di film.

  6. #6
    potresti crearti un crawler andando ad analizzare la pagina da navigare. Con un pò di regular expression te la cavi. certo è che se non ne hai fatto uno, all' inizio potresti impazzire.

  7. #7
    Utente di HTML.it
    Registrato dal
    Jan 2002
    Messaggi
    4
    Visto che vorrei evitare di impazzire c'è nessuno che mi posta un esempio di crawler funzionante?
    Mi basta che recuperi tutto il contenuto di una data pagina web, una volta che ho tutto l'html ci penso io a trovare il modo di andare a pescare la parte che mi interessa.

  8. #8
    Utente di HTML.it
    Registrato dal
    Jan 2002
    Messaggi
    4
    Non so se a qualcuno interessa ma infine ho trovato questo codice che funziona

    string lcUrl = "http://www.west-wind.com/TestPage.wwd";



    // *** Establish the request

    HttpWebRequest loHttp =

    (HttpWebRequest) WebRequest.Create(lcUrl);



    // *** Set properties

    loHttp.Timeout = 10000; // 10 secs

    loHttp.UserAgent = "Code Sample Web Client";



    // *** Retrieve request info headers

    HttpWebResponse loWebResponse = (HttpWebResponse) loHttp.GetResponse();



    Encoding enc = Encoding.GetEncoding(1252); // Windows default Code Page



    StreamReader loResponseStream =

    new StreamReader(loWebResponse.GetResponseStream(),enc );



    string lcHtml = loResponseStream.ReadToEnd();



    loWebResponse.Close();

    loResponseStream.Close();

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.