Pagina 1 di 5 1 2 3 ... ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 47

Discussione: Entropia

  1. #1
    Utente di HTML.it L'avatar di Angioletto
    Registrato dal
    Jan 2004
    Messaggi
    1,246

    Entropia

    Sto cercando di valutare il legame tra l'entropia di un sistema termodinamico e la definizione di entropia nella teoria della probabilità: perchè Shannon ha usato questo nome?

    In termodinamica si parte da uno stato iniziale ordinato (su cui possediamo massima informazione) e inevitabilmente si giunge ad uno stato finale caotico (quindi di minima informazione).

    Dunque a un aumento di entropia corrisponde una perdita di informazione su un dato sistema, e viceversa.


    Ora l'entropia statistica indica l'informazione convogliata da un evento. Io so che l'informazione è massima quando l'incertezza è massima (stato caotico).
    Sarei dunque portato ad associare allo stato caotico la massima entropia...

    Da qui i mie dubbi.

    Devo forse cambiare punto di osservazione?
    Cioè, se l'entropia associata ad un evento è massima, significa che io osservatore non so nulla di questo evento, dunque non ho informazione.
    Così rientro in quanto scritto prima: a un aumento di entropia corrisponde una perdita di informazione su un dato sistema, e viceversa.

    Qualcuno può aiutarmi?
    non postate link, spiegatemelo proprio a parole vostre, thanks
    Per liquidare un popolo si comincia con il privarli della memoria.Si distruggono i loro libri, la loro cultura, la loro storia. E qualcun’ altro scrive loro altri libri, li fornisce di un’altra cultura, inventa per loro un’altra storia. (Milan Kundera)

  2. #2
    Voyager è una trasmissione particolare, non un documentario sportivo.

    detto questo molto interessante il servizio sulle piramidi in serbia.

  3. #3
    Utente di HTML.it L'avatar di Angioletto
    Registrato dal
    Jan 2004
    Messaggi
    1,246
    Originariamente inviato da COLENZO
    Voyager è una trasmissione particolare, non un documentario sportivo.

    detto questo molto interessante il servizio sulle piramidi in serbia.
    okei.
    ora seri grazie.
    Per liquidare un popolo si comincia con il privarli della memoria.Si distruggono i loro libri, la loro cultura, la loro storia. E qualcun’ altro scrive loro altri libri, li fornisce di un’altra cultura, inventa per loro un’altra storia. (Milan Kundera)

  4. #4
    Voyager è una trasmissione sportiva, non un documentario serio.

    detto questo molto interessante la serietà sullo sport in serbia.

  5. #5
    Frontend samurai L'avatar di fcaldera
    Registrato dal
    Feb 2003
    Messaggi
    12,924
    Ma se non ricordo male la misura dell'entropia H(x) è data dalla sommatoria di p(x) * log p(x), però con un "meno" davanti

    in fisica è un valore positivo o negativo?
    Vuoi aiutare la riforestazione responsabile?

    Iscriviti a Ecologi e inizia a rimuovere la tua impronta ecologica (30 alberi extra usando il referral)

  6. #6

    L'entropia...

    ... è in continuo aumento nell'universo.

  7. #7
    Originariamente inviato da Angioletto
    ora serj grazie.
    occhei





  8. #8

  9. #9
    Utente di HTML.it
    Registrato dal
    Jul 2001
    Messaggi
    1,003

    Re: Entropia

    Originariamente inviato da Angioletto

    Devo forse cambiare punto di osservazione?
    Cioè, se l'entropia associata ad un evento è massima, significa che io osservatore non so nulla di questo evento, dunque non ho informazione.
    Allora, quando l'entropia (nel senso di Informazione) è massima vuol dire che il realizzarsi di un evento ti da molta informazione.
    Un piccole esempio: hai 2 dadi, li lanci insieme, io ti chiedo "Che numero è uscito sul secondo dado?", e poi aggiungo "Guarda che sul primo è uscito 5".
    L'aggiunta dell'informazione "è uscito il numero 5 sul primo dado" ha entropia nulla, perchè di fatto non aggiunge nessuna informazione alla domanda che tu devi rispondere (che cosa è uscito sul secondo dado).
    Un altro esempio è la frase "Nel Sahara in Agosto farà caldo", in questo caso il grado informativo non è nullo ma bassissimo.

  10. #10
    Utente di HTML.it L'avatar di Angioletto
    Registrato dal
    Jan 2004
    Messaggi
    1,246
    Originariamente inviato da fcaldera
    Ma se non ricordo male la misura dell'entropia H(x) è data dalla sommatoria di p(x) * log p(x), però con un "meno" davanti

    in fisica è un valore positivo o negativo?
    si ci sono delle formule abbastanza simili, almeno da quello che ho letto, tra la formula che dici tu e la relazione di Boltzmann (??)
    ma non è la parte matematica che mi interessa, solo capire concettualmente dove stanno le similitudini.

    e dovrebbero essere nell'ambito che ho proposto.
    Per liquidare un popolo si comincia con il privarli della memoria.Si distruggono i loro libri, la loro cultura, la loro storia. E qualcun’ altro scrive loro altri libri, li fornisce di un’altra cultura, inventa per loro un’altra storia. (Milan Kundera)

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2024 vBulletin Solutions, Inc. All rights reserved.