Sto cercando di valutare il legame tra l'entropia di un sistema termodinamico e la definizione di entropia nella teoria della probabilità: perchè Shannon ha usato questo nome?
In termodinamica si parte da uno stato iniziale ordinato (su cui possediamo massima informazione) e inevitabilmente si giunge ad uno stato finale caotico (quindi di minima informazione).
Dunque a un aumento di entropia corrisponde una perdita di informazione su un dato sistema, e viceversa.
Ora l'entropia statistica indica l'informazione convogliata da un evento. Io so che l'informazione è massima quando l'incertezza è massima (stato caotico).
Sarei dunque portato ad associare allo stato caotico la massima entropia...
Da qui i mie dubbi.
Devo forse cambiare punto di osservazione?
Cioè, se l'entropia associata ad un evento è massima, significa che io osservatore non so nulla di questo evento, dunque non ho informazione.
Così rientro in quanto scritto prima: a un aumento di entropia corrisponde una perdita di informazione su un dato sistema, e viceversa.
Qualcuno può aiutarmi?
non postate link, spiegatemelo proprio a parole vostre, thanks