PDA

Visualizza la versione completa : Stabilità di sistema


Paulin
23-05-2005, 14:25
A quali elementi secondo voi va imputata l'istabilità di un sistema operativo e/o degli applicativi che vi girano sopra?
Conflitti nelle allocazioni di memoria? L'utilizzo di librerie ...o la complessità stessa di un sistema?

stai_tranquillo
23-05-2005, 14:39
l'instabilità....

parola molto abusata per nascondere l'incapacità di gestire un sistema :D


IMHO direi che la c.d. instabilità è semplicemente quella possibilità randomica che si verifichino inaspettate condizioni di errore che causano un disservizio non imputabile a origini note.

insomma, se hai un sistema operativo o un applicativo qualsiasi, ma che agisce e si comporta sempre nella stessa maniera, è stabile.
se l'applicativo o il SO che hai, si comporta "apparentemente" in maniera non costante e non esiste un collegamento con delle condizioni o delle azioni che compi per le condizioni di errore che si verificano, allora il sistema è instabile.

poi ogni sw ha una serie di "known bugs" e una molto più lunga serie di errori non noti.

in linea di massima sotto windows potrebbero causare errori imprevisti l'utilizzo di librerie non standard che magari vanno a sostituire librerie di sistema.

sotto linux potrebbe causare lo stesso tipo di errori un sistema con magagne tipo rpm installati con --nodeps e --force :) oppure l'utilizzo di software in stato alpha-beta-unstable (come dice la parola)...

oppure ancora, un sistema con un kernel monolitico, che se si scatena un errore in qualche driver ti si tira giù il kernel... insomma ci sono una miriade di fattori.

Paulin
23-05-2005, 15:08
...insomma, da quanto dici, e tanto sospettavo, un sistema operativo è tanto più stabile quante meno son le cose che ha. Desumo dunque che il sistema più stabile e affidabile tra quelli più conosciuti sia il vecchio DOS. Erro?

stai_tranquillo
23-05-2005, 15:11
Originariamente inviato da Paulin
...insomma, da quanto dici, e tanto sospettavo, un sistema operativo è tanto più stabile quante meno son le cose che ha. Desumo dunque che il sistema più stabile e affidabile tra quelli più conosciuti sia il vecchio DOS. Erro?

non è assolutamente vero!

un sistema è stabile quando tutti i suoi componenti sono stabili.. con pochi componenti è semplicemente più facile tenere tutto sott'occhio

Ikitt
23-05-2005, 15:12
Originariamente inviato da Paulin
...insomma, da quanto dici, e tanto sospettavo, un sistema operativo è tanto più stabile quante meno son le cose che ha.
E` una strada, ovviamente quello che non c'e` non si rompe e non rompe (:D) ma non e` l'unica ne' necessariamente la migliore.


Desumo dunque che il sistema più stabile e affidabile tra quelli più conosciuti sia il vecchio DOS. Erro?
Se includiamo nella definizione di stabilita` anche la capacita` di un sistema di sopportare guasti o interventi malintenzionati da parte di suoi componenti, la risposta e` no.

Meskalamdug
23-05-2005, 15:16
Gli scorsi anni notavo a periodi alterni,sia blocchi totali
sia crash di applicazioni(addirittura mozilla crashava spesso).
Le ho tentate tutte,
ricompilazione del kernel con diverse configurazioni
cambio continuo di distro
Cambio della mobo(una cazzata che si e' rivelata uno spreco di denaro).
Alla fine...dietro indicazione di un utente serio su usenet,decido di comprare ram decente.
Et voilà,i blocchi son cessati :)
Ovviamente il rischio instabilità aumenta se...
1)Si usa software troppo aggiornato(es le nuove glibc non fanno funzionare xmms,e "infastidiscono" vdr)
2)Si usano kernel instabili(le serie "testing")
3)Si usa software in relase beta,o peggio alpha e addirittura pre-alpha.
La soluzione migliore e' controllare di avere hw decente,comprare ram decente,testarla,usare software stabile,e infine evitare di fare pasticci col kernel.

Ultimo consiglio,evitare come la peste software che usano moduli binari,come vmware,win4lin,etc

stai_tranquillo
23-05-2005, 15:19
certo, ovviamente bisogna disporre di hardware integro :)

cosa intendi tu per moduli binari? i software che forniscono moduli per il kernel già compilati?

Meskalamdug
24-05-2005, 02:57
Originariamente inviato da stai_tranquillo
certo, ovviamente bisogna disporre di hardware integro :)

cosa intendi tu per moduli binari? i software che forniscono moduli per il kernel già compilati?
Si,e a me gli unici moduli che incasinavano l'os erano quelli di vmware,e i vecchi moduli binari ati.

Paulin
24-05-2005, 12:27
Noto che l'argomento è veramente vasto e articolato:


IMHO direi che la c.d. instabilità è semplicemente quella possibilità randomica che si verifichino inaspettate condizioni di errore che causano un disservizio non imputabile a origini note.

Questo mi suggerisce un'altro concetto, cioè quello di determininismo/indeterminismo degli eventi gestiti dal sistema.


insomma, se hai un sistema operativo o un applicativo qualsiasi, ma che agisce e si comporta sempre nella stessa maniera, è stabile.

Inoltre, in questa prospettiva l'idea di "Stabilità" potrebbe essere meglio descritta secondo il concetto di "Affidabilità".

il discorso sull'hardware mi riporta alla mente le operazioni di "direct memory indecing" visto che è il sistema con cui il processore gestisce le porte hardware, a maggior ragione un difetto di funzionamento della RAM provocherebbe conflitti nella gestione dei registri della CPU, il discorso penso che sia altrettanto valido sul malfunzionamento del software.


Se includiamo nella definizione di stabilita` anche la capacita` di un sistema di sopportare guasti o interventi malintenzionati da parte di suoi componenti, la risposta e` no.

Questo criterio mi è piaciuto molto perché introduce il concetto di interattività del sistema con i suoi componenti e la capacità di prevedere e/o reindirizzare interventi erronei. Ma tutto questo quanto o cosa costa rispetto ad un sistema più semplicemente deterministico? Ad esempio, in termini di velocità di risposta ad un evento o ad una condizione(un interrupt)?

Ikitt
24-05-2005, 12:36
Originariamente inviato da Paulin
Inoltre, in questa prospettiva l'idea di "Stabilità" potrebbe essere meglio descritta secondo il concetto di "Affidabilità".
Uhm, in effetti si potrebbe dire che un sistema affidabile e` un sistema stabile.


il discorso sull'hardware mi riporta alla mente le operazioni di "direct memory indecing" visto che è il sistema con cui il processore gestisce le porte hardware, a maggior ragione un difetto di funzionamento della RAM provocherebbe conflitti nella gestione dei registri della CPU, il discorso penso che sia altrettanto valido sul malfunzionamento del software.
Temo di non aver capito il discorso...



Questo criterio mi è piaciuto molto perché introduce il concetto di interattività del sistema con i suoi componenti e la capacità di prevedere e/o reindirizzare interventi erronei.
E questo direi che e` un requisito per avere un sistema affidabile/stabile, quantomeno in un sistema multiutente.



Ma tutto questo quanto o cosa costa rispetto ad un sistema più semplicemente deterministico? Ad esempio, in termini di velocità di risposta ad un evento o ad una condizione(un interrupt)?
Anche qui mi sa che non ho colto.

Loading