A quali elementi secondo voi va imputata l'istabilità di un sistema operativo e/o degli applicativi che vi girano sopra?
Conflitti nelle allocazioni di memoria? L'utilizzo di librerie ...o la complessità stessa di un sistema?
A quali elementi secondo voi va imputata l'istabilità di un sistema operativo e/o degli applicativi che vi girano sopra?
Conflitti nelle allocazioni di memoria? L'utilizzo di librerie ...o la complessità stessa di un sistema?
l'instabilità....
parola molto abusata per nascondere l'incapacità di gestire un sistema
IMHO direi che la c.d. instabilità è semplicemente quella possibilità randomica che si verifichino inaspettate condizioni di errore che causano un disservizio non imputabile a origini note.
insomma, se hai un sistema operativo o un applicativo qualsiasi, ma che agisce e si comporta sempre nella stessa maniera, è stabile.
se l'applicativo o il SO che hai, si comporta "apparentemente" in maniera non costante e non esiste un collegamento con delle condizioni o delle azioni che compi per le condizioni di errore che si verificano, allora il sistema è instabile.
poi ogni sw ha una serie di "known bugs" e una molto più lunga serie di errori non noti.
in linea di massima sotto windows potrebbero causare errori imprevisti l'utilizzo di librerie non standard che magari vanno a sostituire librerie di sistema.
sotto linux potrebbe causare lo stesso tipo di errori un sistema con magagne tipo rpm installati con --nodeps e --force oppure l'utilizzo di software in stato alpha-beta-unstable (come dice la parola)...
oppure ancora, un sistema con un kernel monolitico, che se si scatena un errore in qualche driver ti si tira giù il kernel... insomma ci sono una miriade di fattori.
Ci sono cose che non si possono sapere. Per tutto il resto c'è man
Prima di fare domande stupide: 1) googla 2) leggi le manpages 3) sparati.
...insomma, da quanto dici, e tanto sospettavo, un sistema operativo è tanto più stabile quante meno son le cose che ha. Desumo dunque che il sistema più stabile e affidabile tra quelli più conosciuti sia il vecchio DOS. Erro?
non è assolutamente vero!Originariamente inviato da Paulin
...insomma, da quanto dici, e tanto sospettavo, un sistema operativo è tanto più stabile quante meno son le cose che ha. Desumo dunque che il sistema più stabile e affidabile tra quelli più conosciuti sia il vecchio DOS. Erro?
un sistema è stabile quando tutti i suoi componenti sono stabili.. con pochi componenti è semplicemente più facile tenere tutto sott'occhio
Ci sono cose che non si possono sapere. Per tutto il resto c'è man
Prima di fare domande stupide: 1) googla 2) leggi le manpages 3) sparati.
E` una strada, ovviamente quello che non c'e` non si rompe e non rompe () ma non e` l'unica ne' necessariamente la migliore.Originariamente inviato da Paulin
...insomma, da quanto dici, e tanto sospettavo, un sistema operativo è tanto più stabile quante meno son le cose che ha.
Se includiamo nella definizione di stabilita` anche la capacita` di un sistema di sopportare guasti o interventi malintenzionati da parte di suoi componenti, la risposta e` no.Desumo dunque che il sistema più stabile e affidabile tra quelli più conosciuti sia il vecchio DOS. Erro?
"Qualsiasi esperto ha paura di combattere usando la katana vera. Anch'io. Ma non ignoro la mia paura, riesco ad accettarla, e a metterla da parte accanto a me".
Gli scorsi anni notavo a periodi alterni,sia blocchi totali
sia crash di applicazioni(addirittura mozilla crashava spesso).
Le ho tentate tutte,
ricompilazione del kernel con diverse configurazioni
cambio continuo di distro
Cambio della mobo(una cazzata che si e' rivelata uno spreco di denaro).
Alla fine...dietro indicazione di un utente serio su usenet,decido di comprare ram decente.
Et voilà,i blocchi son cessati
Ovviamente il rischio instabilità aumenta se...
1)Si usa software troppo aggiornato(es le nuove glibc non fanno funzionare xmms,e "infastidiscono" vdr)
2)Si usano kernel instabili(le serie "testing")
3)Si usa software in relase beta,o peggio alpha e addirittura pre-alpha.
La soluzione migliore e' controllare di avere hw decente,comprare ram decente,testarla,usare software stabile,e infine evitare di fare pasticci col kernel.
Ultimo consiglio,evitare come la peste software che usano moduli binari,come vmware,win4lin,etc
certo, ovviamente bisogna disporre di hardware integro
cosa intendi tu per moduli binari? i software che forniscono moduli per il kernel già compilati?
Ci sono cose che non si possono sapere. Per tutto il resto c'è man
Prima di fare domande stupide: 1) googla 2) leggi le manpages 3) sparati.
Si,e a me gli unici moduli che incasinavano l'os erano quelli di vmware,e i vecchi moduli binari ati.Originariamente inviato da stai_tranquillo
certo, ovviamente bisogna disporre di hardware integro
cosa intendi tu per moduli binari? i software che forniscono moduli per il kernel già compilati?
Noto che l'argomento è veramente vasto e articolato:
Questo mi suggerisce un'altro concetto, cioè quello di determininismo/indeterminismo degli eventi gestiti dal sistema.IMHO direi che la c.d. instabilità è semplicemente quella possibilità randomica che si verifichino inaspettate condizioni di errore che causano un disservizio non imputabile a origini note.
Inoltre, in questa prospettiva l'idea di "Stabilità" potrebbe essere meglio descritta secondo il concetto di "Affidabilità".insomma, se hai un sistema operativo o un applicativo qualsiasi, ma che agisce e si comporta sempre nella stessa maniera, è stabile.
il discorso sull'hardware mi riporta alla mente le operazioni di "direct memory indecing" visto che è il sistema con cui il processore gestisce le porte hardware, a maggior ragione un difetto di funzionamento della RAM provocherebbe conflitti nella gestione dei registri della CPU, il discorso penso che sia altrettanto valido sul malfunzionamento del software.
Questo criterio mi è piaciuto molto perché introduce il concetto di interattività del sistema con i suoi componenti e la capacità di prevedere e/o reindirizzare interventi erronei. Ma tutto questo quanto o cosa costa rispetto ad un sistema più semplicemente deterministico? Ad esempio, in termini di velocità di risposta ad un evento o ad una condizione(un interrupt)?Se includiamo nella definizione di stabilita` anche la capacita` di un sistema di sopportare guasti o interventi malintenzionati da parte di suoi componenti, la risposta e` no.
Uhm, in effetti si potrebbe dire che un sistema affidabile e` un sistema stabile.Originariamente inviato da Paulin
Inoltre, in questa prospettiva l'idea di "Stabilità" potrebbe essere meglio descritta secondo il concetto di "Affidabilità".
Temo di non aver capito il discorso...il discorso sull'hardware mi riporta alla mente le operazioni di "direct memory indecing" visto che è il sistema con cui il processore gestisce le porte hardware, a maggior ragione un difetto di funzionamento della RAM provocherebbe conflitti nella gestione dei registri della CPU, il discorso penso che sia altrettanto valido sul malfunzionamento del software.
E questo direi che e` un requisito per avere un sistema affidabile/stabile, quantomeno in un sistema multiutente.Questo criterio mi è piaciuto molto perché introduce il concetto di interattività del sistema con i suoi componenti e la capacità di prevedere e/o reindirizzare interventi erronei.
Anche qui mi sa che non ho colto.Ma tutto questo quanto o cosa costa rispetto ad un sistema più semplicemente deterministico? Ad esempio, in termini di velocità di risposta ad un evento o ad una condizione(un interrupt)?
"Qualsiasi esperto ha paura di combattere usando la katana vera. Anch'io. Ma non ignoro la mia paura, riesco ad accettarla, e a metterla da parte accanto a me".