Veramente l'ASCII è stato realizzato su 7 bit ...
La codifica BCD a 6 bit e la EBCDIC a 8 ...
Veramente l'ASCII è stato realizzato su 7 bit ...
La codifica BCD a 6 bit e la EBCDIC a 8 ...
No MP tecnici (non rispondo nemmeno!), usa il forum.
ad onor del vero 7 bit erano quelli "standard" e poi nell'ultimo bit ogni nazione (o gruppo culturale, o non ricordo bene cosa) inservia i simboli che più gli servivano. Per esempio gli europei ci inserirono le lettere accentate, che nell'ASCII americano non c'erano.
Questo creò un sacco di problemi e bla bla bla. Esiste un articolo molto interessante sulle codifiche dei caratteri e su come si sono evoluti nella storia, se lo ritrovo ve lo linko
E che c'è di vero o falso? La codifica ASCII (né standard né altro, semplicemente ASCII) era ed è su 7 bit.
La codifica "ASCII estesa" si è servita dell'ottavo bit per rappresentare altri caratteri (grafici e propri di varie lingue).
Non esiste un "ASCII americano" ma un "ASCII" ed è una codifica ben determinata nella storia (A sta per American ma non è per questo che lo puoi chiamare "ASCII americano" ...)nell'ASCII americano non c'erano.
Oggi c'è UTF-8
Ultima modifica di oregon; 24-10-2013 a 19:48
No MP tecnici (non rispondo nemmeno!), usa il forum.
ti assicuro che posso farlo perchè so per certo che l'8vo bit aveva differenti codifiche nelle varie zone del mondo, e per questo l'ASCII risultò non essere più, di fatto, uno standard. Purtroppo non ricordo la fonte dalla quale attinsi queste informazioni.
Ma UTF-8 UTF-16 sono nate proprio per questo problema.
Mi sfugge cosa puoi fare ...
Ma cosa c'entra questo? A parte il fatto che "un bit non ha differenti codifiche" ... semmai l'ottavo bit ha permesso, con l'ASCII esteso, di raddoppiare i caratteri disponibili in tabella e di questo ne hanno approfittato i produttori - dato che la risultante non era standardizzata - per fare un po' quello che volevano, fino ad adattare la tabella ASCII estesa alle varie nazioni (vedi codepage).perchè so per certo che l'8vo bit aveva differenti codifiche nelle varie zone del mondo
L'ASCII era ed è a 7 bit e c'era chi ci lavorava con quelle macchine (anche molti di noi). E c'era anche fisicamente (e insegnava) quando i primi PC IBM adottarono l'ASCII esteso perché l'informatica era andata molto oltre gli Stati Uniti.
Ma storicamente (non nell'ordine) rimane il fatto che
ASCII è a 7 bit
ASCII esteso è a 8 bit
EBCDIC è ad 8 bit (per i sistemi che lo usano)
Unicode ... UTF-8 e altri sono roba molto recente ...
Ultima modifica di oregon; 24-10-2013 a 20:17
No MP tecnici (non rispondo nemmeno!), usa il forum.
Fra l'altro tutti diciamo la stessa cosa ... non capisco quale sia il problema ...concordo
Comunque, tornando alla storia, il "byte" era inizialmente da 6 bit ... solo dopo si usarono gli 8 bit ... (ma parliamo del 1956 ...)
No MP tecnici (non rispondo nemmeno!), usa il forum.
forse sono io che non mi so spiegare bene...
Tutto quello che avete detto ne ero già a conoscenza ed è chiaro.
Provo a riformulare la domanda...
Il fatto che 1 byte è stato definito come 8 bit è una scelta dettata solo dal voler includere un numero maggiore di caratteri? Oppure la scelta del numero 8 (2^3) è numericamente utile? Ad esempio, è meglio lavorare con un byte di 8 bit che con uno di 7 o 9 bit...
In http://blog.comma3.com/?p=2096 si dice:
e sembra che la scelta di 8 bit sia stata dettata da un fatto numerico, ossia si è scelta una potenza di 2 che includesse il set ASCII.Con l’avvento dei Word processor si dovettero inserire le lettere minuscole e altri caratteri speciali; si scelse per questo il set ASCII a 7 bit (paria 128 caratteri diversi). E quindi la più piccola potenza di esempio) due in grado di contenere un set di caratteri ASCII è proprio quella di 8.
[...]
Così, 8 bit continuano a essere l’unità di misura più pratica.
Spero di essere stato più preciso nel formulare la mia domanda!![]()
Anche ...Il fatto che 1 byte è stato definito come 8 bit è una scelta dettata solo dal voler includere un numero maggiore di caratteri?
Soprattutto ...Oppure la scelta del numero 8 (2^3) è numericamente utile? Ad esempio, è meglio lavorare con un byte di 8 bit che con uno di 7 o 9 bit...
E la scelta è stata rafforzata dal fatto che il bus dati del primo processore su integrato era a 4 bit e i successivi ad 8.
No MP tecnici (non rispondo nemmeno!), usa il forum.
Perfetto! Siamo arrivati al nocciolo della questione!
Mi puoi spiegare bene come mai 8 risulta una scelta numericamente utile?
Se potete darmi maggiori dettagli in merito, mi sarebbe di grande aiuto.
Di nuovo ... ?
Ti è stato detto che le potenze di 2 sono più facili da trattare (dato che i computer utilizzano il sistema binario), ma anche 4 o 16 o 32 o 64 andrebbero bene.
E' ovvio che, per la complessità raggiungibile in passato, 8 era già tanto.
No MP tecnici (non rispondo nemmeno!), usa il forum.