Pagina 2 di 3 primaprima 1 2 3 ultimoultimo
Visualizzazione dei risultati da 11 a 20 su 23

Discussione: bit e Byte

  1. #11
    Utente di HTML.it L'avatar di oregon
    Registrato dal
    Jul 2005
    residenza
    Roma
    Messaggi
    36,480
    Quote Originariamente inviata da MegaAlchimista Visualizza il messaggio
    ti assicuro che posso farlo
    Mi sfugge cosa puoi fare ...

    perchè so per certo che l'8vo bit aveva differenti codifiche nelle varie zone del mondo
    Ma cosa c'entra questo? A parte il fatto che "un bit non ha differenti codifiche" ... semmai l'ottavo bit ha permesso, con l'ASCII esteso, di raddoppiare i caratteri disponibili in tabella e di questo ne hanno approfittato i produttori - dato che la risultante non era standardizzata - per fare un po' quello che volevano, fino ad adattare la tabella ASCII estesa alle varie nazioni (vedi codepage).

    L'ASCII era ed è a 7 bit e c'era chi ci lavorava con quelle macchine (anche molti di noi). E c'era anche fisicamente (e insegnava) quando i primi PC IBM adottarono l'ASCII esteso perché l'informatica era andata molto oltre gli Stati Uniti.

    Ma storicamente (non nell'ordine) rimane il fatto che

    ASCII è a 7 bit
    ASCII esteso è a 8 bit
    EBCDIC è ad 8 bit (per i sistemi che lo usano)

    Unicode ... UTF-8 e altri sono roba molto recente ...
    Ultima modifica di oregon; 24-10-2013 a 20:17
    No MP tecnici (non rispondo nemmeno!), usa il forum.

  2. #12
    Quote Originariamente inviata da ginetto79 Visualizza il messaggio
    Quindi è stata una scelta piuttosto arbitraria, mi sembra di capire.
    Però non è singolare il fatto che salvo rare eccezioni sono stati scelti sistemi a 4, 8, 16, 32 e 64 bit, ossia tutte potenze di 2?
    Non fare confusione... i bit che compongono un byte sono una cosa, la dimensione della word nativa (e dei puntatori) è un'altra. Il fatto che i tipi di dati superiori al byte siano multipli di 8 bit comunque è normale, se un processore consente di indicizzare la memoria per byte di 8 bit, è ovvio che tutti i tipi di dimensioni superiori siano multipli del byte.

    Per il resto, concordo con oregon, lo standard ASCII era un charset a 7 bit, che era poi in genere la parte comune ai vari codepage a 8 bit "nazionali" o specifici del produttore che sono stati inventati in seguito (il "raddoppio" della tabella caratteri ovviamente ha approfittato del fatto che molti microprocessori operavano con byte da 8 bit).
    Tuttora ci si tira dietro l'eredità dell'ASCII a 7 bit in diversi formati, come il MIME, che in genere codificano qualunque dato binario in base64 per evitare problemi con eventuali sistemi che si aspettano solo caratteri di 7 bit nei messaggi.
    Amaro C++, il gusto pieno dell'undefined behavior.

  3. #13
    Utente di HTML.it L'avatar di oregon
    Registrato dal
    Jul 2005
    residenza
    Roma
    Messaggi
    36,480
    concordo
    Fra l'altro tutti diciamo la stessa cosa ... non capisco quale sia il problema ...

    Comunque, tornando alla storia, il "byte" era inizialmente da 6 bit ... solo dopo si usarono gli 8 bit ... (ma parliamo del 1956 ...)
    No MP tecnici (non rispondo nemmeno!), usa il forum.

  4. #14
    forse sono io che non mi so spiegare bene...

    Tutto quello che avete detto ne ero già a conoscenza ed è chiaro.
    Provo a riformulare la domanda...
    Il fatto che 1 byte è stato definito come 8 bit è una scelta dettata solo dal voler includere un numero maggiore di caratteri? Oppure la scelta del numero 8 (2^3) è numericamente utile? Ad esempio, è meglio lavorare con un byte di 8 bit che con uno di 7 o 9 bit...

    In http://blog.comma3.com/?p=2096 si dice:

    Con l’avvento dei Word processor si dovettero inserire le lettere minuscole e altri caratteri speciali; si scelse per questo il set ASCII a 7 bit (paria 128 caratteri diversi). E quindi la più piccola potenza di esempio) due in grado di contenere un set di caratteri ASCII è proprio quella di 8.
    [...]
    Così, 8 bit continuano a essere l’unità di misura più pratica.
    e sembra che la scelta di 8 bit sia stata dettata da un fatto numerico, ossia si è scelta una potenza di 2 che includesse il set ASCII.

    Spero di essere stato più preciso nel formulare la mia domanda!

  5. #15
    Utente di HTML.it L'avatar di oregon
    Registrato dal
    Jul 2005
    residenza
    Roma
    Messaggi
    36,480
    Il fatto che 1 byte è stato definito come 8 bit è una scelta dettata solo dal voler includere un numero maggiore di caratteri?
    Anche ...

    Oppure la scelta del numero 8 (2^3) è numericamente utile? Ad esempio, è meglio lavorare con un byte di 8 bit che con uno di 7 o 9 bit...
    Soprattutto ...

    E la scelta è stata rafforzata dal fatto che il bus dati del primo processore su integrato era a 4 bit e i successivi ad 8.
    No MP tecnici (non rispondo nemmeno!), usa il forum.

  6. #16
    Perfetto! Siamo arrivati al nocciolo della questione!
    Mi puoi spiegare bene come mai 8 risulta una scelta numericamente utile?
    Se potete darmi maggiori dettagli in merito, mi sarebbe di grande aiuto.

  7. #17
    Utente di HTML.it L'avatar di oregon
    Registrato dal
    Jul 2005
    residenza
    Roma
    Messaggi
    36,480
    Di nuovo ... ?

    Ti è stato detto che le potenze di 2 sono più facili da trattare (dato che i computer utilizzano il sistema binario), ma anche 4 o 16 o 32 o 64 andrebbero bene.

    E' ovvio che, per la complessità raggiungibile in passato, 8 era già tanto.
    No MP tecnici (non rispondo nemmeno!), usa il forum.

  8. #18
    Oregon, però io ho chiesto perché è più facile da trattare e la tua risposta
    le potenze di 2 sono più facili da trattare (dato che i computer utilizzano il sistema binario)
    non mi aiuta molto.
    Fammi/fatemi uno o più esempi in cui definire il byte a 8 bit è conveniente numeriamente.

    Scusami se insisto. Mi fido che sia come dici tu, ma vorrei capire praticamente dove sta questa utilità.

  9. #19
    Provo a rispondermi da solo... Un esempio, potrebbe essere che definendo il Byte con 8 bit, posso avere sottomultipli del Byte di 4, 2 e 1 bit, magari comodi per manipolare o trasmettere i dati, mentre 7 bit potrebbe non essere così conveniente da questo punto di vista.
    Può essere un esempio corretto? Altri esempi?

  10. #20
    Utente di HTML.it L'avatar di oregon
    Registrato dal
    Jul 2005
    residenza
    Roma
    Messaggi
    36,480
    No. Puoi trasmettere 7 bit come anche 8.

    Ci sono tanti motivi, che si legano uno all'altro e che, magari da soli no, ma uniti hanno contribuito all'ottenimento di questo risultato.
    Incluse anche motivazioni derivanti dall'elettronica (realizzazione dei primi circuiti integrati con dei registri a 8 bit) ma nulla di effettivamente determinante.

    E se aggiungi il fatto che gli 8 bit sono facilmente rappresentabili attraverso due cifre della numerazione esadecimale, fatto che ha facilitato i primi programmatori, capirai come questa caratteristica si sia consolidata nel tempo. Ma anche questo fatto, da solo, non sarebbe stato decisivo ...

    Infine la questione che si usi il sistema binario ha un suo peso ... naturalmente tutte le operazioni in binario su valori in base due sono facilitate.

    Credo comunque che tu stia cercando una risposta che non esiste. E probabilmente neanche la domanda ha molto senso (infatti, non in tutte le architetture sono usate "parole di 8 bit" ma ne esistono anche altre ...).
    Ultima modifica di oregon; 25-10-2013 a 13:49
    No MP tecnici (non rispondo nemmeno!), usa il forum.

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.