Visualizza la versione completa : [C++] String to Ascii
Salve a tutti!
Vi pongo un quesito riguardo la rappresentazione ascii di una stringa.
In pratica è possibile che la rappresentazione ascii di
sto facendo una prova
e
st5 facendo una prova
in un'architettura a 64 bit diano lo stesso valore? (facendo miseramente fallire un programma a 32 bit di cui sto facendo il porting)
so che può essere una domanda stupida, sono più a mio agio in Java che in C++, ma la magagna riguarda (purtroppo per me) C++ e dovendo risolvere tra le tante ipotesi che mi vengono in mente c'è pure questa
Grazie a chiunque possa rispondermi
Originariamente inviato da valia
è possibile che la rappresentazione ascii di
...
in un'architettura a 64 bit diano lo stesso valore? (facendo miseramente fallire un programma a 32 bit di cui sto facendo il porting)
come la stai facendo la "rappresentazione ascii"?
domani ti faccio sapere, mi sono fermata lì prima di uscire (ero troppo stanca per analizzare la funzione di conversione senza fare confusione).
Se stai pensando a qualcosa di particolare, mi dai un hint che controllo subito prima di postare?
Originariamente inviato da valia
domani ti faccio sapere, mi sono fermata lì prima di uscire (ero troppo stanca per analizzare la funzione di conversione senza fare confusione).
Se stai pensando a qualcosa di particolare, mi dai un hint che controllo subito prima di postare?
Nulla di particolare, ma ovvio, condizione necessaria che tu abbia risultati corretti, è che la conversione sia corretta ;-)
eccomi qui, controllata la funzione di conversione (che vera e propria conversione non è visto che fa una brutale memcpy)...non so più cosa pensare :-|
mi sono persa qualche define (diverse architetture) e alla fine ho visto che per il passaggio si utilizzano unsigned int e unsigned char e la funzione ASCII...so che a 32 bit va bene, nel passaggio a 64 bit qualche test va in botta e potrebbe essere questa la causa??
dopo vari tentativi e vari debug ho controllato bene la funzione di conversione e non ho riscontrato problemi in quanto considero un unsigned int /unsigned char e di questo alla fine quello che poi parso è la parte bassa (i primi 7 bit per intenderci) quindi la funzione di conversione va benissimo.
I vari debug mi hanno consentito di trovare il vero errore nel porting che ho risolto.
Grazie MacApple per l'interresamento.
:ciauz: :ciauz: