Ciao ragazzi,
sto salvando dei dati di rete, però ho un problema, visto che devo leggere il file in "real time", perchè creando un file ogni 1 secondo, ogni tanto mi splitta i dati JSON che leggo da un file all'altro rendendoli più difficili da assemblare e leggere, oltre al fatto che ogni tanto mi piazza dei byte no-sense in mezzo a quelli JSON:
codice:
"createUser":"佳丽客服","endTime":1516216949,"name":"0118C05-02","nd�b����BB0���F�pM{��0E4[�@���v��h���F��ocq�@��
oiojz�b������pM{��00���F�EԽ�@%�jv��h�����ocqF��P�l�ow":1516207949,"id":100376,"key":492182}
Avrei anche un altro problema ma secondario (che attualmente risolvo con un pò di "tricks"): come rimuovo dai dati salvati tutto il payload illegibile a occhio umano?