Visualizzazione dei risultati da 1 a 5 su 5
  1. #1

    [VB6]Ottenere massima compressione di un file

    Ciao a tutti.
    Sto cercando di ottenere (Non so se sia possibile)da un file di grandi dimensioni (200mb)circa la massima compressione.
    Mi spiego meglio.Ho un file da 200 mb circa che se lo comprimo
    con metodi o librerie conosciute tipo unrar.dll o la zip.dll
    riesco a ottenere una misera compressione anche usando esternamente
    Uharc.
    Ora mi è capitato di vedere (non so se si puo dire ma lo Dico)su un GameRip che riescono ad ottenere sullo stesso file la compressione anche dell'80% mentre io un misero 10% con i metodi classici.
    Analizzando il metodo usato ho notato che prima scompattano una grossa quantita di files con uharc e poi con un exe ricompilano
    ricostruendo il file originario di 200MB.
    Che tecnica usano?
    Una dritta please

  2. #2
    Forse intendi che prima scompongono il file in un grande numero di files, e poi gli stessi vengono zippati, giusto? Comunque se ti può interessare ho un progetto che fa ciò precedentemente descritto: se sei interessato scrivi la tua mail (anche in privato)..

    ciao

  3. #3
    Moderatore di Programmazione L'avatar di alka
    Registrato dal
    Oct 2001
    residenza
    Reggio Emilia
    Messaggi
    24,463
    Onestamente, io non ho capito quale procedimento viene eseguito sul file che si dice essere uguale a quello in esame per comprimerlo ad un fattore apparentemente elevato.

    Se si estraggono file da quell'archivio, significa che di per se il file è già un archivio di file, probabilmente già compresso...

    Io aggiungere ulteriori spiegazioni a riguardo.

    Ciao!
    MARCO BREVEGLIERI
    Software and Web Developer, Teacher and Consultant

    Home | Blog | Delphi Podcast | Twitch | Altro...

  4. #4

    re

    X MdE2005
    driv3r2005@libero.it
    THX

    X alka
    Allora file finale = pippo.pak 200mb
    Questo file se provi a comprimerlo con winrar,winzip,Uharc ecc
    anche con compressione massima ottieni un 20-30% di compressione.

    Il file pippo.pak all'inizio non esiste,ma esistono 2000 file .dat
    nominati in sequenza ( pippo.dat001 ,pippo.dat002,pippo.dat003 ecc)
    compressi in un file .uha che ha dimensione 80 mb ,quindi con compressione circa del 60%.

    Procedura in sequenza:
    1) unpack di pippo.uha (80 mb) in 2000 files .dat
    2) Rebuild nel file finale dei 2000 .dat e ottieni pippo.pak da 200 mb.
    Allora mi chiedevo se divdendo un file in 2000 file piu piccoli
    comprimendoli si ottiene piu compressione che se comprimi il finale?

    Io un idea che mi ero fatto era di aprirlo in binario,torvarmi dei pattern di byte che si ripetono e salvarmi solo la posizione.
    Me sa sto dicendo na cazzata comunque il piu' grosso problema e aprire gia il file con VB6 credo.
    Ciao e grazie

  5. #5
    Moderatore di Programmazione L'avatar di alka
    Registrato dal
    Oct 2001
    residenza
    Reggio Emilia
    Messaggi
    24,463
    Onestamente, non che ci abbia capito molto, ma dubito che avere 100 MB di dati o 10 x 10 MB di dati sia poi così diverso.

    Presumo che i risultati siano dovuti alla bontà differente dei due algoritmi utilizzati.
    MARCO BREVEGLIERI
    Software and Web Developer, Teacher and Consultant

    Home | Blog | Delphi Podcast | Twitch | Altro...

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.