From: LeftblankHoogstwaarschijnlijk? Absoluut geen. De methode die renep aanhaalt kun je zien als het doorsturen van een oneindig grote hoevelheid boeken waarin je alle informatie stopt. Als je deze boeken hebt verstuurd naar een ontvanger dan kun je door enkel het bladzijdenummer door te geven met enorme snelheid informatie opzoeken. Is dit dan ook echt compressie? Niet bepaald, die enorme set data moet je nu eenmaal eerst zien te delen voordat je hiervan profiteert.
Je kunt hier nog wel wat winst mee behalen wanneer je bijvoorbeeld data verstuurt die enige regelmaat kent. Wanneer je bijvoorbeeld als fictief voorbeeld elke dag teksten uit wetboeken overstuurt kun je bijvoorbeeld een bepaalde zin die regelmatig voorkomt voor versturen te vervangen door een afkorting en na ontvangen weer terug om te zetten. Huidige compressiemethoden werken door die afkortingen per keer opnieuw te berekenen waardoor zo'n eindeloze opzoektabel niet nodig is, wat al meteen suggereert dat de te behalen winst hiermee niet interessant genoeg is op deze manier.
De inefficiëntie hiervan kun je ook al een beetje zien op het aangehaalde bericht op telefomsoft.nl; om die set bestanden van pakweg 100MB in totaal te kunnen 'uitpakken' er is een 'DNA'-bestand van 771MB gebruikt, in principe is de "compressie" hiermee dus van 100 naar 771MB (de grootte van de sleutels is verwaarloosbaar), een toename van de totale grootte in plaats van een afname.
Nu kan je hiermee wellicht in gevallen waarop je veel enigszins regelmatige data moet versturen wel winst opleveren doordat je stukjes die regelmatig voorkomen als het ware kunt "afkorten" met