Der Supercode

Der Supercode

Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 15:49

From: Baumhaus

Zufällig bin ich bei amazon auf das Buch "Der Supercode. Eine Erfindung, die den Tod brachte" gestoßen:

http://www.amazon.de/Supercode-Eine-Erf ... 3431036325

gekauft hab ich mir das Buch bisher allerdings nicht.

Über die Geschichte von Jan Sloot, in dem es in diesem Buch geht, finden sich bei Wikipedia in Deutsch und Englisch leider nur kleine Artikel.

vgl.:

http://de.wikipedia.org/wiki/Jan_Sloot

anders sieht es in der holländischen Wikipedia aus:

http://nl.wikipedia.org/wiki/Jan_Sloot

versteht das hier jemand?

Insbesondere die rechte Spalte des Artikels scheint interessant zu sein. Wird damit bewiesen, dass der "Supercode" unmöglich ist? Kann jemand vielleicht ein paar Sätze mit den mathematischen Berechnungen übersetzen?

Oder weiß jemand aus anderer Quelle etwas über den "Supercode"?




Bron: http://www.culturforen.de/showthread.php?t=757
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Re: Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 15:50

From: Mithrandir

Ich kann leider kein Holländisch, aber soweit ich das erahne, wird da argumentiert, dass die Kompression eines Spielfilms auf 4 kB unmöglich sei. Das sehe ich auch so.

Mit Redundanzkomprimierung käme man da sicher nicht weiter, weil ein einzelner Film sicher wesentlich mehr Information beinhaltet als 4 kB, aber auch mit einer »Komprimierung«, die darauf basiert, einen bestimmten Teil der Information wegzulassen, kommt man nicht auf 4 kB. Das reicht noch nichteinmal für den Ton! Man muss sich das vorstellen, für eine Sekunde Film hätte man nichteinmal 1 Byte!

Soetwas ließe sich höchstens erreichen, indem man bereits erhebliche Informationsmengen auf dem Abspielgerät vorhielte und der »komprimierte Film« lediglich eine Art Schlüssel wäre.

Vielleicht kann auch condor noch etwas dazu sagen, der hat das Buch gelesen.
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Re: Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 15:51

From: Curunír

Kompletter Unfug. Dass der Philips-Heini darauf reingefallen ist, zeigt mal wieder wie wenig Sachverstand sich in manchen Führungsetagen sammelt.
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Re: Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 15:54

From: Condor

Nun, wie im Literatur-Thread zu lesen war und wie Mith schon bemerkt hat habe ich das Buch und ich hab's gelesen. Ich kann es nur empfehlen:
Condor schrieb:
Zu "Der Super Code"...

Richtig starkes Buch - ein wahrer Krimi - rund um eine Erfindung, die es wirklich gegeben haben soll, die jedoch für jemanden, der sich wenigstens ein bisschen mit PC's auskennt, schlichtweg unmöglich scheint.

Und doch: Unternehmensstrukturen wurden gegründet, bedeutende Investoren an Land gezogen, eine Schlacht um Patente, Millionen, Jobs und Code mit guten Einblicken in Mittel und Methoden in der Wirtschaftswelt.

Und am Ende stehen Fragen über Fragen...

Zur Frage wahr/nicht wahr: sicherlich, es erscheint wahnsinnig..... bescheuert. Schier unmöglich. Eben aus genannten Gründen, wie soll man so viele Informationen auf so wenig Speicherplatz bringen? Aber dennoch, die beschriebenen Verfahren scheinen plausibel und, das ist jedenfalls mein Schluss, könnten tatsächlich umsetzbar sein - auch wenn ich mir keinen anständigen Weg ersinnen kann, das Prinzip umzusetzen.

Egal, es soll ja auch schlauere Leute geben als mich :mrgreen: Fazit zur Technologie: plausibel beschrieben.

Viele Grüße,
Condor
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Re: Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 15:56

From: Curunír

Condor schrieb:
Aber dennoch, die beschriebenen Verfahren scheinen plausibel und, das ist jedenfalls mein Schluss, könnten tatsächlich umsetzbar sein - auch wenn ich mir keinen anständigen Weg ersinnen kann, das Prinzip umzusetzen.

Obwohl ich mir zweifelsohne sicher bin, dass Sloot Mumpitz erzählt haben muss, interessiert mich diese Beschreibung nun doch, vielleicht lässt sich ja schon da irgendwo der Fehler erahnen (vorausgesetzt, Sloot war von seiner Idee wirklich überzeugt und kein gewöhnlicher 'con artist').
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Re: Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 15:59

From: Condor

Curunír schrieb:
...vorausgesetzt, Sloot war von seiner Idee wirklich überzeugt und kein gewöhnlicher 'con artist'

Ich muss sagen, das Buch überzeugt in starkem Ausmaß davon, dass Sloot es ehrlich gemeint hat, da sein Charakter und sein ganzes Leben sehr genau beschrieben ist und kaum den Schluss offen lässt, er hätte das alles nur inszeniert.

(Spoilerwarnung!!!)

Zum Prinzip selbst erinnere ich mich - es ist ja nun schon eine Weile her, dass ich das Buch gelesen habe - an zwei wesentliche Stellen. Zum einen die Ärgernis Sloots darüber, dass ihm alle mit dem Argument kämen, auf den kleinen Speicherraum könnte man kaum so viele Informationen bringen und seiner Antwort darauf, dass sein Verfahren nichts mit Bits und Bytes zu tun habe und es eigentlich keine Kompression wäre, sondern eine andere Art, Daten zu speichern.

Im Anhang des Buches dann befindet sich eine Beschreibung der Technologie, die von Sloot selbst verfasst wurde. Natürlich schrieb er sie allgemein genug, dass unklar bleibt, wie genau das Prinzip in die Wirklichkeit umzusetzen ist, die entscheidenden Lösungsansätze fehlen also. (Sloot war, das muss dazugesagt werden, ziemlich paranoid, was wohl zu einem großen Teil daran schuld ist, dass die Technologie bis heute verschollen bleibt - sofern sie je existiert und funktioniert hat.)

Also zu der erwähnten Beschreibung. Sloot selbst erwähnt in der Einleitung, dass auch er nicht "daran glaubt, dass es eine Technologie gibt, die [...] einen Videofilm mit [...] weniger als 100KB speichert", er jedoch nach einer neuen Methode gesucht habe und ein Verfahren fand, "alle Arten von Daten auf einem Speichermedium von maximal 128KB zu speichern", ohne Geschwindigkeits- oder Qualitätsverlust. Das Kern-Prinzip besteht darin, dass "jede Basisinformation nur n-Mal gespeichert wird" (Basisinformation im Sinne von "Buchstaben A,a bis Z,z", "Farbinformationen für die Pixel rot, grün, blau" etc.), also "n-Mal in einem Festspeicher vorhanden" sei. Und aus jenen Informationen gewinne man einen Schlüsselcode, welcher auf der Chipkarte gespeichert werde mit einem "Schlüssel von maximal n Kilobyte".

Er erklärt das ganze noch am Beispiel eines Buches, die Erklärung fasst dann jedoch wieder eine ganze Seite und ist somit auch etwas lang, sie hier zu posten. Wichtige Stellen:
[In einem Buch] kommen viele tausende Male die Buchstaben A bis Z [...] vor. Das würde [...] viele Megabyte an Speicherplatz bedeuten. Wenn wir nun allerdings nur die primären Informationen mit einer Referenznummer versehen [...] dann brauchen wir lediglich einige Kilobyte. [...] Der Erfinder hat einen Algorithmus entwickelt, der erst alle Buchstaben einer Seite zu einem unverwechselbaren Seitencode codiert. Zusätzlich erhält jede Seite eine Referenzcode. Auf diese Weise erhalte ich Schlüsselcodes, deren Anzahl identisch ist mit der Anzahl der Seiten im Buch.

Er erwähnt zwischendrin, dass die Wahrscheinlichkeit, in einem Buch zweimal den selben Satz zu finden, sehr gering sei, und um den Code unverwechselbar zu machen, habe er dann eben ganze Seiten codiert.

Dass das Prinzip dennoch löchrig ist ist mir klar. Dennoch, aus der Story heraus und auch mit dem Gedanken im Hinterkopf, dass es vielleicht doch einen Weg gibt, aus solchen Schlüsselcodes sinnvolle Informationen zu gewinnen (Sloot hat für die Technologie 12 Jahre gebraucht), möchte ich auf keinen Fall einfach so behaupten, Sloot sei ein Hochstapler.

Wie gesagt, sehr spannendes Buch, auf jeden Fall zu empfehlen - für ein paar interessante Einblicke in die Welt internationaler Konzerne und natürlich um über jenen Erfinder und seine Technologien nachzugrübeln :)

Viele Grüße,
Condor
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Re: Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 16:00

From: Curunír

Klingt für mich nach der Bildung von Checksummen. Wie er aus diesen Codes jedoch wieder die ursprünglichen Informationen zusammenkomponieren will, bleibt mir unklar. Allgemein klingt das Ganze nach reichlichem Blabla.
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Re: Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 16:02

From: Curunír

Ich copy&paste mal meinen Beitrag im PF zu selbigem Thema hier rüber:
Sozialist schrieb:
EDIT: kB steht im folgenden für 1000 Byte, nicht für 1024 Byte.

Bei verlustloser Datenkompression muss ich jedes Objekt immer noch einwandfrei identifizieren können. Die absolute Untergrenze für verlustlose Kompression einer Klasse von Objekten, die über n mögliche Konfigurationen verfügt, wäre also Schlüssel von 0 (mit einem Bit Länge) bis der Binärrepräsentation von n-1 zu haben, die Rekonstruktion der Daten aus den Schlüsseln wäre dann noch eine andere Frage. Dafür ist natürlich ein fixes Format notwendig. Nehmen wir als Beispiel die Kompression von Bitmaps mit der Dimensionierung 100x100 Pixel bei einer Farbtiefe von 8 Bit. Würde ich für diese limitierte Objektklasse das effizientmöglichste Speicherformat verwenden, würde ich die Information in 10000 Farbcodes von einem Byte speichern, der 70. Code z.B. für den Pixel (1,70), der 3030. Code für den Pixel (30,30) und so fort. Dann hätte ich 256 hoch 10000 mögliche Konfigurationen, die benötigte Länge zur Darstellung dieser Zahl entspricht genau der Größe des oben spezifizierten Formats nämlich 100 x 100 x 1 Byte = 10 kByte.
Der absolute Idealfall wäre also, dass ich jeder Zahl zwischen 0 und 256^10000 -1 genau eines der möglichen Bilder zuordnen kann. Das geht schon, wenn ich die normale oben vereinbarte Repräsentation nehme und als lange Zahl interpretiere, bei der ich alle führenden Nullen streiche, die dann bei der Interpretation so wieder vorne angefügt werden, dass die Datei wieder exakt 10 kB lang ist. Dabei muss man sich aber im Klaren sein, dass man in nur 50% aller möglichen Konfigurationen überhaupt mindestens ein Bit einspart, will man gar 2 Byte einsparen, kommen gar nur noch 0,001526% der möglichen Konfigurationen in Frage. Um einen signifikanten Teil an Einsparungen zu gewinnen (z.B. 1-2 kB von den 10 kB) müssen also alle relevanten Bilder zu einer astronomisch winzigen Teilmenge der denkbaren Bildkonfigurationen gehören.
Der interessante Aspekt ist aber, dass wir die Untergrenze der eindeutigen Identifikation jeder möglichen Konfiguration mit einem Schlüssel nicht unterschreiten können. Bei der Hälfte können wir ein Bit einsparen, bei einem Viertel ein weiteres Bit, bei einem Achtel ein weiteres Bit etc. Insgesamt kommen wir darauf, dass die mittlere Größe aller erdenklichen Bildkonfigurationen unseres 10kB-Bitmapformats auch bei der besten verlustfreien Kompression nicht 79999 Bit unterschreiten kann (sprich, ein mittlerer Gewinn von maximal einem Bit). Der Trick bei verlustfreier Kompression ist es, dass die immense Vielzahl der möglichen Konfigurationen für unsere Zwecke sinnloser Datenmüll (im Falle unseres Bitmapbeispiels Farbrauschabfall) ist und wir die für uns interessanten Konfigurationen also möglichst in Richtung der ersten Positionen der Schlüsselliste schieben müssen.

4 kB repräsentiert zwar sicherlich eine immense Zahl, namentlich etwa 9,117 x 10 hoch 9632, aber die Zahl der theoretisch denkbaren Spielfilme bis zwei Stunden Länge ist mit 100% Sicherheit um astronomische Größenordnungen größer.

Da hilft auch keine Gödelisierung oder was auch immer mehr weiter. Denn die Identifkationsuntergrenze zu unterschreiten, würde heißen eine Abbildung von N nach N (Bereich der natürlichen Zahlen) f(a) := b zu finden, wobei b,max < a,max ist, aber die Funktion immer noch eineindeutig bleibt. Dies würde in der Tat alle bisherige Mathematik und Logik in der Menschheitsgeschichte auf den Kopf stellen.

EDIT: Bei dem vorhergehenden Stück Mathematik bin ich davon ausgegangen, dass man kein größeres a oder b als Schlüssel wählt, solange noch eine kleinere Zahl im Definitions- bzw. Wertebereich frei ist, sodass a,max gleich der Anzahl der verschiedenen tatsächlichen Argumente der Funktion ist und b,max gleich der Anzahl der verschiedenen Werte im Wertebereich (im Verständnis der Zahlenmenge N ohne die 0).
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Re: Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 16:04

From: Condor

Tja, das ist es eben. Egal wie man es dreht und wendet, eine begrenzte Anzahl an Möglichkeiten bleibt eine begrenzte Anzahl, und nur sinnvolle Möglichkeiten auszuwählen... Ergäbe das Sinn?

Nun, vielleicht ist das ganze ja ein ähnlicher Ansatz wie die "Entschlüsselung" von MD5's. Bei Buchseiten könnte ich mir so etwas sogar vorstellen, aber bei Filmen wird's kritisch.

Aber wie gesagt. Das schadet meiner Bewertung des Buches nicht im Geringsten :)

Viele Grüße,
Condor
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Re: Der Supercode

Notapor Johan1951 » Vie 15 Oct 2010, 16:05

From: Mithrandir

Condor schrieb:
Nun, vielleicht ist das ganze ja ein ähnlicher Ansatz wie die "Entschlüsselung" von MD5's.

Hashfunktionen sind nicht bijektiv.
[In einem Buch] kommen viele tausende Male die Buchstaben A bis Z [...] vor. Das würde [...] viele Megabyte an Speicherplatz bedeuten. Wenn wir nun allerdings nur die primären Informationen mit einer Referenznummer versehen [...] dann brauchen wir lediglich einige Kilobyte. [...] Der Erfinder hat einen Algorithmus entwickelt, der erst alle Buchstaben einer Seite zu einem unverwechselbaren Seitencode codiert. Zusätzlich erhält jede Seite eine Referenzcode. Auf diese Weise erhalte ich Schlüsselcodes, deren Anzahl identisch ist mit der Anzahl der Seiten im Buch.

Dass normaler Text, v. a. wenn er in einem Zeichensatz wie Ascii oder noch verschwenderischer kodiert ist, noch reichlich Platz für Redundanzkomprimierung lässt, ist kein Geheimnis. Das kann es aber nicht sein. Da kann man genausogut ein bestehndes Kodierungsverfahren nehmen, eine annähernd optimale oder sogar optimale Redundanzkomprimierung wäre nichts Revolutionäres.
Es findet sich allerdings nirgendwo ein Hinweis darauf, dass Information weggelassen würde, also sieht das doch nach reiner Redundanzkomprimierung aus. Eine superotimale Redundanzkomprimierung wäre natürlich sensationell...
Avatar de Usuario
Johan1951
 
Mensajes: 3752
Registrado: Mar 31 Ago 2010, 17:04

Siguiente

Volver a Culturforen.de (1006)

cron