und ehrlich gesagt ein bischen nach simplen Betrug.
Wenn ich da lese,"Zufallsdatensätze" (was heisst das? Zufall?) von einigen hundert Bits um das vielhundertfache"ohne praktisch bedeutsamen Verlust" reduziert.??? Was heisst das 500 Bit auf 2 Bit oder wie?
Um ehrlich zu sein, würde das fast alle informationstechnischen, physikalischen und was weiss ich für Grundsätze auf den Kopf stellen, und sowas will ich denn schriftlich in 3 facher Ausfertigung haben:)
Gruss Juergen
>Hi!
>Es wird bald alles besser und es können ein Haufen Ressourcen eingespart werden.
>Da kümmert sich niemand mehr um die paar Bits... ;)
>Ein neuer"Zero Space Tuner mit Binärbeschleunigung"! *g*
>Cya
>Condor
>-------------------- Meldung ------------------------
>Zauberkompressor oder Kompressorzauber...
>Glaubt man den Behauptungen des Startup-Unternehmens ZeoSync, lassen sich Daten bald zigmal stärker komprimieren als Theoretiker bislang für möglich hielten. Sollten sich die von dem Unternehmen verlautbarten Versuchsergebnisse praktisch umsetzen lassen, versprechen sich die Forscher nicht nur eine bessere Ausnutzung von Speicherkapazitäten, sondern auch drastische Kosteneinsparungen im Internet -- etwa, wenn schmalbandigen Übertragungskanäle künftig ausreichen, um hoch komprimierte Filme in Echtzeit zu empfangen.
>In Zusammenarbeit mit nicht genannten Fachleuten der Harvard University, des MIT, der Stanford University sowie Wissenschaftlern aus Warschau, Moskau, Peking und Nangking will das Zeosync-Team ein Verfahren entwickelt haben, das in Laborversuchen Zufalls-Datensätze von jeweils einigen Hundert Bit komprimieren und wiederherstellen kann. Das so genannte Relational Differentiation Encoding soll dabei die bislang allgemein akzeptierten theoretischen Obergrenzen für verlustfreie Datenkompression weit hinter sich lassen.
>Gemäß dem 1948 veröffentlichten Shannon-Theorem lassen sich Informationen nur bis zu einem theoretisch vorgegebenen Ausmaß verlustfrei komprimieren und auf einem Übertragungsmedium mit vorgegebener Übertragungsbandbreite auch nur mit einer berechenbaren Höchstgeschwindigkeit weiterleiten. Shannons Überlegungen werden in der Informatik allgemein akzeptiert und trugen dazu bei, dass ihr Verfasser als einer der bedeutendsten Wissenschaftler des zwanzigsten Jahrhunderts gilt.
>ZeoSyncs Mitteilungen wollen nun darauf hinweisen, dass sich Datensätze, die laut Shannon etwa um einen Faktor zehn komprimierbar sein sollten, stattdessen ohne praktisch bedeutsame Verluste um das Vielhundertfache verdichten lassen. Das Unternehmen will den so genannten Zero Space Tuner mit Binärbeschleunigung, der auf Prinzipien klassischer Physik, statistischer Mechanik und Quantentheorie beruhen soll, im Jahr 2003 auf den Markt bringen und verhandelt zurzeit nach eigenen Worten mit Chipherstellern und einem Filmproduzenten aus Hollywood über strategische Partnerschaften.
>An Hand der Grundlagen, die ZeoSync zur Erklärung seiner Errungenschaften ins Feld führt, lässt sich bislang jedoch nicht beurteilen, ob es sich dabei tatsächlich um den proklamierten Durchbruch oder eher um einen schlechten Scherz handelt. Aber auch wenn Erfolgsmeldungen dieses Schlages bereits in einem diesbezüglichen Internet-FAQ Einzug gehalten haben, dürfte ZeoSync nicht zuletzt dank Fachpublikationen wie dem IEEE Spectrum Online oder Webverzeichnissen wie Yahoo ein reges Echo gewiss sein. (hps/c't)
>Meldung vom 10.01.2002
<center>
<HR>
</center>
|