Einzelnen Beitrag anzeigen

Benutzerbild von negaH
negaH

Registriert seit: 25. Jun 2003
Ort: Thüringen
2.950 Beiträge
 
#53

AW: Nextgen - Kompressionsverfahren

  Alt 29. Jun 2011, 16:39
Folgendes wäre sinnvoller: man nimmt alle Wörter die im Internet kursieren, sortiert sie nach Häufigkeit und hat eine Tabelle die jeder Rechner bekommt.

Die Stellen von PI zu berechnen geht zZ. nur über Formeln die alle Vorgängerstellen von PI berechnen müssen. Der Aufwand steigt also mit größeren Indizes immer weiter an bis zur Unberechenbarkeit. Oder man nimmt Formeln die schneller sind dafür aber mit gigantisch großen Zahlen rechnen müssen und auch hier gibt es technische Grenzen.

Je größer der Index wird desto schlechter wird das Kompressionsratio zwischen Länge des gesuchten Textes zu Bitgröße des gefundenen Indizes. Auch hier gibt es eine Grenze und der erechnete Indize spiegelt in seiner Bitgröße nicht die Häufigkeit des gesuchten Wortes wider. Aber exakt das benutzen alle Komprimierungen, sie benutzen Häufigkeiten in einem Text um ihn zu komprimieren.

Wie Gammatester schon eingangs sagte auch ich halte nicht viel davon. Es sei denn es ist akademischer Natur nur gäbe es dann bessere Themen. Die Idee als solches ist garnicht so unbekannt.

Gruß Hagen
  Mit Zitat antworten Zitat