Übrigens kann man tatsächlich schärfe Bilder aus Überwachungsaufnahmen extrahieren.
Wie aber schon festgestellt wurde, können die zusätzlichen Informationen nicht aus dem Bild stammen.
Wo kommen sie also her? Aus vorhergehenden und nachfolgenden Frames!
Aber auch das hat seine Grenzen und funktioniert lange nicht so gut wie in Film und Fernsehen.
Es gibt auch Verfahren, die mit Einzelbildern funktionieren (z.B.
BM3D). Dabei wird ausgenutzt, dass die meisten Bilder eine gewisse Selbstähnlichkeit haben, d.h. es wiederholen sich bestimmte Muster oder Strukturen. Daraus kann man dann sozusagen die Information extrahieren und verstärken.
Wird zwar eher zum Denoising und Deblurring eingesetzt, aber die gleichen Prinzipien kann man auch verwenden, um die Auflösung zu erhöhen (kommt ja letztlich alles auf das gleiche raus). Im Anhang sieht man eine von BM3D aus einem stark verrauschten Bild rekonstruierte gestreifte Hose.
Eine andere Strategie ist es, nicht nur innerhalb eines Bildes nach Mustern zu suchen, sondern gleich ganze Datenbanken über bestimmte Themen anzulegen. Wenn du es z.B. nur mit Bildern von Gesichtern zu tun hast, dann haben ja alle Gesichter ähnliche Merkmale (Augen, Nase etc.), und das kannst du auch ausnutzen. Du speist also in deine Datenbank ganz viele Bildausschnitte von Beispiel-Gesichtern ein, jeweils einmal in niedrig aufgelöster (oder verrauschter oder verschommener) Version und einmal den gleichen Ausschnitt in hoher Auflösung. Anschließend kann ein Programm zu einem gegebenen verschommenen Bild Ausschnitte aus dem Bild mit den niedrig aufgelösten Ausschnitten aus der Datenbank abgleichen und dann eine höher aufgelöste Version des Bildes rekonstruieren. Das ist schon ziemlich CSI-mäßig. Natürlich wird dadurch aber nicht wirklich der Informationsgehalt des Bildes erhöht. Im Grunde „rät“ der Algorithmus einfach nur, wie das Original ausgesehen haben könnte.
Aber nein, dein Scanner macht solche Dinge nicht