Einzelnen Beitrag anzeigen

Christian Seehase
(Co-Admin)

Registriert seit: 29. Mai 2002
Ort: Hamburg
11.117 Beiträge
 
Delphi 11 Alexandria
 
#7

AW: Stillstand und aussterben?

  Alt 2. Mär 2024, 21:33
Was die CPUs angeht:
Der Wechsel von Intel auf Apple-Silicon hat beim Mac schon spürbare Steigerungen mit sich
gebracht. Inwieweit das aber mit auf die neue Hardware optimierte Software zurückzuführen
ist und ob man nicht bei entsprechender Optimierung das Gleiche mit der "alten" Hardware
hätte erreichen können, lässt sich allerdings nicht klären.

Für mich privat reichen auch schwächere CPUs noch aus, obwohl ich mich zu den Spielern zähle
und durchaus fordernde Spiele nutze. Ein High-End Rechner würde, für meinen Geschmack, nur
deutlich mehr Strom verbrauchen, ohne mir spielerisch oder optisch erheblich mehr zu bringen.
Für die gelegentliche Videobearbeitung reicht es auch, da hier auch die Hauptspeichergrösse
wichtig ist.

Insgesamt:
Grossartige weitere Leistungssteigerungen bei den CPUs dürfte im Massenmarkt kaum noch
ein verkaufsförderndes Argument darstellen.
Da kommt, meiner Ansicht nach, schon eher bessere Effizienz zum Tragen.

LAN grösser 1GBit ist wohl am ehesen Wichtig, wenn man Daten zwischen Rechner und NAS
übertragen will / muss. Für den reinen Internetzugang wird vorerst wohl Gigabit ausreichen,
da zumindest beim privaten Internetzugang derzeit da Schluss ist.

Einigermassen moderne Bürogebäude sollten, zumindest bezüglich der Verkabelung, 10GBit
verkraften können. Ob man dann auch entsprechende Netzwerkkomponenten hat hängt wohl,
im Wesentichen, davon ab, ob man diese Geschwindigkeiten benötigt. Für "normale"
Bürotätigkeiten reicht 1GBit wohl locker aus.
Problematisch wird es wohl erst dann, wenn man alles in eine Cloud auslagert. Dann kommt
es auch sehr auf den Internetzugang an.

Was grosse Monitore angeht:
Wie hier auch schon geschrieben wurde, ist die Produktion der Panels, zumindest bei LCDs,
nach wie vor, wohl nicht so problemlos. In den Anfängen wurde von der Herstellern ja gerne
noch mit niedrigen Pixelfehlerklassen bei ihren Produkten geworben. Mittlerweile sieht man
nichts mehr davon, aber es ist immer noch ein Thema.
Vor kurzem habe ich mir auch einen neuen Monitor "gegönnt" und konnte dabei dann sehen, das
"nur" Pixelfehlerklasse II garantiert wird. Dass heisst dann nicht, dass es Fehler gibt,
aber solange die Klasse eingehalten wird, wäre es noch nicht mal ein Gewährleistungsfall
(geschweige denn Garantiefall), wenn es zu Pixelfehlern kommt.
Da die Anzahl der Bildpunkte ja im Laufe der Zeit deutlich zugenommen hat, sind die
Strukturen auch immer kleiner geworden, somit ist die Produktion im allgemeinen auch
nicht einfacher geworden. Würde man nur Pixelfehlerklasse 0 verkaufen können wäre der
Aussschuss wohl so hoch, dass Monitore nur zu exorbitanten Preisen bekommen könnte.

Zusammengefasst:
Man mag den Eindruck haben, dass sich in den letzten Jahren nicht viel getan hat, aber das
dürfte, meiner Ansicht nach, vor allem daran liegen, dass der Bedarf, zumindest im
Massenmarkt nicht so gegeben ist, so dass sich aufwändig Forschung und Entwicklung einfach
nicht lohnen, um neue Techniken zu erfinden/entwickeln, die andere physikalsiche Grenzen
aufweist, als die herkömmliche Technik.
Bis sich Quantencomputer zu universellen Rechnern für die Allgemeinheit entwickelt haben
dürfte es wohl noch ein wenig dauern. Immerhin wird schon an quantencomputerfesten
Verschlüsselungen gearbeitet. Ist wohl besser so
Tschüss Chris
Die drei Feinde des Programmierers: Sonne, Frischluft und dieses unerträgliche Gebrüll der Vögel.
Der Klügere gibt solange nach bis er der Dumme ist
  Mit Zitat antworten Zitat