Einzelnen Beitrag anzeigen

Benutzerbild von Codehunter
Codehunter

Registriert seit: 3. Jun 2003
Ort: Thüringen
2.272 Beiträge
 
Delphi 10.4 Sydney
 
#11

AW: Apple Silicon - Exot oder Gamechanger?

  Alt 27. Feb 2021, 22:44
Weil ich glaube das jeder Hersteller bemüht ist seine speziellen Features reinzubauen, die dann immer nur schwerlich von den Compilern unterstützt werden.
Das war doch bisher bei x86-64 auch nicht anders. Intel und AMD haben je nach CPU-Generation auch verschiedene Featuresets eingebaut, von den CPU-Bugs gar nicht zu reden. Das ist dann am Ende eine Frage der Compiler, dass diese Features dann bedingt genutzt werden wenn sie da sind. Ich glaube nämlich nicht, dass z.B. dcc32 nur den kleinsten gemeinsamen Nenner anspricht.

Das der M1 jetzt so locker Intel schlägt ist schon eine Sensation für mich,ich hatte ARM immer noch deutlich hinter Intel gesehen, aber da lag ich wohl falsch.
Die Dinosaurier sterben halt immer plötzlich aus, und sind dann von dem Meteoriteneinschlag überrascht
Ich nicht ganz so sehr. Bin schon eine Weile mit den ganz kleinen ARMs befasst, auf den Himbeeren. Dort haben sich die Fortschritte auch schon angekündigt. Zwischen RPi3B und RPi4B liegen auch schon Welten, wenn auch in einer anderen Liga als M1 und um den Preis von mehr Abwärme. Im Serversegment gibt es schon länger recht leistungsfähige ARM-Blades. Soweit ich weiß, laufen bei Facebook ganze Cluster damit. Man musste doch eigentlich nur Eins und Eins zusammenzählen, also die kleinen General-Purpose-CPUs vom RPi und die spezialisierten HPC-CPUs. Dennoch, dass es so schnell geschah, hätte ich auch nicht erwartet. Wobei ich mir nicht sicher bin, wie lange Apple wirklich daran gearbeitet hat. Wenn ich spekulieren soll: Sie begannen an dem Tag mit der Arbeit am M1, als damals der erste x86-Mac vorgestellt wurde.

Ich glaube das liegt an der Evolution der Chips und Moores Law generell.
[ ... ]
Die haben damals aber wohl nicht erkannt das auf Dauer Moores Law die Chips zu immer kleineren aber flexibleren Kernen und Strukturen drängen würde, was mit CISC immer schwerer umzusetzen ist.
Deshalb bin ich ziemlich überzeugt das CISC aussterben wird, oder sich zumindest mehr dem RISC nähern muss.
Ich denke der Physik sind irgendwo Grenzen gesetzt. Ob wir jemals bei der Lithografie Picometer-Strukturen sehen werden, würde ich bezweifeln. Selbst Geldschleuder Intel hat seine liebe Not, überhaupt auf 5 nm zu kommen. AMD konnte auch nicht deswegen mit dem Ryzen so viel aufholen, sondern weil man das Risiko eines komplett neuen Designs einging und auf massiv-parallele Infrastruktur gesetzt hat. Dafür muss die Software auch erst mal optimiert sein (wir Single-Thread-Monster aus der Delphi-Ecke ^^)

Nachtrag: Mich würde interessieren, wie viel rückwärtskompatibler Ballast in heutigen x86-64-CPUs drin steckt. Man erinnere sich doch nur an das berüchtigte Gate A20, das noch bis zum Haswell-Core unterstützt wurde und nur dazu diente, noch 8086-Code ausführen zu können. AMD hat sich sogar erst mit dem R1000 davon verabschiedet. Man bedenke, Gate A20 gabs seit dem 80286 und damit seit 1982. Ich möchte nicht wissen, wie viel solcher Ballast noch in heutigen x86-CPUs steckt, den niemand mehr nutzt. Selbst an "neuere" Extensions wie MMX würde ich inzwischen ein Fragezeichen machen. Weniger ist manchmal eben mehr.
Ich mache grundsätzlich keine Screenshots. Schießen auf Bildschirme gibt nämlich hässliche Pixelfehler und schadet der Gesundheit vom Kollegen gegenüber. I und E zu vertauschen hätte den selben negativen Effekt, würde aber eher dem Betriebsklima schaden

Geändert von Codehunter (27. Feb 2021 um 23:02 Uhr)
  Mit Zitat antworten Zitat