Was am Begriff "Rechenleistung" ist denn ggfs. missverständlich?
Rechenleistung im Sinne von MIPS und MFLOPS sind schon seit ein paar Prozessorgenerationen nicht mehr wirklich aussagekräftig. Die Systeme sind heute weit komplexer als ein Stück CPU auf dem genau ein Stück Software immer gleich abläuft. Unterschiedliche CPUs haben bei unterschiedlichen Operationen Vor- und Nachteile, die Organisation der Daten und die zugehörige Speicher- und Cachearchitektur wirken sich ebenfalls darauf aus, unterschiedliche Sprungvorhersagetechniken machen eine Menge Unterschied.
Eine GPU kann vielleicht unter optimalen Bedingungen ein paar tausend MFLOPS schaffen, sobald aber z.B. konditionale Sprunganweisungen (if-then-else und Konsorten) dabei sind, geht das ratzi fatzi in den Keller. Ein ARM ist auch anders konzipiert als ein x86, und der wieder anders als ein x64, und die untereinander je nach Generation auch wieder.
Einige CPUs sind auf Streamprocessing ausgelegt, andere auf Skalierbarkeit, andere auf Parallelität, wieder andere auf Allgemeingültigkeit, und alle schaffen unter ihren jeweiligen Optimalbedingungen top Leistung, sind aber u.U. Schnecken in anderen Disziplinen. Es kommt also heutzutage sehr sehr stark auf die Software an, die nachher betrieben wird. Für einen Office-PC nehme ich etwas anderes als für eine Wettervorhersagestation.
Daher kann es durchaus sein, dass zwei Geräte in einem Benchmark einen sehr klaren Sieger aufweisen, sich im alltäglichen Gebrauch aber nahezu gleich "anfühlen". Deswegen ist der Begriff "Rechenleistung" heutzutage eigentlich eine sehr schwammige Sache, wenn man nicht zusätzlich genau spezifiziert, in welcher Disziplin diese gemessen wird.
"When one person suffers from a delusion, it is called insanity. When a million people suffer from a delusion, it is called religion." (Richard Dawkins)