Interessant ist,
dass 4 E-Kerne bei 1,0 Ghz etwa 30-35% der Performance von 6 P-Kernen bei 1,0 Ghz (=100%) schafft. Damit schafft der 13400 die Mehr-Multi-Thread-Performance praktisch ausschließlich über die E-Kerne mit den P-Kern-Takten. Also, die E-Kerne +30% MT-Performance mit +30% Stromverbrauch zu erreichen ist alles andere als Effizienz, weil die ersten 100% mit P-Kernen erreicht wird.
Aber sind wir mal ehrlich... die anderen machen es doch auch so, bei Nvidia Grafikkarten usw. Es fällt nur nicht so auf, weil es manchmal über länger Zeit gestreckt wird.
Ich begrüße, dass bei Grafikkarten sowohl bei Desktop wie im Notebook-Markt die Stromverbrauchs-Grenzen nach oben erweitert wird. Denn die Effizienz der Architketur wird von Gen zu Gen auch etwas verbessert, sodass der Stromverbrauch primär zu der Shader-Einheiten-Steigerung und Takt-Steigerung vergrößert wird. Man muss dann ja kein High-End-Modell mehr kaufen, sondern kann ja auch ein Mainstream & Performace kaufen, die so viel Strom verbrauchen sowie Kosten, wie früher ein High-End-Modell.
Bei CPUs ist es schon etwas anders,
weil die Gaming-Performance dann nicht mehr analog zur Benchmark-Performance steigt. Die +30% Benchmark mögen für manche Toll aussehen sowie kann gut vermarktet, aber real könnte das auch keine Gaming-Performance-Steigerung bedeuten. Und dafür lässt sich Intel mit größeren Dies noch was kosten. Die Frage ist, wie lange das bei Intel noch gut geht. Verglichen mit den Gewinnen von 5-7 Mrd. $ ist Intel aktuell nicht mehr weit weg von einem Verlust.