Ja, leider gibt es keinen echten Standard für Benchmarks.
In der Natur gibt es oft nicht diesen einen echten Standard-Benchmarkt. Alles möglichen Test-Verfahren sind Modelle mit bestimmten Falschheits-Grad. Außer die bekannten Testverfahren, die einfach und schnell sind.
Natürlich könnte man auch in alle Anwendungen testen und sie nach Nutzerhäufigkeit (Personen) und Nutzer-Wichtigkeit (Büro zur Geldvermehrung oder Home-solala-Programm) Testen und mit dem Chi-Quadrat-Test schauen, ob man zu der Test-Varibalen eine Verteilung bekommt und daraus über den Mittelwert oder Integration dann einen Vergleichswert bekommt. Also, so wie in Fachbereichen wo man sehr ungenaue oder schwer einzuordnende Daten bekommt.
Was eben in anderen Fachbereichen völlig normal ist, ist halt in der PC-Bereich dies völlig abnormal, wo halt einfache und extrem genaue Tests genutzt werden, wo es nicht normal ist, seine Testsverfahren ständig überprüfen oder nachschleifen/updaten zu müssen. Deshalb hätte es eben viel mehr Sinn einmal im Jahr den Vergleichwert zu findne. (sei es ein Benchmark mit Korrektur-Faktor), anstatt bei jeden Tests x-fache syntetische Werte zu testen, und der Leser sich bestimmte raussuchen kann, wo man eben nicht weiß, wie repräsentativ jeder syntetischer Wert ist (z..b Chinebench R11.5, R15, R20). Ein Tests braucht eine klare linie. Denn sonst kommt das raus, wie in diesem Betrag, wo irgendeine CPU (Notebook) mit irgendeiner anderen CPU (Desktop) mit irgendeinen Benchmark (Geekbench) verglichen wird, mit den Notbook-Test nicht testet.
Natürlch ist man an CPU-Leaks interessiert,
aber man muss mit diesen Daten auch umgehen & gut verarbeiten könnten, was mit Leaks viel schwieriger ist als mit selbstgetesteten Daten. Mich würde es nicht wundern, wenn Notebookcheck-Leser besesr Leaks-Test umgehen & verareiten können, als Notebookcheck-Tester, weil Notebookcheck-Leser es gewohnt sind nur mit reinen Daten eine Meinung zu machen, als ein Notebookcheck-Tester, der es gewohlt ist, aus den Daten eine Meinung zu machen, wo er noch die ganze Test-Erfahrung im Gefühl hat, und weiß sie sich die CPU in den ganzen Tests verhalten hat, wo dieses nur im Ansatz in den Tests beschrieben wurde.
Deswegen tun sich Tester meiner Meinung nicht zufällig so schwer bei Gerüchten & Leaks.
Einen Vorteil, den echte Anwendungsbenchmark-Suites jedoch gegenüber synthetischen Suites haben, ist der, dass Entwickler von Anwendungen regelmäßig neue Technologien und Optimierungen implementieren, die direkt auf das Verhalten ihrer Anwendung abzielen.
Ich würde sagen, das dies falsch ist.
Der stetige Update bei Benchmarks erfolgt über eine neu Version, wie wie Konsolen dann alle 3-5 Jahre mal stehenbleiben. Wenn du einen Anwendungsbench hast, der jedes Monat sich aktuellisiert und die ein oder andere Funktion der CPU dazugibt, dann kann man bei jeden CPU-Tests nicht nur die eine neue CPU testen, sondern alle anderen CPUs, mit dem an vergleichen will. Kurz gesagt, dann wäre das ein Zeitabhänigiger Test, was wesentlich komplizierter ist.
Hat man eben nur den einen Bech, a la Chinebench R15, dann kann man die Ergebnisse der alten CPU-Test dazu nehmen, weil sich das Test-Werkzeug nicht mit der Zeit verändert hat.
Geekbench nutze ich nicht, weil ich ja nie genau weiß, wie sich jede Version verändert hat. Leaks mit Geekbenches war für mich immer schon recht nutzlos. Denn wenn man sich mal um Plus-Minus 5% vertut, dann hat man bei der CPU oft schon gleich ein völlig anderes Bild. Siehe eben RyZen 4800U, welcher eben Single-Thread-Bench +4% vor Ice-Lake wäre. Mal so (-1%) Rückstand auf Ice-lake oder klaren (+9%) Vorsprung zu haben ist, ist ein großer Unterschied im Pc-Markt.
Daz müssen Leaks zum bisher Technischen passen, womit man auch bei Leaks den Bezug herstellen muss. z.B. hatte AMD beim RyZen Desktop 3000-Serie eben so +100% Effizienz geschafft. Deshalb stellte ich die These auf, dass AMD dies auch im Notebook-Markt schafft, was nicht ganz eindeutig ist, weil die Fertigung auch die dazugehörigen Spannungs-Senkungen schaffen muss, was wohl Intel bei Ice-Lake nicht ganz geschafft hat. Deshalb war die +100% Performance-Pro-Watt, die ADM bei Renori angegeben hat keine Überrschung. Aber die Große Frage war, ab welchen Punkt man die +100% Effizienz rechnen sollte, um diese mit Ice-lake zu Vergleichen bzw. wie AMD auf die +90%-höhere Performance vs Ice-Lake gekommen ist. Möglich ist zu behaupten, wenn dieser Punkt z.b. der Durschnitts aller mit Chinebench R15-Multi-Thread getesteten Picasso-R5-R7-Notebooks ist.
Bei Tiger-Lake hat man jetzt halt nicht so gute bzw. eher grobe Anhaltspunkte. z.b. gibt es den Tiger Lake nur als 4-Kerner, was bedeuten kann, dass Intel erwartet diesen nie so effizient hinbekommt, das sie wie Comet-lake eben als 6-Kerner rauszubringen. Also, der Tiger-lake soll so mit 144mm² eben 20mm² größer werden als der Ice-Lake, was Intel mit 2 weiteren CPU-Kernen statt weiteren 32-EU Grafik-Kernen auch hätte zu können. Natürlich kann man auch beheupten, dass der Tiger-Lake mit +25-35% IPC-Steigerung so schnell wird, dass sie +2 Kerne, also einen 6-Kerner im 15W-Markt nötig nötig haben. Aber würde Willow-Core bei Tiger-Lake eben +25-35% IPC-Steigerung erhalten, dann gäbe es längst andere Indizien für ein enormes IPC-Wachstum.
Fazit:
Mag sein, dass sich die quartalisch ändernde Anwendungsspezifische Benchmarks die CPU im einzelen die Werte genauer vergleicht. Aber bei CPU-Leaks muss man eigentlich den Bezug zum Vorgänger sowie einem Benchmarks gebe. Bei AMD war ein +100%-Effizienz aufgrund der Desktop-Version eben Möglich und Wahrscheinlich. Aber wohl soll bitte der Ice-lake denn die +30-50% Effizienz bekommen, um Anfsatzweise zu Renoir zu kommen? Wohl viel eher über die Spannungs-Sekung + Taktsteigerung als über die IPC-Steigerung. Aber nach 5 Jahren 10nm-Fabriks-Entwciklung wird Intel doch plötzlich im 6. Jahr eher unwahrscheinlich die Mega-Takt-&-Effizienz-Sprung schaffen, während bei +30-50% Effizienz-Performance-Steigerung beim 4-Kern-Ice-Lake eben +20-35% Mehr Takt bedeuten würde, was dan beim 4-Kern-Multi-Thread-Takt von 3,0 Ghz eben 3,6-4,0 Ghz bedeuten würden, was ziemlich unrealistisch wäre.
Also, die Möglichkeiten des Tiger-Lakes sind wegen seinen 4-Kernen perse schon ziemlich eingeschränkt.