War das jetzt überraschend, sondern zu erwarten.
Intel schaffte es, dass die meisten die letzte Grafikkarten-Generation vergessen, die dann nur in Low-End still und heimlich eingeführt wurde.
Es ist auch die Frage,
ob es nur am Treiber liegt und nicht auch an der Front-End-Core-Architektur, die entscheidet, wie effizient und wie effektiv jeder einzelner Shader auslasten kann. Nichts anderes macht AMD seit 15-20 Jahren. Man erinnere, dass z.b. die R600-Grundstruktur, die bis zur HD 6000-Serie nur 1600 bzw. 1536 Shader versorgen konnte. Mit der GCN-Grundstruktur war dann bei 4096-Shaders schluss, wobei das immerhin Vollwertige unabhängige Shaders und nicht nur VILW-4/5-Shaders waren. Entscheidend dazu ist nicht nur die Front-End-Grundstruktur des gesamten GPU, sondern (vielleicht noch mehr) die dazwischenliegenden Shader-Engines/Arrays und Computing-Units.
Es reicht einfach nicht,
eine iGPU auf High-End-Grafikkarten mit zusätzlichen Comuting-Units hochzuskalieren, und dann mit Treiber diese auszulassen. Ein Problem, was vorallem AMD zu spüren bekommt, wennn man der Konkurrenz über 10-12 Jahre hinterher war.