Um dedizierte Einsteiger-Grafiklösungen tatsächlich überflüssig lassen zu werden, müssten vor allem auch echte Games auf der Iris Xe mitspielen. Witcher 3 lässt darauf hoffen: In der Einstellung "High" bei Full-HD-Auflösung ist der Titel erstmals auf einer integrierten iGPU spielbar (30 Fps), eine Radeon Vega 7 packt das nicht (17 Fps). Die klassische Intel UHD Graphics Whiskey Lake schaffte gerade mal 7 Fps.
Eine MX350 schaffte im MSI Prestige 14 28 Fps, eine MX330 gerade mal 20 Fps. Sind die Tage der dedizierten Einsteiger Grafikkarten tatsächlich gezählt?
Einsteiger-Grafikkarten werden überflüssig,
wenn auch Intel eine iGPU-Performance erreicht, die mindestens AMD-Renoir-Niveau ist, was Tiger-Lake vielleicht schafft.
Vielleicht deshalb,
weil die Spiele vielleicht garnicht unter Dauerlast (wohl 15W) sondern eventuell unter Turbo-Last getestet werden. Vielleicht, weil es nirgends dokumentiert ist, ob in Turbo-Last oder in Kaltstart (die CPU hat ja eine Wärmemasse-Kapazität, die Intel mit dem 58W-Boost zuerst anwärmt, bevor der Lüfter die volle 28W-Energiemenge voll rauslüftet.)
siehe "Wie wir testen"
Last
Median: Überwiegend beobachtbarer Lärmpegel im Last-Betrieb. (3DMark 2006, Profil Ausgeglichen)
Maximal: Höchster beobachtbarer Lärmpegel im Betrieb bei Auslastung des Systems (Profil: Höchstleistung, 100% CPU und GPU-Last mittels Prime95 und Furmark)
Ansich kann man schon lange sagen,
dass die Low-End-Grafikkarten tot sind.
Denn AMD hat schon länger diese 60-80mm²-Low-End-GPUs sowie damaligen 100-120mm²-Mainstream-GPUs aufgegeben.
Nvidia hingegen reagierte auch,
indem sie aus der MX230 und MX250 (GP108 @ 70mm²) dann eine MX 330 (GP108 @ 70mm²) und eine MX350 (GP107 @ 132mm²) machte,
und die MX 450 gar mit TU117 @ 200mm² bestückt.
D.h. Nvidia hat Low-End neu definiert, und setzt jetzt mit 132-200mm² viel größere Grafikunits ein als früher mit 80-120mm².
Das Problem generell ist,
dass günstige Grafikkarten wohl kaum eine teure & energie-Effiziente Fertigung Sinn macht. Deshalb wird für die MX-Serie jetzt gerne noch die 12/14nm-Fertigung genommen, die aber deultich ineffizienter ist.
Klar, eine 15W-APU und 15-30W-Grafikkarte eine 15W-APU-Only, aber dieser benötigt auch 2-3-fach Mehr Strom. Klar, aber das ist eine Apfel-Birne-Vergleich
Die Frage ist, ob nicht eine 35W-HS-Notebook oder 45W-H-Notebook schon schneller ist, als eine 15W-U-Notebook mit 15W- oder 30W-Grafikkarte.
Aus meiner Sicht sind diese alten Low-End- & Mainstream-Grafikkarten tot, was eben AMD schon mit Bristrol Ridge kapierte und seitdem (oder wohl davor) keine neue 80-120mm²-GPUs am Markt brauchte, sondern nur die alten aufgewärmt in neuem Branding. Der Navi 14 hat mit 158mm² eine Größe, was übrigens so groß ist wie der Renoir selber, die frühr eben eine Performnace-GPU entsprach.
Fazit:
AMD juckt es wohl kaum,
dass Intel in Sachen iGPU-Performance so aufgeholt ist.
Ganz im Gegenteil,
weil mit Tiger-Lake jetzt iGPU-Gaming jetzt in der Masse verfügbar ist, was mit der UHD 620 (mit 7 fps @ Wichter) eben alles andere als spielbar war.
Ich spiele jetzt einem 15-20W-APU mit Low-Details, was bei einem 1080p-Notebook eine tolle Grafik bietet. Die Pixeldichte eines 15"-1080p-Notebook müsste ziemlich genau eines 24"-1440p-Desktop-Display entsprechen. Und daher ist die Grafik in Low-Detail auch schon ziemlich gut. Vorher hatte ich noch auf dem 720p-Display (sowie Core i3 & mainstream-Grafikkarte) gespielt, wo der Qualitäts-Unterschied noch extrem war.