Diese Entwicklung war logisch, weil Intel schon seit Jahren nichts konkurrenzfähig Neues zusammenbringt. Sie leben seit Jahren aus dem Fertigungs-Vorsprung und der veraltende Software-Technik mit markanter Single-Thread-Performance.
Begonnent hat diese GPU-Misäre mit dem Larrabee 1.0, der ursprünglich für den Grafikkarten-Markt und als AMD & Nvidia-Konkurrenz gedacht war. Zwar konnte Intel bei der Ive-Bridge-iGPU eine solide iGPU-DX11-Performance und -Technik liefern, aber nachher fehlte irgendwie die weitere Innovation-Entwicklung.
Vorallem, weil Intel mit Larrabee und mit der iGPU-Architektur eben 2 Architekturen parallel entwickeln "mussten", um am Schluss gegen eine Konkurrenz-GPU-Architektur konkurreieren zu können.
Mit AMDs Vega und Nvidia-Pacscal entwickelten AMD und Nvidia wieder einen merkbaren Technik-Abstand zu Intels GPU-Technik, sodass Intel mittlerweile unter Zugzwang gekommen ist. Auch wenn ich diesen baldigen Technik-Abstand vor 1,5 Jahren (genauer Herbst 2015) nicht spekulierte, war für mich ein Nvidia-Kauf von Intel damals ein MUSS.
Diese Chance hat Intel verpasst, um mit eigener alleiniger Technik gegen die Konkurrenz zumindestens in allen Techniken ebenwürdig zu sein. Diese verpasste Chance würde ich zwar nicht so schlimm sehen, wo Intel auf Wunsch von Apple eine Atom-Version für den iPhone weiterentwickeln sollte, aber als sehr bedeutend einstufen.
Die verpasste Chance war halt nicht für jederman sichtbar, weil die 15W-CPUs noch mit Nvidia-GPUs bestückt werden konnte. Aber bei den 5W bzw. 7,5W-CPUs sind zusätzliche 15 bzw. 30W-Grafikkarten bei passiven Notebooks schon ziemlich sinnfrei.
Egal ob Intel die AMD-GPU-Technik verbaut oder nicht, wird es sowohl für Intel als auch für Nvidia nicht leicht.