Diskutieren wir Marc Herters Aussagen also detaillierter.
Marc Herter: "Neural Processing Unit. Dieser Teil des Prozessors ist darauf ausgelegt, KI-Anwendungen besonders effizient abzuarbeiten."
Stimmt natürlich. Mit reiner Effizienz aber kann man die meisten KI-Anwendungen aber nicht sinnvoll ausführen, denn sie benötigen v.A. hohe Chipausführgeschwindigkeit. Genauso kann man auch sagen, TPUs oder die Tensorkerne von Nvidia-GPUs seien darauf ausgelegt, KI-Anwendungen besonders effizient abzuarbeiten. Auch das stimmt natürlich, aber mit dem entscheidenden Unterschied, dass dabei dank Dieflächen, Chipausführgeschwindigkeit, ausreichend VRAM und RAM sowie ggf. Skalierbarkeit über mehrere Hardwareeinheiten ein sinnvolles Ausführen sehr viel eher gegeben ist.
Marc Herter: "So können etwa Modelle wie Stable Diffusion oder Sprachmodelle bereits auf dem Gerät laufen."
Das schießt den Vogel ab. Genauso könnte man sagen, sie könnten auch nur auf einer CPU laufen. Generative KI und Sprachmodell-KI ist, wenn sie etwas Brauchbares ergeben soll, bekannt für Bedarf an hoher Chipausführgeschwindigkeit und VRAM. Beides ist NPUs in Intel-CPU-SoCs nicht gegeben. Anders als laut Nutzer A beim Apple M3 Max und anders als bei dGPUs mit viel VRAM. Größenordnungsmäßig 80GB meint er. Wer sich anguckt, was Webseiten für Bildgenerierung so produzieren, dann ist da selbst bei vielen Ressourcen oft Müll / willkürlicher Inhalt bei. Mit sehr viel kleineren Ressourcen einer SoC-NPU muss man also mit viel Müll unter generierten Bildern rechnen.
Marc Herter: "Damit wird es denkbar, dass viele der KI-Anwendungen, welche heute noch über die Cloud laufen, in Kürze bereits energieeffizient auf dem eigenen Laptop ohne Internetanbindung arbeiten."
Cloud für KI ist besonders dann sinnvoll, wenn man besonders hohe Chipausführgeschwindigkeit und ggf. Speicher für einen bezahlbaren, weil begrenzten Zeitraum benötigt, also Ressourcen typischerweise jenseits einer 4090. Nun zu behaupten, SoC-NPUs wie auf Intel-CPU-Chips seien in Kürze zur Aufagenübernahme bereit, zeugt von Unkenntnis. GPUs vervierfachen etwa alle 6 Jahre ihre Geschwindigkeit. Um SoC-NPUs auf heutiges Cloud-Niveau zu bringen, bedarf es grob geschätzt den Faktor 100. Damit reden wir über einen Zeitraum von mehr als 30 Jahren, bis es soweit sein kann bei andauernder Beschleunigungsrate. Ca. 35 Jahre ist nicht "in Kürze", sondern mehr als eine Menschengeneration später!
So etwas dennoch zu behaupten, gibt Marketinggewäsch wieder. Dass Intels PR uns so etwas weismachen will, mag sein. Meine Einordnung als Marketinggewäsch aber als unqulifizierte Aussage zu bezeichnen versucht, von der eigenen Unqualifiziertheit von Aussagen abzulenken.
RobertJasiek: "Anspruchsvolle KI braucht dGPUs oder TPUs."
Was an meiner Aussage unqualifiziert sein soll, darf gerne erklärt werden! Die Betonung liegt auf "anspruchsvolle [KI]".
Beispiel Go-KI (eine anspruchsvolle KI-Anwendung): auf CPU, iGPU oder SoC-NPU könnte ich mit den Ergebnissen genau nichts anfangen, weil solche Chips dafür extrem viel zu langsam sind. Gute Ergebnisse erhalte ich pro aktueller Brettstellung zum Finden des nächsten Zugs ab im Schnitt ca. 18s Rechenzeit auf einer 4070 (Desktop).