News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Nvidia RTX 1000 und RTX 500 Laptop-GPUs starten mit besserer AI-Performance als Meteor Lake und Ryzen 8040

Started by Redaktion, February 27, 2024, 17:00:45

Previous topic - Next topic

Redaktion

Nvidia erweitert das Angebot an professionellen Laptop-GPUs um die beiden bisher günstigsten Modelle auf Basis der aktuellen Ada Lovelace Architektur, und verspricht vor allem eine bessere AI-Performance im Vergleich zu den aktuellsten Chips von Intel und AMD.

https://www.notebookcheck.com/Nvidia-RTX-1000-und-RTX-500-Laptop-GPUs-starten-mit-besserer-AI-Performance-als-Meteor-Lake-und-Ryzen-8040.807648.0.html

Enma45

Der Unterschied ist wirklich groß, aber auch der Verbrauch. Vergessen wir nicht, dass es sich bei einer davon um eine dedizierte Grafikkarte handelt und der Rest um APUs handelt, die in den Prozessor selbst integriert sind.
Auf jeden Fall muss dies noch viel weiter gehen und es wird erwartet, dass Zen 5 dieser neuen Nvidia-Grafik ähneln wird.
Das einzige, von dem wir derzeit nichts über künstliche Intelligenz wissen, stammt von Apple, selbst das iPhone 15 liegt weit unter dem letztjährigen SD8 Gen 2.

Hotz

Quote from: Enma45 on February 27, 2024, 17:13:19Das einzige, von dem wir derzeit nichts über künstliche Intelligenz wissen, stammt von Apple, selbst das iPhone 15 liegt weit unter dem letztjährigen SD8 Gen 2.

Ich bin kein Apple-Fan, aber selbst die wissen dass der K.I. Hype derzeit nur inhaltsleere Schwurblerei ist. Jeder angebliche Einsatzzweck für Client-Computer ist an den Haaren herbeigezogenen und würde auch problemlos mit der GPU oder CPU funktionieren. Bis es wirklichmal für den Enduser einen *spürbaren* Vorteil bringt, werden noch einige Jahre vergehen.

RobinLight

Quote from: Hotz on February 27, 2024, 17:32:22Ich bin kein Apple-Fan, aber selbst die wissen dass der K.I. Hype derzeit nur inhaltsleere Schwurblerei ist. Jeder angebliche Einsatzzweck für Client-Computer ist an den Haaren herbeigezogenen und würde auch problemlos mit der GPU oder CPU funktionieren.

Blödsinn, den du laberst. Apple hat bereits 2017 mit Face ID einen ersten Anwendungsfall für deren Neural Engine entwickelt. Da das Unlocking des iPhones mit dem Gesicht sehr häufig am Tag zum Einsatz kommt und rein auf CPU+GPU viel zu viel Batteriepower kosten würde. Seither steht jedem Entwickler frei, best. Funktionen seiner App zu Energiesparzwecken auf die NPU auszulagern... sprich, in einigen Apps sind die Vorteile schon lange spürbar, ohne dass damit groß Werbung gemacht werden muß. 

Damit war Apple also im praktischen Einsatz als erstes dran. Unter Windows sind mehr derzeit nur Energiesparpotentiale bei Teams Meetings und blurred Backgrounds bekannt, eine Funktion, die sehr häufig verwendet wird.



Hotz

Ja, das mit dem NPU Chip von 2017 wusste ich nicht. Hab das jetzt nachgelesen, aber es macht alles nur noch perverser:

Für die große Masse an Nutzern bleibt es irrelevanter Schnickschnack. Der großen Masse an Nutzern reicht ein gutes Bild bei der Cam (egal ob iPhone, Macbook), und ein paar wenige wollen vielleicht mit ihrem Gesicht entsperren können. Aber das sind alles Funktionen die keinen expliziten "KI" Chip benötigen. Das hat schon vorher gut ohne KI Chip funktioniert und würde auch weiterhin gut funktionieren.

Und komm mir nicht mit "Batterielaufzeit": wenn du biometrische Signatur per Face-ID verwendest, handelt es sich um einen Prozess, der in wenigen Milisekunden erledigt ist. Das ist völlig irrlevant für die Batterielaufzeit, selbst wenn es mit der CPU oder GPU berechnet würde.

Dass der "KI" Chip ein klitzekleines Bisschen weniger Strom braucht, liegt daran dass es nichts anderes ist als eine CPU die auf das allernötigste zurechtgestutzt wurde. Also weil es keine "vollwertige CPU" ist (das ist auch die ganze Hexerei an diesem "sagenumwobenen" Chip).
Und dann braucht dieser Chip laut soviel Platz auf dem DIE wie ca. 2 CPUs. Für was bitte? Damit 0.0001% der Nutzer irgendwann mal eine Funktion verwendet die von diesem speziellen Chip abgedeckt wird? Das ist doch völliger Quatsch.

Das ganze Gelaber mit "KI" und "KI Chips" ist letztlich mehr Schein als Sein. Wie ich schon sagte, das braucht noch Jahre bis der Ottonormalbenutzer bzw. die Client-Computer (damit meine ich die Konsumentencomputer) wirklich was davon hat.
Wenn es darum ginge den "KI-Chip" in Geräte zu verbauen wo es *überwiegend* um Überwachungsfunktionen geht, dann ist das ein ganz anderes Bier. Aber darum gings in meinem Post nicht.

JKM

Na ja,
wozu RTX 500 und RTX 1000, wenn die APUs schon ordentlich AI-Performance haben?!! Eine Grafikkarte macht nur Sinn, wenn diese was kann, was die APU nicht kann. AI-Performance ist beim PC-Kauf defakto noch kein Kaufargument.

Ich bin kein Apple-Fan, aber selbst die wissen dass der K.I. Hype derzeit nur inhaltsleere Schwurblerei ist.

Es ist nicht nur per se Apple,
sondern ARM hat schon seit Jahren ordentlich AI-Performance. Damals eher ML genannt.
Sowohl in der CPU, als auch in der GPU, wie auch eine eigene NPU-Einheit. (Ethos)

KI/AI/ML ist schon lange am Markt,
nur fehlte es im PC-Markt lange bzw. über Jahre an Anwendungen, weshalb es lange keine Aufmerksamkeit erzeugte.

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview