nvidia hat genug erfahrung im arm bereich. der tegra 3, der in recht vielen smartphones und tablets steckt kommt von amd, in dem arm chip sind neben cpu auch die nvidia arm gpus. wenn ich mir anschaue was alles auf heutigen tablets läuft, in welcher auflösung un in welchen details.....
aber andersrum gefragt, wozu sollte nvidia oder amd extra notebookgpus entwickeln wenn es noch reicht desktopgpus zu nutzen indem man sie teildeaktiviert und runtertaktet....
Nein es sind im Grunde die selben GPUs, das waren sie schon immer. Was jedoch mir immer mehr auffällt ist das die GPUs garnicht erst in Richtung sparsamkeit gebracht werden, entweder ist TSMCs Fertigungsprozess richtig schlecht und wird von Gen zu Gen schlechter, oder die bei Nvidia müssen sich paar leute von ARM und co holen, damit man sieht wie sparsame Chips sein sollten.
Also wenn es so weiter geht gibt es bald keinen Kühler mehr für Notebook GPUs. Wenn es jetzt bei 122 Watt ist kommt in 1 jahr eine 150 Watt GPU raus und dann eine 175 Watt GPU im Notebook. Lieber pro Gen nur 25-50% mehr Power und dafür weniger TDP.
Weil eigentlich müsste die 28nm Fertigung 2x so gut sein wie die 40nm Fertigung, das bedeutet die Chips müssten alleine deshalb fast 2x so effizient sein, aber hier sind sie bestenfalls 30-50% Effizienter. Also ich finde einfach 122 Watt sollte ein notebook maximal verbrauchen, aber nicht eine GPU Alleine.
Mein Ipower GX (was ich noch habe) verbraucht maximal (Gesammtes System unter 3D Last) 85 Watt. Ein 2x so schnelles ASUS G74SX fast 2x so viel, dabei sollte die bessere CPU/GPU Fertigung genau fürs gegenteil sorgen, das die Watt zahl gleich bleibt bei höhere Leistung.
Die CPU im Ipower wurde in 45nm gefertigt, die GPU in 65nm. Beim ASUS G74SX ist die CPU in 32nm und die GPU in 40nm, egal wie mans dreht, die Chips sollten von sich aus viel effizienter sein. Ich merke aber nur das die Transistoren pro/mm² erhöht werden, aber der Verbrauch steigt noch immer an. Intels CPUs trifft diese Kritik nicht, aber AMDs und nvidias GPUs.
die gtx 680m ist aber nicht als mobile gpu entwickelt worden. die 680m hat den gleichen chip wie die desktop 680, dem gk104. das die gpu nicht zuviel strom verbraucht wurden 1 shaderblock deaktiviert, sowie die taktraten deutlich reduziert.
mir ist nicht bekannt das es im notebookbereih speziell entwickelte gpus wie in smartphones oder tablets gibt. alle verfügbaren mobilen gpus wie man heutzutage und in der vergangenheit in laptops gefunden hat, sind desktop-gpus die einfach nur gedrosselt laufen.
soweit ich weiss sind im mobilen bereich die grafikkarten an ihren 100 watt maximalverbrauch angekommen. vor jahren wurde sich da geeinigt das 100 watt die leistungsgrenze sind.
Also nur weil die Desktop GPUs fast 300 Watt schlucken ist das nicht besser. Damals und heute ist die CPU TDP fast gleich geblieben. Die TDP der GPU jedoch steigt stark an. Das sollte bei besseren Chipfertigungen nicht passieren.
ein schau auf Wikipedia mal nach. die GTX 460M ist pro MHz nicht schneller als eine GTX 285M, aber verbraucht mehr oder gleich viel trotz der modereneren 40nm statt 55nm. Die GTX 660M ist nur minimal schneller als die GTX 560M so ca. 25-30%, aber der Chip verbraucht genausoviel oder nur etwas weniger. Dabei sollte sie viel weniger verbrauchen, da der Chip kleiner ist und in 28nm statt 40nm Gefertigt wurde.
Die GTX 680MX Basiert auf einem ca. 300mm² großen Chip. Alle High End Mobil GPUs von nvidia waren maximal 350mm²groß egal ob: 7900 GTX/7800 GTX ( G70/G71 in 90/110nm 333mm² bzw. 196mm²) 8800M GTX, 9800M GTX (G92 in 65nm mit 324mm²) GTX 280/285M (G92 in 65/55nm mit 324/276mm2) GTX 485M/GTX 580M/GTX 675M (GF104 in 40nm mit 332mm²) GTX 680MX (GK104 in 28nm mit 295mm²)
Was ich damit sagen will, das CPUs mobiler und effizienter werden oder bleiben, aber GPUs im Desktop oder Notebook immer mehr Strom brauchen und das es fast egal ist ob jetzt der Chip gleich groß ist. Mehr Leistung muss nicht gleich mit mehr Stromverbrauch enhergehen. Es gibt Mittel und wege den Verbrauch zu senken. nur weil die Desktop Chips 300 Watt schlucken ist es wirklich nicht angebracht auch Notebooks in diese Region zu bringen.
Ich finde es sollte ein Gesetz geben, das Regelt wie viel was verbrauchen darf. Desktop GPUs dürfen nicht mehr als 175 Watt TDP schlucken. Desktop CPUs dürfen die 125 Watt nicht überschreiten. Notebook GPUs dürfen nicht mehr als 75 Watt verbrauchen. Notebook CPUs sind ja schon bei max 55 Watt TDP.
Was kommt später, eine GTX 780MX mit 170 Watt TDP und Notebooks mit 8 Kühlern und einem Systemverbrauch von 300 Watt ohne SLI? Irgendwo denke ich das nvidia es immer mehr vergisst die GPUs zu Optmieren, mehr Power mehr Watt trotz gleich großem Chip... naja.
Die Desktop 680 braucht fast 300 Watt, die mobile rund ein Drittel. Das ist bei allen Komponenten so. Desktop CPUs liegen bei 130 Watt, die mobilen Quad zwischen 35 und 55 Watt.
Wenn du weniger Abwärme willst, musst du auch weniger Leistung in Kauf nehmen.
Das macht 100 Watt trotzdem nicht gut. Ich meine es sind Notebooks, sie können gerne die Desktop Chips nehmen, aber sollen die Chips so Optimieren oder auswählen, das nur die effizientesten ins Notebook kommen. Ich denke das man die Fertigung auch anpassen sollte für die Notebooks. Man kann ja nicht einfach 122 Watt GPUs nehmen und diese als Notebook GPU anbieten.
CPUs von Intel sind seit Jahren bei maximal 55 Watt TDP. Obwohl die Leistung auch jedesmal ansteigt, aber selbst wenn das der Fall ist würde Intel niemals eine Notebook CPU mit 65 Watt bringen. Intel bleibt immer bei maximal 55 Watt:
X9100 bei 45 Watt (aber ein Dual Core) QX9300 bei 55 Watt i7 940XM bei 55 Watt i7 2960XM bei 55 Watt i7 3940XM bei 55 Watt auch kommende i7 Mobil CPUs werden nicht mehr Watt schlucken.
Bei Nvidia und AMD sieht es ganz anders aus:
erst war das maximum bei 50 Watt, dann 60 Watt, dann 70 Watt, dann 75 Watt, dann 100 Watt und jetzt 122 Watt?
Lieber auf etwas weniger Leistung setzen statt immer mehr Strom zu schlucken. Auch sollten die pro GPU die Spannung senken und die Fertigung an Notebooks anpassen. Ich meine nicht die selbe Chipfertigung wie für Desktop GPUs nehmen. 122 Watt sind zu viel und nicht eben nichts mobiles mehr.
Die GTX 480 Verbraucht mehr Watt und ist wärmer als die GTX 580 mit fast selbem Chip. Obwohl die GTX 580 einen höheren Takt hat und mehr Kerne Aktiv. Wie du siehst kann man Fertigungen Optmieren um die Ausbeute und jeden Chip an sich zu verbessern. Vertrau mir es ist durchaus möglich das die TDP im selben Level ist trotz mehr Leistung.
Es gibt viele Beispiele die ich nennen könnte alleine bei Desktop GPUs. Die 28nm Fertigung wird von TSMC immer weiter Optimiert und bekommt bei jedem neuen Stepping einen Schub an Leistung bei weniger Verbrauch. Frag die Admins es ist möglich.
Was den 2 Gb Vram angeht, ich habe beim ASUS G74SX (3GB Vram) das Spiel GTA 4 auf anschlag gestellt und kam nur auf 1,7 GB Vram Verbrauch bei 1920 x 1080p. GTA 4 ist eines der Spiele mit dem höchsten Vram Hunger, wahrscheinlich sogar mit dem höchsten.
Ich Spiele Crysis mit Texturen von 8192 x 8192 mit höherer Sichtweite und mehr Objekten pro Map. Selbst da komme ich kaum auf die 1,4 GB Vram in 1920 x 1080p. Ein Bild von meinem Crysis wird dir zeigen was ich meine. Für alle heutigen Spiele langt 2 GB Vram völlig, wenn man jedoch mit hohen Kantenglättungen arbeitet braucht man eben mehr als 2 GB Vram. In 1-2 Jahren könnten dann schon 2 GB zu wenig sein.
Also wenn es wirklich 122 Watt sind würde ich das Teil niemals in ein Notebook packen. Ich finde 100 Watt GPUs schon echt viel zu viel des guten. 75 Watt oder 50 Watt gehen ja noch, aber 100 bzw. 122 Watt sind keine Notebook GPUs mehr.
die tdp liegt über 100w. die gtx 680m kommt ja schon locker an die 100w ran und die mx hat deutlich mehr cores aktiviert. irgendwo müssen sich die 25% mehr leistung ja bemerkbar machen und das tun sie auch in sachen stromverbrauch und wärmeabgabe.
gerade gefunden: http://www.techpowerup.com/gpudb/1725/NVIDIA_GeForce_GTX_680MX.html tdp 122w ... das ist auch das was in appleforen rumgeistert, dort wird von 125w gesprochen.
jetzt mal angenommen die kühler hätten diese 25w in reserve, dann würden die kühler und lüfter ans limit kommen.dann bräuchten alle neue netzteile, da die jetzigen netzteile teilweise keine leistungsreserve mehr haben. (zb. p170em, 220w netzteil, 212w maxverbrauch; p150em, 180w netzteil, 175w maxverbrauch)
Das mit den " nur noch" 2GB Vram ist sehr wictig, da die 4GB bisher nur unnötig Strom gefressen haben und die GTX 680m teurer gemacht haben als sie es eh schon war!
Nvidia brachte ein Update auf die GTX 680M und das in Form der GTX 680MX. http://www.geforce.com/hardware/notebook-gpus/geforce-gtx-680mx/
Die GTX 680MX hat jetzt alle 1536 Shadern und mehr Speichertakt, was jetzt über 160GB/s macht. Der Chiptakt bleibt aber bei 720 MHz und das ist auch gut so. Weil die mehr Shader und TMUs bringen es auch bei 720 MHz zu mehr Leistung als die GTX 680M je konnte. Die TDP soll wie bei der GTX 680M bei 100 Watt liegen.
Der Speicher ist jetzt jedoch nur 2 GB statt 4 GB groß, wobei es kein Spiel stört wenn es keine 4 GB sind. Ausserdem kann jeder Hersteller frei entscheiden wieviel Vram er verbaut. Immerhin hat die Orginal GTX 560M nur 1,5 Gb Vram, aber die im ASUS G74SX hat 3GB Vram.
Also im Alienware M18x Sollen die bald sein und Schenker Notebooks und andere werden sicher bald folgen.