@Sentenced666: Da die 870M eine übertaktete 680M ist, sollte man die Leistung eigentlich erahnen können. Sie wird weit über der 770M liegen und wohl etwas langsamer als die 780M sein. Interessant wird lediglich der Stromverbrauch und damit zusammenhängend die Hitzeentwicklung sein. Auf deutsch: Wie viel effizienter arbeitet die 870M gegenüber der 680M. Es wäre schon ein starkes Stück, wenn die jetzt eine 680M bringen, die trotz enormer Takterhöhung weniger verbraucht. Ähnliches hat man ja schon bei der 680MX und der folgenden 780M geschafft.
@Krake: Ergänzend möchte ich noch möglichst einfach erklären, wie der Stromverbrauch entsteht. Eine Grafikkarte besteht heutzutage nicht wie eine CPU aus 2, 4 oder 8 Kernen, die eigentlich Prozessorzahl liegt heutzutage im 3- bis 4-stelligen Bereich. Während die Einstiegsmodelle höchstens 500 Kerne (gerne auch Shader, CUDA-Cores oder ALUs genannt) haben, kratzen die Desktop-Top-Modelle an der 3000er-Marke. Je mehr Kerne, umso mehr Strom wird natürlich verbraucht. Dazu kommt die Taktfrequenz. Umso höher man taktet, umso mehr Saft wird auch benötigt*. Deshalb müssen einige Übertakter auch die Spannung erhöhen.
Die TDP gibt an, wie viel Verlustleistung - also Abwärme - eine CPU oder GPU erzeugt. Diese gibt also grob gesehen den Stromverbrauch unter Last an. Im Laptop sind wir da heutzutage bei 100 Watt TDP maximal. Die gängigen CPUs verbrauchen 37 bis 57 Watt. Mein P370SM zieht dank potenter CPU und 2 Hochleistungsgrafikkarten dementsprechend gerne mal 250 bis 300 Watt aus der Dose, während sparsame Ultrabooks nicht mal auf 70 Watt kommen.
Wenn eine CPU oder GPU aber nicht ausgelastet ist, verbraucht diese viel weniger Strom. Ich erkenne das daran, dass meine Grafikkarten bei Far Cry 3 und 70 FPS ca. 70 Grad Celsius warm werden. Schalte ich VSync an, sodass nur 60 Bilder pro Sekunde berechnet werden, geht die Temperatur gleich um ein paar Grad runter. Nichts anderes macht Battery Boost. Es begrenzt einfach nur Bildrate, damit die Grafikkarte nicht sinnlos rechnet und unnötig Strom verbraucht.
Nvidia Optimus und AMD Enduro sind auch tolle Sparmaßnahmen. Mein Laptop ohne dieses Feature zieht im Leerlauf trotzdem noch 50 bis 60 Watt, weil beide Grafikkarten an sind. Sie laufen zwar nur auf einem sehr niedrigen Takt, aber gerade dort sind Grafikkarten sehr ineffizient. Wenn man diese nun ausschalten kann, verbraucht diese kein Strom mehr. Im Office-Betrieb ist nämlich selbst die im Prozessor integrierte Grafikeinheit noch unterfordert ^^
*Der Stromverbrauch steigt nicht linear mit dem Takt. Darauf genauer einzugehen wäre müßig und würde meine Kompetenzen übersteigen.
PS: Falls ich irgendwo Grütze geschrieben habe, möge man mich bitte korrigieren. Zu meiner Verteidigung, ich war bis eben noch des Barkeepers bester Freund ;)