Die HD 6990M ist ein kleiner Chip im vergleich zur GTX 580M, daher denke ich das er billiger ist als Nvidias GTX 580/570M. Die HD 6970M (selber Chip) war ja nur 100€ teuerer als eine GTX 560M, daher denke ich das es jetzt nur 200€ mehr kostet.
Bestimmt ist die TDP höher als 100 Watt, da bei der GTX 580M ein verbesserter Chip die mehr Leistung bringt, aber bei AMD ist es der selbe Chip. Da sind halt alle Einheiten Aktiv und der Takt ist höher.
Edit: so 125 Watt wären schon denkbar. Da es ja anscheinend wirklich kein verbesserter Chip ist in dem Bereich sparsamkeit. Einfach so alle einheiten Aktivieren kostet nunmal Power und dann den Takt heben ebenso.
Danke für das Feedback, Fehler meinerseits, ging dann doch zu schnell. Alle Benchmarks nun mit 715MHz in der Datenbank, Grafikkartenseite und Newsmeldung angepasst.
Interessant wäre der Stromverbrauch der 6990M da ja bereits die 6970M die 100W mit Speicher knackte und die 6990M auf den selben Chip basiert (nicht wie bei Nvidia 485M -> 580M stromoptimiertes Silikon). Eventuell wurde der Produktionsprozess besser.
Mal was anderes, warum ist der Chiptakt bei 680MHz und der Shadertakt bei 715MHz? Die VLIW4 und VLIW5 Shader bei AMD Takten immer wie der restliche Chip auch. Also ist Kertakt auch Shadertakt. Nur der Speicher kann abweichen vom Takt.
Wie Geil ist das den, AMD hat es doch noch gepackt, den Barts XT aka RV940 Chip Mobil zu machen mit allen Shadern. Ich habe schon längst nicht mehr daran geglaubt. Ich hoffe ihr macht Tests, den dieser Chip könnte schneller sein als die GTX 580M oder eben recht gleich auf.
Diese GPU sagt mir mehr zu als die GTX 570M oder GTX 560M, wenn man mal sieht wie die Daten sind.