Posted by JKM
- January 26, 2023, 22:32:38
Ich hatte $17000 gelesen und du meinst $22000 - was stimmt?
Ich hatte von 22.000 $ gelesen. Was stimmt weiß ich nicht.
Die 22.000 $ würden passen, weil TSMC einerseits 2,5-3 mal so viel UMsatz in 5nm als in 16nm-Prozess und andererseits aktuell so viel Umsatz mit dem 16nm-Prozess macht als vor 4-5 Jahren mit 10nm-12nm-16nm machte, der Anfangs so 12.000 $ und später nur langfristig auf so 8.000 $ gefallen ist. Was ich AFAIK so las und in Erinnerung habe. Gigafabriken sind mit 120-150.000 Wafer-per-Monat meistens gleichgroß.
Verstehe ich dich richtig, dass es etwa konstant $75 waren, also keine Mehrkosten durch den Chip in der Mittelklasse?
Genaue Zahlen gibt es ja nicht. Man kann nur Abschätzen. Exakt bekannt ist die Wafer-Fläche von so 70.000mm² @ 300mm und die Die-Größen. Ab und zu erfährt man die Yields, die aber damals ab 200mm² relevant waren. Besonders bei 500mm², die bei Nvidia damals auch recht früh mit neuer Fertigung am Markt kamen. Und wenn die Fertigung noch nicht ganz ausgereift & optimiert (sagen wir ~75%) war, konnte die 500mm²-Die schon so 100-125$ ausmachen, was damals mit 500 $ noch gewinnbringend war. (TEndenz steigende Yields und etwas sinkende Waferkosten) Bei GF100 war per GTX 480 die Yield ein einziges mal viel zu schlecht. Nur der GTX 280 (GT200 @ 575mm²) wars sie kaum gewinnbringend weil 260mm² kleine HD 4870 so 90% der GTX 280-Performance schaffte und das 1/2-Preis, weil es wahrscheinlich nur 1/2 Kosten bei >1/2-Die-Größe hatte.
Für Entwicklungskosten gestehe ich Nvidia keinen neuen Aufpreis zu, da die Marge schon vorher 2/3 war.
Und wenn die Entwicklungskosten deutlich steigen, und die 2/3 Marge bleiben sollen, dann steigt eben er Preis.
Wer weiß,
vielleicht sind die Nvidia-Preise wegen eventuellen Übervollen Nvidia-Grafikkarten bei Händler-Partner und Grafikkarten-Partner so hoch aufgesetzts, um nicht mit einem Schlag enorme Vermögenswerte bei Nvidias-Partner einbrechen zu lassen. AMD könnte dabei gut mitspielen, weil sie die 4nm/5nm-Kapazitäten gut für die CPUs und APUs nutzn kann. Wobei AMD genauso mit übervollen Grafikkarten-Lager zu kämpfen hat, was sich auch damit zeigen könnte, dass die RX 6000-Preise eine etwas besser P/L-Verhältnis hat als die RX 7000-Serie.
Der einzige belastbare Grund für Kostensteigerung ist die 15% US-Inflation in den 2 Ampere-Jahren.
Ganz im Gegenteil,
PC-Technik hatte in den letzten Jahrzehnten bisher immer die Inflation gedrückt, weil die CPU & PC immer billiger wurde. Zumindestens bis 2017.
Die Grafikkarten werden nicht in der USA produziert, sondern in Taiwan, die in den letzten 10 Jahren eine Inflation im Schnitt von so 1% hatte und 2021 nur kurz leicht auf 2% gestiegen ist. (2020 Sogar -0,24% "Inflation" öh Deflation). Klar, Forschung & Entwicklung ist in den USA, aber der macht nur einen Teil an.
Die Die-Entwicklung ist aber AFAIK primär in Taiwan, die aber von Generation zu Fertigungs-Generation massiv steigt, und AFAIK bei 5nm schon relevante 100-150 Mio. $ ausmacht. Blöd, wenn die Die des 4060 dann recht viel kostet, was dann hohe Preise bei übliche 2/3-Margen bedeutet. Dies bedeutet deutlich geringere Stückzahlen, was die Entwicklungs-Kosten pro Die wieder zusätzlich deutlich steigert.
Also,
guter Tipp,
Gut aufpassen und merken, wenn du wieder Entwicklungs-Kosten von Dies hörst, vorallem bei Next-Gen-Fertigung a la 3nm, 2nm,... usw