QuoteIntel profitierte von der Pandemie. Man könnte mit den 3nm-TSMC-Probleme argumentieren, aber Die-Größen und Shader-Zahlen passen analog der Konkurrenz sehr gut zur 6nm-Fertigung.
Entweder die Dies & Treiber sind noch nicht optimiert, oder Intel hat einen relevanten Strom-&-Die-Flächen-Effizienz-Rückstand.
Ja bei ihrer eigenen Fertigung. Aber nicht, wenn Intel bei einem Auftragshersteller produzieren lässt.
Die Frage was genau die Probleme und Ursachen sind, das werden wir nie erfahren.
Was man aber weiß, dass verschiedenste Fertigungsverfahren unterschiedlich performen. Eigentlich sind schon lange nicht mehr "nm" interessant. Als technisch interessierte Person möchte ich eigentlich einmal die Transistoren/mm² wissen und dann kann dies für untertschiedliche Strukturen wie Cache oder dem Kern selbst verschieden sein. Zusätzlich interessiert mich für die verschiedenen Bereiche der Verbrauch. Was ich sagen möchte, eine Architektur wird auch auf einen Fertigungsprozess optimiert bzw. umkehrt. Das war zumindest früher Intels Vorteil mit der eigenen Produktion
Heute ist jedoch kein Hersteller mehr von Backports befreit. Wenn das eintritt läuft nichts mehr ideal. Z.b. kann dann eine breitebandige Cacheanbindung für den eine Prozess ideal sein für den anderen wäre eine andere Architektur sinnvoller gewesen.
Demenstprechend meinte ich, dass Intel eventuell sogar in 5nm bei TSMC fertigen wollte. Eventuell wollte Intel sogar genau wegen den derzeitgen Problem auf dem Weltmarkt für ihren Intel 7 und dem 6nm von TSMC eine Architektur, die natürlich jetzt auf beiden nicht optimal läuft.
Wie gesagt Spekulationen, ich würde aber nicht Intel als unfähig abstempeln.
Hier wir selbst untermauert, dass Intel wohl Probleme hatte, das zu bekommen bei TSMC was es möchte:
QuoteDas Angebot wächst stetig, wo Rembrandt 200 Design-Wins (+50) und Cezanne/Lucienne schon 150 Design-Win (+50 Stück) erreichte. AMD kämpft genauso wie Intels Grafikkarten, dass AMD nur begrenzte Kapazitäten bei 5nm und 7nm bekommt.
QuoteNur weil eine Firma nicht schläft, heißt es nicht, dass sie automatisch gleich erfolgreich werden. Siehe AMD/ATI. Mit RDNA2 hat AMD nach Jahren einer Durststrecke wieder den Anschluss gefunden. Jetzt ist generell ein ungünstiger Zeitpunkt keinen Anschluss zu haben.
AMD hatte bei den CPUs auch etwa ein Jahrzehnt eine Durststrecke und die erste Ryzen-Serie war das Gegenteil von großer Wurf. Mein alter Haswell i7 4770k war z.B. beim Computerspielen bei den FPS teilweise besser als der modernere Ryzen 1600er. Seit der 3000er und spätestens der 5000er-Serie war AMD wieder richtig zurück. Also ich würde Intel auch ein wenig Zeit geben.
QuoteBlöd, wenn die 3nm-Fertigung nicht so Rund läuft und Apple bei der Next-Gen iPhone nochmal auf 4nm statt auf 3nm zu setzen. Und EUs verlieren an Bedeutung, wenn die Strom-Effizienz oder IPC eines EUs massiv im Rückstand ist.
Ja es geht sogar soweit, dass wohl nicht jedes Iphone sogar den neuesten Chip bekommen wird.
AMD hat es ähnlich gemacht wie Apple. Der "kleine" M1 im Prinzip die selben Kerne wie die großen Brüder, also wird mehr Performance nur noch im Multicorebereich herausgeholt indem man mehr Kerne nimmt.
Auf der Seite der GPUs muss natürlich Intel noch nachziehen.
QuoteAm Anfang,
aber wenn der Kunde glaubt die Konkurrenz diehnt nur den Kunden um die Nvidia-Preise zu senken, dann stirbt entweder die Konkurrenz oder die Konkurrenz steigert die Preise.
Im Dekstopbereich gibt es einige Leute, denen ist eine Grafikkarte um 250€ schon viel zu teuer. Die hätten sich bei normalen Preisen! dazumals keine GTX 1060 6Gb oder jetzt auch keine RTX 3060 gekauft. Wenn Intel ihr XeSS gut implementiert hat, dann dürften viele sogar zufrieden sein, wenn ihr Spiel eben mit geringer Auflösung berechnet und anschließen über KI aufgehübscht wird. Also für den Casualgamer ist das eine gute Entwicklung, weil in diesem Preissemgent gibt es mit Sicherheit derzeit 3 statt 2 Konkurrenten. Dem Casualgamer wird es dann auch egal sein ob die GPU mehr verbraucht, hauptsache nicht zu teuer. Ein Freund von mir hört nicht einmal auf die Lüftergeräusche der GPU, weil er zu geizig ist, seinen Boxedlüfter mit einem leiseren auszuwechseln. Ich glaube man unterschätzt den klassischen PC-Käufer, auch bei einigen Gamern. Intel ist in dem Bereich noch immer in der Anfangsphase und ich hatte von Intel weniger erwartet.
QuoteDas Wissen wir noch garnicht, wo genau das Problem ist, weil Intel bis dato praktisch nichts von der DG1-Serie am Markt brauchte, während die DG2-Serie verschoben wurde und immer noch nicht am Markt ist. Intel kämpft auch im CPU-Markt mit einer hohen Ineffizienz der P-Kerne. Die Ineffizienz könnte ein generelles Probleme von Intel sein.
Ich will nicht abstreiten, dass Intel bei ihrer GPU-Sparte noch nachziehen muss. Ich kann aber jetzt schon garantieren, dass in naher Zukunft die eierlegende Wollmilchsau in allen Bereichen ein Problem sein wird.
Im Mobile-Bereich wird Unified-Memory der Standard werden und auf den SoCs wird eben CPU, GPU, KI usw. oben sein. Der jeweilige Hersteller wird nicht in allen Bereich der Beste sein und man wird sich als Kunde entscheinden müssen.
Die hohe Ineffizienz kann ich nicht mehr höhren. Bei welchen Watteintellungen und Szeario? Es ist völlig klar, dass Intel bei geringer Auslasung nicht gut ist. Einem Content-Creator würde ich im Bereich x86er (Windows/Linux) absolut empfehlen einen effizienteren Ryzen zu nehmen. Wer mit Apple und dessen "Luxusgefängis"-Politik zufrieden ist und der auch bei der Software keine Probleme bekommt, der soll sich bitte unbedingt ein Macbook Pro M1 Pro (viele würde sogar das Air reichen) kaufen. Vor allem ein Conten-Creator der bereit ist schon über 2000€ auszugeben für dem ist ein MacBook Pro mit M1 Pro ein Preis/Leistungsieger. Bringt einem Berufsfotografen aber auch nichts, wenn er mit Software unzufrieden ist oder doch 1 Tb SSD besser wäre, da sind wir dann in ganz anderen Preisbereichen.
Ich selbst denke gar nicht an Apple, weil Programme wie Matlab schon einmal mit Rosetter schlecht performen. Programme wie Vivado von Xilinx, Microchip Studio, Altium Designer, Cadence, etc. brauche ich gar nicht einmal versuchen zu installieren.
Jetzt bleibt mir nur noch Intel oder AMD. Und wenn man mobil unterwegs ist kann man sich z.B. derzeit für einen Rembrandt oder AlderLake entscheiden. Bei einer Watteinstellung von grob 40-50 sind die AlderLake bezüglich Performance/Watt gleichauf bzw. werden sogar besser.
Intel ist bezüglich Latenz und maximaler Performance auf einem Kern trotzdem besser. Beim Gaming sieht man dies in höheren FPS und was bringt mir ein effizienter Prozessor im Multicore, wenn es Berechnungen gibt, die nicht parallelisierbar sind? Es gibt nicht nur Content Creator, Surfer/Office-Benutzer oder Gamer.
Die ganze Engineering-Sparte (von dem habe ich ein paar Software-Beispiele augezählt) braucht trotzdem oft maximale Performance auf einem Kern. Berechnungen in der Strömungslehre habe so viele nichtlineare Probleme. Die ganzen Abhängigkeiten lassen auch hier einen AMD die restlichen Kerne im Idle bis wieder kurzfristig alle rechnen können. Wenn nicht alles schön parallelisiert werden kann wie bei Matritzenrechnungen usw., dann bringt mir das nicht sehr viel. In der Elektrotechnik hat man gottseidank viel lineare Algebra bzw. kann vieles linearisieren. Aber wenn man sich HWiFO64 ansieht, wenn Vivado für den FPGA die Synthetisierung und Implementierung macht, dann sieht man, dass oft nur ein Kern rechnet und die restlichen idlen und immer nur kurzfristig wenn es keine Abhängigkeiten gibt rechnen können. Hier fängts dann an, dass 20% auf einem Kern schneller rechnen der größte Wunsch ist. Klar ich brauche eventuell für die 20% mehr Performance 100% mehr Strom, aber ich kann überhaupt 20% mehr Performance haben. Wenn etwas in 5 statt 6 Studen berechnet wurde, dann ist das schon etwa!
Intel hat für den Otto-Normal natürlich ein riesiges Effizienzproblem. Dafür sind sie derzeit die einzigen zuverlässigen Lieferanten für den gesamten Notebookmarkt. Mir gefällt es gerade auch nicht, dass ich mir nun beim Notebook wohl einen Alder Lake kaufen muss, weil ich mit den Rembrandt zumindest eine Maschine bekomme würde die tendentziell leiser ist und längere Akkulaufzeiten hat, aber auch nur unter der Bedingung, dass nun zumindest USB 4.0 dabei ist. Ich erwarte hier aber auch keine höchste Performance. Außerdem für Rembrandt muss ich teilweise länger warten bzw. die Hersteller sind gar nicht gewillt gewisse Modelle mit Rembrandt auszurüsten.
Im Desktopbereich würde ich mir eventuell nur wegen Gaming einen Alder Lake nehmen. Hier brauchen die Teile im Mix gar nicht so viel Watt und hauptsache mehr FPS. Auch für meine Berechnungen macht es mehr Sinn, dass ein Kern Höchstleistung bieten kann. Würde ich Gamer sein und vor allem Video- und Fotobearbeitungen machen, dann würde ich natürlich zu AMD greifen.