Mieten von Cloud-GPU/TPU ist vA für NN-Entwickler interessant. Als Endnutzer kann ich eher NN-für-Go-Server nutzen, die durchaus schnell genug sind, aber in der Funktionalität eingeschränkt. Vielleicht mache ich das vorübergehend als Notlösung, wenn Nvidia mich zu lange nervt.
Du hast wohl recht, dass fast alle Apple-Nutzer keine gezielte NN-geeignete Hardware brauchen. Dennoch gibt es aktuell jede Menge Tests auf Youtube & Co, die den M1 gezielt für Machine-Learning testen und anpreisen. Wer nur ein paar Bilder erkennen lassen will, für den reicht so etwas vielleicht. Für rechenintensive NN ist der M1 aber eben noch viel zu langsam. Auf die Gehirnwäsche darf man (noch) nicht reinfallen.
Ja, Desktop ist (jedenfalls in der Theorie mit UVPs) zZ für mich noch das Non-Plus-Ultra. Windows-Notebooks mit Laptop-RTX-3070 kommen erst so 1/4 an meinen Bedarf ran und das zu 1,5 - 2,5x der Kosten bei 2 - 20x dem Lärm.
Die Apple-M-Chip-Entwicklung wird jedenfalls interessant zu beobachten bleiben, ob die GPU-Kern-Verdopplung wirklich wie geplant weitergeht.
Spannende Hardwarezeiten zu saumäßigen Versorgungszeiten!