Nach 122 Tagen intensiver Arbeit hat das xAI-Entwicklungsteam das derzeit leistungsstärkste KI-Trainingssystem der Welt in Betrieb genommen. Aktuell läuft es auf 100.000 H100-GPUs, doch Elon Musk behauptet, dass sich diese Zahl in den kommenden Monaten verdoppeln wird. Zum Vergleich: Google verfügt über etwa 90.000 GPUs für KI-Training, während das Spitzen-System von OpenAI mit 80.000 GPUs ausgestattet ist.
https://www.notebookcheck.com/Elon-Musks-xAI-aktiviert-den-Colossus-Trainingscluster-mit-100-000-H100-GPUs-geht-online.884228.0.html
Spannend, ob die was sinnvolles herausbekommen.
Der Chip sieht schon beeindruckend aus:
cerebras.ai/product-chip/