Gerüchte legen nahe, dass der laufende GPU -Mangel offen für die Zusammenarbeit mit Broadcom bei der Entwicklung eigener KI -Chips.Da es jedoch Jahre dauern würde, bis das Unternehmen seine eigene Hardware produziert, muss sich OpenAI derzeit auf Nvidia und andere Lieferanten verlassen, um seine wachsenden Anforderungen zu erfüllen.
Dies bringt Nvidia in eine starke Position.Der Chipmacher hat erklärt, dass sein neuester Blackwell -GPUs erst Oktober dieses Jahres vollständig ausgeliefert werden wird.Da Institutionen und Einzelpersonen vorhaben, die Rechenzentren massiv zu erweitern, wird erwartet, dass Nvidia in den kommenden Jahren dominant bleibt.Zum Beispiel arbeiten OpenAI und Microsoft an einem AI -Supercomputer in Höhe von 100 Milliarden US -Dollar, während Elon Musk seinen Colossus -Supercomputer in Memphis, Tennessee, auf über eine Million GPUs erweitern will.
Andere Investoren beitreten ebenfalls dem Rechenzentrumrennen.Eine 3GW -Einrichtung wurde von der südkoreanischen Regierung genehmigt, während ein anderes Team sogar die Idee untersucht, Daten über den Mond zu speichern.Da die KI -Infrastruktur in einem so aggressiven Tempo expandierte, warnte Microsoft -CEO Satya Nadella, dass die Branche möglicherweise bereits KI -Systeme überbaut, was die zunehmende Komplexität von KI -Modellen und ihre wachsenden Rechenanforderungen entspricht.
GPT-4,5 dient als Hauptbeispiel.Laut Sam Altman "ist dies ein riesiges und teures Modell."Die Kosten für GPT-4,5 betragen 75 USD pro Million Input-Token und 150 USD pro Million Output-Token.Im Gegensatz dazu kostet GPT-4O nur 2,50 USD pro Million Input-Token und 10 US-Dollar pro Million Output-Token.Trotz seines hohen Preises merkte Altman an, dass es sich nicht um „ein Argumentationsmodell handelt, und es wird auch nicht überwältigende Ergebnisse zu Benchmarks erzielen“.Er fügte jedoch hinzu: "Es ist eine andere Art von Intelligenz - es hat eine Art Magie, die ich noch nie gefühlt habe."