Microsoft erklärt, wie Tausende von Nvidia-GPUs ChatGPT aufgebaut haben

ChatGPT erlangte in den letzten sechs Monaten viralen Ruhm, aber es kam nicht aus dem Nichts. Laut a Blogbeitrag veröffentlicht von Microsoft Am Montag wandte sich OpenAI, das Unternehmen hinter ChatGPT, vor mehr als fünf Jahren an Microsoft, um eine KI-Infrastruktur auf Tausenden von Nvidia-GPUs aufzubauen.

Die Partnerschaft zwischen OpenAI und Microsoft hat in letzter Zeit viel Aufmerksamkeit erregt, insbesondere nachdem Microsoft 10 Milliarden US-Dollar in die Forschungsgruppe investiert hat, die hinter Tools wie ChatGPT und steckt DALL-E 2. Allerdings begann die Partnerschaft laut Microsoft schon vor langer Zeit. Seit damals, Bloomberg berichtet dass Microsoft „mehrere hundert Millionen Dollar“ in die Entwicklung der Infrastruktur zur Unterstützung von ChatGPT und ähnlichen Projekten investiert hat Bing-Chat.

Hopper H100 Grafikkarte.

Ein Großteil dieses Geldes ging an Nvidia, das mittlerweile führend bei der für das Training von KI-Modellen erforderlichen Computerhardware ist. Anstelle von Gaming-GPUs, wie Sie sie auf einer Liste finden würden

beste Grafikkarten, Microsoft hat sich für Nvidias GPUs der Enterprise-Klasse wie die A100 und H100 entschieden.

Verwandt

  • ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
  • Was ist eine DAN-Eingabeaufforderung für ChatGPT?
  • Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?

Es ist nicht nur so einfach wie das Erhalten Grafikkarten zusammen und trainieren ein Sprachmodell. Nidhi Chappell, Microsoft-Produktleiterin für Azure, erklärt: „Das ist nicht etwas, bei dem man einfach eine ganze Reihe GPUs kauft, sie zusammenschließt und sie anfangen, zusammenzuarbeiten.“ Es gibt viele Optimierungen auf Systemebene, um die beste Leistung zu erzielen, und dazu gehört viel Erfahrung über viele Generationen hinweg.“

Empfohlene Videos

Nachdem die Infrastruktur vorhanden ist, öffnet Microsoft seine Hardware nun für andere. Das gab das Unternehmen am bekannt Montag in einem separaten Blogbeitrag dass es Nvidia H100-Systeme „auf Abruf in Größen von acht bis zu Tausenden von Nvidia H100-GPUs“ anbieten würde, die über das Azure-Netzwerk von Microsoft bereitgestellt werden.

Die Popularität von ChatGPT hat Nvidia in die Höhe schnellen lassen, das seit mehreren Jahren in KI durch Hardware und Software investiert. AMD, Nvidias Hauptkonkurrent bei Gaming-Grafikkarten, versucht mit Beschleunigern wie dem Instinct MI300 in diesem Bereich Fuß zu fassen.

Laut Greg Brockman, Präsident und Mitbegründer von OpenAI, wäre das Training von ChatGPT ohne die von Microsoft bereitgestellte Leistung nicht möglich gewesen: „Die gemeinsame Entwicklung von Supercomputern mit Azure war entscheidend für die Skalierung unseres anspruchsvollen KI-Schulungsbedarfs, sodass unsere Forschung und Ausrichtung auf Systemen wie ChatGPT funktioniert möglich."

Nvidia wird voraussichtlich während der GPU Technology Conference (GTC) mehr über zukünftige KI-Produkte verraten. mit der Keynote-Präsentation startet am 21. März. Microsoft erweitert später in dieser Woche seine KI-Roadmap. Für den 16. März ist eine Präsentation zur Zukunft der KI am Arbeitsplatz geplant.

Empfehlungen der Redaktion

  • Top-Autoren verlangen von KI-Firmen eine Bezahlung für die Nutzung ihrer Arbeit
  • GPT-4: So verwenden Sie den KI-Chatbot, der ChatGPT in den Schatten stellt
  • Wix verwendet ChatGPT, um Ihnen beim schnellen Aufbau einer gesamten Website zu helfen
  • Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen
  • Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.