Sie werden nicht glauben, wie viel der Betrieb von ChatGPT kostet

Ein neuer Bericht behauptet zu wissen, wie viel die Ausführung von ChatGPT pro Tag kostet, einschließlich der ungefähren Kosten jeder Abfrage. Der Beliebter Text-to-Speech-Chatbot könnte im November 2022 eine KI-Revolution ausgelöst haben, hat sich jedoch als äußerst kostspielig in der Wartung erwiesen.

Der neue Bericht stammt von Dylan Patel, Chefanalyst bei Forschungsunternehmen SemiAnalysis, der sagt, dass es etwa 700.000 US-Dollar pro Tag oder 36 Cent pro Anfrage kostet, den Chatbot am Laufen zu halten.

Empfohlene Videos

Tatsächlich ist es so teuer, dass Microsoft möglicherweise eigene proprietäre KI-Chips entwickelt, um die Aufrechterhaltung des OpenAI-Betriebs von ChatGPT zu unterstützen, heißt es Windows Central.

Die ChatGPT-Website auf dem Bildschirm eines Laptops, während der Laptop auf einer Theke vor einem schwarzen Hintergrund steht.
Airam Dato-on/Pexels

ChatGPT erreichte nicht nur im Januar schnell die 100-Millionen-Marke aktiver Nutzer, eine Leistung, für die Tech-Marken früher Jahre brauchten, sondern hatte auch Probleme viel Verkehr und Kapazitätsprobleme führen zu einer Verlangsamung und zum Absturz der Server. Das Unternehmen versuchte Abhilfe zu schaffen, indem es ein kostenpflichtiges System einführte

ChatGPT Plus Stufe, die 20 US-Dollar pro Monat kostet, es gibt jedoch keine Angaben darüber, wie viele Benutzer die kostenpflichtige Option abonnieren.

OpenAI verwendet derzeit Nvidia-GPUs, um nicht nur seine eigenen ChatGPT-Prozesse zu verwalten, sondern auch die der Marken, mit denen es zusammenarbeitet. Branchenanalysten gehen davon aus, dass das Unternehmen allein für den Rest des Jahres 2023 wahrscheinlich weitere 30.000 GPUs von Nvidia benötigen wird, um seine kommerzielle Leistung aufrechtzuerhalten.

Mit Microsoft als einem seiner Hauptmitarbeiter und Investoren, könnte OpenAI die Technologiemarke in Betracht ziehen, um bei der Entwicklung von Hardware zu helfen, um die Betriebskosten für ChatGPT zu senken. Laut Windows Central ist dieser KI-Chip bei Microsoft bereits in Arbeit. Es trägt den Codenamen Athena und wird derzeit intern mit den markeneigenen Teams getestet. Der Chip soll nächstes Jahr für Microsofts Azure-KI-Dienste eingeführt werden.

Es gibt kein Wort darüber, wie oder wann der Chip auf OpenAI und ChatGPT durchsickern wird, aber es wird davon ausgegangen, dass dies der Fall sein wird. Der Zusammenhang ergibt sich aus der Tatsache, dass ChatGPT von Azure-Diensten unterstützt wird. Der KI-Chip ersetzt möglicherweise nicht vollständig Nvidia-GPUs, könnte aber dazu beitragen, den Bedarf an Hardware zu senken und so die Kosten für die Ausführung von ChatGPT zu senken, fügte Windows Central hinzu.

Empfehlungen der Redaktion

  • Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
  • ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
  • Die Bing-Browsing-Funktion von ChatGPT wurde aufgrund eines Paywall-Zugriffsfehlers deaktiviert
  • Laut einer Umfrage halten 81 % ChatGPT für ein Sicherheitsrisiko
  • Der ChatGPT-Konkurrent von Apple schreibt möglicherweise automatisch Code für Sie

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.