Du kommer inte att tro hur mycket ChatGPT kostar att fungera

En ny rapport påstår sig veta hur mycket ChatGPT kostar att köra per dag, inklusive hur mycket varje fråga ungefär kostar. De populär text-till-tal chatbot kan ha satt igång en AI-revolution i november 2022, men har visat sig vara extremt dyr att underhålla.

Den nya rapporten kommer från Dylan Patel, chefsanalytiker på analysföretaget SemiAnalysis, som säger att det kostar ungefär $700 000 per dag, eller 36 cent per fråga, för att hålla chatboten igång.

Rekommenderade videor

Det är faktiskt så dyrt att Microsoft kanske utvecklar sina egna proprietära AI-chips för att hjälpa till med underhållet av OpenAI: s drift av ChatGPT, enligt Windows Central.

ChatGPT-webbplatsen på en bärbar dators skärm när den bärbara datorn står på en disk framför en svart bakgrund.
Airam Dato-on/Pexels

Förutom att snabbt nå 100 miljoner aktiva användare i januari, en bedrift som tidigare tog tekniska varumärken år att uppnå, har ChatGPT kämpat med hög trafik och kapacitetsproblem som saktar ner och kraschar dess servrar. Bolaget försökte råda bot på detta genom att införa en betald ChatGPT Plus tier, som kostar $20 per månad, men det finns inga ord om hur många användare som prenumererar på det betalda alternativet.

OpenAI använder för närvarande Nvidia GPU: er för att upprätthålla inte bara sina egna ChatGPT-processer, utan även de för de varumärken som de samarbetar med. Branschanalytiker förväntar sig att företaget sannolikt kommer att behöva ytterligare 30 000 GPU: er från Nvidia för att behålla sin kommersiella prestanda bara under resten av 2023.

Med Microsoft som en av sina primära samarbetspartners och investerare, OpenAI kanske tittar på det tekniska varumärket för att hjälpa till med att utveckla hårdvara för att få ner driftskostnaderna för ChatGPT. Enligt Windows Central har Microsoft redan detta AI-chip på gång. Kodnamnet Athena testas för närvarande internt med varumärkets egna team. Chipet förväntas introduceras nästa år för Microsofts Azure AI-tjänster.

Det finns inga ord om hur eller när chippet kommer att sippra ner till OpenAI och ChatGPT, men antagandet är att det kommer att göra det. Anslutningen kommer från det faktum att ChatGPT stöds av Azure-tjänster. AI-chippet kanske inte helt ersätter Nvidia GPU: er, men kan hjälpa till att minska efterfrågan på hårdvaran, vilket minskar kostnaden för att köra ChatGPT, tillade Windows Central.

Redaktörens rekommendationer

  • Google Bard kan nu tala, men kan det överrösta ChatGPT?
  • ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
  • ChatGPT: s Bing-surffunktion inaktiverad på grund av betalväggsåtkomstfel
  • 81 % tycker att ChatGPT är en säkerhetsrisk, visar undersökningen
  • Apples ChatGPT-konkurrent kan automatiskt skriva kod åt dig

Uppgradera din livsstilDigitala trender hjälper läsarna att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.