Um novo relatório afirma saber quanto custa a execução do ChatGPT por dia, incluindo quanto cada consulta custa aproximadamente. O popular chatbot de conversão de texto em fala pode ter desencadeado uma revolução de IA em novembro de 2022, mas provou ser extremamente caro para manter.
O novo relatório vem de Dylan Patel, analista-chefe da empresa de pesquisa SemiAnalysis, que diz que custa aproximadamente US$ 700.000 por dia, ou 36 centavos por consulta, para manter o chatbot funcionando.
Vídeos recomendados
Na verdade, é tão caro que a Microsoft pode estar desenvolvendo seus próprios chips de IA proprietários para auxiliar na manutenção da operação do ChatGPT da OpenAI, de acordo com Central do Windows.
![O site ChatGPT na tela de um laptop enquanto o laptop está sobre um balcão em frente a um fundo preto.](/f/9879cdbf3f716895260a71797741a332.jpg)
Além de atingir rapidamente 100 milhões de usuários ativos em janeiro, um feito que antes levava anos para as marcas de tecnologia, o ChatGPT tem lutado com tráfego intenso e problemas de capacidade desacelerando e travando seus servidores. A empresa tentou remediar esta situação introduzindo um pagamento
ChatGPT Plus nível, que custa $ 20 por mês, no entanto, não há informações sobre quantos usuários assinam a opção paga.Atualmente, a OpenAI usa GPUs Nvidia para manter não apenas seus próprios processos ChatGPT, mas também os das marcas com as quais tem parceria. Analistas do setor esperam que a empresa provavelmente exija 30.000 GPUs adicionais da Nvidia para manter seu desempenho comercial apenas pelo restante de 2023.
Tendo a Microsoft como um de seus principais colaboradores e investidores, OpenAI pode estar olhando para a marca de tecnologia para ajudar no desenvolvimento de hardware para reduzir o custo de operações para ChatGPT. De acordo com o Windows Central, a Microsoft já tem esse chip AI em andamento. Com o codinome Athena, está sendo testado internamente com equipes próprias da marca. Espera-se que o chip seja introduzido no próximo ano para os serviços de IA do Azure da Microsoft.
Não há nenhuma palavra sobre como ou quando o chip chegará ao OpenAI e ChatGPT, mas a suposição é que sim. A conexão vem do fato de que o ChatGPT é suportado pelos serviços do Azure. O chip AI pode não substituir totalmente as GPUs da Nvidia, mas pode ajudar a diminuir a demanda pelo hardware, reduzindo assim o custo de execução do ChatGPT, acrescentou o Windows Central.
Recomendações dos editores
- O Google Bard agora pode falar, mas pode abafar o ChatGPT?
- ChatGPT: as últimas notícias, polêmicas e dicas que você precisa saber
- O recurso de navegação Bing do ChatGPT foi desativado devido a uma falha de acesso pago
- 81% acham que o ChatGPT é um risco à segurança, segundo pesquisa
- Rival do ChatGPT da Apple pode escrever código automaticamente para você
Atualize seu estilo de vidaO Digital Trends ajuda os leitores a acompanhar o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais perspicazes e prévias exclusivas.