Um novo relatório afirma saber quanto custa a execução do ChatGPT por dia, incluindo quanto cada consulta custa aproximadamente. O popular chatbot de conversão de texto em fala pode ter desencadeado uma revolução de IA em novembro de 2022, mas provou ser extremamente caro para manter.
O novo relatório vem de Dylan Patel, analista-chefe da empresa de pesquisa SemiAnalysis, que diz que custa aproximadamente US$ 700.000 por dia, ou 36 centavos por consulta, para manter o chatbot funcionando.
Vídeos recomendados
Na verdade, é tão caro que a Microsoft pode estar desenvolvendo seus próprios chips de IA proprietários para auxiliar na manutenção da operação do ChatGPT da OpenAI, de acordo com Central do Windows.
Além de atingir rapidamente 100 milhões de usuários ativos em janeiro, um feito que antes levava anos para as marcas de tecnologia, o ChatGPT tem lutado com tráfego intenso e problemas de capacidade desacelerando e travando seus servidores. A empresa tentou remediar esta situação introduzindo um pagamento
ChatGPT Plus nível, que custa $ 20 por mês, no entanto, não há informações sobre quantos usuários assinam a opção paga.Atualmente, a OpenAI usa GPUs Nvidia para manter não apenas seus próprios processos ChatGPT, mas também os das marcas com as quais tem parceria. Analistas do setor esperam que a empresa provavelmente exija 30.000 GPUs adicionais da Nvidia para manter seu desempenho comercial apenas pelo restante de 2023.
Tendo a Microsoft como um de seus principais colaboradores e investidores, OpenAI pode estar olhando para a marca de tecnologia para ajudar no desenvolvimento de hardware para reduzir o custo de operações para ChatGPT. De acordo com o Windows Central, a Microsoft já tem esse chip AI em andamento. Com o codinome Athena, está sendo testado internamente com equipes próprias da marca. Espera-se que o chip seja introduzido no próximo ano para os serviços de IA do Azure da Microsoft.
Não há nenhuma palavra sobre como ou quando o chip chegará ao OpenAI e ChatGPT, mas a suposição é que sim. A conexão vem do fato de que o ChatGPT é suportado pelos serviços do Azure. O chip AI pode não substituir totalmente as GPUs da Nvidia, mas pode ajudar a diminuir a demanda pelo hardware, reduzindo assim o custo de execução do ChatGPT, acrescentou o Windows Central.
Recomendações dos editores
- O Google Bard agora pode falar, mas pode abafar o ChatGPT?
- ChatGPT: as últimas notícias, polêmicas e dicas que você precisa saber
- O recurso de navegação Bing do ChatGPT foi desativado devido a uma falha de acesso pago
- 81% acham que o ChatGPT é um risco à segurança, segundo pesquisa
- Rival do ChatGPT da Apple pode escrever código automaticamente para você
Atualize seu estilo de vidaO Digital Trends ajuda os leitores a acompanhar o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais perspicazes e prévias exclusivas.