Un nouveau rapport prétend connaître le coût d'exécution de ChatGPT par jour, y compris le coût approximatif de chaque requête. Le chatbot de synthèse vocale populaire aurait pu déclencher une révolution de l'IA en novembre 2022, mais s'est avéré extrêmement coûteux à entretenir.
Le nouveau rapport provient de Dylan Patel, analyste en chef au cabinet d'études SemiAnalysis, qui dit qu'il en coûte environ 700 000 $ par jour, soit 36 cents par requête, pour maintenir le chatbot opérationnel.
Vidéos recommandées
C'est si cher, en fait, que Microsoft pourrait développer ses propres puces d'IA propriétaires pour aider à la maintenance du fonctionnement d'OpenAI de ChatGPT, selon Centrale Windows.
En plus d'atteindre rapidement 100 millions d'utilisateurs actifs en janvier, un exploit qui prenait auparavant des années aux marques technologiques, ChatGPT a eu du mal avec trafic élevé et des problèmes de capacité ralentissant et plantant ses serveurs. L'entreprise a tenté d'y remédier en introduisant un
ChatGPT Plus niveau, qui coûte 20 $ par mois, cependant, on ne sait pas combien d'utilisateurs souscrivent à l'option payante.OpenAI utilise actuellement les GPU Nvidia pour maintenir non seulement ses propres processus ChatGPT, mais également ceux des marques avec lesquelles il s'associe. Les analystes du secteur s'attendent à ce que la société ait probablement besoin de 30 000 GPU supplémentaires de Nvidia pour maintenir ses performances commerciales pour le reste de 2023 seulement.
Avec Microsoft comme l'un de ses principaux collaborateurs et investisseurs, OpenAI pourrait se tourner vers la marque technologique pour l'aider à développer du matériel afin de réduire le coût des opérations pour ChatGPT. Selon Windows Central, Microsoft a déjà cette puce AI en préparation. Baptisé Athena, il est actuellement testé en interne auprès des équipes de la marque. La puce devrait être introduite l'année prochaine pour les services Azure AI de Microsoft.
On ne sait pas comment ni quand la puce se répercutera sur OpenAI et ChatGPT, mais on suppose que ce sera le cas. La connexion vient du fait que ChatGPT est pris en charge par les services Azure. La puce AI pourrait ne pas remplacer complètement les GPU Nvidia, mais pourrait aider à réduire la demande de matériel, réduisant ainsi le coût d'exécution de ChatGPT, a ajouté Windows Central.
Recommandations des éditeurs
- Google Bard peut désormais parler, mais peut-il noyer ChatGPT?
- ChatGPT: les dernières actualités, controverses et astuces à connaître
- La fonctionnalité de navigation Bing de ChatGPT est désactivée en raison d'une faille d'accès au mur payant
- 81 % pensent que ChatGPT est un risque pour la sécurité, selon une enquête
- Le rival ChatGPT d'Apple peut automatiquement écrire du code pour vous
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde trépidant de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.