Le fonctionnement du chatbot ChatGPT coûte près de 700.000 dollars par jour à l’entreprise OpenAI.
Le chatbot d’IA conversationnel d’OpenAI, ChatGPT, est rapidement devenu une sensation virale avec sa capacité à écrire des articles, à composer des e-mails et à générer du code. Cependant, un nouveau rapport suggère maintenant qu’il en coûte à OpenAI un montant impie juste pour le faire fonctionner quotidiennement.
Selon les recherches de SemiAnalysis, OpenAI dépense jusqu’à 694 444 $ par jour pour maintenir le chatbot opérationnel. La société estime que le système comprend environ 3 617 serveurs HGX A100 comprenant 28 936 GPU, avec un coût par requête estimé à environ 0,36 centime.
Dylan Patel, analyste en chef chez SemiAnalysis, a déclaré à Business Insider que les coûts actuels de fonctionnement du logiciel pourraient être encore plus élevés, car GPT-4 est probablement encore plus cher à exploiter que GPT-3. Patel a basé les estimations sur l’ancien modèle GPT-3, mais OpenAI a déjà publié une version GPT-4 pour les abonnés payants. La société affirme que le nouveau modèle offre des informations plus précises et protège mieux contre les commentaires hors du commun qui sont devenus un problème avec GPT-3/3.5.
L’une des principales raisons des coûts exorbitants est les puces spécialisées gourmandes en énergie nécessaires pour faire fonctionner le système. Pour lutter contre ce problème, Microsoft, l’un des actionnaires les plus importants d’OpenAI, travaillerait sur sa propre puce AI appelée « Athena » qui pourrait remplacer les GPU NVIDIA et réduire considérablement les coûts de fonctionnement de ChatGPT.
Pendant ce temps, ChatGPT peut également générer du code fonctionnel à partir de zéro, ce qui fait craindre qu’il ne remplace éventuellement les programmeurs. Cependant, des recherches récentes menées par les informaticiens Raphaël Khoury, Anderson Avila, Jacob Brunelle et Baba Mamadou Camara suggèrent que le code généré par le chatbot n’est peut-être pas très sécurisé.
L’étude indique que ChatGPT génère du code « bien en dessous des normes de sécurité minimales applicables dans la plupart des contextes ». Le chatbot l’avoue même lorsqu’on lui demande si le code qu’il a généré est sécurisé.
« Lorsqu’on lui a demandé si le code produit était sécurisé ou non, ChatGPT a pu reconnaître qu’il ne l’était pas », ont déclaré les auteurs.
Pour vérifier les références de codage de ChatGPT, les chercheurs lui ont demandé de générer 21 programmes et scripts à l’aide de quatre langages de programmation : C, C++, Python et Java. Lors du premier essai, le chatbot AI n’a réussi à écrire que cinq programmes sécurisés, mais a ensuite proposé sept extraits de code sécurisés supplémentaires après quelques incitations des chercheurs. Les résultats suggèrent que l’utilisation de ChatGPT pour coder des applications pourrait être dangereuse dans un avenir prévisible, bien que cela puisse changer à un moment donné.