DeepSeek défie les géants de l’IA avec un ratio théorique de rentabilité de 545 % par jour

0
158

L’intelligence artificielle chinoise s’impose à nouveau sur la scène technologique mondiale. La startup DeepSeek, basée à Hangzhou, a récemment révélé des chiffres impressionnants sur la rentabilité de ses modèles d’IA V3 et R1. Selon ses estimations, le coût d’exploitation quotidien de ces modèles s’élève à 87 072 dollars, tandis que les revenus générés pourraient atteindre 562 027 dollars par jour, soit un ratio théorique de 545 %. Cependant, l’entreprise nuance ses propres projections en précisant que ses revenus réels restent bien en deçà de ce chiffre.

Cette divulgation marque la première fois que DeepSeek partage des données financières sur les coûts d’inférence, c’est-à-dire l’utilisation d’un modèle pré-entraîné pour effectuer des tâches. Ces révélations interviennent dans un contexte où les investisseurs surveillent de près les entreprises d’IA, en particulier après la chute des actions des géants de l’IA occidentaux en janvier dernier.

La raison ? DeepSeek a affirmé avoir dépensé moins de 6 millions de dollars pour entraîner ses modèles sur des puces Nvidia H800, considérées comme bien moins performantes que celles utilisées par des mastodontes comme OpenAI. Cette différence de coût a semé le doute sur la pertinence des investissements massifs de plusieurs milliards de dollars que les entreprises américaines consacrent aux semi-conducteurs de dernière génération.

DeepSeek a partagé ces données dans un post publié sur GitHub ce samedi. L’entreprise estime qu’en louant des puces Nvidia H800 à 2 dollars de l’heure, elle peut maintenir un coût d’inférence particulièrement bas. Si l’on projette ces chiffres sur une année complète, la startup pourrait théoriquement générer plus de 200 millions de dollars de revenus annuels.

Cependant, DeepSeek reconnaît que ses revenus réels sont “considérablement plus bas” pour plusieurs raisons :

• Tarification différenciée : L’utilisation du modèle V3 est facturée moins cher que celle du R1.

• Monétisation partielle : Seuls certains services sont payants, tandis que l’accès via le web et les applications mobiles reste gratuit.

• Réduction des coûts aux heures creuses : Les développeurs bénéficient de tarifs réduits en dehors des pics d’utilisation.

Ces révélations viennent accentuer la pression sur les acteurs américains du secteur. Les modèles d’IA développés aux États-Unis reposent sur des infrastructures nettement plus coûteuses, notamment des clusters de puces Nvidia H100 et B100, bien plus puissantes que les H800 utilisées par DeepSeek. Si la startup chinoise parvient à offrir des performances compétitives à un coût dérisoire, cela pourrait remettre en question la rentabilité des modèles économiques d’OpenAI, Anthropic et Google DeepMind.

De plus, cette annonce pourrait inciter les investisseurs à réévaluer la stratégie des entreprises occidentales, qui misent sur des dépenses colossales en matériel pour maintenir leur avance. La question qui se pose désormais est simple : DeepSeek a-t-il trouvé la formule magique pour démocratiser l’IA à moindre coût, ou bien ses chiffres cachent-ils des limites que le marché n’a pas encore perçues ?

En dévoilant ces informations, DeepSeek fait un coup de maître en alimentant le débat sur le coût réel de l’IA et sa rentabilité. Reste à voir si cette transparence forcera les géants de l’industrie à revoir leurs stratégies ou si elle ne fera que renforcer la méfiance des investisseurs à l’égard d’un marché en constante mutation.

➡ Suivez toute l’actualité technologique sur TekTek !

📢 Rejoignez-nous sur Twitter/X : @iam_tektek, Threads : @iam_tektek, et sur notre chaîne WhatsApp : TekTek sur WhatsApp.

Partager

Comments are closed.