Vous le savez peut-être, la tech mondiale a tremblé la semaine dernière avec une annonce choc venue de Chine 🇨🇳 : DeepSeek, une start-up chinoise, a entraîné un LLM (modèle de langage massif) avoisinant les performances du modèle ChatGPT 4o pour seulement 5,6 millions de dollars.
Pour comparer, entraîner un modèle comme GPT-4 coûte minimum 70 millions de dollars, voir plus de 100 millions si on en croit Sam Altman, le PDG d’OpenAI ! Alors comment ça se fait ? Qu’est- ce que ça veut dire ? Voyons ça ensemble !
Mais avant tout, si ce n’est pas déjà fait vous pouvez :
– Me suivre sur Linkedin
– découvrir mes conférences en entreprise
| PERSPECTIVE | DE CHINE ET D’AILLEURS
🔎 Le contexte : pourquoi ça fait autant de bruit ?
• DeepSeek a révélé un modèle de langage performant, proche de GPT-4 sur certains benchmarks 📊.
• Son coût d’entraînement est 15 à 20 fois inférieur à celui des modèles OpenAI, Google ou Meta.
Résultat ? Nvidia, leader mondial des puces IA, a perdu près de 600 milliards de dollars en valorisation après cette annonce et d’autres géants comme AMD ou TSMC ont aussi vu leurs actions chuter 📉.
🧐 Pourquoi c’est étonnant (et pourquoi il faut relativiser)
1️⃣ Les modèles américains restent les plus performants 🏆
• Les benchmarks ne disent pas tout : ils testent des capacités spécifiques, mais ne reflètent pas toujours l’usage réel par des utilisateurs classiques 💻.
• OpenAI, Google, Anthropic et Meta offrent des modèles plus aboutis, plus accessibles et plus faciles à intégrer dans les outils du quotidien 🚀.
2️⃣ DeepSeek bénéficie du travail des pionniers 🔬
• OpenAI, Google et Meta ont pavé la voie en publiant une partie de leurs recherches.
• La Chine n’a pas eu à réinventer la roue mais à optimiser des processus déjà connus.
3️⃣ Le modèle est performant mais… censuré 🚫
• DeepSeek ne peut pas répondre sur Tiananmen, le Parti Communiste, ou d’autres sujets sensibles.
• Cela limite son utilité pour la recherche, contrairement aux modèles plus libres d’OpenAI et autres 🇺🇸.
4️⃣ L’entraînement coûte moins, mais l’inférence reste chère 💰
• Selon Yann LeCun (notre ingénieur français chez Meta), le vrai coût n’est pas l’entraînement, mais l’inférence : le processus par lequel un modèle utilise ce qu’il a appris lors de l’entraînement pour prédire, analyser ou générer des résultats à partir de nouvelles données.⚡.
• Sans infrastructure solide, DeepSeek devra encore investir massivement pour concurrencer OpenAI.
⚡ La riposte d’OpenAI : O3mini
• OpenAI ne s’est pas laissé faire et a dévoilé O3mini, un modèle performant mais moins coûteux en calcul 🏆
🇺🇸 Les États-Unis réagissent : Trump voit ça comme un défi… et une menace.
• Donald Trump a déclaré que cette avancée chinoise était “une bonne chose” car cela allait stimuler l’innovation aux États-Unis 🚀.
• Par contre, les US passent derrière plusieurs lois qui interdisent formellement l’utilisation de Deepseek pour les marines, la Nasa et au Texas, il est interdit sur les appareils gouvernementaux. Un projet de loi vise à l’interdire pour tous aux US avec une amende pouvant aller jusqu’à 1 million de dollars ou 20 ans de prison!
C’est une vraie guerre technologique que l’on vit! 💥
Alors, vraie révolution ou effet d’annonce ?
✅ DeepSeek montre effectivement que l’optimisation des coûts est possible 🏗️.
✅ Les modèles chinois progressent vite, avec aussi Alibaba et Baidu qui lancent des LLM.
❌ Mais les modèles américains restent plus avancés en termes de performances, d’intégration et de facilité d’utilisation.
❌ Les benchmarks ne font pas tout : la vraie différence se voit dans l’usage quotidien des utilisateurs 👩💻.
❌ La censure et l’infrastructure restent des obstacles majeurs pour la Chine.
❌ Il est difficile de faire confiance aux chiffres qui viennent de Chine et même malgré cela, il faut prendre en compte l’inférence.
| L’ASTUCE IA 💡 | QUE SUIS-JE CENSÉ FAIRE DE CELA ?
Chacun fait ce qu’il veut. Vous voulez utiliser DeepSeek, vous pouvez ! MAIS.
Mais je ne vois pas l’intérêt honnêtement, à part si vous êtes dans le domaine. Vous aurez accès à un modèle plus limité, moins performant et censuré. Alors que justement, les LLM ont révolutionné l’accès aux connaissances, c’est censé être un de leurs points forts !
Aussi, il faut savoir que dans les conditions d’utilisations de beaucoup d’appareils et de logiciel Chinois, dont Tik Tok, il est écrit noir sur blanc qu‘ils ont la possibilité d’observer les “keystroke patterns”, les schémas de frappes au clavier. Tout ce que vous taper sur votre portable ou ordinateur quoi.
La politique de confidentialité de cette de DeepSeek indique également qu’elle collecte diverses données utilisateur, y compris les schémas de frappe au clavier. Ces informations sont stockées sur des serveurs en République populaire de Chine. Ils affirment utiliser ces données pour améliorer la sécurité et la stabilité de ses services, mais précise également qu’elles peuvent être partagées avec des tiers.
Ça veut dire votre mot de passe, les messages que vous envoyer à vos amis, TOUT.
Réfléchissez-y une seconde. Les entreprises américaines ont déjà moins de régulation que celles en Europe et peuvent vendre vos données… mais pas jusque là ! Et là on parle d’un régime dictatorial qui pratique la censure et qui est en guerre technologique et commerciale avec les US.
Donc mon conseil est le suivant: vous êtes curieux et voulez voir comment ça marche ? Regarder un tuto sur Youtube. Mais ne téléchargez pas leur application, parce que la Chine, c’est un autre monde, niveau vie privée. ChatGPT, Claude ou Gemini n’ont rien à envier à ce modèle.