Le lancement de DeepSeek V4 suscite des réactions mitigées : l'architecture est saluée, mais le écart avec les modèles de pointe persiste

iconKuCoinFlash
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRésumé

expand icon
Le 24 avril (UTC+8), le lancement de DeepSeek V4 a suscité des retours mitigés de la part des développeurs aux États-Unis et en Chine. Les développeurs américains ont souligné les améliorations architecturales en matière de compression de l'attention et d'efficacité sur les contextes longs, bien que la plupart soient d'accord pour dire qu'il retarde de 3 à 6 mois par rapport aux meilleurs modèles. En Chine, les utilisateurs ont salué les performances de l'agent de codage et le prix bas, certains notant que la version Pro égale Claude Opus 4.6 dans certains domaines, mais reste en retrait en matière de raisonnement complexe. Les deux groupes observent un fort soutien et une forte résistance dans les tâches de codage et de contexte long, mais le rapport risque/rendement reste incertain en raison des lacunes en raisonnement global par rapport aux principaux modèles américains.

Selon les nouvelles de ME News, le 24 avril (UTC+8), selon le suivi de Beating, après le lancement de DeepSeek V4, les communautés de développeurs chinoises et américaines affichent une dualité de « reconnaissance technique » et de « consensus sur l'écart ». Aux États-Unis, Amjad Masad, PDG de Replit, a salué la compression de l'attention et l'amélioration de l'efficacité des contextes longs de V4 comme de véritables innovations architecturales. Les développeurs sur Reddit et Hacker News ont réagi positivement au modèle open source avec un contexte de 1M et à sa licence MIT, mais la majorité adoptent une attitude d'attente, exprimant « attendons de tester avant de juger ». Chris McGuire, chercheur au CFR, a souligné que le rapport de V4 reconnaît lui-même un retard de 3 à 6 mois par rapport aux modèles de pointe. En Chine, les communautés V2EX et Zhihu se concentrent sur les capacités d'agent de programmation et la stratégie tarifaire abordable de V4 ; les premiers retours suggèrent que la version Pro approche déjà le niveau de Claude Opus 4.6, mais présente encore des lacunes dans les tâches complexes d'inférence approfondie. L'adaptation à Huawei Ascend suscite un fort intérêt. Avant le lancement, plusieurs mois de retards répétés avaient généré de nombreuses interrogations ; après le lancement officiel, la communauté est passée à une phase d'essais intensifs. Les points d'intérêt communs sont : V4 affiche des performances solides en codage et dans les scénarios à contexte long, mais n'a pas encore rattrapé les modèles propriétaires de pointe américains en matière d'inférence globale. (Source : BlockBeats)

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.