Google lance Deep Research et Deep Research Max avec prise en charge MCP et graphiques natifs

icon MarsBit
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRésumé

expand icon
Google lance Deep Research et Deep Research Max, construits sur Gemini 3.1 Pro, avec le support du Model Context Protocol et la génération native de graphiques. Ces outils sont désormais en préversion publique via l'API Gemini, ciblant les besoins des entreprises et des développeurs. L'indice de peur et de cupidité reste une métrique clé pour les traders évaluant le sentiment du marché. Ces agents offrent une intégration et une visualisation des données améliorées, aidant les utilisateurs à identifier les niveaux de support critiques en temps réel.

Article | LettreAI

Google est vraiment pressé.

Juste après l'annonce que le cofondateur de Google, Sergey Brin, a relancé le « mode fondateur », supervisant personnellement la création d'une équipe d'élite pour accélérer le rattrapage de Gemini face à des concurrents comme Anthropic en matière de capacités clés telles que la programmation IA et les agents autonomes.

Juste après, Google a annoncé en pleine nuit une mise à jour majeure, lançant deux nouveaux agents d'investigation autonomes construits sur le modèle Gemini 3.1 Pro : Deep Research et Deep Research Max.

Non seulement renforcer les capacités d'inférence au niveau fondamental du modèle, mais aussi promouvoir activement l'évolution des agents d'auto-recherche vers des plateformes d'entreprise et de développeurs, en ouvrant des API, en prenant en charge les données privées et les tâches asynchrones en arrière-plan, afin de saisir un avantage compétitif dans le scénario à haute valeur ajoutée des « outils d'IA pour la recherche/analyse » face à la concurrence d'OpenAI (Hermes), Perplexity et autres.

Gemini 3.1 Pro

Ces deux agents permettent pour la première fois aux développeurs de fusionner, via un seul appel API, des données du réseau ouvert avec des informations propriétaires d'entreprise, de générer nativement des graphiques et des infographies dans les rapports d'étude, et de se connecter à n'importe quelle source de données tierce via le Model Context Protocol (MCP).

Deux agents sont désormais disponibles en préversion publique via les forfaits payants de l'API Gemini, accessibles via l'API Interactions lancée par Google en décembre 2025.

Oui, ces nouveaux agents ne sont pour l'instant accessibles que par l'API ; les utilisateurs ordinaires ne peuvent pas les utiliser dans l'application Gemini, même s'ils ont souscrit à un abonnement payant. Certains utilisateurs, déçus de voir la mise à jour sans pouvoir l'utiliser, ont exprimé leur frustration : « Google semble continuer à punir nos abonnés Pro de l'application Gemini... »

Gemini 3.1 Pro

Le PDG de Google, Sundar Pichai, a également participé directement sur X : « Utilisez Deep Research lorsque vous avez besoin de vitesse et d'efficacité ; utilisez la version Max lorsque vous recherchez la meilleure qualité de collecte et de synthèse contextuelle — elle atteint des résultats de 93,3 % pour DeepSearchQA et 54,6 % pour HLE grâce à une augmentation du calcul pendant les tests. »

Gemini 3.1 Pro

Il y a 18 mois, l'objectif de Google Deep Research était d'aider les étudiants en doctorat à éviter d'être submergés par une multitude d'onglets de navigateur. Aujourd'hui, Google espère qu'il pourra remplacer les tâches de recherche de base des analystes juniors des banques d'investissement.

L'écart entre ces deux objectifs — ainsi que la capacité de cette technologie à réellement combler cet écart — déterminera si les agents de recherche autonome deviendront un produit révolutionnaire dans le domaine du logiciel d'entreprise, ou ne seront qu'une autre démonstration d'intelligence artificielle éblouissante lors des tests mais décevante lors des conférences.

Deux versions, optimisées pour différentes charges de travail

La version Standard de Deep Research offre une latence plus faible et un coût réduit, idéale pour les scénarios où la vitesse est cruciale.

Deep Research Max privilégie la profondeur plutôt que la vitesse. Cet agent effectue un raisonnement approfondi, une recherche et des itérations en étendant le calcul au moment de l'inférence, avant de générer un rapport.

Google indique que les flux de travail asynchrones en arrière-plan constituent un scénario idéal, par exemple en les exécutant pendant la nuit via une tâche planifiée (cron job) pour fournir à l'équipe d'analystes, le matin suivant, un rapport complet de due diligence.

Dans les tests internes de Google, Deep Research Max a réalisé des progrès significatifs sur les tâches de recherche et d'inférence. Cet agent peut extraire des informations à partir d'une plus grande variété de sources que les versions précédentes et capter des subtilités que les modèles précédents avaient tendance à ignorer.

Gemini 3.1 Pro

Google a également fourni une comparaison avec les concurrents.

Cependant, comparer cela à OpenAI's GPT-5.4 et Anthropic's Opus 4.6 n'est pas tout à fait équitable. GPT-5.4 excelle dans la recherche web autonome, mais n'a pas été spécifiquement optimisé pour la recherche approfondie. À cet effet, OpenAI a développé son propre agent DR, qui a été mis à jour en février pour passer à GPT-5.2 plutôt qu'à GPT-5.4. Le modèle de recherche le plus puissant d'OpenAI est en réalité GPT-5.4 Pro, mais Google n'a visiblement pas inclus ce dernier dans sa comparaison.

Gemini 3.1 Pro

Selon les données d'OpenAI, GPT-5.4 Pro obtient un score maximal de 89,3 % sur le benchmark de recherche d'agents BrowseComp, contre 82,7 % pour GPT-5.4.

Selon le rapport d'Anthropic lui-même, Opus 4.6 obtient un score de 84 % sur BrowseComp, supérieur à la valeur présentée par Google. Ce score a été obtenu avec la fonction d'inférence désactivée, et le modèle a performé mieux que les paramètres d'inférence intensifs utilisés par Google dans les tests d'API.

Ces écarts sont probablement dus à des différences dans les méthodes de test — le modèle est-il évalué via l'API originale ou est-il encapsulé dans les chaînes d'outils propres à chaque laboratoire ? Les données de Google ne sont pas nécessairement erronées, mais méritent d'être interprétées avec prudence. Quoi qu'il en soit, leur présentation manque de transparence suffisante.

Prise en charge de MCP

La fonction la plus impactante de cette mise à jour est probablement l'ajout du support du Model Context Protocol (MCP). Cette fonction transforme Deep Research d'un outil de recherche web puissant en une entité plus proche d'un « analyste de données universel ».

MCP est une norme ouverte émergente permettant de connecter des modèles d'IA à des sources de données externes. Il permet à Deep Research de interroger en toute sécurité des bases de données privées, des bibliothèques de documents internes et des services de données tierces spécialisées — le tout sans que les informations sensibles ne quittent leur environnement d'origine.

Dans une application réelle, cela signifie qu’un hedge fund peut orienter Deep Research à la fois vers sa base de données de flux de transactions internes et ses terminaux de données financières, puis demander à l’agent de combiner ces informations avec des données publiques provenant du web pour générer des insights intégrés.

Google révèle qu'elle collabore activement avec des entreprises telles que FactSet, S&P et PitchBook pour concevoir son service MCP, ce qui démontre clairement que Google cherche à intégrer en profondeur les fournisseurs de données auxquels Wall Street et l'industrie des services financiers en général font quotidiennement appel.

Selon l'article de blog rédigé par Lukas Haas et Srinivas Tadepalli, produits managers chez Google DeepMind, l'objectif est « de permettre aux clients communs d'intégrer des produits de données financières dans des flux de travail pilotés par Deep Research, et d'atteindre un saut de productivité en exploitant son vaste univers de données pour collecter des contextes à la vitesse de l'éclair. »

Cette fonction résout directement l’un des problèmes les plus persistants lors de l’adoption de l’IA par les entreprises : l’écart considérable entre les informations disponibles sur l’Internet ouvert et celles nécessaires aux décisions de l’organisation. Auparavant, combler cet écart exigeait de nombreux travaux d’ingénierie personnalisés.

MCP prend en charge l'intégration des capacités de navigation autonome et d'inférence de Deep Research, simplifiant la plupart des complexités à une seule configuration. Les développeurs peuvent désormais permettre à Deep Research d'utiliser simultanément Google Search, un serveur MCP distant, le contexte URL, l'exécution de code et la recherche de fichiers — ou bien désactiver complètement l'accès réseau pour effectuer des recherches uniquement sur des données personnalisées.

Le système prend également en charge les entrées multimodales, notamment PDF, CSV, images, audio et vidéo, en tant que grounding (contexte de grounding).

Graphiques natifs

La deuxième fonctionnalité majeure est la génération native de graphiques et d'infographies.

La version précédente de Deep Research ne pouvait générer que des rapports en texte brut. Si les utilisateurs avaient besoin de visualisations, ils devaient exporter les données et créer eux-mêmes les graphiques. Ce défaut affaiblissait considérablement la position de « automatisation end-to-end ».

Aujourd'hui, les nouveaux agents intelligents peuvent intégrer nativement des graphiques de haute qualité et des infographies dans leurs rapports, rendant dynamiquement des jeux de données complexes au format HTML ou Google Nano Banana, afin qu'ils deviennent directement une partie intégrante du récit analytique.

Pour les utilisateurs professionnels — notamment ceux des secteurs financier et de conseil qui doivent produire des résultats directement livrables aux parties prenantes — cette fonction transforme Deep Research d’un outil d’accélération de la phase de recherche en un outil capable de générer des produits d’analyse proches du résultat final.

Gemini 3.1 Pro

En outre, en combinant la nouvelle fonctionnalité de planification collaborative (qui permet aux utilisateurs de reviser, guider et optimiser les plans de recherche des agents avant exécution) ainsi que la sortie en streaming en temps réel des étapes intermédiaires de raisonnement, le nouveau système permet aux développeurs d'exercer un contrôle granulaire sur la portée de l'enquête, tout en maintenant un niveau de transparence élevé requis par le secteur réglementaire.

Deep Research devient une partie de l'infrastructure que Google fournit aux entreprises.

Le blog officiel de Google précise clairement que lorsqu'ils utilisent l'agent Deep Research pour construire leurs applications, les développeurs appellent la même infrastructure autonome de recherche qui fournit des capacités de recherche à plusieurs produits populaires de Google, tels que l'application Gemini, NotebookLM, Google Search et Google Finance. Cela indique que les agents proposés via l'API ne sont pas une version simplifiée de la version interne de Google, mais bien le même système, offert à l'échelle d'une plateforme.

Ce processus d'évolution a progressé extrêmement rapidement.

Google a lancé Deep Research pour la première fois en décembre 2024 dans l'application Gemini, en tant que fonction destinée aux consommateurs, alimentée par Gemini 1.5 Pro. Google le décrit comme un assistant de recherche IA personnel capable de synthétiser les informations du web en quelques minutes, aidant les utilisateurs à économiser plusieurs heures de travail.

En mars 2025, Google a mis à jour Deep Research avec Gemini 2.0 Flash Thinking Experimental et l'a rendu disponible en essai pour tous. Par la suite, il a été mis à niveau vers Gemini 2.5 Pro Experimental, et Google a déclaré que les évaluateurs préféraient ses rapports à ceux de ses concurrents dans une proportion de 2 contre 1.

Décembre 2025 constitue un tournant important : Google a lancé l'API Interactions, offrant pour la première fois un accès programmable à Deep Research, alimenté par Gemini 3 Pro, et a simultanément publié le benchmark open source DeepSearchQA.

Le modèle sous-jacent à cette amélioration est Gemini 3.1 Pro, publié le 19 février 2026. Il réalise une avancée majeure en matière de capacité de raisonnement : sur le benchmark ARC-AGI-2, qui évalue la capacité des modèles à résoudre des motifs logiques nouveaux, Gemini 3.1 Pro obtient un score de 77,1 %, soit plus du double de celui de Gemini 3 Pro.

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.