Auteur original : Cuy Sheffield, Vice-président de Visa et responsable des activités cryptographiques
Traduit par : Saoirse, Foresight News
Alors que les cryptomonnaies et l'intelligence artificielle avancent progressivement vers une maturité accrue, la transformation la plus importante dans ces deux domaines n'est plus aujourd'hui de passer du stade de la faisabilité théorique à la réalité pratique, mais plutôt de permettre une mise en œuvre fiable dans des conditions réelles. Actuellement, ces deux technologies ont franchi des seuils critiques, avec des améliorations significatives de leurs performances, mais leur adoption concrète reste inégale. Les évolutions clés de 2026 résulteront précisément de cette divergence entre performances techniques et taux d'adoption.
Voici les grands thèmes centraux que je suis depuis longtemps, ainsi que mes premières réflexions sur les orientations du développement technologique, les domaines d'accumulation de valeur, et même sur la question de savoir « pourquoi les gagnants finaux pourraient être radicalement différents des pionniers du secteur ».
Thème 1 : Les cryptomonnaies évoluent d'une catégorie d'actifs spéculatifs vers une technologie de qualité.
Le premier décennie du développement des cryptomonnaies a été marquée par la « supériorité spéculative » : leur marché étant global, continu et hautement ouvert, la forte volatilité rend le trading de cryptomonnaies plus dynamique et attractif que les marchés financiers traditionnels.
Pendant ce temps, les technologies sous-jacentes ne sont pas encore prêtes pour une utilisation de masse : les premières blockchains étaient lentes, coûteuses et manquaient de stabilité. En dehors des cas d'utilisation spéculatifs, les cryptomonnaies n'ont presque jamais surpassé les systèmes traditionnels existants en termes de coût, de vitesse ou de commodité.
Aujourd'hui, cette situation déséquilibrée commence à se renverser. La technologie blockchain est devenue plus rapide, plus économique et plus fiable, et les applications les plus attractives des cryptomonnaies ne sont plus l'investissement spéculatif, mais plutôt le domaine de l'infrastructure – en particulier les systèmes de règlement et de paiement. Alors que les cryptomonnaies deviennent progressivement une technologie plus mature, le rôle central de la spéculation s'affaiblira progressivement : elle ne disparaîtra pas complètement, mais ne sera plus la principale source de valeur.
Sujet 2 : Les stablecoins constituent un aboutissement évident de l'utilité pratique des cryptomonnaies.
Contrairement aux récits précédents autour des cryptomonnaies, le succès des monnaies stables repose sur des critères concrets et objectifs : dans des contextes spécifiques, ces monnaies stables s'avèrent plus rapides, moins coûteuses, plus accessibles que les canaux de paiement traditionnels, tout en s'intégrant de manière transparente dans les systèmes logiciels modernes.
Les monnaies stables n'exigent pas que les utilisateurs adoptent la cryptomonnaie comme une « idéologie » à suivre. Leur utilisation se produit souvent de manière « implicite » au sein des produits et processus existants. Cela permet aux institutions et entreprises, qui considéraient auparavant l'écosystème des cryptomonnaies comme « trop volatil et peu transparent », de comprendre enfin sa valeur.
On peut dire que les stablecoins aident les cryptomonnaies à se recentrer sur leur « utilité » plutôt que sur leur « spéculation », et établissent un repère clair sur la manière dont « les cryptomonnaies peuvent réussir concrètement ».
Thème 3 : Lorsque les cryptomonnaies deviennent une infrastructure, la « capacité de distribution » est plus importante que la « nouveauté technologique »
Autrefois, lorsque les cryptomonnaies jouaient principalement le rôle d'« outil spéculatif », leur « distribution » était endogène — un nouveau jeton n'avait besoin que d'« exister » pour accumuler naturellement de la liquidité et de l'attention.
Une fois que les cryptomonnaies deviennent une infrastructure, leurs applications évoluent d'un niveau "marché" vers un niveau "produit" : elles s'intègrent dans les processus de paiement, les plateformes et les systèmes d'entreprise, et les utilisateurs finaux n'en prennent souvent pas conscience.
Ce changement profitera particulièrement à deux types d'acteurs : d'une part, les entreprises disposant déjà de canaux de distribution éprouvés et de relations clients fiables ; d'autre part, les institutions équipées de licences réglementaires, de systèmes de conformité et d'infrastructures de prévention des risques. La simple « nouveauté du protocole » n'est désormais plus suffisante pour permettre à la monnaie numérique de s'imposer à grande échelle.
Thème 4 : Les agents intelligents basés sur l'IA démontrent une valeur pratique et leur impact dépasse désormais le domaine de la programmation.
L'utilité des agents d'IA devient de plus en plus évidente, mais leur rôle est souvent mal interprété : les agents les plus réussis ne sont pas des « décideurs autonomes », mais des « outils réduisant les coûts de coordination au sein des processus de travail ».
Historiquement, ce phénomène s'est le plus clairement manifesté dans le domaine du développement logiciel - les outils d'agents intelligents ont accéléré l'efficacité de la programmation, du débogage, de la refonte du code et de la configuration des environnements. Cependant, ces dernières années, cette « valeur outil » se diffuse de plus en plus fortement vers de nombreux autres domaines.
Prenons à titre d'exemple des outils tels que Claude Code. Bien qu'ils soient positionnés comme des « outils pour développeurs », leur adoption rapide reflète une tendance plus profonde : les systèmes d'agents intelligents deviennent l'« interface des tâches intellectuelles », dépassant largement le domaine de la programmation. Les utilisateurs commencent à appliquer des « processus de travail pilotés par des agents intelligents » à des tâches telles que la recherche, l'analyse, la rédaction, la planification, le traitement des données et les opérations — des tâches qui relèvent davantage de « travaux professionnels généralistes » que de la programmation traditionnelle.
Ce qui est vraiment essentiel, ce n'est pas l'encodage de l'atmosphère lui-même, mais plutôt le modèle fondamental qui se cache derrière :
- Les utilisateurs confient des « intentions cibles », et non des « étapes spécifiques » ;
- Gestion du « contexte » pour les agents traversant les fichiers, les outils et les tâches ;
- Le mode de travail passe d'une "progression linéaire" à un mode "itératif et dialogique".
Dans les diverses tâches liées aux connaissances, les agents sont compétents pour collecter le contexte, exécuter des tâches spécifiques, réduire les transferts de processus et accélérer l'efficacité des itérations. Cependant, ils présentent encore des lacunes en matière de « jugement ouvert », d'« attribution de responsabilité » et de « correction d'erreurs ».
Ainsi, la plupart des agents utilisés actuellement dans des scénarios de production restent encore « limités dans leur champ d'application, supervisés et intégrés dans des systèmes », plutôt que de fonctionner de manière entièrement autonome. La véritable valeur des agents réside dans la « refonte des processus de travail intellectuel », plutôt que dans la « substitution de la main-d'œuvre » ou la « réalisation d'une autonomie totale ».
Thème 5 : Le défi majeur de l'IA est passé du « niveau d'intelligence » à la « confiance »
Le niveau d'intelligence des modèles d'IA a connu une progression rapide. Aujourd'hui, le facteur limitant n'est plus « la fluidité linguistique ou la capacité de raisonnement individuelle », mais plutôt « la fiabilité dans les systèmes réels ».
Les environnements de production ne tolèrent aucune des trois catégories de problèmes : premièrement, les « hallucinations » de l'IA (génération d'informations fausses), deuxièmement, des résultats incohérents, et troisièmement, des modes de défaillance non transparents. Dès lors que l'IA est impliquée dans les services clients, les transactions financières ou les aspects de conformité, des résultats « à peu près corrects » ne sont plus acceptables.
La construction de la « confiance » repose sur quatre fondations : premièrement, la traçabilité des résultats, deuxièmement, la capacité à mémoriser, troisièmement, la vérifiabilité, et quatrièmement, la capacité à révéler activement l'« incertitude ». Avant que ces capacités ne soient suffisamment matures, l'autonomie de l'IA doit être limitée.
Sujet 6 : L'ingénierie système détermine si l'IA peut être mise en œuvre dans des scénarios industriels
Un produit d'IA réussi considère le « modèle » comme un « composant » plutôt qu'un « produit fini » : sa fiabilité découle de la « conception architecturale », et non de l'« optimisation des prompts ».
Ici, la « conception architecturale » englobe la gestion d'état, le flux de contrôle, le système d'évaluation et de surveillance, ainsi que les mécanismes de gestion des pannes et de récupération. C'est précisément pour cette raison que le développement de l'IA actuelle se rapproche de plus en plus de l'« ingénierie logicielle traditionnelle », plutôt que de la « recherche théorique de pointe ».
La valeur à long terme va se porter sur deux types d'acteurs : d'une part, les constructeurs de systèmes, et d'autre part, les propriétaires de plateformes qui contrôlent les processus de travail et les canaux de distribution.
À mesure que les outils d'agents s'étendent des domaines de la programmation vers la recherche, l'écriture, l'analyse et les processus opérationnels, l'importance de l'ingénierie système deviendra encore plus évidente : les tâches intellectuelles sont souvent complexes, dépendantes d'informations d'état et riches en contexte. Cela rend les agents capables de gérer de manière fiable la mémoire, les outils et les processus itératifs (et non seulement les agents capables de générer des sorties) particulièrement précieux.
Thème 7 : La contradiction entre les modèles ouverts et le contrôle centralisé soulève des problèmes de gouvernance encore non résolus.
Alors que les capacités des systèmes d'IA s'améliorent et que leur intégration aux domaines économiques s'approfondit, la question de savoir « qui possède et contrôle les modèles d'IA les plus puissants » suscite un conflit fondamental.
D'une part, la recherche et le développement dans les domaines de pointe de l'IA restent « intensifs en capital », et leur concentration s'accroît sous l'effet des « capacités de calcul, des réglementations et de la géopolitique ». D'autre part, les modèles et outils open source continuent d'évoluer et d'être optimisés, grâce à l'impulsion apportée par les « expérimentations étendues et le déploiement facilité ».
Cette situation de « concentration et d'ouverture coexistantes » soulève un certain nombre de questions encore sans réponse : risques de dépendance, vérifiabilité, transparence, capacité de négociation à long terme, et contrôle des infrastructures critiques. Le scénario le plus probable est celui d'un « modèle hybride » : les modèles de pointe stimulent les avancées technologiques, tandis que des systèmes ouverts ou semi-ouverts intègrent ces capacités dans un « logiciel largement réparti ».
Thème 8 : La monnaie programmable donne naissance à de nouveaux flux de paiement d'entités intelligentes
Lorsque les systèmes d'IA jouent un rôle dans les processus de travail, leurs besoins en « interactions économiques » augmentent de plus en plus, par exemple pour payer des services, appeler des API, rémunérer d'autres agents, ou régler des « frais d'interaction basés sur l'utilisation ».
Cette demande a relancé l'intérêt pour les « stablecoins » : perçus comme une « monnaie native des machines », ils sont programmables, audiables et permettent des transferts automatisés sans intervention humaine.
Prenons par exemple x402, un protocole "orienté développeurs". Bien qu'il se trouve encore à un stade expérimental précoce, la direction qu'il indique est claire : le flux de paiement s'effectuera sous forme d'« API », et non plus via la méthode traditionnelle des « pages de paiement » — ce qui permettra aux agents logiciels d'accomplir des transactions "continues et précises".
Actuellement, ce domaine reste encore immature : les volumes de transactions sont faibles, l'expérience utilisateur est encore brutale, et les systèmes de sécurité et d'autorisation sont en cours d'amélioration. Mais les innovations en matière d'infrastructures commencent souvent par ce genre d'« exploration précoce ».
Il convient de noter que son importance ne réside pas dans l'autonomie pour l'autonomie, mais dans le fait que « de nouveaux comportements économiques deviendront possibles lorsque les logiciels pourront programmer des transactions ».
Conclusion
Que ce soit pour les cryptomonnaies ou l'intelligence artificielle, les stades initiaux favorisent davantage les « concepts attirant l'attention » et la « nouveauté technologique » ; mais à l'étape suivante, la « fiabilité », la « capacité de gouvernance » et la « capacité de distribution » deviendront des dimensions de compétition plus importantes.
Aujourd'hui, la technologie elle-même n'est plus le facteur limitant principal ; l'essentiel réside désormais dans l'intégration de cette technologie dans des systèmes pratiques.
À mon avis, la caractéristique marquante de 2026 ne sera pas « une technologie brisant les cadres », mais plutôt « l'accumulation progressive des infrastructures » — celles-ci, tout en fonctionnant discrètement, redéfinissent insensiblement « la manière dont la valeur s'échange » et « la façon dont le travail est mené ».
