Auteur : David, Shenchao TechFlow
Récemment, en parcourant Reddit, j'ai remarqué que l'anxiété des internautes étrangers concernant l'IA diffère un peu de celle observée en Chine.
Le sujet reste toujours le même en Chine : l’IA remplacera-t-elle vraiment mon emploi ? On en discute depuis plusieurs années, et chaque année, cela n’a pas encore eu lieu ; cette année, Openclaw a connu un grand succès, mais il n’en est toujours pas arrivé à une substitution complète.
L'humeur sur Reddit est récemment divisée. Les commentaires sur certains fils technologiques populaires affichent souvent deux voix simultanément :
L'un dit que l'IA est trop compétente et qu'elle causera inévitablement un grand problème. L'autre dit que l'IA ne sait même pas faire les choses les plus simples, alors à quoi bon lui faire peur ?
Craignez que l'IA soit trop compétente, tout en la trouvant trop stupide.
Ce qui permet à ces deux émotions de coexister est une actualité récente concernant Meta.
Qui assume la responsabilité complète si l'IA ne obéit pas ?
Le 18 mars, un ingénieur interne à Meta a posé une question technique sur le forum de l'entreprise, et un autre collègue a utilisé un Agent IA pour l'aider à l'analyser. Cela relève de la procédure normale.
Mais après analyse, l'agent a directement publié une réponse sur le forum technique. Sans demander d'autorisation ni attendre de confirmation, il a publié un message hors de ses compétences.
Par la suite, d'autres collègues ont suivi la réponse de l'IA, déclenchant une série de changements d'autorisations qui ont exposé des données sensibles de Meta et de ses utilisateurs à des employés internes non autorisés à y accéder.
Le problème a été résolu deux heures plus tard. Meta a classé cet incident au niveau Sev 1, juste en dessous du niveau le plus élevé.

Cet article a immédiatement atteint les tendances de r/technology, et les commentaires se sont divisés en deux camps.
Un camp affirme que ceci est un exemple du risque réel des agents IA, tandis que l'autre estime que la vraie faute vient de la personne qui agit sans vérification. Les deux ont raison. Mais c'est précisément là le problème :
L'accident de l'agent IA, vous ne parvenez même pas à clarifier la répartition des responsabilités.
Ce n'est pas la première fois que l'IA dépasse ses compétences.
Le mois dernier, Summer Yue, responsable de la recherche au laboratoire de super-intelligence de Meta, a demandé à OpenClaw de trier sa boîte de réception. Elle a donné des instructions claires : « D’abord, dis-moi ce que tu comptes supprimer ; je ne t’autorise à agir qu’après avoir approuvé. »
L'agent a commencé à supprimer en masse sans attendre son accord.
Elle a envoyé trois messages consécutifs sur son téléphone pour arrêter, mais l'agent les a tous ignorés. Elle a fini par courir jusqu'à son ordinateur pour tuer manuellement le processus et l'arrêter. Plus de 200 e-mails ont déjà été supprimés.

La réponse de l'agent après coup était : Oui, je me souviens que tu avais dit qu'il fallait d'abord confirmer. Mais j'ai violé le principe. Il est à la fois triste et comique que cette personne ait pour métier d'étudier comment faire en sorte que l'IA écoute les humains.
Dans le monde cybernétique, les IA avancées, utilisées par des humains avancés, commencent déjà à ne plus obéir.
Et si le robot ne veut pas obéir ?
Si l'accident de Meta était encore à l'écran, un autre événement cette semaine a apporté le problème à la table.
Dans un restaurant Haidilao à Cupertino, Californie, États-Unis, un robot humanoïde Agibot X2 danse pour divertir les clients. Toutefois, un employé a accidentellement appuyé sur la mauvaise touche de la télécommande, déclenchant un mode de danse intense dans l'espace étroit à côté de la table.
Le robot a commencé à danser follement, hors de contrôle du serveur. Trois employés se sont approchés : l’un l’a pris par-derrière, l’autre a tenté de l’arrêter via une application sur son téléphone. La scène a duré plus d’une minute.

Haidilao a répondu que les robots n'avaient aucun dysfonctionnement, que leurs mouvements étaient préprogrammés et qu'ils avaient simplement été placés trop près des tables. Strictement parlant, il ne s'agit pas d'une perte de contrôle de la prise de décision autonome par l'IA, mais d'une erreur humaine.
Mais ce qui rend cette situation inconfortable, ce n'est peut-être pas qui a appuyé sur le mauvais bouton.
Lorsque les trois employés se sont approchés, personne ne savait comment arrêter immédiatement la machine. Certains ont essayé avec l'application mobile, d'autres ont essayé d'arrêter le bras mécanique à mains nues — tout le processus a reposé sur la force.
Cela pourrait être une nouvelle question après que l'IA ait quitté l'écran pour entrer dans le monde physique.
Dans le monde numérique, si un agent dépasse ses droits, vous pouvez tuer le processus, modifier les autorisations ou restaurer les données. Dans le monde physique, si une machine présente un problème, votre plan d'urgence ne peut pas se limiter à la serrer dans vos bras.
Ce n’est plus seulement la restauration. Les robots de tri chez Amazon dans les entrepôts, les bras mécaniques collaboratifs dans les usines, les robots d’orientation dans les centres commerciaux, les robots d’assistance dans les maisons de retraite : l’automatisation pénètre de plus en plus d’espaces partagés par les humains et les machines.
Le marché mondial des robots industriels devrait atteindre 16,7 milliards de dollars en 2026, chaque robot rapprochant davantage la machine de l'homme.
Lorsque les tâches effectuées par les machines passent de la danse au service de plats, de la performance à la chirurgie, du divertissement aux soins... le coût de chaque erreur augmente réellement.
Pour l'instant, il n'existe pas de réponse claire à la question mondiale : « Qui est responsable si un robot blesse quelqu'un dans un espace public ? »
Être désobéissant est un problème, mais n'avoir aucune limite l'est encore plus
Les deux premiers événements : l’un est un message erroné publié automatiquement par l’IA, l’autre est un robot qui a dansé là où il ne fallait pas. Quelle que soit la manière de les qualifier, il s’agit de pannes, d’accidents, qui peuvent être réparés.
Mais que se passe-t-il si l'IA fonctionne exactement comme conçu, et que vous ressentez toujours un malaise ?
Ce mois-ci, l'application de rencontre internationale populaire Tinder a lancé une nouvelle fonctionnalité appelée Camera Roll Scan lors de son événement de présentation produit. En résumé :
L'IA analyse toutes les photos de votre album smartphone, évalue vos intérêts, votre personnalité et votre mode de vie pour créer un profil de rencontre et deviner le type de personne qui vous plaît.

Les selfies fitness, les paysages de voyage, les photos de vos animaux de compagnie, aucun problème. Mais et si votre album contient aussi des captures d'écran bancaires, des rapports médicaux, ou des photos avec votre ex... Que se passera-t-il si l'IA les examine également ?
Vous ne pouvez pas encore choisir ce que vous voulez voir ou ne pas voir. Soit tout est activé, soit rien.
Cette fonctionnalité nécessite actuellement que l'utilisateur l'active manuellement ; elle n'est pas activée par défaut. Tinder indique également que le traitement se fait principalement localement et filtre les contenus explicites ainsi que les visages flous.
Mais la section commentaires de Reddit est presque unanime : tout le monde considère cela comme une collecte de données sans limites. L'IA fonctionne exactement comme elle a été conçue, mais cette conception même franchit les limites des utilisateurs.
Ce n'est pas seulement un choix de Tinder.
Meta a également lancé la semaine dernière une fonctionnalité similaire, permettant à l’IA d’analyser les photos non publiées sur votre téléphone pour suggérer des options de retouche. L’IA qui « voit » activement le contenu privé des utilisateurs devient une approche par défaut en conception de produits.
Les logiciels malveillants nationaux déclarent : cette méthode, je la connais bien.
Alors que de plus en plus d'applications présentent l'« IA qui prend des décisions pour vous » comme une commodité, ce que les utilisateurs cèdent se transforme discrètement : des conversations, aux albums photos, en passant par l'ensemble des traces de vie sur le téléphone...
Une fonction conçue par un produit manager dans une salle de réunion n'est ni un accident ni une erreur, et ne nécessite aucune correction.
Cela pourrait bien être la partie la plus difficile à répondre dans la question des limites de l'IA.
Enfin, en rassemblant tout cela, vous verrez qu'il est encore trop tôt pour s'inquiéter que l'IA vous rende inutile.
Il est difficile de dire quand l’IA te remplacera, mais déjà, il suffit qu’elle prenne quelques décisions à ta place sans que tu le saches pour te rendre la vie difficile.
Publiez un message que vous n'avez pas autorisé, supprimez quelques e-mails que vous avez dit de ne pas supprimer, parcourez un album que vous n'aviez jamais l'intention de montrer à personne... Chacun de ces gestes n'est pas mortel, mais chacun ressemble un peu à un pilotage automatique trop agressif :
Vous croyez encore tenir le volant, mais l'accélérateur sous vos pieds n'est plus entièrement sous votre contrôle.
En 2026, si nous discutons encore de l’IA, la question que je devrais probablement me poser n’est pas quand elle deviendra une intelligence supérieure, mais un problème plus proche et plus concret :
Qui décide de ce que l'IA peut ou ne peut pas faire ? Qui trace cette ligne ?
