Les Agents IA peuvent être vérifiés, mais qui protégera leur vie privée ?

marsbitPublié le 2026-05-14Dernière mise à jour le 2026-05-14

Résumé

Les agents d'IA évoluent d'outils d'automatisation vers des acteurs économiques sur la blockchain, exécutant des transactions, participant à la gouvernance et accumulant de la réputation. La question de la confiance se pose. Des initiatives comme l'ERC-8004 proposent une infrastructure ouverte pour l'identité et la réputation vérifiables des agents sur la chaîne. Cependant, la vérifiabilité entraîne souvent une exposition publique excessive, risquant de révéler des stratégies, des relations ou des intentions sensibles dans la DeFi, la gouvernance ou les marchés de prédiction. La proposition ACTA (Anonymous Credentials for Trustless Agents) vise à compléter cette couche de confiance par une couche de confidentialité. Son idée centrale est de permettre à un agent de prouver, via des justificatifs anonymes et des preuves à connaissance nulle (zk-proofs), qu'il satisfait à certaines conditions (ex: audit réussi, réputation suffisante) sans divulguer les données sous-jacentes. Cela marque un passage d'une confiance basée sur une "identité publique" à une confiance basée sur une "preuve de conformité à une stratégie". Cette approche est cruciale car les agents IA, contrairement aux contrats intelligents statiques, sont des entités actives dont le comportement peut révéler les intentions des utilisateurs qu'ils représentent. ACTA permettrait ainsi de vérifier la légitimité d'un agent (ex: autorisé par un humain) sans exposer l'identité de ce dernier, protégeant à la fois la vie pr...

Auteur : Petit Blanc

Titre : DevRel chez ETHPanda

Cet article est une contribution originale de l'auteur. Les opinions exprimées n'engagent que la compréhension personnelle de l'auteur. Le contenu a été édité et formaté par ETHPanda.

Les Agents IA évoluent d'« outils exécutant automatiquement des tâches » pour devenir des participants actifs dans l'économie sur chaîne. Ils peuvent représenter des utilisateurs pour effectuer des transactions, participer à la gouvernance, interagir avec des protocoles DeFi, soumettre des jugements sur des marchés prédictifs, et même accumuler de la réputation à travers plusieurs protocoles.

Mais une question cruciale émerge : si un Agent doit participer à un réseau ouvert, pourquoi les autres lui feraient-ils confiance ?

L'ERC-8004 tente de répondre à cette question. Il fournit aux Agents IA une infrastructure ouverte de confiance, incluant un registre d'identités, un enregistrement de réputation et des mécanismes de vérification. Grâce à ces composants, un Agent peut posséder une identité portable sur chaîne, accumuler une réputation inter-applications et être soumis à une vérification indépendante. Il est important de noter que l'ERC-8004 est encore au stade de Draft, et ses interfaces et sa terminologie sont susceptibles d'être modifiées.

Cela est important pour l'économie des Agents. Sans une couche unifiée d'identité et de réputation, il sera difficile d'établir une confiance durable entre Agents, entre Agents et utilisateurs, et entre Agents et protocoles. Chaque application devrait évaluer la fiabilité d'un Agent à partir de zéro, ce qui fragmenterait tout l'écosystème.

Mais la proposition récente de PSE, ACTA (Anonymous Credentials for Trustless Agents), nous rappelle : la couche de confiance résout le problème du « comment prouver », mais ne résout pas entièrement celui de « ce qui est exposé lors de la preuve ». Il est important de noter qu'ACTA ressemble actuellement plus à une ébauche de recherche et une direction de conception qu'à une implémentation standard achevée.

01 Vérifiable ne signifie pas nécessairement entièrement public

Sur la chaîne, la vérifiabilité implique généralement la publicité.

Si un Agent laisse dans le registre de l'ERC-8004 des traces d'identité, d'interactions, de retours d'expérience et d'enregistrements de vérification, ces informations peuvent être suivies à long terme par des indexeurs. Pour une application ordinaire, cela peut n'être que de la transparence ; mais dans les scénarios DeFi, de gouvernance, de marchés prédictifs et de conformité, ces enregistrements publics pourraient directement exposer des stratégies, des relations et des intentions commerciales.

Imaginez un protocole DeFi utilisant plusieurs Agents IA pour gérer le routage de liquidités, l'évaluation des risques et les tâches de liquidation. Chaque appel d'Agent, chaque enregistrement de feedback, chaque étiquette de tâche, pourrait être reconstruit par un observateur externe en une carte des interactions.

Cette carte n'est pas que des métadonnées. Elle pourrait révéler quels modèles le protocole utilise, quels fournisseurs de services il dépend, quelles stratégies il privilégie, et même exposer des relations commerciales non encore publiques.

Le même problème se poserait dans la gouvernance et les marchés prédictifs. Si un Agent représente un utilisateur pour voter, évaluer une proposition ou participer à une prédiction, les enregistrements publics d'interactions pourraient permettre à des observateurs externes de déduire l'identité de l'utilisateur, ses préférences politiques, ses intentions de transaction ou ses relations organisationnelles.

Par conséquent, l'économie des Agents ne doit pas seulement discuter de « comment établir la confiance », elle doit aussi discuter de « quelles preuves de confiance ne devraient pas être publiques ».

02 La couche de confidentialité qu'ACTA cherche à ajouter

L'objectif d'ACTA n'est pas de remplacer l'ERC-8004, mais d'agir comme une couche de confidentialité au-dessus de l'ERC-8004.

Son idée centrale est : permettre à un Agent de prouver qu'il satisfait certaines conditions, sans divulguer les données sous-jacentes.

Par exemple, un protocole pourrait exiger d'un Agent qu'il prouve :

  • qu'il a passé un certain audit ;
  • que son score d'audit est supérieur à un certain seuil ;
  • qu'il utilise une version de modèle autorisée ;
  • que son opérateur ne se situe pas dans certaines juridictions restreintes ;
  • qu'il dispose d'une réputation historique suffisante ;
  • qu'il est autorisé par un principal humain vérifié.

Dans les conceptions traditionnelles publiques sur chaîne, un Agent pourrait avoir besoin de révéler son score d'audit, le hachage de son modèle, son adresse de portefeuille, ses enregistrements de feedback ou les informations de son opérateur. Mais ACTA espère, grâce aux justificatifs anonymes et aux preuves à connaissance zéro, permettre à l'Agent de prouver uniquement « je satisfais à cette politique », sans divulguer « comment je la satisfais ».

En d'autres termes, le vérificateur n'a pas besoin de connaître l'identité complète et l'historique complet de l'Agent, il a seulement besoin de savoir s'il respecte les règles d'admission définies par le protocole actuel.

03 De « l'identité publique » à la « preuve de stratégie »

Le changement clé apporté par ACTA est de faire passer la confiance de « l'identité publique » à la « preuve de stratégie ».

Dans ce cadre, un protocole peut enregistrer un ensemble de stratégies de vérification. Lorsqu'un Agent participe à un certain scénario, il ne présente pas directement toutes ses justifications, mais soumet une preuve à connaissance zéro, prouvant qu'il satisfait à cette stratégie.

Ce que le vérificateur sur chaîne verra pourrait n'être que l'ID de la stratégie, le résultat de la preuve et un nullifier lié au contexte. Le rôle du nullifier est d'empêcher la réutilisation ou le double vote, mais il ne liera pas toutes les activités de l'Agent dans différents scénarios à une même identité publique.

Ceci est particulièrement important pour les systèmes de réputation.

Si un utilisateur souhaite laisser un feedback sur un Agent, le système doit empêcher l'inflation de scores et les évaluations répétées. Mais si chaque feedback est lié à une adresse publique, la relation entre l'utilisateur et l'Agent serait exposée de façon permanente. ACTA tente de permettre à l'utilisateur de prouver « j'ai effectivement eu une interaction valide avec cet Agent, et je n'ai pas soumis de feedback en double », sans divulguer son adresse et son historique d'interactions complet.

Cela permet à la réputation d'être vérifiable, sans devenir une carte des relations visible par tout le réseau.

04 Pourquoi est-ce important pour les Agents IA ?

Les Agents IA sont différents des contrats intelligents ordinaires.

Les contrats intelligents sont généralement du code statique, avec des limites de comportement relativement claires ; tandis qu'un Agent est plus proche d'un sujet d'action continu. Il peut ajuster sa stratégie en fonction des changements environnementaux, et peut également agir au nom d'un utilisateur à travers plusieurs protocoles.

Cela signifie que l'identité, les autorisations, la source du modèle, la réputation et les relations d'autorisation de l'Agent deviendront sensibles.

Si à l'avenir, les utilisateurs délèguent à des Agents des tâches telles que les transactions, les votes, la recherche, la liquidation, les soumissions de prix, alors la trajectoire comportementale de l'Agent deviendra probablement un signal proxy des intentions de l'utilisateur. Observer un Agent pourrait indirectement permettre d'observer un utilisateur.

C'est également la raison pour laquelle ACTA discute de la « délégation au nom de » : un Agent peut avoir besoin de prouver qu'il agit sous l'autorisation d'un principal humain vérifié, mais sans révéler l'identité réelle de cette personne.

Pour la gouvernance des DAO, cela peut aider un protocole à distinguer un « Agent autorisé par un participant réel » d'un « bot totalement non contraint ». Pour le DeFi, cela peut permettre à un protocole de vérifier la conformité et les qualifications de risque d'un Agent, sans exposer toutes ses relations commerciales à ses concurrents. Pour les marchés prédictifs, cela peut réduire le risque que les participants soient identifiés de manière inverse ou que leurs stratégies soient copiées.

05 ACTA reste un problème ouvert

Bien sûr, ACTA ressemble actuellement plus à une direction de recherche et de conception qu'à une implémentation standard achevée.

Le texte original mentionne également quelques problèmes qui nécessitent encore d'être discutés, notamment la taille de l'ensemble anonyme, le risque de centralisation de l'émetteur des justificatifs, la désanonymisation par seuil des Agents malveillants, la portabilité des justificatifs inter-chaînes, ainsi que le coût et la latence de génération des preuves côté client.

Ces problèmes ne sont pas mineurs. Un système de confidentialité ne pourra être adopté par des protocoles réels que si l'ensemble anonyme est suffisamment grand, l'émetteur suffisamment digne de confiance, le coût de la preuve suffisamment bas et l'expérience développeur suffisamment bonne.

Sinon, il risque de rester théoriquement correct, mais difficile à déployer en environnement de production.

Mais même ainsi, la direction proposée par ACTA reste importante. Car elle met en lumière une contradiction fondamentale de la couche de confiance des Agents : nous avons besoin d'Agents vérifiables, mais nous ne devrions pas exiger que les Agents, les utilisateurs et les protocoles paient le prix d'une divulgation excessive pour cette vérifiabilité.

06 À quoi la communauté francophone devrait-elle prêter attention ?

Du point de vue du contexte de discussion de la communauté francophone, l'inspiration d'ACTA n'est pas seulement une nouvelle proposition technologique de confidentialité, mais un rappel de reconsidérer notre compréhension de l'infrastructure des Agents IA.

Dans les discussions passées sur l'économie des Agents, l'accent était souvent mis sur les capacités des modèles, l'exécution automatisée, l'identité sur chaîne et les systèmes de réputation. Mais à mesure que les Agents pénètrent progressivement les scénarios financiers, de gouvernance et de conformité, la confidentialité passera d'une « fonctionnalité optionnelle » à une « condition de base ».

Une véritable couche de confiance pour Agents utilisable ne doit pas seulement répondre à :

« Cet Agent est-il digne de confiance ? »

Elle doit aussi répondre à :

« Quelles informations expose-t-il en prouvant sa fiabilité ? »

Si toutes les interactions, retours, justificatifs et relations d'autorisation de tous les Agents sont rendus publics de manière permanente, alors l'économie sur chaîne des Agents pourrait devenir transparente mais fragile. La transparence apporte la vérifiabilité, mais peut aussi entraîner des fuites de stratégies, l'exposition des relations et l'association des identités.

La valeur d'ACTA réside précisément dans le fait qu'elle place cette question sur la table à l'avance.

ACTA n'est pas encore une conclusion, mais la question qu'elle soulève mérite d'être discutée dès maintenant : l'économie future des Agents ne devrait pas être bâtie uniquement sur une identité publique et une réputation publique. Elle a également besoin d'un mécanisme de preuve protégeant la vie privée, permettant à un Agent de prouver qu'il respecte les règles, tout en préservant la confidentialité nécessaire de son identité, de ses relations et de ses stratégies.

Lorsque les Agents IA commenceront à agir au nom des humains, la vie privée ne sera plus seulement une affaire de personnes, elle deviendra également la frontière de sécurité de l'économie des Agents elle-même.

Questions liées

QQuel est le principal défi identifié pour les AI Agents lorsqu'ils participent à des réseaux ouverts comme la blockchain ?

ALe principal défi est d'établir la confiance. Si un Agent doit participer à un réseau ouvert, les autres acteurs doivent pouvoir lui faire confiance. L'article présente ERC-8004 comme une tentative de réponse à cette question, en fournissant une infrastructure de confiance ouverte incluant l'enregistrement d'identité, la réputation et des mécanismes de vérification.

QQuel problème l'initiative ACTA cherche-t-elle à résoudre, que ERC-8004 ne traite pas complètement ?

AACTA (Anonymous Credentials for Trustless Agents) cherche à résoudre le problème de la vie privée. Alors qu'ERC-8004 fournit une couche de confiance vérifiable et publique, ACTA vise à ajouter une couche de confidentialité par-dessus. Son objectif est de permettre à un Agent de prouver qu'il répond à certains critères (comme un audit réussi) sans révéler les données sous-jacentes, protégeant ainsi ses stratégies et ses relations.

QPourquoi la confidentialité est-elle particulièrement cruciale pour les AI Agents, par rapport aux contrats intelligents traditionnels ?

ALes AI Agents sont plus proches d'entités agissant en continu et de manière dynamique, souvent au nom d'utilisateurs. Leurs trajectoires comportementales peuvent donc devenir des signaux indirects des intentions de l'utilisateur. Si toutes leurs interactions, réputations et relations d'autorisation sont publiques, cela peut entraîner une fuite de stratégies, une exposition des relations et une corrélation d'identités, rendant l'écosystème transparent mais fragile.

QComment ACTA transforme-t-elle le concept de confiance pour les Agents selon l'article ?

AACTA opère un changement clé en faisant passer la confiance d'une « identité publique » à une « preuve de stratégie ». Au lieu de révéler son identité et son historique complets, un Agent peut soumettre une preuve à connaissance nulle (zero-knowledge proof) démontrant qu'il satisfait à une stratégie ou règle d'accès spécifique définie par un protocole, sans divulguer les détails de comment il y parvient.

QQuels sont certains des défis ouverts et des limitations mentionnés concernant ACTA ?

AL'article mentionne qu'ACTA est encore un projet de recherche et une direction de conception, et non une norme implémentée. Les défis incluent : la taille de l'ensemble anonyme, le risque de centralisation de l'émetteur des justificatifs, le seuil de désanonymisation pour les Agents malveillants, la portabilité des justificatifs entre chaînes, ainsi que le coût et la latence liés à la génération des preuves côté client.

Lectures associées

Bulletin crypto : Comment les investisseurs institutionnels ont alloué leur capital au T1 2026

Le marché des cryptomonnaies a connu un premier trimestre 2026 difficile, avec le Bitcoin tombant à 62 000 dollars en février. Malgré cette volatilité, les investisseurs institutionnels ont adopté des stratégies divergentes. Le fonds souverain d'Abou Dabi, Mubadala, a significativement accru ses avoirs dans le fonds négocié en bourse (ETF) Bitcoin d'iShares (BlackRock), IBIT, portant sa position à environ 566 millions de dollars. Des institutions financières comme la Banque Royale du Canada et Barclays ont également augmenté leur exposition, tout en utilisant des options pour couvrir leurs risques. À l'inverse, le fonds de dotation de l'Université de Harvard a poursuivi la réduction de ses positions, diminuant de 43% ses parts d'IBIT et liquidant complètement sa position en ETF Ethereum. D'autres universités de l'Ivy League, comme Brown et Dartmouth, ont maintenu leurs positions en IBIT, bien que Dartmouth ait restructuré son exposition à l'Ethereum et investi dans un ETF Solana. Ces divulgations suggèrent que de nombreux grands investisseurs ont perçu la mauvaise performance temporaire du marché comme une opportunité d'achat, validant ainsi le potentiel à long terme de l'industrie des actifs numériques. La capitalisation totale du marché crypto s'établit actuellement autour de 2 570 milliards de dollars, en baisse de plus de 12% depuis le début de l'année.

bitcoinistIl y a 33 mins

Bulletin crypto : Comment les investisseurs institutionnels ont alloué leur capital au T1 2026

bitcoinistIl y a 33 mins

MY Group finalise l’entrée en bourse en tant que première action Web4.0, la SEC divulgue officiellement l’avis Form 8-K

Le groupe MY a franchi une étape majeure dans sa stratégie mondiale avec la divulgation officielle par la SEC de son formulaire 8-K, annonçant la nomination de M. Zhang Dingwen au poste de PDG et administrateur exécutif. Cette évolution de la gouvernance marque le début d'une nouvelle phase pour l'entreprise, qui prépare simultanément plusieurs actions stratégiques, notamment une refonte de sa marque et un changement de code boursier, afin d'accroître sa visibilité sur les marchés financiers internationaux. Parallèlement, le groupe se positionne comme un acteur pionnier de la future génération d'internet, baptisée "Web 4.0". Son ambition est de fusionner les capacités des technologies actuelles : une large base d'utilisateurs de type Web2, une infrastructure d'actifs numériques issue du Web3 et des systèmes financiers intelligents propulsés par l'IA. En combinant des entrées de trafic social, des systèmes de paiement mondiaux, des infrastructures de blockchain et des écosystèmes de trading d'actifs numériques, MY Group cherche à construire une plateforme technologique intégrée de nouvelle génération. Ces développements stratégiques, couplés à l'évolution de sa direction et de sa communication financière, font du groupe MY une entreprise à suivre de près pour les investisseurs mondiaux intéressés par l'avenir de l'internet et des plateformes technologiques.

marsbitIl y a 9 h

MY Group finalise l’entrée en bourse en tant que première action Web4.0, la SEC divulgue officiellement l’avis Form 8-K

marsbitIl y a 9 h

Trading

Spot
Futures
活动图片