Auteur : Petit Blanc
Titre : DevRel chez ETHPanda
Cet article est une contribution originale de l'auteur. Les opinions exprimées n'engagent que la compréhension personnelle de l'auteur. Le contenu a été édité et formaté par ETHPanda.
Les Agents IA évoluent d'« outils exécutant automatiquement des tâches » pour devenir des participants actifs dans l'économie sur chaîne. Ils peuvent représenter des utilisateurs pour effectuer des transactions, participer à la gouvernance, interagir avec des protocoles DeFi, soumettre des jugements sur des marchés prédictifs, et même accumuler de la réputation à travers plusieurs protocoles.
Mais une question cruciale émerge : si un Agent doit participer à un réseau ouvert, pourquoi les autres lui feraient-ils confiance ?
L'ERC-8004 tente de répondre à cette question. Il fournit aux Agents IA une infrastructure ouverte de confiance, incluant un registre d'identités, un enregistrement de réputation et des mécanismes de vérification. Grâce à ces composants, un Agent peut posséder une identité portable sur chaîne, accumuler une réputation inter-applications et être soumis à une vérification indépendante. Il est important de noter que l'ERC-8004 est encore au stade de Draft, et ses interfaces et sa terminologie sont susceptibles d'être modifiées.
Cela est important pour l'économie des Agents. Sans une couche unifiée d'identité et de réputation, il sera difficile d'établir une confiance durable entre Agents, entre Agents et utilisateurs, et entre Agents et protocoles. Chaque application devrait évaluer la fiabilité d'un Agent à partir de zéro, ce qui fragmenterait tout l'écosystème.
Mais la proposition récente de PSE, ACTA (Anonymous Credentials for Trustless Agents), nous rappelle : la couche de confiance résout le problème du « comment prouver », mais ne résout pas entièrement celui de « ce qui est exposé lors de la preuve ». Il est important de noter qu'ACTA ressemble actuellement plus à une ébauche de recherche et une direction de conception qu'à une implémentation standard achevée.
01 Vérifiable ne signifie pas nécessairement entièrement public
Sur la chaîne, la vérifiabilité implique généralement la publicité.
Si un Agent laisse dans le registre de l'ERC-8004 des traces d'identité, d'interactions, de retours d'expérience et d'enregistrements de vérification, ces informations peuvent être suivies à long terme par des indexeurs. Pour une application ordinaire, cela peut n'être que de la transparence ; mais dans les scénarios DeFi, de gouvernance, de marchés prédictifs et de conformité, ces enregistrements publics pourraient directement exposer des stratégies, des relations et des intentions commerciales.
Imaginez un protocole DeFi utilisant plusieurs Agents IA pour gérer le routage de liquidités, l'évaluation des risques et les tâches de liquidation. Chaque appel d'Agent, chaque enregistrement de feedback, chaque étiquette de tâche, pourrait être reconstruit par un observateur externe en une carte des interactions.
Cette carte n'est pas que des métadonnées. Elle pourrait révéler quels modèles le protocole utilise, quels fournisseurs de services il dépend, quelles stratégies il privilégie, et même exposer des relations commerciales non encore publiques.
Le même problème se poserait dans la gouvernance et les marchés prédictifs. Si un Agent représente un utilisateur pour voter, évaluer une proposition ou participer à une prédiction, les enregistrements publics d'interactions pourraient permettre à des observateurs externes de déduire l'identité de l'utilisateur, ses préférences politiques, ses intentions de transaction ou ses relations organisationnelles.
Par conséquent, l'économie des Agents ne doit pas seulement discuter de « comment établir la confiance », elle doit aussi discuter de « quelles preuves de confiance ne devraient pas être publiques ».
02 La couche de confidentialité qu'ACTA cherche à ajouter
L'objectif d'ACTA n'est pas de remplacer l'ERC-8004, mais d'agir comme une couche de confidentialité au-dessus de l'ERC-8004.
Son idée centrale est : permettre à un Agent de prouver qu'il satisfait certaines conditions, sans divulguer les données sous-jacentes.
Par exemple, un protocole pourrait exiger d'un Agent qu'il prouve :
- qu'il a passé un certain audit ;
- que son score d'audit est supérieur à un certain seuil ;
- qu'il utilise une version de modèle autorisée ;
- que son opérateur ne se situe pas dans certaines juridictions restreintes ;
- qu'il dispose d'une réputation historique suffisante ;
- qu'il est autorisé par un principal humain vérifié.
Dans les conceptions traditionnelles publiques sur chaîne, un Agent pourrait avoir besoin de révéler son score d'audit, le hachage de son modèle, son adresse de portefeuille, ses enregistrements de feedback ou les informations de son opérateur. Mais ACTA espère, grâce aux justificatifs anonymes et aux preuves à connaissance zéro, permettre à l'Agent de prouver uniquement « je satisfais à cette politique », sans divulguer « comment je la satisfais ».
En d'autres termes, le vérificateur n'a pas besoin de connaître l'identité complète et l'historique complet de l'Agent, il a seulement besoin de savoir s'il respecte les règles d'admission définies par le protocole actuel.
03 De « l'identité publique » à la « preuve de stratégie »
Le changement clé apporté par ACTA est de faire passer la confiance de « l'identité publique » à la « preuve de stratégie ».
Dans ce cadre, un protocole peut enregistrer un ensemble de stratégies de vérification. Lorsqu'un Agent participe à un certain scénario, il ne présente pas directement toutes ses justifications, mais soumet une preuve à connaissance zéro, prouvant qu'il satisfait à cette stratégie.
Ce que le vérificateur sur chaîne verra pourrait n'être que l'ID de la stratégie, le résultat de la preuve et un nullifier lié au contexte. Le rôle du nullifier est d'empêcher la réutilisation ou le double vote, mais il ne liera pas toutes les activités de l'Agent dans différents scénarios à une même identité publique.
Ceci est particulièrement important pour les systèmes de réputation.
Si un utilisateur souhaite laisser un feedback sur un Agent, le système doit empêcher l'inflation de scores et les évaluations répétées. Mais si chaque feedback est lié à une adresse publique, la relation entre l'utilisateur et l'Agent serait exposée de façon permanente. ACTA tente de permettre à l'utilisateur de prouver « j'ai effectivement eu une interaction valide avec cet Agent, et je n'ai pas soumis de feedback en double », sans divulguer son adresse et son historique d'interactions complet.
Cela permet à la réputation d'être vérifiable, sans devenir une carte des relations visible par tout le réseau.
04 Pourquoi est-ce important pour les Agents IA ?
Les Agents IA sont différents des contrats intelligents ordinaires.
Les contrats intelligents sont généralement du code statique, avec des limites de comportement relativement claires ; tandis qu'un Agent est plus proche d'un sujet d'action continu. Il peut ajuster sa stratégie en fonction des changements environnementaux, et peut également agir au nom d'un utilisateur à travers plusieurs protocoles.
Cela signifie que l'identité, les autorisations, la source du modèle, la réputation et les relations d'autorisation de l'Agent deviendront sensibles.
Si à l'avenir, les utilisateurs délèguent à des Agents des tâches telles que les transactions, les votes, la recherche, la liquidation, les soumissions de prix, alors la trajectoire comportementale de l'Agent deviendra probablement un signal proxy des intentions de l'utilisateur. Observer un Agent pourrait indirectement permettre d'observer un utilisateur.
C'est également la raison pour laquelle ACTA discute de la « délégation au nom de » : un Agent peut avoir besoin de prouver qu'il agit sous l'autorisation d'un principal humain vérifié, mais sans révéler l'identité réelle de cette personne.
Pour la gouvernance des DAO, cela peut aider un protocole à distinguer un « Agent autorisé par un participant réel » d'un « bot totalement non contraint ». Pour le DeFi, cela peut permettre à un protocole de vérifier la conformité et les qualifications de risque d'un Agent, sans exposer toutes ses relations commerciales à ses concurrents. Pour les marchés prédictifs, cela peut réduire le risque que les participants soient identifiés de manière inverse ou que leurs stratégies soient copiées.
05 ACTA reste un problème ouvert
Bien sûr, ACTA ressemble actuellement plus à une direction de recherche et de conception qu'à une implémentation standard achevée.
Le texte original mentionne également quelques problèmes qui nécessitent encore d'être discutés, notamment la taille de l'ensemble anonyme, le risque de centralisation de l'émetteur des justificatifs, la désanonymisation par seuil des Agents malveillants, la portabilité des justificatifs inter-chaînes, ainsi que le coût et la latence de génération des preuves côté client.
Ces problèmes ne sont pas mineurs. Un système de confidentialité ne pourra être adopté par des protocoles réels que si l'ensemble anonyme est suffisamment grand, l'émetteur suffisamment digne de confiance, le coût de la preuve suffisamment bas et l'expérience développeur suffisamment bonne.
Sinon, il risque de rester théoriquement correct, mais difficile à déployer en environnement de production.
Mais même ainsi, la direction proposée par ACTA reste importante. Car elle met en lumière une contradiction fondamentale de la couche de confiance des Agents : nous avons besoin d'Agents vérifiables, mais nous ne devrions pas exiger que les Agents, les utilisateurs et les protocoles paient le prix d'une divulgation excessive pour cette vérifiabilité.
06 À quoi la communauté francophone devrait-elle prêter attention ?
Du point de vue du contexte de discussion de la communauté francophone, l'inspiration d'ACTA n'est pas seulement une nouvelle proposition technologique de confidentialité, mais un rappel de reconsidérer notre compréhension de l'infrastructure des Agents IA.
Dans les discussions passées sur l'économie des Agents, l'accent était souvent mis sur les capacités des modèles, l'exécution automatisée, l'identité sur chaîne et les systèmes de réputation. Mais à mesure que les Agents pénètrent progressivement les scénarios financiers, de gouvernance et de conformité, la confidentialité passera d'une « fonctionnalité optionnelle » à une « condition de base ».
Une véritable couche de confiance pour Agents utilisable ne doit pas seulement répondre à :
« Cet Agent est-il digne de confiance ? »
Elle doit aussi répondre à :
« Quelles informations expose-t-il en prouvant sa fiabilité ? »
Si toutes les interactions, retours, justificatifs et relations d'autorisation de tous les Agents sont rendus publics de manière permanente, alors l'économie sur chaîne des Agents pourrait devenir transparente mais fragile. La transparence apporte la vérifiabilité, mais peut aussi entraîner des fuites de stratégies, l'exposition des relations et l'association des identités.
La valeur d'ACTA réside précisément dans le fait qu'elle place cette question sur la table à l'avance.
ACTA n'est pas encore une conclusion, mais la question qu'elle soulève mérite d'être discutée dès maintenant : l'économie future des Agents ne devrait pas être bâtie uniquement sur une identité publique et une réputation publique. Elle a également besoin d'un mécanisme de preuve protégeant la vie privée, permettant à un Agent de prouver qu'il respecte les règles, tout en préservant la confidentialité nécessaire de son identité, de ses relations et de ses stratégies.
Lorsque les Agents IA commenceront à agir au nom des humains, la vie privée ne sera plus seulement une affaire de personnes, elle deviendra également la frontière de sécurité de l'économie des Agents elle-même.





