L'avenir de la confidentialité avec l'IA et la cryptographie

robot
Création du résumé en cours

Dans l’article d’hier, j’ai partagé les risques que peuvent causer aux données personnelles les applications d’IA auxquelles je me suis retrouvé confronté.

La raison de ce risque vient du mode de fonctionnement actuel des applications d’IA : lorsque l’utilisateur final fait appel à l’IA, ses données sont directement téléversées vers un modèle de grande envergure d’IA situé dans le cloud, puis le modèle effectue une inférence à partir des données, obtenant directement les caractéristiques des comportements de l’utilisateur.

Plus cette accumulation de données dure, plus le modèle de grande envergure d’IA est en mesure, grâce aux algorithmes, de saisir de manière complète les habitudes comportementales de l’utilisateur.

Pour une personne, ce risque revient à une fuite de la vie privée ; pour une entreprise, cela devient une fuite de secrets commerciaux.

Lors d’une interview sur l’IA avec Huang Renxun, publiée l’an dernier, il a lui aussi mentionné ce risque, et il a demandé strictement à ses employés d’utiliser des outils d’IA en veillant à conserver localement quelles données doivent rester sur place, et quelles données peuvent être téléversées dans le cloud.

Mais à l’époque, quand j’ai entendu ce risque, je l’avais simplement entendu comme une information ; ce n’est que lorsque j’ai vécu moi-même ce risque que je me suis souvenu de son avertissement.

Le problème vient seulement de commencer à se dessiner, mais il ne tardera pas à s’intensifier de plus en plus.

C’est pourquoi je pense qu’à l’avenir, plus nous entrerons dans l’ère de la généralisation de l’IA, plus nous aurons besoin d’un terminal (ou bien un téléphone, ou des lunettes, ou encore d’autres formes que nous ne pouvons pas encore imaginer) qui exécute localement un grand modèle simplifié, traite en local la plupart des données sensibles et fait des inférences pour des demandes simples, puis n’envoie au cloud, après un « filtrage », que certaines tâches et données lourdes afin que le modèle de grande envergure complexe du cloud les traite. Ainsi, le grand modèle côté cloud ne peut pas saisir directement les caractéristiques des comportements personnels de l’utilisateur.

Et dans l’écosystème du chiffrement, la gestion de la confidentialité a déjà été inscrite depuis longtemps à l’ordre du jour.

Plus tôt, Vitalik a déjà évoqué que des chaînes publiques comme Ethereum, en raison de la transparence et de la publication ouverte des données et des informations, entravent son utilisation à grande échelle dans le domaine commercial : parce que dans le domaine commercial, les parties prenantes, dans de nombreux cas, ne souhaitent pas divulguer les informations de transaction afin de protéger leurs secrets commerciaux.

Récemment, certains utilisateurs commerciaux ont également indiqué qu’ils se montrent assez prudents quant à l’utilisation à grande échelle des stablecoins. En effet, les comptes de stablecoins sur les chaînes publiques sont aujourd’hui tous publics : cela signifie que n’importe qui peut voir quels comptes détiennent combien de stablecoins. Dès que les informations d’identité associées à un compte sont divulguées, le fait de savoir quelle entreprise / organisation détient combien d’argent (stablecoins) devient une information transparente.

Ainsi, que ce soit pour l’IA ou pour l’écosystème du chiffrement, les questions de confidentialité sont des problèmes qui devront absolument être résolus par la suite.

Cependant, si l’on compare soigneusement les applications de l’IA et de l’écosystème du chiffrement en matière de confidentialité, du moins à l’heure actuelle, il semble que les applications de chiffrement soient en avance : l’écosystème du chiffrement dispose depuis longtemps de monnaies de confidentialité (par exemple Monero, ZCASH, etc.) et de mélangeurs de pièces.

Mais ces applications de confidentialité cherchent fortement à éviter la régulation, si bien qu’elles portent dans une certaine mesure des étiquettes négatives.

Les applications de confidentialité qui peuvent vraiment être acceptées par le grand public et les régulateurs semblent, à l’heure actuelle, reposer sur des solutions basées sur les preuves à connaissance nulle (zero-knowledge proofs), dont le schéma paraît relativement mûr et la voie relativement faisable : par exemple, une méthode testée à présent :

Faire intervenir une institution disposant d’une licence de régulation comme intermédiaire ; les deux parties à la transaction passent par cet intermédiaire, mais on masque l’identité et les informations de transaction, et seul le preuve à connaissance nulle générée à la fin est placée sur la blockchain pour authentification.

De cette manière, les informations de transaction garantissent la confidentialité, et les deux parties à la transaction évitent également d’être soupçonnées d’activités criminelles.

J’espère que, en matière de protection de la confidentialité et de conformité des transactions, les explorations et applications dans l’écosystème du chiffrement pourront, grâce à leurs avantages, ouvrir en premier une nouvelle voie pour les applications d’IA.

ETH2,24%
ZEC-1,73%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler