Le 13 mars, la mise à jour Dencun a été activée, permettant l'une des fonctionnalités tant attendues d'Ethereum : le protocole de partage de l'encre (aliasEIP-4844, alias blobs). Initialement, la fourchette a réduit les frais de transaction des rollups d'un facteur de plus de 100, car les blobs étaient presque gratuits. Au cours de la dernière journée, nous avons enfin vu les blobs augmenter en volume et le marché des frais s'activer alors que le protocole blobscriptions a commencé à les utiliser. Les blobs ne sont pas gratuits, mais ils restent beaucoup moins chers que les calldata.
Left: l'utilisation du blob augmente enfin jusqu'à l'objectif de 3 par bloc grâce aux Blobscriptions. Droite: les frais de blob entrent en "mode de découverte des prix" en conséquence. Source: https://dune.com/0xRob/blobs.
Ce jalon représente une transition clé dans la feuille de route à long terme d'Ethereum : les blobs sont le moment où la mise à l'échelle d'Ethereum a cessé d'être un problème de "zéro à un" et est devenue un problème de "un à N". À partir de là, un travail important de mise à l'échelle, à la fois en augmentant le nombre de blobs et en améliorant la capacité des rollups à tirer le meilleur parti de chaque blob, continuera de se dérouler, mais de manière plus incrémentielle. Les changements liés à la mise à l'échelle du paradigme fondamental de la façon dont Ethereum en tant qu'écosystème fonctionne sont de plus en plus derrière nous. De plus, l'accent est déjà en train de se déplacer lentement, et continuera de se déplacer lentement, des problèmes de L1 tels que PoS et la mise à l'échelle, vers des problèmes plus proches de la couche d'application. La question clé que ce post abordera est : où va Ethereum à partir de maintenant ?
Au cours des dernières années, nous avons vu Ethereum passer lentement à devenir un écosystème centré sur la L2Les principales applications ont commencé à migrer de L1 à L2, les paiements commencent à être basés sur L2 par défaut et les portefeuilles commencent à construire leur expérience utilisateur autour du nouvel environnement multi-L2.
Dès le tout début, une pièce maîtresse de la feuille de route centrée sur le rollup était l'idée d'un espace de disponibilité des données séparé : une section spéciale de l'espace dans un bloc, à laquelle l'EVM n'aurait pas accès, qui pourrait contenir des données pour des projets de couche 2 tels que les rollups. Parce que cet espace de données n'est pas accessible à l'EVM, il peut être diffusé séparément d'un bloc et vérifié séparément d'un bloc. Finalement, il peut être vérifié avec une technologie appelée échantillonnage de disponibilité des données, ce qui permet à chaque nœud de vérifier que les données ont été correctement publiées en ne vérifiant que quelques petits échantillons de manière aléatoire. Une fois que cela est mis en œuvre, l'espace de blob pourrait être considérablement étendu ; l'objectif final est de 16 Mo par emplacement (~1,33 Mo par seconde).
Échantillonnage de disponibilité des données: chaque nœud doit seulement télécharger une petite partie des données pour vérifier la disponibilité de l'ensemble.
EIP-4844 (alias "blobs") ne nous donne pas d'échantillonnage de disponibilité des données. Mais il met en place l'ossature de base de telle manière qu'à partir de maintenant, l'échantillonnage de la disponibilité des données peut être introduit et le nombre de blobs peut être augmenté en arrière-plan, le tout sans aucune intervention des utilisateurs ou des applications. En fait, le seul "hard fork" requis est un simple changement de paramètre.
Il y a deux fils de développement qui devront se poursuivre à partir de maintenant :
La prochaine étape sera probablement une version simplifiée de DAS appelée PeerDASDans PeerDAS, chaque nœud stocke une fraction significative (par exemple 1/8) de l'ensemble des données de blob, et les nœuds maintiennent des connexions avec de nombreux pairs dans le réseau pair à pair. Lorsqu'un nœud a besoin d'échantillonner une partie particulière de données, il demande à l'un des pairs qu'il sait être responsable du stockage de cette partie.
Si chaque nœud doit télécharger et stocker 1/8 de toutes les données, alors PeerDAS nous permet de mettre à l'échelle théoriquement les blobs de 8x (en fait, 4x, car nous perdons 2x en raison de la redondance du codage de l'effacement). PeerDAS peut être déployé progressivement : nous pouvons avoir une étape où les stakers professionnels continuent de télécharger des blobs complets, et les stakers solo ne téléchargent que 1/8 des données.
En plus de cela, EIP-7623(ou des alternatives telles que Tarification 2D) peut être utilisé pour imposer des limites plus strictes sur la taille maximale d'un bloc d'exécution (c'est-à-dire les « transactions régulières » dans un bloc), ce qui rend plus sûr d'augmenter à la fois la cible de blob et la limite de gaz L1. À plus long terme, plus compliqué Protocoles DAS 2Dnous permettra d'aller jusqu'au bout et d'augmenter encore l'espace de blob.
Il existe quatre endroits clés où les protocoles de couche 2 peuvent actuellement s'améliorer.
Mon schéma en image de la compression de donnéescontinue à être disponible ici;
Naïvement, une transaction occupe environ 180 octets de données. Cependant, il existe une série de techniques de compression qui peut être utilisépour réduire cette taille progressivement; avec une compression optimale, nous pourrions potentiellement descendre jusqu'à moins de 25 octets par transaction.
Plasmaest une catégorie de techniques qui vous permet d'obtenir une sécurité équivalente à celle de rollup pour certaines applications tout en conservant les données sur L2 dans le cas normal. Pour les EVM, le plasma ne peut pas protéger toutes les pièces. Mais les constructions inspirées du plasma peuvent protéger la plupart des pièces. Et les constructions bien plus simples que le plasma peuvent grandement améliorer le validiumsaujourd'hui. Les L2 qui ne souhaitent pas mettre toutes leurs données sur la chaîne devraient explorer de telles techniques.
Une fois que la fourchette dure de Dencun a été activée, rendant les rollups configurés pour utiliser les blobs qu'elle a introduits 100 fois moins chers. utilisation sur le Baserollup a immédiatement augmenté :
Cela a entraîné Base à atteindre sa propre limite de gaz interne, provoquant frais à augmenter de manière inattendue. Cela a conduit à une prise de conscience plus large que l'espace de données Ethereum n'est pas la seule chose qui doit être mise à l'échelle : les rollups doivent également être mis à l'échelle internement.
Une partie de cela est la parallélisation; les rollups pourraient implémenterquelque chose comme EIP-648. Mais tout aussi important eststockage, et effets d'interactionentre le calcul et le stockage. Il s'agit d'un défi d'ingénierie important pour les rollups.
Nous sommes encore loin d'un monde où les rollups sont vraiment protégés par le code. En fait, selon l2beatseulement ces cinq, dont seulement Arbitrum est un EVM complet, ont même atteintce que j'ai appelé "étape 1".
Cela doit être affronté de front. Bien que nous ne soyons pas actuellement au point où nous pouvons avoir suffisamment confiance dans le code complexe d'un vérificateur EVM optimiste ou SNARK, nous en sommes absolument au point où nous pouvons aller à mi-chemin, et avoir des conseils de sécurité qui peuvent annuler le comportement du code uniquement avec un seuil élevé (par exemple, j'ai proposé 6 sur 8; Arbitrum fait 9 sur 12).
Les normes de l'écosystème doivent devenir plus strictes : jusqu'à présent, nous avons été indulgents et avons accepté tout projet tant qu'il prétendait être “sur la voie de la décentralisation”. D'ici la fin de l'année, je pense que nos normes devraient s'élever et nous ne devrions considérer un projet comme un rollup que s'il a effectivement atteint au moins le stade 1.
Après cela, nous pouvons avancer prudemment vers la phase 2 : un monde où les rollups sont vraiment soutenus par du code, et un conseil de sécurité ne peut intervenir que si le code "désaccorde de manière prouvable avec lui-même" (par exemple, accepte deux racines d'état incompatibles, ou deux mises en œuvre différentes donnent des réponses différentes). Un moyen d'y parvenir en toute sécurité est de utiliser plusieurs implémentations de prouveur.
Dans une présentation à l'ETHCC à l'été 2022, J'ai fait une présentation décrivant l'état actuel du développement d'Ethereum comme une courbe en S : nous entrons dans une période de transition très rapide, et après cette transition rapide, le développement ralentira à nouveau alors que le L1 se solidifie et que le développement se recentre sur l'utilisateur et la couche d'application.
Aujourd'hui, je soutiendrais que nous sommes nettement du côté droit décélérant de cette courbe en S. Il y a deux semaines, les deux plus grands changements apportés à la blockchain Ethereum - le passage à la preuve d'enjeu et la restructuration en blocs - sont derrière nous. D'autres changements sont encore importants (par exemple, arbres Verkle, finalité à un seul emplacement, abstraction de compte dans le protocole) mais ils ne sont pas aussi drastiques que la preuve de participation et le sharding. En 2022, Ethereum était comme un avion remplaçant ses moteurs en plein vol. En 2023, il remplaçait ses ailes. La transition vers l'arbre Verkle est la principale transition vraiment significative restante (et nous avons déjà des testnets pour cela) ; les autres sont plus comme le remplacement d'un aileron de queue.
L'objectif de l'EIP-4844 était de faire un seul changement important unique, afin de préparer les rollups à une stabilité à long terme. Maintenant que les blobs sont sortis, une future mise à niveau vers le danksharding complet avec des blobs de 16 Mo, et même le passage de la cryptographie àSTARKs sur un champ goldilocks de 64 bits, peut se produire sans nécessiter d'autres actions de la part des rollups et des utilisateurs. Il renforce également un précédent important : que le processus de développement d'Ethereum s'exécute selon une feuille de route bien établie et longuement comprise, et que les applications (y compris les L2) qui sont construites en tenant compte de la « nouvelle Ethereum » bénéficient d'un environnement stable à long terme.
Les dix premières années d'Ethereum ont largement été une étape de formation : l'objectif a été de faire décoller l'Ethereum L1, et les applications se sont largement déroulées au sein d'une petite cohorte d'enthousiastes. Beaucoup ont soutenu que le manque d'applications à grande échelle au cours des dix dernières années prouve que la cryptographie est inutile. J'ai toujours argumenté contre cela : pratiquement toutes les applications de crypto qui ne relèvent pas de la spéculation financière dépendent de frais réduits - et donc, tant que nous avons des frais élevés, nous ne devrions pas être surpris de voir principalement de la spéculation financière !
Maintenant que nous avons des blobs, cette contrainte clé qui nous a freinés tout ce temps commence à fondre. Les frais sont enfin beaucoup plus bas; ma déclaration d'il y a sept ans selon laquelle l'internet de l'argent ne devrait pas coûter plus de cinq cents par transactionest enfinse réaliseNous ne sommes pas tout à fait sortis de la forêt : les frais pourraient encore augmenter si l'utilisation croît trop rapidement, et nous devons continuer à travailler dur pour faire évoluer les blobs (et faire évoluer les rollups séparément) davantage au cours des prochaines années. Mais nous voyons la lumière au bout du... euh... forêt sombre.
Ce que cela signifie pour les développeurs est simple : nous n'avons plus d'excuse. Jusqu'à il y a quelques années, nous nous fixions une norme basse, en construisant des applications qui n'étaient clairement pas utilisables à grande échelle, tant qu'elles fonctionnaient comme des prototypes et étaient raisonnablement décentralisées. Aujourd'hui, nous avons tous les outils dont nous aurons besoin, et en fait la plupart des outils dont nous aurons jamais besoin, pour construire des applications qui sont simultanément cypherpunket convivial. Et donc nous devrions sortir et le faire.
Beaucoup relèvent le défi. Le portefeuille Daimo se décrit explicitement comme Venmo sur Ethereum, visant à combiner la commodité de Venmo avec la décentralisation d'Ethereum. Dans la sphère sociale décentralisée, Farcaster fait un bon travail en combinant une véritable décentralisation (par exemple, voir ce guide sur la façon de construire votre propre client alternatif) avec une excellente expérience utilisateur. Contrairement aux vagues de hype précédentes de "social fi", l'utilisateur moyen de Farcaster n'est pas là pour jouer - passant le test clé pour qu'une application crypto soit vraiment durable.
Ce message a été envoyé sur le client principal Farcaster, Warpcast, et cette capture d'écran a été prise depuis l'alternative Farcaster +ObjectifclientLuciole.
Ce sont des succès sur lesquels nous devons capitaliser et étendre à d'autres sphères d'application, y compris l'identité, la réputation et la gouvernance.
L'écosystème Ethereum compte toujours un grand nombre d'applications qui fonctionnent autour d'un flux de travail fondamentalement "Ethereum des années 2010". La plupart des activités ENS se déroulent encore sur la couche 1. La plupart des émissions de jetons se font sur la couche 1, sans réelle considération pour s'assurer que les jetons liés sur les couches 2 sont disponibles (par exemple, voirce fan du memecoin ZELENSKYY) appréciant les dons continus de la pièce à l'Ukraine mais se plaignant que les frais L1 le rendent trop cher). En plus de la scalabilité, nous sommes également en retard sur la confidentialité: POAPssont tous publics on-chain, probablement le bon choix pour certains cas d'utilisation mais très sous-optimaux pour d'autres. La plupart des DAO, et Subventions Gitcoin, utilise toujours un vote entièrement transparent sur la chaîne, ce qui les rend très vulnérable à la corruption(y compris les largages rétroactifs), et cela a été démontré pour fausser fortement les schémas de contribution. Aujourd'hui, les ZK-SNARK existent depuis des années, et pourtant de nombreuses applications n'ont même pas encore commencé à les utiliser correctement.
Ce sont toutes des équipes travailleuses qui doivent gérer de grandes bases d'utilisateurs existantes, et je ne leur reproche pas de ne pas passer simultanément à la dernière vague de technologie. Mais bientôt, cette mise à niveau doit avoir lieu. Voici quelques différences clés entre un flux de travail Ethereum fondamentalement des années 2010 et un flux de travail Ethereum fondamentalement des années 2020 :
Fondamentalement, Ethereum n'est plus seulement un écosystème financier. C'est un remplacement complet pour de grandes parties de la technologie centralisée, et offre même certaines choses que la technologie centralisée ne fait pas (par exemple, des applications liées à la gouvernance). Et nous devons construire en gardant à l'esprit cet écosystème plus large.
Bagikan
Konten
Le 13 mars, la mise à jour Dencun a été activée, permettant l'une des fonctionnalités tant attendues d'Ethereum : le protocole de partage de l'encre (aliasEIP-4844, alias blobs). Initialement, la fourchette a réduit les frais de transaction des rollups d'un facteur de plus de 100, car les blobs étaient presque gratuits. Au cours de la dernière journée, nous avons enfin vu les blobs augmenter en volume et le marché des frais s'activer alors que le protocole blobscriptions a commencé à les utiliser. Les blobs ne sont pas gratuits, mais ils restent beaucoup moins chers que les calldata.
Left: l'utilisation du blob augmente enfin jusqu'à l'objectif de 3 par bloc grâce aux Blobscriptions. Droite: les frais de blob entrent en "mode de découverte des prix" en conséquence. Source: https://dune.com/0xRob/blobs.
Ce jalon représente une transition clé dans la feuille de route à long terme d'Ethereum : les blobs sont le moment où la mise à l'échelle d'Ethereum a cessé d'être un problème de "zéro à un" et est devenue un problème de "un à N". À partir de là, un travail important de mise à l'échelle, à la fois en augmentant le nombre de blobs et en améliorant la capacité des rollups à tirer le meilleur parti de chaque blob, continuera de se dérouler, mais de manière plus incrémentielle. Les changements liés à la mise à l'échelle du paradigme fondamental de la façon dont Ethereum en tant qu'écosystème fonctionne sont de plus en plus derrière nous. De plus, l'accent est déjà en train de se déplacer lentement, et continuera de se déplacer lentement, des problèmes de L1 tels que PoS et la mise à l'échelle, vers des problèmes plus proches de la couche d'application. La question clé que ce post abordera est : où va Ethereum à partir de maintenant ?
Au cours des dernières années, nous avons vu Ethereum passer lentement à devenir un écosystème centré sur la L2Les principales applications ont commencé à migrer de L1 à L2, les paiements commencent à être basés sur L2 par défaut et les portefeuilles commencent à construire leur expérience utilisateur autour du nouvel environnement multi-L2.
Dès le tout début, une pièce maîtresse de la feuille de route centrée sur le rollup était l'idée d'un espace de disponibilité des données séparé : une section spéciale de l'espace dans un bloc, à laquelle l'EVM n'aurait pas accès, qui pourrait contenir des données pour des projets de couche 2 tels que les rollups. Parce que cet espace de données n'est pas accessible à l'EVM, il peut être diffusé séparément d'un bloc et vérifié séparément d'un bloc. Finalement, il peut être vérifié avec une technologie appelée échantillonnage de disponibilité des données, ce qui permet à chaque nœud de vérifier que les données ont été correctement publiées en ne vérifiant que quelques petits échantillons de manière aléatoire. Une fois que cela est mis en œuvre, l'espace de blob pourrait être considérablement étendu ; l'objectif final est de 16 Mo par emplacement (~1,33 Mo par seconde).
Échantillonnage de disponibilité des données: chaque nœud doit seulement télécharger une petite partie des données pour vérifier la disponibilité de l'ensemble.
EIP-4844 (alias "blobs") ne nous donne pas d'échantillonnage de disponibilité des données. Mais il met en place l'ossature de base de telle manière qu'à partir de maintenant, l'échantillonnage de la disponibilité des données peut être introduit et le nombre de blobs peut être augmenté en arrière-plan, le tout sans aucune intervention des utilisateurs ou des applications. En fait, le seul "hard fork" requis est un simple changement de paramètre.
Il y a deux fils de développement qui devront se poursuivre à partir de maintenant :
La prochaine étape sera probablement une version simplifiée de DAS appelée PeerDASDans PeerDAS, chaque nœud stocke une fraction significative (par exemple 1/8) de l'ensemble des données de blob, et les nœuds maintiennent des connexions avec de nombreux pairs dans le réseau pair à pair. Lorsqu'un nœud a besoin d'échantillonner une partie particulière de données, il demande à l'un des pairs qu'il sait être responsable du stockage de cette partie.
Si chaque nœud doit télécharger et stocker 1/8 de toutes les données, alors PeerDAS nous permet de mettre à l'échelle théoriquement les blobs de 8x (en fait, 4x, car nous perdons 2x en raison de la redondance du codage de l'effacement). PeerDAS peut être déployé progressivement : nous pouvons avoir une étape où les stakers professionnels continuent de télécharger des blobs complets, et les stakers solo ne téléchargent que 1/8 des données.
En plus de cela, EIP-7623(ou des alternatives telles que Tarification 2D) peut être utilisé pour imposer des limites plus strictes sur la taille maximale d'un bloc d'exécution (c'est-à-dire les « transactions régulières » dans un bloc), ce qui rend plus sûr d'augmenter à la fois la cible de blob et la limite de gaz L1. À plus long terme, plus compliqué Protocoles DAS 2Dnous permettra d'aller jusqu'au bout et d'augmenter encore l'espace de blob.
Il existe quatre endroits clés où les protocoles de couche 2 peuvent actuellement s'améliorer.
Mon schéma en image de la compression de donnéescontinue à être disponible ici;
Naïvement, une transaction occupe environ 180 octets de données. Cependant, il existe une série de techniques de compression qui peut être utilisépour réduire cette taille progressivement; avec une compression optimale, nous pourrions potentiellement descendre jusqu'à moins de 25 octets par transaction.
Plasmaest une catégorie de techniques qui vous permet d'obtenir une sécurité équivalente à celle de rollup pour certaines applications tout en conservant les données sur L2 dans le cas normal. Pour les EVM, le plasma ne peut pas protéger toutes les pièces. Mais les constructions inspirées du plasma peuvent protéger la plupart des pièces. Et les constructions bien plus simples que le plasma peuvent grandement améliorer le validiumsaujourd'hui. Les L2 qui ne souhaitent pas mettre toutes leurs données sur la chaîne devraient explorer de telles techniques.
Une fois que la fourchette dure de Dencun a été activée, rendant les rollups configurés pour utiliser les blobs qu'elle a introduits 100 fois moins chers. utilisation sur le Baserollup a immédiatement augmenté :
Cela a entraîné Base à atteindre sa propre limite de gaz interne, provoquant frais à augmenter de manière inattendue. Cela a conduit à une prise de conscience plus large que l'espace de données Ethereum n'est pas la seule chose qui doit être mise à l'échelle : les rollups doivent également être mis à l'échelle internement.
Une partie de cela est la parallélisation; les rollups pourraient implémenterquelque chose comme EIP-648. Mais tout aussi important eststockage, et effets d'interactionentre le calcul et le stockage. Il s'agit d'un défi d'ingénierie important pour les rollups.
Nous sommes encore loin d'un monde où les rollups sont vraiment protégés par le code. En fait, selon l2beatseulement ces cinq, dont seulement Arbitrum est un EVM complet, ont même atteintce que j'ai appelé "étape 1".
Cela doit être affronté de front. Bien que nous ne soyons pas actuellement au point où nous pouvons avoir suffisamment confiance dans le code complexe d'un vérificateur EVM optimiste ou SNARK, nous en sommes absolument au point où nous pouvons aller à mi-chemin, et avoir des conseils de sécurité qui peuvent annuler le comportement du code uniquement avec un seuil élevé (par exemple, j'ai proposé 6 sur 8; Arbitrum fait 9 sur 12).
Les normes de l'écosystème doivent devenir plus strictes : jusqu'à présent, nous avons été indulgents et avons accepté tout projet tant qu'il prétendait être “sur la voie de la décentralisation”. D'ici la fin de l'année, je pense que nos normes devraient s'élever et nous ne devrions considérer un projet comme un rollup que s'il a effectivement atteint au moins le stade 1.
Après cela, nous pouvons avancer prudemment vers la phase 2 : un monde où les rollups sont vraiment soutenus par du code, et un conseil de sécurité ne peut intervenir que si le code "désaccorde de manière prouvable avec lui-même" (par exemple, accepte deux racines d'état incompatibles, ou deux mises en œuvre différentes donnent des réponses différentes). Un moyen d'y parvenir en toute sécurité est de utiliser plusieurs implémentations de prouveur.
Dans une présentation à l'ETHCC à l'été 2022, J'ai fait une présentation décrivant l'état actuel du développement d'Ethereum comme une courbe en S : nous entrons dans une période de transition très rapide, et après cette transition rapide, le développement ralentira à nouveau alors que le L1 se solidifie et que le développement se recentre sur l'utilisateur et la couche d'application.
Aujourd'hui, je soutiendrais que nous sommes nettement du côté droit décélérant de cette courbe en S. Il y a deux semaines, les deux plus grands changements apportés à la blockchain Ethereum - le passage à la preuve d'enjeu et la restructuration en blocs - sont derrière nous. D'autres changements sont encore importants (par exemple, arbres Verkle, finalité à un seul emplacement, abstraction de compte dans le protocole) mais ils ne sont pas aussi drastiques que la preuve de participation et le sharding. En 2022, Ethereum était comme un avion remplaçant ses moteurs en plein vol. En 2023, il remplaçait ses ailes. La transition vers l'arbre Verkle est la principale transition vraiment significative restante (et nous avons déjà des testnets pour cela) ; les autres sont plus comme le remplacement d'un aileron de queue.
L'objectif de l'EIP-4844 était de faire un seul changement important unique, afin de préparer les rollups à une stabilité à long terme. Maintenant que les blobs sont sortis, une future mise à niveau vers le danksharding complet avec des blobs de 16 Mo, et même le passage de la cryptographie àSTARKs sur un champ goldilocks de 64 bits, peut se produire sans nécessiter d'autres actions de la part des rollups et des utilisateurs. Il renforce également un précédent important : que le processus de développement d'Ethereum s'exécute selon une feuille de route bien établie et longuement comprise, et que les applications (y compris les L2) qui sont construites en tenant compte de la « nouvelle Ethereum » bénéficient d'un environnement stable à long terme.
Les dix premières années d'Ethereum ont largement été une étape de formation : l'objectif a été de faire décoller l'Ethereum L1, et les applications se sont largement déroulées au sein d'une petite cohorte d'enthousiastes. Beaucoup ont soutenu que le manque d'applications à grande échelle au cours des dix dernières années prouve que la cryptographie est inutile. J'ai toujours argumenté contre cela : pratiquement toutes les applications de crypto qui ne relèvent pas de la spéculation financière dépendent de frais réduits - et donc, tant que nous avons des frais élevés, nous ne devrions pas être surpris de voir principalement de la spéculation financière !
Maintenant que nous avons des blobs, cette contrainte clé qui nous a freinés tout ce temps commence à fondre. Les frais sont enfin beaucoup plus bas; ma déclaration d'il y a sept ans selon laquelle l'internet de l'argent ne devrait pas coûter plus de cinq cents par transactionest enfinse réaliseNous ne sommes pas tout à fait sortis de la forêt : les frais pourraient encore augmenter si l'utilisation croît trop rapidement, et nous devons continuer à travailler dur pour faire évoluer les blobs (et faire évoluer les rollups séparément) davantage au cours des prochaines années. Mais nous voyons la lumière au bout du... euh... forêt sombre.
Ce que cela signifie pour les développeurs est simple : nous n'avons plus d'excuse. Jusqu'à il y a quelques années, nous nous fixions une norme basse, en construisant des applications qui n'étaient clairement pas utilisables à grande échelle, tant qu'elles fonctionnaient comme des prototypes et étaient raisonnablement décentralisées. Aujourd'hui, nous avons tous les outils dont nous aurons besoin, et en fait la plupart des outils dont nous aurons jamais besoin, pour construire des applications qui sont simultanément cypherpunket convivial. Et donc nous devrions sortir et le faire.
Beaucoup relèvent le défi. Le portefeuille Daimo se décrit explicitement comme Venmo sur Ethereum, visant à combiner la commodité de Venmo avec la décentralisation d'Ethereum. Dans la sphère sociale décentralisée, Farcaster fait un bon travail en combinant une véritable décentralisation (par exemple, voir ce guide sur la façon de construire votre propre client alternatif) avec une excellente expérience utilisateur. Contrairement aux vagues de hype précédentes de "social fi", l'utilisateur moyen de Farcaster n'est pas là pour jouer - passant le test clé pour qu'une application crypto soit vraiment durable.
Ce message a été envoyé sur le client principal Farcaster, Warpcast, et cette capture d'écran a été prise depuis l'alternative Farcaster +ObjectifclientLuciole.
Ce sont des succès sur lesquels nous devons capitaliser et étendre à d'autres sphères d'application, y compris l'identité, la réputation et la gouvernance.
L'écosystème Ethereum compte toujours un grand nombre d'applications qui fonctionnent autour d'un flux de travail fondamentalement "Ethereum des années 2010". La plupart des activités ENS se déroulent encore sur la couche 1. La plupart des émissions de jetons se font sur la couche 1, sans réelle considération pour s'assurer que les jetons liés sur les couches 2 sont disponibles (par exemple, voirce fan du memecoin ZELENSKYY) appréciant les dons continus de la pièce à l'Ukraine mais se plaignant que les frais L1 le rendent trop cher). En plus de la scalabilité, nous sommes également en retard sur la confidentialité: POAPssont tous publics on-chain, probablement le bon choix pour certains cas d'utilisation mais très sous-optimaux pour d'autres. La plupart des DAO, et Subventions Gitcoin, utilise toujours un vote entièrement transparent sur la chaîne, ce qui les rend très vulnérable à la corruption(y compris les largages rétroactifs), et cela a été démontré pour fausser fortement les schémas de contribution. Aujourd'hui, les ZK-SNARK existent depuis des années, et pourtant de nombreuses applications n'ont même pas encore commencé à les utiliser correctement.
Ce sont toutes des équipes travailleuses qui doivent gérer de grandes bases d'utilisateurs existantes, et je ne leur reproche pas de ne pas passer simultanément à la dernière vague de technologie. Mais bientôt, cette mise à niveau doit avoir lieu. Voici quelques différences clés entre un flux de travail Ethereum fondamentalement des années 2010 et un flux de travail Ethereum fondamentalement des années 2020 :
Fondamentalement, Ethereum n'est plus seulement un écosystème financier. C'est un remplacement complet pour de grandes parties de la technologie centralisée, et offre même certaines choses que la technologie centralisée ne fait pas (par exemple, des applications liées à la gouvernance). Et nous devons construire en gardant à l'esprit cet écosystème plus large.