Tout d'abord, qu'est-ce que Bittensor exactement ?
Bittensor lui-même n'est pas un produit d'IA, ni ne produit ou ne fournit de produits ou services d'IA. Bittensor est un système économique qui sert d'optimiseur pour le marché des produits d'IA en fournissant un système d'incitation très compétitif pour les producteurs de produits d'IA. Dans l'écosystème de Bittensor, les producteurs de haute qualité reçoivent plus d'incitations, tandis que les producteurs moins compétitifs sont progressivement éliminés.
Alors, comment Bittensor crée-t-il spécifiquement ce mécanisme d'incitation qui encourage une concurrence efficace et favorise la production organique de produits d'IA de haute qualité?
Modèle de volant d'inertie Bittensor
Bittensor atteint cet objectif grâce à un modèle de volant. Les validateurs évaluent la qualité des produits d'IA dans l'écosystème et distribuent des incitations en fonction de leur qualité, garantissant que les producteurs de haute qualité reçoivent plus d'incitations. Cela stimule une augmentation continue de la production de haute qualité, renforçant ainsi la valeur du réseau Bittensor et augmentant l'appréciation du TAO. L'appréciation du TAO attire non seulement plus de producteurs de haute qualité à rejoindre l'écosystème Bittensor, mais augmente également le coût des attaques par les manipulateurs qui manipulent les résultats de l'évaluation de la qualité. Cela renforce davantage le consensus des validateurs honnêtes et améliore l'objectivité et l'équité des résultats d'évaluation, permettant ainsi d'obtenir un mécanisme de concurrence et d'incitation plus efficace.
Veiller à l'équité et à l'objectivité des résultats de l'évaluation est une étape cruciale pour faire tourner la roue. Il s'agit également de la technologie de base de Bittensor, à savoir le système de validation abstraite basé sur le Consensus Yuma.
Alors, qu'est-ce que le Consensus Yuma et comment s'assure-t-il que les résultats de l'évaluation de la qualité après consensus sont justes et objectifs ?
Yuma Consensus est un mécanisme de consensus conçu pour calculer les résultats d'évaluation finaux à partir des évaluations diverses fournies par de nombreux Validateurs. Similaire aux mécanismes de consensus de tolérance aux fautes byzantines, tant que la majorité des Validateurs dans le réseau sont honnêtes, la décision correcte peut être atteinte à la fin. En supposant que les Validateurs honnêtes peuvent fournir des évaluations objectives, les résultats d'évaluation après consensus seront également justes et objectifs.
Prenons l'évaluation de la qualité des sous-réseaux comme exemple, les validateurs du réseau racine évaluent et classent la qualité de la production de chaque sous-réseau. Les résultats de l'évaluation des 64 validateurs sont agrégés, et les résultats finaux de l'évaluation sont obtenus grâce à l'algorithme de consensus Yuma. Les résultats finaux sont ensuite utilisés pour allouer la nouvelle TAO frappée à chaque sous-réseau.
Actuellement, Yuma Consensus a en effet besoin d'amélioration :
Bittensor envisage également des mécanismes de mise à niveau pour remédier à ces lacunes :
L'inclusivité forte est également l'un des principaux avantages du Consensus Yuma. Le Consensus Yuma est non seulement utilisé pour déterminer les émissions de chaque sous-réseau, mais aussi pour décider du ratio d'allocation de chaque Mineur et Valideur au sein du même sous-réseau. De plus, quel que soit la tâche du Mineur, les contributions qu'il contient, y compris la puissance de calcul, les données, la contribution humaine et l'intelligence, sont considérées de manière abstraite. Par conséquent, n'importe quelle étape de la production de biens AI peut accéder à l'écosystème Bittensor, bénéficiant d'incitations tout en renforçant la valeur du réseau Bittensor.
Ensuite, explorons quelques sous-réseaux leaders et observons comment Bittensor incite à la production de ces sous-réseaux.
Sous-réseau #3 Myshell TTS
GitHub — myshell-ai/MyShell-TTS-Subnet
Contribuez au développement de myshell-ai/MyShell-TTS-Subnet en créant un compte sur GitHub.
Émission:3.46% (2024–04–09)
Contexte : Myshell est l'équipe derrière Myshell TTS (Text-to-Speech), composée de membres principaux d'institutions renommées telles que le MIT, l'université d'Oxford et l'université de Princeton. Myshell vise à créer une plateforme sans code, permettant aux étudiants universitaires sans expérience en programmation de créer facilement leurs robots souhaités. Spécialisée dans le domaine du TTS, des livres audio et des assistants virtuels, Myshell a lancé son premier chatbot vocal, Samantha, en mars 2023. Avec l'expansion continue de sa matrice de produits, il a jusqu'à présent rassemblé plus d'un million d'utilisateurs enregistrés. La plateforme héberge différents types de robots, y compris ceux axés sur l'apprentissage des langues, l'éducation et l'utilitaire.
Positionnement : Myshell a lancé ce sous-réseau pour rassembler la sagesse de l'ensemble de la communauté open-source et construire les meilleurs modèles TTS open-source. En d'autres termes, Myshell TTS ne fait pas fonctionner directement les modèles ou gérer les demandes des utilisateurs finaux ; c'est plutôt un réseau pour l'entraînement des modèles TTS.
Architecture Myshell TSS
Le processus exécuté par Myshell TTS est illustré dans le diagramme ci-dessus. Les mineurs sont responsables de former des modèles et de télécharger les modèles entraînés dans le Pool de modèles (les métadonnées des modèles sont également stockées dans le réseau blockchain Bittensor); Les validateurs évaluent les modèles en générant des cas de test, en évaluant les performances du modèle et en attribuant des scores en fonction des résultats; le blockchain Bittensor est responsable de l'agrégation des poids en utilisant le Consensus Yuma, de déterminer les poids finaux et les ratios d'allocation pour chaque mineur.
En conclusion, les mineurs doivent continuellement soumettre des modèles de meilleure qualité pour maintenir leurs récompenses.
Actuellement, Myshell a également lancé une démo sur sa plateforme pour que les utilisateurs puissent essayer les modèles de Myshell TTS.
À l'avenir, à mesure que les modèles entraînés par Myshell TTS deviendront plus fiables, il y aura plus de cas d'utilisation en ligne. De plus, en tant que modèles open source, ils ne se limiteront pas seulement à Myshell mais pourront également être étendus à d'autres plateformes. La formation et l'incitation des modèles open source par le biais de telles approches décentralisées ne sont-elles pas exactement ce que nous visons dans l'IA décentralisée?
Sous-réseau #5 Ouvert Kaito
Contribuer au développement de OpenKaito/openkaito en créant un compte sur GitHub.
Émission:4.39% (2024–04–09)
Contexte: Kaito.ai est soutenu par l'équipe derrière Open Kaito, dont les membres clés ont une expérience étendue dans le domaine de l'IA, ayant travaillé auparavant dans des entreprises de premier plan telles que AWS, META et Citadel. Avant de se lancer dans le sous-réseau Bittensor, ils ont lancé leur produit phare, Kaito.ai - un moteur de recherche de données hors chaîne Web3, au quatrième trimestre 2023. En exploitant des algorithmes d'IA, Kaito.ai optimise les composants essentiels des moteurs de recherche, y compris la collecte de données, les algorithmes de classement et les algorithmes de récupération. Il a été reconnu comme l'un des principaux outils de collecte d'informations dans la communauté crypto.
Positionnement : Open Kaito vise à établir une couche d'indexation décentralisée pour soutenir la recherche et l'analyse intelligentes. Un moteur de recherche n'est pas simplement une base de données ou un algorithme de classement mais un système complexe. De plus, un moteur de recherche efficace nécessite également une faible latence, ce qui pose des défis supplémentaires pour la construction d'une version décentralisée. Heureusement, avec le système d'incitation de Bittensor, ces défis devraient être relevés.
Open Kaito Architecture
Le processus opérationnel de Open Kaito est illustré dans le diagramme ci-dessus. Open Kaito ne décentralise pas simplement chaque composant du moteur de recherche mais définit le problème d'indexation comme un problème Mineur-Validateur. Autrement dit, les Mineurs sont responsables de répondre aux demandes d'indexation des utilisateurs, tandis que les Validateurs distribuent les demandes et évaluent les réponses des Mineurs.
Open Kaito ne restreint pas la manière dont les Mineurs accomplissent les tâches d'indexation, mais se concentre plutôt sur les résultats finaux produits par les Mineurs pour encourager des solutions innovantes. Cela contribue à favoriser un environnement concurrentiel sain parmi les Mineurs. Face aux demandes d'indexation des utilisateurs, les Mineurs s'efforcent d'améliorer leurs plans d'exécution pour obtenir des résultats de réponse de meilleure qualité avec moins de ressources.
Sous-réseau #6 Nous Finetuning
GitHub — NousResearch/finetuning-subnet
Emission:6.26% (2024–04–09)
Contexte: L'équipe derrière Nous Finetuning vient de Nous Research, une équipe de recherche dédiée à l'architecture des modèles linguistiques à grande échelle (LLM), à la synthèse de données et à l'inférence sur appareil. Ses cofondateurs ont précédemment occupé le poste d'ingénieur principal chez Eden Network.
Positionnement : Nous Finetuning est un sous-réseau dédié au peaufinage de grands modèles de langage. De plus, les données utilisées pour le peaufinage proviennent également de l'écosystème Bittensor, plus précisément du sous-réseau n°18.
Le processus opérationnel de Nous Finetuning est similaire à celui de Myshell TSS. Les mineurs entraînent des modèles basés sur les données du sous-réseau n°18 et les publient régulièrement pour être hébergés sur Hugging Face ; les validateurs évaluent les modèles et fournissent des notes ; de même, la blockchain Bittensor est responsable de l'agrégation des poids en utilisant le consensus Yuma, déterminant les poids et les émissions finaux pour chaque mineur.
Sous-réseau n°18 Cortex.t
Contribuez au développement de corcel-api/cortex.t en créant un compte sur GitHub.
Émission:7.74%(2024–04–09)
Contexte : L'équipe derrière Cortex.t est Corcel.io, qui a reçu le soutien de Mog, le deuxième plus grand validateur du réseau Bittensor. Corcel.io est une application destinée aux utilisateurs finaux, offrant une expérience similaire à ChatGPT en exploitant les produits d'IA de l'écosystème Bittensor.
Positionnement : Cortex.t se positionne comme une couche finale avant de fournir des résultats aux utilisateurs finaux. Il est responsable de détecter et d'optimiser les sorties des différents sous-réseaux pour garantir que les résultats sont précis et fiables, notamment lorsqu'une seule requête appelle plusieurs modèles. Cortex.t vise à éviter les sorties vides ou incohérentes, garantissant une expérience utilisateur fluide.
Les mineurs de Cortex.t utilisent d'autres sous-réseaux au sein de l'écosystème Bittensor pour traiter les demandes des utilisateurs finaux. Ils utilisent également GPT-3.5-turbo ou GPT-4 pour vérifier les résultats, garantissant ainsi la fiabilité pour les utilisateurs finaux. Les validateurs évaluent les sorties des mineurs en les comparant aux résultats générés par OpenAI.
Vision du sous-réseau #19
Contribuez au développement de namoray/vision en créant un compte sur GitHub.
Émission:9.47%(2024–04–09)
Contexte : L'équipe de développement de Vision provient également de Corcel.io.
Positionnement: Vision vise à maximiser la capacité de sortie du réseau Bittensor en tirant parti d'un cadre de construction de sous-réseau optimisé appelé DSIS (Inference de sous-réseau décentralisée à grande échelle). Ce cadre accélère les réponses des Mineurs aux Validateurs. Actuellement, Vision se concentre sur le scénario de génération d'images.
Les validateurs reçoivent des demandes du frontend de Corcel.io et les distribuent aux mineurs. Les mineurs ont la liberté de choisir leur pile technologique préférée (non limitée aux modèles) pour traiter les demandes et générer des réponses. Les validateurs évaluent ensuite les performances des mineurs. Grâce à DSIS, Vision peut répondre à ces demandes plus rapidement et efficacement que d'autres sous-réseaux.
Des exemples ci-dessus, il est évident que Bittensor fait preuve d'un haut degré d'inclusivité. La génération par les Mineurs et la validation par les Validateurs se font hors chaîne, le réseau Bittensor servant uniquement à allouer des récompenses à chaque Mineur en fonction de l'évaluation des Validateurs. Tout aspect de la génération de produits IA qui correspond à l'architecture Mineur-Validateur peut être transformé en un sous-réseau.
Clause de non-responsabilité: Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.
En théorie, la concurrence entre les sous-réseaux devrait être intense. Pour qu'un sous-réseau continue de recevoir des récompenses, il doit produire de manière cohérente des sorties de haute qualité. Sinon, si la production d'un sous-réseau est jugée de faible valeur par les validateurs du réseau racine, son allocation peut diminuer et il pourrait éventuellement être remplacé par un nouveau sous-réseau.
Cependant, en réalité, nous avons effectivement observé quelques problèmes :
Ces problèmes reflètent une concurrence insuffisante entre les sous-réseaux, et certains validateurs n'ont pas joué un rôle dans l'encouragement d'une concurrence efficace.
Le validateur de la Fondation Open Tensor (OTF) a mis en place certaines mesures temporaires pour atténuer cette situation. En tant que plus grand détenteur de validateur détenant 23% du pouvoir de mise en jeu (y compris la délégation), OTF fournit des canaux pour que les sous-réseaux luttent pour plus de TAO mis en jeu: Les propriétaires de sous-réseaux peuvent soumettre des demandes à l'OTF chaque semaine pour ajuster sa proportion de TAO mis en jeu dans le sous-réseau. Ces demandes doivent couvrir 10 aspects, y compris « Les objectifs du sous-réseau et les contributions à l'écosystème Bittensor », « Le mécanisme de récompense du sous-réseau », « La conception du protocole de communication », « Les sources de données et la sécurité », « Les exigences en matière de calcul », et « Feuille de route », entre autres, pour faciliter la prise de décision finale de l'OTF.
Cependant, pour aborder fondamentalement ce problème, d'une part, nous avons un besoin urgent du lancement de dTAO (@0xai.dev/what-is-the-impact-of-dynamic-tao-on-bittensor-efcc8ebe4e27">Dynamic TAO), qui est conçu pour changer fondamentalement les problèmes déraisonnables susmentionnés. En d'autres termes, nous pouvons faire appel aux grands validateurs détenant une quantité significative de Staking TAO pour envisager le développement à long terme de l'écosystème Bittensor davantage du point de vue du “développement de l'écosystème” plutôt que uniquement d'un point de vue de “retour financier”.
En conclusion, en s'appuyant sur sa forte inclusivité, son environnement concurrentiel féroce et son mécanisme incitatif efficace, nous croyons que l'écosystème de Bittensor peut produire organiquement des produits AI de haute qualité. Bien que tous les résultats des Subnets existants ne rivalisent pas avec ceux des produits centralisés, n'oublions pas que l'architecture actuelle de Bittensor vient de fêter sa première année (le Subnet n°1 a été enregistré le 13 avril 2023). Pour une plateforme avec le potentiel de rivaliser avec les géants de l'IA centralisés, peut-être devrions-nous nous concentrer sur la proposition de plans d'amélioration pratiques plutôt que de critiquer précipitamment ses lacunes. Après tout, nous ne voulons pas voir l'IA constamment contrôlée par quelques géants.
Share
Content
Tout d'abord, qu'est-ce que Bittensor exactement ?
Bittensor lui-même n'est pas un produit d'IA, ni ne produit ou ne fournit de produits ou services d'IA. Bittensor est un système économique qui sert d'optimiseur pour le marché des produits d'IA en fournissant un système d'incitation très compétitif pour les producteurs de produits d'IA. Dans l'écosystème de Bittensor, les producteurs de haute qualité reçoivent plus d'incitations, tandis que les producteurs moins compétitifs sont progressivement éliminés.
Alors, comment Bittensor crée-t-il spécifiquement ce mécanisme d'incitation qui encourage une concurrence efficace et favorise la production organique de produits d'IA de haute qualité?
Modèle de volant d'inertie Bittensor
Bittensor atteint cet objectif grâce à un modèle de volant. Les validateurs évaluent la qualité des produits d'IA dans l'écosystème et distribuent des incitations en fonction de leur qualité, garantissant que les producteurs de haute qualité reçoivent plus d'incitations. Cela stimule une augmentation continue de la production de haute qualité, renforçant ainsi la valeur du réseau Bittensor et augmentant l'appréciation du TAO. L'appréciation du TAO attire non seulement plus de producteurs de haute qualité à rejoindre l'écosystème Bittensor, mais augmente également le coût des attaques par les manipulateurs qui manipulent les résultats de l'évaluation de la qualité. Cela renforce davantage le consensus des validateurs honnêtes et améliore l'objectivité et l'équité des résultats d'évaluation, permettant ainsi d'obtenir un mécanisme de concurrence et d'incitation plus efficace.
Veiller à l'équité et à l'objectivité des résultats de l'évaluation est une étape cruciale pour faire tourner la roue. Il s'agit également de la technologie de base de Bittensor, à savoir le système de validation abstraite basé sur le Consensus Yuma.
Alors, qu'est-ce que le Consensus Yuma et comment s'assure-t-il que les résultats de l'évaluation de la qualité après consensus sont justes et objectifs ?
Yuma Consensus est un mécanisme de consensus conçu pour calculer les résultats d'évaluation finaux à partir des évaluations diverses fournies par de nombreux Validateurs. Similaire aux mécanismes de consensus de tolérance aux fautes byzantines, tant que la majorité des Validateurs dans le réseau sont honnêtes, la décision correcte peut être atteinte à la fin. En supposant que les Validateurs honnêtes peuvent fournir des évaluations objectives, les résultats d'évaluation après consensus seront également justes et objectifs.
Prenons l'évaluation de la qualité des sous-réseaux comme exemple, les validateurs du réseau racine évaluent et classent la qualité de la production de chaque sous-réseau. Les résultats de l'évaluation des 64 validateurs sont agrégés, et les résultats finaux de l'évaluation sont obtenus grâce à l'algorithme de consensus Yuma. Les résultats finaux sont ensuite utilisés pour allouer la nouvelle TAO frappée à chaque sous-réseau.
Actuellement, Yuma Consensus a en effet besoin d'amélioration :
Bittensor envisage également des mécanismes de mise à niveau pour remédier à ces lacunes :
L'inclusivité forte est également l'un des principaux avantages du Consensus Yuma. Le Consensus Yuma est non seulement utilisé pour déterminer les émissions de chaque sous-réseau, mais aussi pour décider du ratio d'allocation de chaque Mineur et Valideur au sein du même sous-réseau. De plus, quel que soit la tâche du Mineur, les contributions qu'il contient, y compris la puissance de calcul, les données, la contribution humaine et l'intelligence, sont considérées de manière abstraite. Par conséquent, n'importe quelle étape de la production de biens AI peut accéder à l'écosystème Bittensor, bénéficiant d'incitations tout en renforçant la valeur du réseau Bittensor.
Ensuite, explorons quelques sous-réseaux leaders et observons comment Bittensor incite à la production de ces sous-réseaux.
Sous-réseau #3 Myshell TTS
GitHub — myshell-ai/MyShell-TTS-Subnet
Contribuez au développement de myshell-ai/MyShell-TTS-Subnet en créant un compte sur GitHub.
Émission:3.46% (2024–04–09)
Contexte : Myshell est l'équipe derrière Myshell TTS (Text-to-Speech), composée de membres principaux d'institutions renommées telles que le MIT, l'université d'Oxford et l'université de Princeton. Myshell vise à créer une plateforme sans code, permettant aux étudiants universitaires sans expérience en programmation de créer facilement leurs robots souhaités. Spécialisée dans le domaine du TTS, des livres audio et des assistants virtuels, Myshell a lancé son premier chatbot vocal, Samantha, en mars 2023. Avec l'expansion continue de sa matrice de produits, il a jusqu'à présent rassemblé plus d'un million d'utilisateurs enregistrés. La plateforme héberge différents types de robots, y compris ceux axés sur l'apprentissage des langues, l'éducation et l'utilitaire.
Positionnement : Myshell a lancé ce sous-réseau pour rassembler la sagesse de l'ensemble de la communauté open-source et construire les meilleurs modèles TTS open-source. En d'autres termes, Myshell TTS ne fait pas fonctionner directement les modèles ou gérer les demandes des utilisateurs finaux ; c'est plutôt un réseau pour l'entraînement des modèles TTS.
Architecture Myshell TSS
Le processus exécuté par Myshell TTS est illustré dans le diagramme ci-dessus. Les mineurs sont responsables de former des modèles et de télécharger les modèles entraînés dans le Pool de modèles (les métadonnées des modèles sont également stockées dans le réseau blockchain Bittensor); Les validateurs évaluent les modèles en générant des cas de test, en évaluant les performances du modèle et en attribuant des scores en fonction des résultats; le blockchain Bittensor est responsable de l'agrégation des poids en utilisant le Consensus Yuma, de déterminer les poids finaux et les ratios d'allocation pour chaque mineur.
En conclusion, les mineurs doivent continuellement soumettre des modèles de meilleure qualité pour maintenir leurs récompenses.
Actuellement, Myshell a également lancé une démo sur sa plateforme pour que les utilisateurs puissent essayer les modèles de Myshell TTS.
À l'avenir, à mesure que les modèles entraînés par Myshell TTS deviendront plus fiables, il y aura plus de cas d'utilisation en ligne. De plus, en tant que modèles open source, ils ne se limiteront pas seulement à Myshell mais pourront également être étendus à d'autres plateformes. La formation et l'incitation des modèles open source par le biais de telles approches décentralisées ne sont-elles pas exactement ce que nous visons dans l'IA décentralisée?
Sous-réseau #5 Ouvert Kaito
Contribuer au développement de OpenKaito/openkaito en créant un compte sur GitHub.
Émission:4.39% (2024–04–09)
Contexte: Kaito.ai est soutenu par l'équipe derrière Open Kaito, dont les membres clés ont une expérience étendue dans le domaine de l'IA, ayant travaillé auparavant dans des entreprises de premier plan telles que AWS, META et Citadel. Avant de se lancer dans le sous-réseau Bittensor, ils ont lancé leur produit phare, Kaito.ai - un moteur de recherche de données hors chaîne Web3, au quatrième trimestre 2023. En exploitant des algorithmes d'IA, Kaito.ai optimise les composants essentiels des moteurs de recherche, y compris la collecte de données, les algorithmes de classement et les algorithmes de récupération. Il a été reconnu comme l'un des principaux outils de collecte d'informations dans la communauté crypto.
Positionnement : Open Kaito vise à établir une couche d'indexation décentralisée pour soutenir la recherche et l'analyse intelligentes. Un moteur de recherche n'est pas simplement une base de données ou un algorithme de classement mais un système complexe. De plus, un moteur de recherche efficace nécessite également une faible latence, ce qui pose des défis supplémentaires pour la construction d'une version décentralisée. Heureusement, avec le système d'incitation de Bittensor, ces défis devraient être relevés.
Open Kaito Architecture
Le processus opérationnel de Open Kaito est illustré dans le diagramme ci-dessus. Open Kaito ne décentralise pas simplement chaque composant du moteur de recherche mais définit le problème d'indexation comme un problème Mineur-Validateur. Autrement dit, les Mineurs sont responsables de répondre aux demandes d'indexation des utilisateurs, tandis que les Validateurs distribuent les demandes et évaluent les réponses des Mineurs.
Open Kaito ne restreint pas la manière dont les Mineurs accomplissent les tâches d'indexation, mais se concentre plutôt sur les résultats finaux produits par les Mineurs pour encourager des solutions innovantes. Cela contribue à favoriser un environnement concurrentiel sain parmi les Mineurs. Face aux demandes d'indexation des utilisateurs, les Mineurs s'efforcent d'améliorer leurs plans d'exécution pour obtenir des résultats de réponse de meilleure qualité avec moins de ressources.
Sous-réseau #6 Nous Finetuning
GitHub — NousResearch/finetuning-subnet
Emission:6.26% (2024–04–09)
Contexte: L'équipe derrière Nous Finetuning vient de Nous Research, une équipe de recherche dédiée à l'architecture des modèles linguistiques à grande échelle (LLM), à la synthèse de données et à l'inférence sur appareil. Ses cofondateurs ont précédemment occupé le poste d'ingénieur principal chez Eden Network.
Positionnement : Nous Finetuning est un sous-réseau dédié au peaufinage de grands modèles de langage. De plus, les données utilisées pour le peaufinage proviennent également de l'écosystème Bittensor, plus précisément du sous-réseau n°18.
Le processus opérationnel de Nous Finetuning est similaire à celui de Myshell TSS. Les mineurs entraînent des modèles basés sur les données du sous-réseau n°18 et les publient régulièrement pour être hébergés sur Hugging Face ; les validateurs évaluent les modèles et fournissent des notes ; de même, la blockchain Bittensor est responsable de l'agrégation des poids en utilisant le consensus Yuma, déterminant les poids et les émissions finaux pour chaque mineur.
Sous-réseau n°18 Cortex.t
Contribuez au développement de corcel-api/cortex.t en créant un compte sur GitHub.
Émission:7.74%(2024–04–09)
Contexte : L'équipe derrière Cortex.t est Corcel.io, qui a reçu le soutien de Mog, le deuxième plus grand validateur du réseau Bittensor. Corcel.io est une application destinée aux utilisateurs finaux, offrant une expérience similaire à ChatGPT en exploitant les produits d'IA de l'écosystème Bittensor.
Positionnement : Cortex.t se positionne comme une couche finale avant de fournir des résultats aux utilisateurs finaux. Il est responsable de détecter et d'optimiser les sorties des différents sous-réseaux pour garantir que les résultats sont précis et fiables, notamment lorsqu'une seule requête appelle plusieurs modèles. Cortex.t vise à éviter les sorties vides ou incohérentes, garantissant une expérience utilisateur fluide.
Les mineurs de Cortex.t utilisent d'autres sous-réseaux au sein de l'écosystème Bittensor pour traiter les demandes des utilisateurs finaux. Ils utilisent également GPT-3.5-turbo ou GPT-4 pour vérifier les résultats, garantissant ainsi la fiabilité pour les utilisateurs finaux. Les validateurs évaluent les sorties des mineurs en les comparant aux résultats générés par OpenAI.
Vision du sous-réseau #19
Contribuez au développement de namoray/vision en créant un compte sur GitHub.
Émission:9.47%(2024–04–09)
Contexte : L'équipe de développement de Vision provient également de Corcel.io.
Positionnement: Vision vise à maximiser la capacité de sortie du réseau Bittensor en tirant parti d'un cadre de construction de sous-réseau optimisé appelé DSIS (Inference de sous-réseau décentralisée à grande échelle). Ce cadre accélère les réponses des Mineurs aux Validateurs. Actuellement, Vision se concentre sur le scénario de génération d'images.
Les validateurs reçoivent des demandes du frontend de Corcel.io et les distribuent aux mineurs. Les mineurs ont la liberté de choisir leur pile technologique préférée (non limitée aux modèles) pour traiter les demandes et générer des réponses. Les validateurs évaluent ensuite les performances des mineurs. Grâce à DSIS, Vision peut répondre à ces demandes plus rapidement et efficacement que d'autres sous-réseaux.
Des exemples ci-dessus, il est évident que Bittensor fait preuve d'un haut degré d'inclusivité. La génération par les Mineurs et la validation par les Validateurs se font hors chaîne, le réseau Bittensor servant uniquement à allouer des récompenses à chaque Mineur en fonction de l'évaluation des Validateurs. Tout aspect de la génération de produits IA qui correspond à l'architecture Mineur-Validateur peut être transformé en un sous-réseau.
Clause de non-responsabilité: Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.
En théorie, la concurrence entre les sous-réseaux devrait être intense. Pour qu'un sous-réseau continue de recevoir des récompenses, il doit produire de manière cohérente des sorties de haute qualité. Sinon, si la production d'un sous-réseau est jugée de faible valeur par les validateurs du réseau racine, son allocation peut diminuer et il pourrait éventuellement être remplacé par un nouveau sous-réseau.
Cependant, en réalité, nous avons effectivement observé quelques problèmes :
Ces problèmes reflètent une concurrence insuffisante entre les sous-réseaux, et certains validateurs n'ont pas joué un rôle dans l'encouragement d'une concurrence efficace.
Le validateur de la Fondation Open Tensor (OTF) a mis en place certaines mesures temporaires pour atténuer cette situation. En tant que plus grand détenteur de validateur détenant 23% du pouvoir de mise en jeu (y compris la délégation), OTF fournit des canaux pour que les sous-réseaux luttent pour plus de TAO mis en jeu: Les propriétaires de sous-réseaux peuvent soumettre des demandes à l'OTF chaque semaine pour ajuster sa proportion de TAO mis en jeu dans le sous-réseau. Ces demandes doivent couvrir 10 aspects, y compris « Les objectifs du sous-réseau et les contributions à l'écosystème Bittensor », « Le mécanisme de récompense du sous-réseau », « La conception du protocole de communication », « Les sources de données et la sécurité », « Les exigences en matière de calcul », et « Feuille de route », entre autres, pour faciliter la prise de décision finale de l'OTF.
Cependant, pour aborder fondamentalement ce problème, d'une part, nous avons un besoin urgent du lancement de dTAO (@0xai.dev/what-is-the-impact-of-dynamic-tao-on-bittensor-efcc8ebe4e27">Dynamic TAO), qui est conçu pour changer fondamentalement les problèmes déraisonnables susmentionnés. En d'autres termes, nous pouvons faire appel aux grands validateurs détenant une quantité significative de Staking TAO pour envisager le développement à long terme de l'écosystème Bittensor davantage du point de vue du “développement de l'écosystème” plutôt que uniquement d'un point de vue de “retour financier”.
En conclusion, en s'appuyant sur sa forte inclusivité, son environnement concurrentiel féroce et son mécanisme incitatif efficace, nous croyons que l'écosystème de Bittensor peut produire organiquement des produits AI de haute qualité. Bien que tous les résultats des Subnets existants ne rivalisent pas avec ceux des produits centralisés, n'oublions pas que l'architecture actuelle de Bittensor vient de fêter sa première année (le Subnet n°1 a été enregistré le 13 avril 2023). Pour une plateforme avec le potentiel de rivaliser avec les géants de l'IA centralisés, peut-être devrions-nous nous concentrer sur la proposition de plans d'amélioration pratiques plutôt que de critiquer précipitamment ses lacunes. Après tout, nous ne voulons pas voir l'IA constamment contrôlée par quelques géants.