Redéfinir les limites du calcul : Situation actuelle et perspectives de la puissance de calcul décentralisée

Intermédiaire1/4/2024, 5:09:37 PM
Avec le développement de l'IA et d'autres domaines, de nombreuses industries connaîtront d'énormes changements dans la logique sous-jacente, la puissance de calcul occupera une position plus importante, et divers aspects qui y sont liés entraîneront également une exploration approfondie dans l'industrie. Les réseaux de puissance de calcul décentralisés ont leurs propres avantages peuvent réduire le risque de centralisation et peuvent également servir de complément à la puissance de calcul centralisée.

Puissance de calcul demandée

Depuis la sortie d'"Avatar » en 2009, il a lancé la première bataille de films en 3D avec des images réelles inégalées. En tant qu’énorme contributeur, Weta Digital a contribué au rendu des effets visuels de l’ensemble du film. Dans sa ferme de serveurs de 10 000 pieds carrés en Nouvelle-Zélande, son cluster informatique a traité jusqu’à 1,4 million de tâches par jour et traité 8 Go de données par seconde. Malgré cela, il a continué à fonctionner pendant plus d’un mois avant que tous les rendus ne soient terminés. Travail.

Grâce au déploiement de machines à grande échelle et à l’investissement dans les coûts, « Avatar » a réalisé des réalisations exceptionnelles dans l’histoire du cinéma.

Le 3 janvier de la même année, Satoshi Nakamoto a extrait le bloc de genèse de Bitcoin sur un petit serveur à Helsinki, en Finlande, et a reçu une récompense de bloc de 50 BTC. Depuis le premier jour de la cryptomonnaie, la puissance de calcul a joué un rôle très important dans l'industrie.

La plus longue chaîne sert non seulement de preuve de la séquence des événements observés, mais aussi de preuve qu'elle provient du plus grand pool de puissance de calcul.

—— Livre blanc sur Bitcoin

Dans le contexte du mécanisme de consensus PoW, la contribution de la puissance de calcul garantit la sécurité de la chaîne. En même temps, l'Hashrate en constante augmentation peut également prouver l'investissement continu des mineurs dans la puissance de calcul et les attentes de revenus positifs. La demande réelle de l'industrie en matière de puissance de calcul a également grandement favorisé le développement des fabricants de puces. Les puces de machines minières ont connu des étapes de développement telles que CPU, GPU, FPGA et ASIC. Actuellement, les machines de minage de Bitcoin sont généralement des puces basées sur la technologie ASIC (Circuit Intégré Spécifique à l'Application) qui peuvent exécuter efficacement des algorithmes spécifiques, tels que SHA-256. Les énormes bénéfices économiques apportés par Bitcoin ont également fait monter en flèche la demande de puissance de calcul dans le domaine du minage. Cependant, des équipements trop spécialisés et des effets de cluster ont causé un effet de syphon parmi ses propres participants, qu'il s'agisse de mineurs ou de fabricants de machines minières. Ils montrent tous une tendance au développement concentré intensif en capital.

Avec l'avènement des contrats intelligents d'Ethereum, sa programmabilité, sa composition et d'autres fonctionnalités ont formé une large gamme d'applications, notamment dans le domaine de la DeFi, ce qui a fait monter le prix de l'ETH, tout en restant dans le consensus PoW. La difficulté de minage d'Ethereum à cette étape a également augmenté. Les exigences de puissance de calcul des mineurs pour les machines de minage d'Ethereum augmentent également de jour en jour. Cependant, contrairement à Bitcoin, qui utilise des puces ASIC, Ethereum a besoin d'utiliser une unité de traitement graphique (GPU) pour les calculs de minage, comme la série Nvidia RTX. De cette manière, il est plus approprié que le matériel informatique général participe. Cela a même déclenché la concurrence sur le marché des GPU, ce qui a provoqué des pénuries de cartes graphiques haut de gamme sur le marché.

Quand le 30 novembre 2022 est arrivé, ChatGPT développé par OpenAI a également démontré une signification révolutionnaire dans le domaine de l'IA. Les utilisateurs ont été émerveillés par la nouvelle expérience apportée par ChatGPT, qui peut accomplir diverses tâches proposées par l'utilisateur en fonction du contexte, comme le ferait une vraie personne. Dans la nouvelle version lancée en septembre de cette année, l'IA générative qui ajoute des fonctionnalités multimodales telles que la voix et les images a porté l'expérience utilisateur à un niveau supérieur.

Mais, en correspondance, GPT4 compte plus d'un billion de paramètres impliqués dans la pré-formation du modèle et le réglage fin ultérieur. Ce sont les deux parties avec la plus grande demande de puissance de calcul dans le domaine de l'IA. Dans la phase de pré-formation, une grande quantité de texte est étudiée pour maîtriser les modèles de langage, la grammaire et le contexte associé. Cela lui permet de comprendre les modèles de langage pour générer un texte cohérent et contextuel en fonction de l'entrée. Après la pré-formation, GPT4 est réglé finement pour mieux s'adapter à des types de contenu ou des styles spécifiques et améliorer les performances et la spécialisation dans des scénarios de demande spécifiques.

Depuis que l'architecture Transformer adoptée par GPT introduit le mécanisme d'auto-attention, ce mécanisme permet au modèle de prêter simultanément attention à la relation entre différentes parties de la séquence lors du traitement de la séquence d'entrée. Par conséquent, la demande de puissance de calcul a fortement augmenté. Surtout lors du traitement de longues séquences, une grande quantité de calcul parallèle et de stockage d'un grand nombre de scores d'attention sont nécessaires, ce qui nécessite également une grande quantité de mémoire et des capacités de transmission de données à haute vitesse. Les LLM mainstream actuels avec la même architecture ont une énorme demande de GPU haute performance, ce qui montre également que le coût d'investissement dans le domaine des grands modèles d'IA est énorme. Selon les estimations pertinentes de SemiAnalysis, le coût de la formation d'un modèle GPT4 s'élève à 63 millions de dollars. Pour offrir une bonne expérience interactive, GPT4 doit également investir beaucoup de puissance de calcul dans ses opérations quotidiennes pour maintenir ses opérations quotidiennes.

Classification du matériel informatique

Ici, nous devons comprendre les principaux types de matériel de puissance de calcul actuels. Quels scénarios de demande de puissance de calcul peuvent être gérés respectivement par CPU, GPU, FPGA et ASIC.

• À partir du diagramme architectural du CPU et du GPU, le GPU contient plus de cœurs, ce qui permet au GPU de traiter plusieurs tâches de calcul simultanément. Le calcul parallèle a des capacités de traitement plus puissantes et est adapté au traitement d'un grand nombre de tâches de calcul, il a donc été largement utilisé dans les domaines de l'apprentissage automatique et de l'apprentissage profond. Le CPU a un nombre plus restreint de cœurs et est adapté au traitement d'un calcul complexe unique ou d'une tâche séquentielle de manière plus intensive, mais il n'est pas aussi efficace que le GPU pour le traitement de tâches de calcul parallèle. Dans les tâches de rendu et de calcul de réseau neuronal, un grand nombre de calculs répétés et de calculs parallèles doivent généralement être traités, donc le GPU est plus efficace et adapté que le CPU dans ce domaine.

• Le FPGA (Field Programmable Gate Array) est un circuit semi-personnalisé dans le domaine du circuit intégré spécifique à une application (ASIC). Un réseau composé d'un grand nombre de petites unités de traitement, le FPGA peut être compris comme une puce de circuit logique numérique programmable. L'application actuelle se concentre principalement sur l'accélération matérielle, et d'autres tâches sont encore effectuées sur le CPU, permettant au FPGA et au CPU de travailler ensemble.

• ASIC (Circuit Intégré Spécifique à une Application) fait référence à un circuit intégré conçu pour répondre aux besoins spécifiques des utilisateurs et aux besoins de systèmes électroniques spécifiques. Comparé aux circuits intégrés à usage général, ASIC présente les avantages d'une taille plus petite, d'une consommation d'énergie plus faible, d'une fiabilité améliorée, de performances accrues, de confidentialité renforcée et de coûts réduits lors de la production de masse. Par conséquent, dans le scénario inhérent à l'extraction de Bitcoin, qui nécessite uniquement l'exécution de tâches de calcul spécifiques, ASIC est le plus adapté. Google a également lancé un TPU (Unité de Traitement Tensoriel) spécialement conçu pour l'apprentissage automatique en tant que type de ASIC, mais actuellement il fournit principalement des services de location de puissance de calcul via Google Cloud.

• ASIC par rapport au FPGA, l’ASIC est un circuit intégré spécifique à l’application et le circuit intégré est fixé une fois la conception terminée. Le FPGA intègre un grand nombre de portes de circuits numériques de base et de mémoires dans le réseau. Les développeurs peuvent définir le circuit en programmant la configuration FPGA, et cette programmation est remplaçable. Cependant, compte tenu de la vitesse de mise à jour actuelle dans le domaine de l’IA, les puces personnalisées ou semi-personnalisées ne peuvent pas être ajustées et reconfigurées à temps pour effectuer différentes tâches ou s’adapter à de nouveaux algorithmes. Par conséquent, l’adaptabilité générale et la flexibilité du GPU le font briller dans le domaine de l’IA. Les principaux fabricants de GPU ont également procédé à des optimisations pertinentes pour l’adaptation des GPU dans le domaine de l’IA. Prenant l’exemple de Nvidia, elle a lancé la série Tesla et les GPU d’architecture Ampere conçus spécifiquement pour l’apprentissage profond. Ce matériel contient des unités matérielles (cœurs Tensor) optimisées pour les calculs de machine learning et de deep learning, qui permettent au GPU de fonctionner plus efficacement et plus efficacement. Faible consommation d’énergie pour effectuer la propagation vers l’avant et vers l’arrière des réseaux de neurones. En outre, un large éventail d’outils et de bibliothèques sont fournis pour prendre en charge le développement de l’IA, tels que CUDA (Compute Unified Device Architecture) pour aider les développeurs à utiliser les GPU pour le calcul parallèle à usage général.

Puissance de calcul décentralisée

La puissance de calcul décentralisée fait référence à la méthode de fourniture de puissance de traitement par le biais de ressources informatiques distribuées. Cette approche décentralisée est généralement combinée à la technologie blockchain ou à une technologie de registre distribué similaire pour mettre en commun les ressources informatiques inutilisées et les distribuer aux utilisateurs qui en ont besoin pour réaliser le partage, les transactions et la gestion des ressources.

Contexte

• Une forte demande en matériel informatique. La prospérité de l'économie des créateurs a fait entrer le traitement des médias numériques dans une ère de création universelle. La demande de rendu d'effets visuels a explosé, et des studios spécialisés dans l'externalisation du rendu, des plates-formes de rendu cloud et d'autres formes ont émergé. Cependant, cette approche nécessite également d'investir beaucoup d'argent soi-même dans l'acquisition précoce du matériel de puissance de calcul.

• La puissance de calcul matérielle provient d'une seule source. Le développement du domaine de l'IA a intensifié la demande de matériel informatique. Les principales sociétés de fabrication de GPU au monde, menées par Nvidia, ont gagné beaucoup d'argent dans cette compétition de puissance de calcul IA. Sa capacité d'approvisionnement est même devenue un facteur clé pouvant restreindre le développement d'une certaine industrie. La valeur marchande de Nvidia a également dépassé pour la première fois un billion de dollars US cette année.

• La mise à disposition de la puissance de calcul repose encore principalement sur des plateformes cloud centralisées. Ce qui profite vraiment de l’augmentation de la demande de calcul haute performance, ce sont les fournisseurs de cloud centralisés représentés par AWS. Ils ont lancé des services de cloud computing GPU. Si l’on prend l’exemple actuel d’AWS p4d.24xlarge, la location d’un de ces serveurs HPC spécialisés dans le ML, contenant huit GPU Nvidia A100 de 40 Go, coûte 32,8 USD de l’heure, et sa marge bénéficiaire brute est estimée à 61 %. Cela a également poussé d’autres géants du cloud à se précipiter pour participer et accumuler du matériel afin d’obtenir autant d’avantages que possible dans les premières étapes du développement de l’industrie.

• Les facteurs politiques, l'intervention humaine et d'autres facteurs conduisent à un développement inégal de l'industrie. Il n'est pas difficile de voir que la propriété et la concentration des GPU sont plus inclinées vers les organisations et les pays disposant de fonds et de technologies abondants, et dépendent de grappes informatiques haute performance. Cela a conduit les pouvoirs de fabrication de puces et de semi-conducteurs représentés par les États-Unis à mettre en œuvre des restrictions plus strictes sur l'exportation de puces d'IA pour affaiblir les capacités de recherche d'autres pays dans le domaine de l'intelligence artificielle générale.

• L'allocation des ressources de puissance de calcul est trop concentrée. L'initiative de développement dans le domaine de l'IA est entre les mains de quelques géants. Actuellement, les géants représentés par OpenAI ont la bénédiction de Microsoft, et derrière eux se trouvent les riches ressources de calcul fournies par Microsoft Azure. Cela fait que chaque sortie de nouveaux produits par OpenAI est un remodelage et une intégration de l'industrie actuelle de l'IA, rendant difficile pour d'autres équipes de suivre dans le domaine des grands modèles.

Donc, face aux coûts élevés du matériel, aux restrictions géographiques et au développement industriel inégal, existe-t-il d'autres solutions ?

La plateforme de puissance de calcul décentralisée a émergé comme le nécessitent les temps. Le but de la plateforme est de créer un marché ouvert, transparent et auto-régulé pour utiliser de manière plus efficace les ressources informatiques mondiales.

analyse adaptative

  1. Approvisionnement en puissance de calcul décentralisée

Les prix élevés actuels du matériel et le contrôle artificiel du côté de l'offre ont fourni le terreau pour la construction de réseaux de puissance de calcul décentralisés.

• Du point de vue de la composition de la puissance de calcul décentralisée, les différents fournisseurs de puissance de calcul vont des PC personnels aux petits équipements de l'Internet des objets en passant par les centres de données, les IDC, etc. La puissance de calcul accumulée peut fournir des solutions de calcul plus flexibles et évolutives, aidant ainsi davantage de développeurs et d'organisations en intelligence artificielle à utiliser de manière plus efficace des ressources limitées. Le partage de la puissance de calcul décentralisée peut être réalisé grâce à la puissance de calcul inutilisée des particuliers ou des organisations. Cependant, la disponibilité et la stabilité de cette puissance de calcul sont soumises aux restrictions d'utilisation des utilisateurs ou à la limite supérieure de partage.

• Une source potentielle possible de puissance de calcul de haute qualité est la puissance de calcul fournie directement par la transformation des mines pertinentes après que Ethereum soit converti en PoS. ressources humaines. Prenons Coreweave, le principal fournisseur de puissance de calcul intégrée de GPU aux États-Unis, comme exemple. Il était autrefois la plus grande ferme de minage d'Ethereum en Amérique du Nord et repose sur une infrastructure complète qui a été construite. De plus, les machines de minage d'Ethereum mises à la retraite contiennent également un grand nombre de GPU inactifs. On rapporte qu'il y avait environ 27 millions de GPU en ligne au pic de l'ère du minage d'Ethereum. Revitaliser ces GPU peut également devenir une partie importante du réseau décentralisé de puissance de calcul. source de puissance de calcul.

  1. Demande de puissance de calcul décentralisée

• D'un point de vue de mise en œuvre technique, des ressources de calcul décentralisées sont utilisées dans le rendu graphique et la transcodage vidéo. De telles calculs sont complexes. Pour les tâches de bas niveau, le système économique combinant la technologie blockchain et web3 peut apporter des incitations de revenus tangibles aux participants du réseau et accumuler des modèles commerciaux efficaces et des groupes de clients tout en garantissant la transmission sûre des données d'information. Le domaine de l'IA implique une grande quantité de calcul parallèle, de communication et de synchronisation entre les nœuds, et a des exigences très élevées envers l'environnement réseau et d'autres aspects. Par conséquent, les applications actuelles sont également axées sur le peaufinage, l'inférence, l'AIGC et d'autres couches d'application plus avancées.

• D'un point de vue logique commercial, un marché qui se contente d'acheter et de vendre de la puissance de calcul manque d'imagination, et l'industrie ne peut traiter que la chaîne d'approvisionnement et la tarification. Stratégies, mais ce sont justement les avantages des services cloud centralisés. Par conséquent, le plafond du marché est bas et il n'y a pas de place pour plus d'imagination, nous pouvons donc également constater que les réseaux qui réalisaient initialement des rendus graphiques simples cherchent une transformation vers l'IA. Par exemple, Render Network et 2023 Q1 ont également lancé un ensemble d'outils AI de stabilité intégrée nativement, grâce auquel les utilisateurs peuvent introduire des opérations de diffusion stable. Ainsi, l'activité ne se limite plus aux opérations de rendu mais s'étend au domaine de l'IA.

• Du point de vue des principaux groupes de clients, il est évident que les grands clients B préfèreront les services cloud intégrés centralisés. Ils disposent généralement de budgets suffisants, sont généralement engagés dans le développement de grands modèles sous-jacents et nécessitent une forme plus efficace de puissance de calcul; par conséquent, la puissance de calcul décentralisée sert davantage les petites et moyennes équipes de développement ou les individus, et est principalement engagée dans l'ajustement fin des modèles ou le développement de la couche d'application, qui n'a pas de fortes exigences sur la forme de la puissance de calcul fournie. Ils sont plus sensibles au prix. La puissance de calcul décentralisée peut fondamentalement réduire l'investissement initial, de sorte que le coût global d'utilisation est également plus faible. Sur la base du coût précédemment calculé par Gensyn, la puissance de calcul est convertie en valeur équivalente fournie par V100. La puissance de calcul, le prix de Gensyn n'est que de 0,4 $ US par heure, ce qui est 80% inférieur à la puissance de calcul équivalente d'AWS de 2 $ US par heure. Bien que cette partie de l'activité ne représente pas la majorité des dépenses dans l'industrie actuelle, à mesure que les scénarios d'utilisation des applications d'IA continuent de se développer, la taille du marché futur ne peut être sous-estimée.

• Du point de vue des services fournis, on peut constater que le projet actuel ressemble davantage au concept d'une plateforme cloud décentralisée, fournissant un ensemble complet de gestion allant du développement, du déploiement, de la mise en ligne, de la distribution et de la transaction. L'avantage de ceci est d'attirer les développeurs, qui peuvent utiliser des composants d'outils pertinents pour simplifier le développement et le déploiement et améliorer l'efficacité ; en même temps, cela peut attirer les utilisateurs à utiliser ces produits d'application complets sur la plateforme, formant un fossé écologique basé sur son propre réseau de puissance de calcul. Mais cela pose également des exigences plus élevées pour les opérations du projet. Comment attirer d'excellents développeurs et utilisateurs et atteindre la rétention est particulièrement important.

Applications dans différents domaines

1. Traitement des médias numériques

Render Network Une plateforme mondiale de rendu basée sur la blockchain, dont l'objectif est d'aider les créateurs à exprimer leur créativité numérique. Elle permet aux créateurs d'étendre leur travail de rendu GPU à des nœuds GPU mondiaux à la demande, offrant ainsi une capacité de rendu plus rapide et moins chère. Après que le créateur a confirmé les résultats du rendu, le réseau blockchain envoie le code au nœud. Récompenses en pièces. Par rapport aux méthodes traditionnelles de mise en œuvre des effets visuels, l'établissement d'une infrastructure de rendu locale ou l'ajout de dépenses GPU correspondantes aux services cloud achetés nécessite un investissement initial élevé.

Depuis sa fondation en 2017, les utilisateurs de Render Network ont rendu plus de 16 millions de trames et près de 500 000 scènes sur le réseau. Les données publiées par Render Network au T2 2023 montrent également que le nombre d'emplois de trames de rendu et le nombre de nœuds actifs augmentent. De plus, Render Network et le T1 2023 ont également lancé un ensemble d'outils AI de stabilité intégrés de manière native. Les utilisateurs peuvent utiliser cette fonction pour introduire des opérations de diffusion stable, et l'activité n'est plus limitée aux opérations de rendu et s'étend au domaine de l'IA.

Livepeer fournit des services de transcodage vidéo en temps réel aux créateurs grâce à la contribution de leurs propres puissance de calcul GPU et bande passante par les participants du réseau. Les diffuseurs peuvent effectuer le transcodage de différents types de vidéos en envoyant des vidéos à Livepeer et les distribuer à divers utilisateurs finaux, permettant ainsi la diffusion de contenu vidéo. En même temps, vous pouvez facilement payer en monnaie légale pour obtenir des services tels que le transcodage vidéo, la transmission et le stockage.

Dans le réseau Livepeer, tout le monde est autorisé à contribuer des ressources informatiques personnelles (CPU, GPU et bande passante) pour transcoder et distribuer des vidéos afin de gagner des frais. Le jeton natif (LPT) représente les droits et les intérêts des participants au réseau. Le nombre de jetons engagés détermine le poids du nœud dans le réseau, affectant ainsi ses chances d'obtenir des tâches de transcodage. En même temps, LPT joue également un rôle dans le guidage des nœuds pour compléter les tâches assignées de manière sûre, fiable et rapide.

2. exposition AIarea

Dans l'écosystème actuel dans le domaine de l'IA, les principaux acteurs peuvent être grossièrement divisés en :

En partant du côté de la demande, il existe des différences évidentes dans les demandes de puissance de calcul à différentes étapes de l'industrie. En prenant le développement du modèle sous-jacent comme exemple, le processus de pré-formation nécessite une très haute puissance de calcul parallèle, de stockage, de communication, etc. pour garantir l'efficacité des résultats de la formation. Cela nécessite un grand cluster de puissance de calcul pour accomplir les tâches associées. À l'heure actuelle, l'approvisionnement principal en puissance de calcul repose principalement sur des salles informatiques auto-construites et des plates-formes de services cloud centralisées. Dans les étapes ultérieures de l'ajustement fin du modèle, du raisonnement en temps réel et du développement d'applications, les exigences en matière de calcul parallèle et de communication inter-nœuds ne sont pas aussi élevées. C'est précisément là que la puissance de calcul décentralisée peut montrer tout son potentiel.

En regardant les projets qui ont connu une popularité considérable auparavant, Akash Network a fait quelques tentatives dans la direction de la puissance de calcul décentralisée :

Akash Network combine différents composants technologiques pour permettre aux utilisateurs de déployer et de gérer efficacement et de manière flexible des applications dans un environnement cloud décentralisé. Les utilisateurs peuvent utiliser la technologie de conteneur Docker pour empaqueter des applications, puis les déployer et les mettre à l'échelle via Kubernetes via CloudMOS sur les ressources cloud fournies par Akash. Akash utilise une approche d'"enchère inversée", ce qui rend le prix inférieur à celui des services cloud traditionnels.

Akash Network a également annoncé en août de cette année qu'elle lancerait la sixième mise à niveau de son réseau principal, intégrant le support pour les GPUs dans ses services cloud, et fournissant de la puissance de calcul à davantage d'équipes d'IA à l'avenir.

Gensyn.ai, un projet qui a attiré beaucoup d'attention dans l'industrie cette année, a été dirigé par a16z et a réalisé un financement de série A de 43 millions de dollars. À en juger par les documents publiés jusqu'à présent, le projet est un réseau principal basé sur le protocole L1 PoS du réseau Polkadot, axé sur l'apprentissage profond. Il vise à repousser les limites de l'apprentissage automatique en créant un réseau mondial de supercalculateur. Ce réseau connecte des appareils allant des centres de données avec une puissance de calcul excédentaire aux PC pouvant potentiellement contribuer des GPU personnels, des ASIC personnalisés et des SoC.

Afin de résoudre certains des problèmes actuellement existants dans la puissance de calcul décentralisée, Gensyn s'appuie sur certains nouveaux résultats de recherche théorique en académie :

  1. Adoptez une preuve d'apprentissage probabiliste, c'est-à-dire utilisez les métadonnées du processus d'optimisation basé sur le gradient pour construire des preuves d'exécution de tâches pertinentes afin d'accélérer le processus de vérification;

  2. Le protocole de localisation basé sur un graphique, GPP, fait office de pont, reliant l'exécution hors ligne des réseaux neuronaux profonds (DNN) et le cadre de contrat intelligent sur la blockchain, résolvant les incohérences qui surviennent facilement entre les appareils matériels, et garantit la cohérence de vérification.

  3. Une méthode d'incitation similaire à Truebit, grâce à une combinaison de mise en jeu et de punition, établit un système d'incitation permettant aux participants économiquement rationnels d'effectuer honnêtement les tâches qui leur sont assignées. Le mécanisme utilise la cryptographie et des méthodes de théorie des jeux. Ce système de vérification est essentiel pour maintenir l'intégrité et la fiabilité des calculs de formation de modèles volumineux.

Cependant, il convient de noter que le contenu ci-dessus concerne davantage la résolution du niveau de vérification de l'achèvement de la tâche, plutôt que la puissance de calcul décentralisée pour atteindre les fonctions d'entraînement du modèle comme point culminant principal dans le document du projet, en particulier sur le calcul parallèle et l'optimisation distribuée de la communication, de la synchronisation et d'autres problèmes entre le matériel. Actuellement, affectée par la latence du réseau (latence) et la bande passante (bande passante), une communication fréquente entre les nœuds augmentera le temps d'itération et les coûts de communication. Cela ne permettra pas seulement une optimisation réelle, mais réduira l'efficacité de l'entraînement. L'approche de Gensyn pour gérer la communication des nœuds et le calcul parallèle dans l'entraînement du modèle peut impliquer des protocoles de coordination complexes pour gérer la nature distribuée du calcul. Cependant, sans plus d'informations techniques détaillées ou une compréhension plus profonde de leurs méthodes spécifiques, le mécanisme exact par lequel Gensyn réalise l'entraînement de modèles à grande échelle via son réseau ne sera pas vraiment révélé avant la mise en ligne du projet.

Nous avons également porté une attention particulière au protocole Edge Matrix Computing (EMC) qui utilise la technologie de la blockchain pour appliquer la puissance de calcul à l'IA, au rendu et à la recherche scientifique, à l'accès à l'IA dans le commerce électronique et à d'autres types de scénarios, les tâches étant distribuées à différents nœuds de puissance de calcul via un calcul élastique. Cette méthode améliore non seulement l'efficacité de la puissance de calcul, mais garantit également la sécurité de la transmission des données. En même temps, elle fournit un marché de la puissance de calcul où les utilisateurs peuvent accéder et échanger des ressources de calcul. Il est pratique pour les développeurs de déployer et d'atteindre plus rapidement les utilisateurs. Associé à la forme économique de Web3, les fournisseurs de puissance de calcul peuvent également obtenir de réels avantages et des subventions de la part du protocole en fonction de l'utilisation réelle des utilisateurs, et les développeurs d'IA peuvent également obtenir des coûts de raisonnement et de rendu plus faibles. Voici un aperçu de ses principaux composants et fonctions :

Il est également prévu que des produits RWA basés sur GPU seront lancés. La clé est de revitaliser le matériel qui était initialement fixé dans la salle informatique et de le diviser et de le faire circuler sous forme de RWA pour obtenir une liquidité supplémentaire. Un GPU de haute qualité peut être utilisé comme actif sous-jacent de RWA. La raison en est que la puissance de calcul peut être considérée comme une monnaie forte dans le domaine de l'IA. Il existe actuellement une contradiction évidente entre l'offre et la demande, et cette contradiction ne peut être résolue à court terme, donc le prix du GPU est relativement stable.

De plus, la mise en œuvre de clusters de puissance de calcul en déployant des salles informatiques IDC est également un élément clé du protocole EMC. Cela permet non seulement aux GPU de fonctionner dans un environnement unifié, mais gère également de manière plus efficace les tâches de consommation de puissance de calcul à grande échelle, telles que la préformation de modèles. Cela répond aux besoins des utilisateurs professionnels. En même temps, la salle informatique IDC peut également héberger et exécuter de manière centralisée un grand nombre de GPU pour garantir les spécifications techniques du même type de matériel de haute qualité, ce qui facilite leur emballage sur le marché en tant que produits RWA et ouvre de nouvelles idées pour la DeFi.

Ces dernières années, la communauté universitaire a également développé de nouvelles théories techniques et pratiques d'application dans le domaine de l'informatique en périphérie. Comme un complément et une optimisation de l'informatique en nuage, l'informatique en périphérie fait partie de l'intelligence artificielle qui accélère du nuage vers le bord et dans des appareils IoT de plus en plus petits. Ces appareils IoT sont souvent de petite taille, donc l'apprentissage automatique léger est privilégié pour répondre à des problèmes tels que la consommation d'énergie, la latence et la précision.

Network3 est construit en construisant une couche d'IA Layer2 dédiée pour fournir aux développeurs d'IA du monde entier l'optimisation et la compression des algorithmes de modèles d'IA, l'apprentissage fédéré, le calcul en périphérie et le calcul de confidentialité. Fournir des services pour les aider à former ou vérifier des modèles rapidement, facilement et efficacement. En utilisant un grand nombre de dispositifs matériels IoT intelligents, il peut se concentrer sur de petits modèles pour fournir une puissance de calcul correspondante, et en construisant un TEE (Environnement d'Exécution Fiable), les utilisateurs peuvent compléter la formation pertinente en ne téléchargeant que les gradients de modèle pour garantir la confidentialité et la sécurité des données des utilisateurs.

En résumé

• Avec le développement de l'IA et d'autres domaines, de nombreuses industries subiront d'énormes changements dans leur logique sous-jacente, la puissance de calcul occupera une position plus importante, et divers aspects qui y sont liés feront également l'objet d'une exploration approfondie dans l'industrie. Les réseaux de puissance de calcul décentralisée ont leurs propres avantages peuvent réduire le risque de centralisation et peuvent également servir de complément à la puissance de calcul centralisée.

• Et les équipes dans le domaine de l'IA sont également à un carrefour. Le choix d'utiliser de grands modèles entraînés pour construire leurs propres produits ou de participer à la formation de grands modèles dans leurs régions respectives est principalement dialectique. Par conséquent, la puissance de calcul décentralisée peut répondre à différents besoins commerciaux. Cette tendance de développement est bien accueillie, et avec la mise à jour de la technologie et l'itération des algorithmes, il y aura inévitablement des percées dans des domaines clés.

• N'ayez pas peur, trouvez simplement lentement.

Référence

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/an-overview-of-the-livepeer-network-and-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

Avertissement:

  1. Cet article est repris de [ PANews]. Tous les droits d'auteur appartiennent à l'auteur original [Future3 Campus]. Si des objections sont soulevées concernant cette reproduction, veuillez contacter le Porte Apprendrel'équipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdite.

Redéfinir les limites du calcul : Situation actuelle et perspectives de la puissance de calcul décentralisée

Intermédiaire1/4/2024, 5:09:37 PM
Avec le développement de l'IA et d'autres domaines, de nombreuses industries connaîtront d'énormes changements dans la logique sous-jacente, la puissance de calcul occupera une position plus importante, et divers aspects qui y sont liés entraîneront également une exploration approfondie dans l'industrie. Les réseaux de puissance de calcul décentralisés ont leurs propres avantages peuvent réduire le risque de centralisation et peuvent également servir de complément à la puissance de calcul centralisée.

Puissance de calcul demandée

Depuis la sortie d'"Avatar » en 2009, il a lancé la première bataille de films en 3D avec des images réelles inégalées. En tant qu’énorme contributeur, Weta Digital a contribué au rendu des effets visuels de l’ensemble du film. Dans sa ferme de serveurs de 10 000 pieds carrés en Nouvelle-Zélande, son cluster informatique a traité jusqu’à 1,4 million de tâches par jour et traité 8 Go de données par seconde. Malgré cela, il a continué à fonctionner pendant plus d’un mois avant que tous les rendus ne soient terminés. Travail.

Grâce au déploiement de machines à grande échelle et à l’investissement dans les coûts, « Avatar » a réalisé des réalisations exceptionnelles dans l’histoire du cinéma.

Le 3 janvier de la même année, Satoshi Nakamoto a extrait le bloc de genèse de Bitcoin sur un petit serveur à Helsinki, en Finlande, et a reçu une récompense de bloc de 50 BTC. Depuis le premier jour de la cryptomonnaie, la puissance de calcul a joué un rôle très important dans l'industrie.

La plus longue chaîne sert non seulement de preuve de la séquence des événements observés, mais aussi de preuve qu'elle provient du plus grand pool de puissance de calcul.

—— Livre blanc sur Bitcoin

Dans le contexte du mécanisme de consensus PoW, la contribution de la puissance de calcul garantit la sécurité de la chaîne. En même temps, l'Hashrate en constante augmentation peut également prouver l'investissement continu des mineurs dans la puissance de calcul et les attentes de revenus positifs. La demande réelle de l'industrie en matière de puissance de calcul a également grandement favorisé le développement des fabricants de puces. Les puces de machines minières ont connu des étapes de développement telles que CPU, GPU, FPGA et ASIC. Actuellement, les machines de minage de Bitcoin sont généralement des puces basées sur la technologie ASIC (Circuit Intégré Spécifique à l'Application) qui peuvent exécuter efficacement des algorithmes spécifiques, tels que SHA-256. Les énormes bénéfices économiques apportés par Bitcoin ont également fait monter en flèche la demande de puissance de calcul dans le domaine du minage. Cependant, des équipements trop spécialisés et des effets de cluster ont causé un effet de syphon parmi ses propres participants, qu'il s'agisse de mineurs ou de fabricants de machines minières. Ils montrent tous une tendance au développement concentré intensif en capital.

Avec l'avènement des contrats intelligents d'Ethereum, sa programmabilité, sa composition et d'autres fonctionnalités ont formé une large gamme d'applications, notamment dans le domaine de la DeFi, ce qui a fait monter le prix de l'ETH, tout en restant dans le consensus PoW. La difficulté de minage d'Ethereum à cette étape a également augmenté. Les exigences de puissance de calcul des mineurs pour les machines de minage d'Ethereum augmentent également de jour en jour. Cependant, contrairement à Bitcoin, qui utilise des puces ASIC, Ethereum a besoin d'utiliser une unité de traitement graphique (GPU) pour les calculs de minage, comme la série Nvidia RTX. De cette manière, il est plus approprié que le matériel informatique général participe. Cela a même déclenché la concurrence sur le marché des GPU, ce qui a provoqué des pénuries de cartes graphiques haut de gamme sur le marché.

Quand le 30 novembre 2022 est arrivé, ChatGPT développé par OpenAI a également démontré une signification révolutionnaire dans le domaine de l'IA. Les utilisateurs ont été émerveillés par la nouvelle expérience apportée par ChatGPT, qui peut accomplir diverses tâches proposées par l'utilisateur en fonction du contexte, comme le ferait une vraie personne. Dans la nouvelle version lancée en septembre de cette année, l'IA générative qui ajoute des fonctionnalités multimodales telles que la voix et les images a porté l'expérience utilisateur à un niveau supérieur.

Mais, en correspondance, GPT4 compte plus d'un billion de paramètres impliqués dans la pré-formation du modèle et le réglage fin ultérieur. Ce sont les deux parties avec la plus grande demande de puissance de calcul dans le domaine de l'IA. Dans la phase de pré-formation, une grande quantité de texte est étudiée pour maîtriser les modèles de langage, la grammaire et le contexte associé. Cela lui permet de comprendre les modèles de langage pour générer un texte cohérent et contextuel en fonction de l'entrée. Après la pré-formation, GPT4 est réglé finement pour mieux s'adapter à des types de contenu ou des styles spécifiques et améliorer les performances et la spécialisation dans des scénarios de demande spécifiques.

Depuis que l'architecture Transformer adoptée par GPT introduit le mécanisme d'auto-attention, ce mécanisme permet au modèle de prêter simultanément attention à la relation entre différentes parties de la séquence lors du traitement de la séquence d'entrée. Par conséquent, la demande de puissance de calcul a fortement augmenté. Surtout lors du traitement de longues séquences, une grande quantité de calcul parallèle et de stockage d'un grand nombre de scores d'attention sont nécessaires, ce qui nécessite également une grande quantité de mémoire et des capacités de transmission de données à haute vitesse. Les LLM mainstream actuels avec la même architecture ont une énorme demande de GPU haute performance, ce qui montre également que le coût d'investissement dans le domaine des grands modèles d'IA est énorme. Selon les estimations pertinentes de SemiAnalysis, le coût de la formation d'un modèle GPT4 s'élève à 63 millions de dollars. Pour offrir une bonne expérience interactive, GPT4 doit également investir beaucoup de puissance de calcul dans ses opérations quotidiennes pour maintenir ses opérations quotidiennes.

Classification du matériel informatique

Ici, nous devons comprendre les principaux types de matériel de puissance de calcul actuels. Quels scénarios de demande de puissance de calcul peuvent être gérés respectivement par CPU, GPU, FPGA et ASIC.

• À partir du diagramme architectural du CPU et du GPU, le GPU contient plus de cœurs, ce qui permet au GPU de traiter plusieurs tâches de calcul simultanément. Le calcul parallèle a des capacités de traitement plus puissantes et est adapté au traitement d'un grand nombre de tâches de calcul, il a donc été largement utilisé dans les domaines de l'apprentissage automatique et de l'apprentissage profond. Le CPU a un nombre plus restreint de cœurs et est adapté au traitement d'un calcul complexe unique ou d'une tâche séquentielle de manière plus intensive, mais il n'est pas aussi efficace que le GPU pour le traitement de tâches de calcul parallèle. Dans les tâches de rendu et de calcul de réseau neuronal, un grand nombre de calculs répétés et de calculs parallèles doivent généralement être traités, donc le GPU est plus efficace et adapté que le CPU dans ce domaine.

• Le FPGA (Field Programmable Gate Array) est un circuit semi-personnalisé dans le domaine du circuit intégré spécifique à une application (ASIC). Un réseau composé d'un grand nombre de petites unités de traitement, le FPGA peut être compris comme une puce de circuit logique numérique programmable. L'application actuelle se concentre principalement sur l'accélération matérielle, et d'autres tâches sont encore effectuées sur le CPU, permettant au FPGA et au CPU de travailler ensemble.

• ASIC (Circuit Intégré Spécifique à une Application) fait référence à un circuit intégré conçu pour répondre aux besoins spécifiques des utilisateurs et aux besoins de systèmes électroniques spécifiques. Comparé aux circuits intégrés à usage général, ASIC présente les avantages d'une taille plus petite, d'une consommation d'énergie plus faible, d'une fiabilité améliorée, de performances accrues, de confidentialité renforcée et de coûts réduits lors de la production de masse. Par conséquent, dans le scénario inhérent à l'extraction de Bitcoin, qui nécessite uniquement l'exécution de tâches de calcul spécifiques, ASIC est le plus adapté. Google a également lancé un TPU (Unité de Traitement Tensoriel) spécialement conçu pour l'apprentissage automatique en tant que type de ASIC, mais actuellement il fournit principalement des services de location de puissance de calcul via Google Cloud.

• ASIC par rapport au FPGA, l’ASIC est un circuit intégré spécifique à l’application et le circuit intégré est fixé une fois la conception terminée. Le FPGA intègre un grand nombre de portes de circuits numériques de base et de mémoires dans le réseau. Les développeurs peuvent définir le circuit en programmant la configuration FPGA, et cette programmation est remplaçable. Cependant, compte tenu de la vitesse de mise à jour actuelle dans le domaine de l’IA, les puces personnalisées ou semi-personnalisées ne peuvent pas être ajustées et reconfigurées à temps pour effectuer différentes tâches ou s’adapter à de nouveaux algorithmes. Par conséquent, l’adaptabilité générale et la flexibilité du GPU le font briller dans le domaine de l’IA. Les principaux fabricants de GPU ont également procédé à des optimisations pertinentes pour l’adaptation des GPU dans le domaine de l’IA. Prenant l’exemple de Nvidia, elle a lancé la série Tesla et les GPU d’architecture Ampere conçus spécifiquement pour l’apprentissage profond. Ce matériel contient des unités matérielles (cœurs Tensor) optimisées pour les calculs de machine learning et de deep learning, qui permettent au GPU de fonctionner plus efficacement et plus efficacement. Faible consommation d’énergie pour effectuer la propagation vers l’avant et vers l’arrière des réseaux de neurones. En outre, un large éventail d’outils et de bibliothèques sont fournis pour prendre en charge le développement de l’IA, tels que CUDA (Compute Unified Device Architecture) pour aider les développeurs à utiliser les GPU pour le calcul parallèle à usage général.

Puissance de calcul décentralisée

La puissance de calcul décentralisée fait référence à la méthode de fourniture de puissance de traitement par le biais de ressources informatiques distribuées. Cette approche décentralisée est généralement combinée à la technologie blockchain ou à une technologie de registre distribué similaire pour mettre en commun les ressources informatiques inutilisées et les distribuer aux utilisateurs qui en ont besoin pour réaliser le partage, les transactions et la gestion des ressources.

Contexte

• Une forte demande en matériel informatique. La prospérité de l'économie des créateurs a fait entrer le traitement des médias numériques dans une ère de création universelle. La demande de rendu d'effets visuels a explosé, et des studios spécialisés dans l'externalisation du rendu, des plates-formes de rendu cloud et d'autres formes ont émergé. Cependant, cette approche nécessite également d'investir beaucoup d'argent soi-même dans l'acquisition précoce du matériel de puissance de calcul.

• La puissance de calcul matérielle provient d'une seule source. Le développement du domaine de l'IA a intensifié la demande de matériel informatique. Les principales sociétés de fabrication de GPU au monde, menées par Nvidia, ont gagné beaucoup d'argent dans cette compétition de puissance de calcul IA. Sa capacité d'approvisionnement est même devenue un facteur clé pouvant restreindre le développement d'une certaine industrie. La valeur marchande de Nvidia a également dépassé pour la première fois un billion de dollars US cette année.

• La mise à disposition de la puissance de calcul repose encore principalement sur des plateformes cloud centralisées. Ce qui profite vraiment de l’augmentation de la demande de calcul haute performance, ce sont les fournisseurs de cloud centralisés représentés par AWS. Ils ont lancé des services de cloud computing GPU. Si l’on prend l’exemple actuel d’AWS p4d.24xlarge, la location d’un de ces serveurs HPC spécialisés dans le ML, contenant huit GPU Nvidia A100 de 40 Go, coûte 32,8 USD de l’heure, et sa marge bénéficiaire brute est estimée à 61 %. Cela a également poussé d’autres géants du cloud à se précipiter pour participer et accumuler du matériel afin d’obtenir autant d’avantages que possible dans les premières étapes du développement de l’industrie.

• Les facteurs politiques, l'intervention humaine et d'autres facteurs conduisent à un développement inégal de l'industrie. Il n'est pas difficile de voir que la propriété et la concentration des GPU sont plus inclinées vers les organisations et les pays disposant de fonds et de technologies abondants, et dépendent de grappes informatiques haute performance. Cela a conduit les pouvoirs de fabrication de puces et de semi-conducteurs représentés par les États-Unis à mettre en œuvre des restrictions plus strictes sur l'exportation de puces d'IA pour affaiblir les capacités de recherche d'autres pays dans le domaine de l'intelligence artificielle générale.

• L'allocation des ressources de puissance de calcul est trop concentrée. L'initiative de développement dans le domaine de l'IA est entre les mains de quelques géants. Actuellement, les géants représentés par OpenAI ont la bénédiction de Microsoft, et derrière eux se trouvent les riches ressources de calcul fournies par Microsoft Azure. Cela fait que chaque sortie de nouveaux produits par OpenAI est un remodelage et une intégration de l'industrie actuelle de l'IA, rendant difficile pour d'autres équipes de suivre dans le domaine des grands modèles.

Donc, face aux coûts élevés du matériel, aux restrictions géographiques et au développement industriel inégal, existe-t-il d'autres solutions ?

La plateforme de puissance de calcul décentralisée a émergé comme le nécessitent les temps. Le but de la plateforme est de créer un marché ouvert, transparent et auto-régulé pour utiliser de manière plus efficace les ressources informatiques mondiales.

analyse adaptative

  1. Approvisionnement en puissance de calcul décentralisée

Les prix élevés actuels du matériel et le contrôle artificiel du côté de l'offre ont fourni le terreau pour la construction de réseaux de puissance de calcul décentralisés.

• Du point de vue de la composition de la puissance de calcul décentralisée, les différents fournisseurs de puissance de calcul vont des PC personnels aux petits équipements de l'Internet des objets en passant par les centres de données, les IDC, etc. La puissance de calcul accumulée peut fournir des solutions de calcul plus flexibles et évolutives, aidant ainsi davantage de développeurs et d'organisations en intelligence artificielle à utiliser de manière plus efficace des ressources limitées. Le partage de la puissance de calcul décentralisée peut être réalisé grâce à la puissance de calcul inutilisée des particuliers ou des organisations. Cependant, la disponibilité et la stabilité de cette puissance de calcul sont soumises aux restrictions d'utilisation des utilisateurs ou à la limite supérieure de partage.

• Une source potentielle possible de puissance de calcul de haute qualité est la puissance de calcul fournie directement par la transformation des mines pertinentes après que Ethereum soit converti en PoS. ressources humaines. Prenons Coreweave, le principal fournisseur de puissance de calcul intégrée de GPU aux États-Unis, comme exemple. Il était autrefois la plus grande ferme de minage d'Ethereum en Amérique du Nord et repose sur une infrastructure complète qui a été construite. De plus, les machines de minage d'Ethereum mises à la retraite contiennent également un grand nombre de GPU inactifs. On rapporte qu'il y avait environ 27 millions de GPU en ligne au pic de l'ère du minage d'Ethereum. Revitaliser ces GPU peut également devenir une partie importante du réseau décentralisé de puissance de calcul. source de puissance de calcul.

  1. Demande de puissance de calcul décentralisée

• D'un point de vue de mise en œuvre technique, des ressources de calcul décentralisées sont utilisées dans le rendu graphique et la transcodage vidéo. De telles calculs sont complexes. Pour les tâches de bas niveau, le système économique combinant la technologie blockchain et web3 peut apporter des incitations de revenus tangibles aux participants du réseau et accumuler des modèles commerciaux efficaces et des groupes de clients tout en garantissant la transmission sûre des données d'information. Le domaine de l'IA implique une grande quantité de calcul parallèle, de communication et de synchronisation entre les nœuds, et a des exigences très élevées envers l'environnement réseau et d'autres aspects. Par conséquent, les applications actuelles sont également axées sur le peaufinage, l'inférence, l'AIGC et d'autres couches d'application plus avancées.

• D'un point de vue logique commercial, un marché qui se contente d'acheter et de vendre de la puissance de calcul manque d'imagination, et l'industrie ne peut traiter que la chaîne d'approvisionnement et la tarification. Stratégies, mais ce sont justement les avantages des services cloud centralisés. Par conséquent, le plafond du marché est bas et il n'y a pas de place pour plus d'imagination, nous pouvons donc également constater que les réseaux qui réalisaient initialement des rendus graphiques simples cherchent une transformation vers l'IA. Par exemple, Render Network et 2023 Q1 ont également lancé un ensemble d'outils AI de stabilité intégrée nativement, grâce auquel les utilisateurs peuvent introduire des opérations de diffusion stable. Ainsi, l'activité ne se limite plus aux opérations de rendu mais s'étend au domaine de l'IA.

• Du point de vue des principaux groupes de clients, il est évident que les grands clients B préfèreront les services cloud intégrés centralisés. Ils disposent généralement de budgets suffisants, sont généralement engagés dans le développement de grands modèles sous-jacents et nécessitent une forme plus efficace de puissance de calcul; par conséquent, la puissance de calcul décentralisée sert davantage les petites et moyennes équipes de développement ou les individus, et est principalement engagée dans l'ajustement fin des modèles ou le développement de la couche d'application, qui n'a pas de fortes exigences sur la forme de la puissance de calcul fournie. Ils sont plus sensibles au prix. La puissance de calcul décentralisée peut fondamentalement réduire l'investissement initial, de sorte que le coût global d'utilisation est également plus faible. Sur la base du coût précédemment calculé par Gensyn, la puissance de calcul est convertie en valeur équivalente fournie par V100. La puissance de calcul, le prix de Gensyn n'est que de 0,4 $ US par heure, ce qui est 80% inférieur à la puissance de calcul équivalente d'AWS de 2 $ US par heure. Bien que cette partie de l'activité ne représente pas la majorité des dépenses dans l'industrie actuelle, à mesure que les scénarios d'utilisation des applications d'IA continuent de se développer, la taille du marché futur ne peut être sous-estimée.

• Du point de vue des services fournis, on peut constater que le projet actuel ressemble davantage au concept d'une plateforme cloud décentralisée, fournissant un ensemble complet de gestion allant du développement, du déploiement, de la mise en ligne, de la distribution et de la transaction. L'avantage de ceci est d'attirer les développeurs, qui peuvent utiliser des composants d'outils pertinents pour simplifier le développement et le déploiement et améliorer l'efficacité ; en même temps, cela peut attirer les utilisateurs à utiliser ces produits d'application complets sur la plateforme, formant un fossé écologique basé sur son propre réseau de puissance de calcul. Mais cela pose également des exigences plus élevées pour les opérations du projet. Comment attirer d'excellents développeurs et utilisateurs et atteindre la rétention est particulièrement important.

Applications dans différents domaines

1. Traitement des médias numériques

Render Network Une plateforme mondiale de rendu basée sur la blockchain, dont l'objectif est d'aider les créateurs à exprimer leur créativité numérique. Elle permet aux créateurs d'étendre leur travail de rendu GPU à des nœuds GPU mondiaux à la demande, offrant ainsi une capacité de rendu plus rapide et moins chère. Après que le créateur a confirmé les résultats du rendu, le réseau blockchain envoie le code au nœud. Récompenses en pièces. Par rapport aux méthodes traditionnelles de mise en œuvre des effets visuels, l'établissement d'une infrastructure de rendu locale ou l'ajout de dépenses GPU correspondantes aux services cloud achetés nécessite un investissement initial élevé.

Depuis sa fondation en 2017, les utilisateurs de Render Network ont rendu plus de 16 millions de trames et près de 500 000 scènes sur le réseau. Les données publiées par Render Network au T2 2023 montrent également que le nombre d'emplois de trames de rendu et le nombre de nœuds actifs augmentent. De plus, Render Network et le T1 2023 ont également lancé un ensemble d'outils AI de stabilité intégrés de manière native. Les utilisateurs peuvent utiliser cette fonction pour introduire des opérations de diffusion stable, et l'activité n'est plus limitée aux opérations de rendu et s'étend au domaine de l'IA.

Livepeer fournit des services de transcodage vidéo en temps réel aux créateurs grâce à la contribution de leurs propres puissance de calcul GPU et bande passante par les participants du réseau. Les diffuseurs peuvent effectuer le transcodage de différents types de vidéos en envoyant des vidéos à Livepeer et les distribuer à divers utilisateurs finaux, permettant ainsi la diffusion de contenu vidéo. En même temps, vous pouvez facilement payer en monnaie légale pour obtenir des services tels que le transcodage vidéo, la transmission et le stockage.

Dans le réseau Livepeer, tout le monde est autorisé à contribuer des ressources informatiques personnelles (CPU, GPU et bande passante) pour transcoder et distribuer des vidéos afin de gagner des frais. Le jeton natif (LPT) représente les droits et les intérêts des participants au réseau. Le nombre de jetons engagés détermine le poids du nœud dans le réseau, affectant ainsi ses chances d'obtenir des tâches de transcodage. En même temps, LPT joue également un rôle dans le guidage des nœuds pour compléter les tâches assignées de manière sûre, fiable et rapide.

2. exposition AIarea

Dans l'écosystème actuel dans le domaine de l'IA, les principaux acteurs peuvent être grossièrement divisés en :

En partant du côté de la demande, il existe des différences évidentes dans les demandes de puissance de calcul à différentes étapes de l'industrie. En prenant le développement du modèle sous-jacent comme exemple, le processus de pré-formation nécessite une très haute puissance de calcul parallèle, de stockage, de communication, etc. pour garantir l'efficacité des résultats de la formation. Cela nécessite un grand cluster de puissance de calcul pour accomplir les tâches associées. À l'heure actuelle, l'approvisionnement principal en puissance de calcul repose principalement sur des salles informatiques auto-construites et des plates-formes de services cloud centralisées. Dans les étapes ultérieures de l'ajustement fin du modèle, du raisonnement en temps réel et du développement d'applications, les exigences en matière de calcul parallèle et de communication inter-nœuds ne sont pas aussi élevées. C'est précisément là que la puissance de calcul décentralisée peut montrer tout son potentiel.

En regardant les projets qui ont connu une popularité considérable auparavant, Akash Network a fait quelques tentatives dans la direction de la puissance de calcul décentralisée :

Akash Network combine différents composants technologiques pour permettre aux utilisateurs de déployer et de gérer efficacement et de manière flexible des applications dans un environnement cloud décentralisé. Les utilisateurs peuvent utiliser la technologie de conteneur Docker pour empaqueter des applications, puis les déployer et les mettre à l'échelle via Kubernetes via CloudMOS sur les ressources cloud fournies par Akash. Akash utilise une approche d'"enchère inversée", ce qui rend le prix inférieur à celui des services cloud traditionnels.

Akash Network a également annoncé en août de cette année qu'elle lancerait la sixième mise à niveau de son réseau principal, intégrant le support pour les GPUs dans ses services cloud, et fournissant de la puissance de calcul à davantage d'équipes d'IA à l'avenir.

Gensyn.ai, un projet qui a attiré beaucoup d'attention dans l'industrie cette année, a été dirigé par a16z et a réalisé un financement de série A de 43 millions de dollars. À en juger par les documents publiés jusqu'à présent, le projet est un réseau principal basé sur le protocole L1 PoS du réseau Polkadot, axé sur l'apprentissage profond. Il vise à repousser les limites de l'apprentissage automatique en créant un réseau mondial de supercalculateur. Ce réseau connecte des appareils allant des centres de données avec une puissance de calcul excédentaire aux PC pouvant potentiellement contribuer des GPU personnels, des ASIC personnalisés et des SoC.

Afin de résoudre certains des problèmes actuellement existants dans la puissance de calcul décentralisée, Gensyn s'appuie sur certains nouveaux résultats de recherche théorique en académie :

  1. Adoptez une preuve d'apprentissage probabiliste, c'est-à-dire utilisez les métadonnées du processus d'optimisation basé sur le gradient pour construire des preuves d'exécution de tâches pertinentes afin d'accélérer le processus de vérification;

  2. Le protocole de localisation basé sur un graphique, GPP, fait office de pont, reliant l'exécution hors ligne des réseaux neuronaux profonds (DNN) et le cadre de contrat intelligent sur la blockchain, résolvant les incohérences qui surviennent facilement entre les appareils matériels, et garantit la cohérence de vérification.

  3. Une méthode d'incitation similaire à Truebit, grâce à une combinaison de mise en jeu et de punition, établit un système d'incitation permettant aux participants économiquement rationnels d'effectuer honnêtement les tâches qui leur sont assignées. Le mécanisme utilise la cryptographie et des méthodes de théorie des jeux. Ce système de vérification est essentiel pour maintenir l'intégrité et la fiabilité des calculs de formation de modèles volumineux.

Cependant, il convient de noter que le contenu ci-dessus concerne davantage la résolution du niveau de vérification de l'achèvement de la tâche, plutôt que la puissance de calcul décentralisée pour atteindre les fonctions d'entraînement du modèle comme point culminant principal dans le document du projet, en particulier sur le calcul parallèle et l'optimisation distribuée de la communication, de la synchronisation et d'autres problèmes entre le matériel. Actuellement, affectée par la latence du réseau (latence) et la bande passante (bande passante), une communication fréquente entre les nœuds augmentera le temps d'itération et les coûts de communication. Cela ne permettra pas seulement une optimisation réelle, mais réduira l'efficacité de l'entraînement. L'approche de Gensyn pour gérer la communication des nœuds et le calcul parallèle dans l'entraînement du modèle peut impliquer des protocoles de coordination complexes pour gérer la nature distribuée du calcul. Cependant, sans plus d'informations techniques détaillées ou une compréhension plus profonde de leurs méthodes spécifiques, le mécanisme exact par lequel Gensyn réalise l'entraînement de modèles à grande échelle via son réseau ne sera pas vraiment révélé avant la mise en ligne du projet.

Nous avons également porté une attention particulière au protocole Edge Matrix Computing (EMC) qui utilise la technologie de la blockchain pour appliquer la puissance de calcul à l'IA, au rendu et à la recherche scientifique, à l'accès à l'IA dans le commerce électronique et à d'autres types de scénarios, les tâches étant distribuées à différents nœuds de puissance de calcul via un calcul élastique. Cette méthode améliore non seulement l'efficacité de la puissance de calcul, mais garantit également la sécurité de la transmission des données. En même temps, elle fournit un marché de la puissance de calcul où les utilisateurs peuvent accéder et échanger des ressources de calcul. Il est pratique pour les développeurs de déployer et d'atteindre plus rapidement les utilisateurs. Associé à la forme économique de Web3, les fournisseurs de puissance de calcul peuvent également obtenir de réels avantages et des subventions de la part du protocole en fonction de l'utilisation réelle des utilisateurs, et les développeurs d'IA peuvent également obtenir des coûts de raisonnement et de rendu plus faibles. Voici un aperçu de ses principaux composants et fonctions :

Il est également prévu que des produits RWA basés sur GPU seront lancés. La clé est de revitaliser le matériel qui était initialement fixé dans la salle informatique et de le diviser et de le faire circuler sous forme de RWA pour obtenir une liquidité supplémentaire. Un GPU de haute qualité peut être utilisé comme actif sous-jacent de RWA. La raison en est que la puissance de calcul peut être considérée comme une monnaie forte dans le domaine de l'IA. Il existe actuellement une contradiction évidente entre l'offre et la demande, et cette contradiction ne peut être résolue à court terme, donc le prix du GPU est relativement stable.

De plus, la mise en œuvre de clusters de puissance de calcul en déployant des salles informatiques IDC est également un élément clé du protocole EMC. Cela permet non seulement aux GPU de fonctionner dans un environnement unifié, mais gère également de manière plus efficace les tâches de consommation de puissance de calcul à grande échelle, telles que la préformation de modèles. Cela répond aux besoins des utilisateurs professionnels. En même temps, la salle informatique IDC peut également héberger et exécuter de manière centralisée un grand nombre de GPU pour garantir les spécifications techniques du même type de matériel de haute qualité, ce qui facilite leur emballage sur le marché en tant que produits RWA et ouvre de nouvelles idées pour la DeFi.

Ces dernières années, la communauté universitaire a également développé de nouvelles théories techniques et pratiques d'application dans le domaine de l'informatique en périphérie. Comme un complément et une optimisation de l'informatique en nuage, l'informatique en périphérie fait partie de l'intelligence artificielle qui accélère du nuage vers le bord et dans des appareils IoT de plus en plus petits. Ces appareils IoT sont souvent de petite taille, donc l'apprentissage automatique léger est privilégié pour répondre à des problèmes tels que la consommation d'énergie, la latence et la précision.

Network3 est construit en construisant une couche d'IA Layer2 dédiée pour fournir aux développeurs d'IA du monde entier l'optimisation et la compression des algorithmes de modèles d'IA, l'apprentissage fédéré, le calcul en périphérie et le calcul de confidentialité. Fournir des services pour les aider à former ou vérifier des modèles rapidement, facilement et efficacement. En utilisant un grand nombre de dispositifs matériels IoT intelligents, il peut se concentrer sur de petits modèles pour fournir une puissance de calcul correspondante, et en construisant un TEE (Environnement d'Exécution Fiable), les utilisateurs peuvent compléter la formation pertinente en ne téléchargeant que les gradients de modèle pour garantir la confidentialité et la sécurité des données des utilisateurs.

En résumé

• Avec le développement de l'IA et d'autres domaines, de nombreuses industries subiront d'énormes changements dans leur logique sous-jacente, la puissance de calcul occupera une position plus importante, et divers aspects qui y sont liés feront également l'objet d'une exploration approfondie dans l'industrie. Les réseaux de puissance de calcul décentralisée ont leurs propres avantages peuvent réduire le risque de centralisation et peuvent également servir de complément à la puissance de calcul centralisée.

• Et les équipes dans le domaine de l'IA sont également à un carrefour. Le choix d'utiliser de grands modèles entraînés pour construire leurs propres produits ou de participer à la formation de grands modèles dans leurs régions respectives est principalement dialectique. Par conséquent, la puissance de calcul décentralisée peut répondre à différents besoins commerciaux. Cette tendance de développement est bien accueillie, et avec la mise à jour de la technologie et l'itération des algorithmes, il y aura inévitablement des percées dans des domaines clés.

• N'ayez pas peur, trouvez simplement lentement.

Référence

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/an-overview-of-the-livepeer-network-and-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

Avertissement:

  1. Cet article est repris de [ PANews]. Tous les droits d'auteur appartiennent à l'auteur original [Future3 Campus]. Si des objections sont soulevées concernant cette reproduction, veuillez contacter le Porte Apprendrel'équipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdite.
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!