Triple Halo de l'écosystème AI/DePIN/Sol : Analyse du lancement du jeton IO.NET

Avancé4/17/2024, 6:40:46 AM
Cet article organisera les informations clés du projet de calcul décentralisé d'IA : le projet IO.NET, y compris la logique du produit, la situation concurrentielle et l'arrière-plan du projet. Il fournit également des estimations de valorisation, analyse la valorisation sous différents angles à travers l'analyse des données et offre un calcul de référence pour la valorisation.

Introduction

Dans mon article précédent, j'ai mentionné qu'en comparaison avec les deux cycles précédents, ce cycle du marché haussier des cryptomonnaies manque de nouvelles narrations commerciales et d'actifs influentes. L'IA est l'une des rares nouvelles narrations de ce tour dans le domaine de la Web3. Dans cet article, je vais combiner le projet AI IO.NET, très en vogue cette année, pour réfléchir aux deux problématiques suivantes:

  1. La nécessité de l'IA+Web3 dans les affaires

  2. La nécessité et les défis des services de calcul distribué

De plus, je vais organiser les informations clés du projet représentatif dans le calcul distribué en intelligence artificielle : le projet IO.NET, y compris la logique du produit, la situation concurrentielle et l'arrière-plan du projet. Je vais également approfondir la valorisation du projet.

La partie de cet article sur la combinaison de l'IA et de Web3 a été inspirée par "The Real Merge" écrit par le chercheur de Delphi Digital, Michael Rinko. Certaines opinions dans cet article sont tirées et citent ce document, et je recommande aux lecteurs de se référer à l'original.

Cet article représente mes réflexions provisoires telles qu'elles sont à sa publication. La situation peut changer à l'avenir et les points de vue ont une forte nature subjective. Ils peuvent également contenir des erreurs factuelles, de données ou de raisonnement. Veuillez ne pas utiliser ceci comme un conseil en investissement et je suis ouvert aux critiques et aux discussions de mes pairs.

Ce qui suit est le texte principal.

1. Logique Métier: L'Intersection de l'IA et de Web3

1.1 2023: La nouvelle année "Miracle" créée par l'IA

En regardant en arrière l'histoire de l'humanité, une fois qu'il y a une percée technologique, tout, de la vie quotidienne individuelle, aux différents paysages industriels, et même toute la civilisation de l'humanité, subit des changements révolutionnaires.

Il y a deux années importantes dans l'histoire de l'humanité, à savoir 1666 et 1905, qui sont maintenant appelées les deux grandes "années miracles" dans l'histoire de la technologie.

L'année 1666 est considérée comme une année miraculeuse car les réalisations scientifiques de Newton ont émergé de manière prépondérante à cette époque. Cette année-là, il a été un pionnier dans le domaine de la physique connu sous le nom d'optique, a fondé la branche mathématique du calcul différentiel et a dérivé la loi de la gravité, une loi fondamentale de la science naturelle moderne. Chacune de ces réalisations a été une contribution fondamentale au développement scientifique de l'humanité pour le siècle suivant, accélérant significativement le progrès global de la science.

La deuxième année miracle fut 1905, lorsque Einstein, à seulement 26 ans, publia quatre articles d'affilée dans les "Annales de Physique," couvrant l'effet photoélectrique (posant les bases de la mécanique quantique), le mouvement brownien (devenant une référence cruciale pour l'analyse des processus stochastiques), la théorie de la relativité restreinte et l'équation masse-énergie (la formule célèbre E=MC^2). Dans les évaluations ultérieures, chacun de ces articles fut considéré comme dépassant le niveau moyen du Prix Nobel de Physique (Einstein lui-même reçut également le Prix Nobel pour son article sur l'effet photoélectrique), et une fois de plus, la progression historique de la civilisation humaine fit plusieurs bonds en avant.

L'année 2023 récemment écoulée est susceptible d'être appelée une autre "année miracle" en raison de ChatGPT.

Nous considérons 2023 comme une autre "année miracle" dans l'histoire de la technologie humaine, non seulement en raison des avancées significatives réalisées par GPT dans la compréhension et la génération de langage naturel, mais aussi parce que l'humanité a décrypté le schéma de croissance des grands modèles linguistiques à partir de l'évolution de GPT, c'est-à-dire en étendant les paramètres du modèle et les données d'entraînement, les capacités du modèle peuvent être exponentiellement améliorées, et ce processus ne semble pas encore rencontrer de goulot d'étranglement à court terme (tant qu'il y a suffisamment de puissance de calcul).

Cette capacité va bien au-delà de la compréhension du langage et de la génération de dialogues et est largement utilisée dans divers domaines technologiques. Par exemple, dans le domaine biologique en 2018, la lauréate du prix Nobel de chimie, Frances Arnold, a déclaré lors de la cérémonie de remise des prix : "Aujourd'hui, dans les applications pratiques, nous pouvons lire, écrire et éditer n'importe quelle séquence d'ADN, mais nous sommes toujours incapables de la composer." Juste cinq ans après son discours, en 2023, des chercheurs de l'Université Stanford et du Salesforce Research de la Silicon Valley ont publié un article dans "Nature Biotechnology". Ils ont créé 1 million de nouvelles protéines à partir de zéro en utilisant un grand modèle de langage affiné à partir de GPT3 et ont identifié deux protéines avec des structures distinctes, toutes les deux dotées de capacités antibactériennes, devenant potentiellement une nouvelle solution pour lutter contre les bactéries au-delà des antibiotiques. Cela signifie que le goulot d'étranglement dans la "création" de protéines a été brisé avec l'aide de l'IA.

De plus, l'algorithme d'IA AlphaFold a prédit les structures de près de 214 millions de protéines sur Terre en 18 mois, un exploit qui dépasse de plusieurs centaines de fois les résultats collectifs de tous les biologistes structuraux de l'histoire.

Avec des modèles basés sur l'IA en biotechnologie, en science des matériaux, en développement de médicaments et dans d'autres sciences dures, ainsi que dans les humanités telles que le droit et l'art, une transformation révolutionnaire est inévitable, et 2023 est en effet l'année inaugurale pour toutes ces avancées.

Comme nous le savons tous, au cours du siècle dernier, la création de richesse humaine a augmenté de manière exponentielle, et la maturation rapide de la technologie de l'IA accélérera sans aucun doute davantage ce processus.

Graphique de tendance du PIB mondial, source de données : Banque mondiale

1.2 L'intégration de l'IA et de la crypto

Pour comprendre fondamentalement la nécessité d'intégrer l'IA et la Crypto, nous pouvons commencer par leurs caractéristiques complémentaires.

Caractéristiques complémentaires de l'IA et de la cryptomonnaie

L'IA possède trois attributs:

  1. Aléatoire: L'IA présente de l'aléatoire; le mécanisme derrière sa production de contenu est une boîte noire difficile à reproduire et à inspecter, les résultats sont donc également aléatoires.

  2. Intensif en ressources: L'IA est une industrie gourmande en ressources nécessitant des quantités importantes d'énergie, de puces et de puissance de calcul.

  3. Intelligence semblable à celle des humains: L'IA pourra bientôt passer le test de Turing, rendant ainsi difficile de distinguer entre les humains et les machines.

Le 30 octobre 2023, une équipe de recherche de l'Université de Californie, San Diego, a publié les résultats du test de Turing pour GPT-3.5 et GPT-4.0. GPT-4.0 a obtenu un score de 41 %, à seulement 9 % en dessous de la note de passage de 50 %, tandis que les participants humains ont obtenu un score de 63 %. La signification de ce test de Turing est le pourcentage de personnes qui croient que leur partenaire de conversation est un humain. Si plus de 50 % le croient, cela indique qu'au moins la moitié des personnes considèrent l'entité conversationnelle comme humaine, et non comme une machine, et donc considérée comme réussissant le test de Turing.

Alors que l'IA crée une nouvelle productivité révolutionnaire pour l'humanité, ses trois attributs apportent également des défis importants à la société humaine, notamment :

  • Comment vérifier et contrôler l'aléatoire de l'IA, transformant l'aléatoire d'un défaut en un avantage.

  • Comment répondre aux besoins importants en énergie et en puissance de calcul de l'IA.

  • Comment différencier entre les humains et les machines.

La crypto-économie et la blockchain pourraient bien être le remède aux défis posés par l'IA. L'économie cryptographique présente les trois caractéristiques suivantes :

  1. Déterminisme: Les opérations commerciales sont basées sur la blockchain, le code et les contrats intelligents, avec des règles et des limites claires; l'entrée dicte le résultat, garantissant une haute déterminisme.

  2. Allocation efficace des ressources: L'économie crypto a construit un immense marché mondial libre où la tarification, la collecte de fonds et la circulation des ressources sont très rapides. Grâce à la présence de jetons, les incitations peuvent accélérer la mise en correspondance de l'offre et de la demande du marché, atteignant plus rapidement des points critiques.

  3. Confiance: Avec des registres publics et un code source ouvert, tout le monde peut facilement vérifier les opérations, ce qui conduit à un système « sans confiance ». De plus, la technologie ZK (Zero-Knowledge) évite l'exposition de la vie privée lors de la vérification.

Illustrons la complémentarité entre l'IA et l'économie crypto avec trois exemples.

Exemple A: Traitement de l'aléatoire, Agents d'IA basés sur l'économie crypto

Les agents d'IA, tels que ceux de Fetch.AI, sont conçus pour agir selon la volonté humaine et accomplir des tâches au nom des humains. Si nous voulons que notre agent d'IA gère une transaction financière, comme "acheter 1000 $ de BTC", il pourrait rencontrer deux scénarios :

  • Scénario Un: Il faut qu'il interagisse avec des institutions financières traditionnelles (comme BlackRock) pour acheter des ETF BTC, en affrontant de nombreux problèmes de compatibilité avec des agents d'IA et des institutions centralisées, tels que le KYC, l'examen de la documentation, la connexion et la vérification de l'identité, qui sont actuellement assez contraignants.

  • Scénario Deux: Il fonctionne sur la base de l'économie native de la cryptomonnaie, qui est beaucoup plus simple; il pourrait exécuter des transactions directement via Uniswap ou une plateforme de trading agrégée similaire en utilisant la signature de votre compte, complétant rapidement et simplement la transaction pour recevoir des WBTC (ou une autre forme enveloppée de BTC). Essentiellement, c'est ce que font déjà divers robots de trading, bien que pour l'instant ils se concentrent uniquement sur le trading. Alors que l'IA s'intègre et évolue, les futurs robots de trading seront sans aucun doute capables d'exécuter des intentions de trading plus complexes, telles que le suivi des stratégies de trading et des taux de réussite de 100 adresses de smart money sur la blockchain, exécutant des transactions similaires avec 10% de mes fonds sur une semaine, et arrêtant et résumant les raisons de l'échec si les résultats ne sont pas satisfaisants.

L'IA fonctionne mieux au sein des systèmes blockchain principalement en raison de la clarté des règles cryptonomiques et de l'accès au système sans restriction. Dans ces règles définies, les risques potentiels posés par le caractère aléatoire de l'IA sont minimisés. Par exemple, l'IA a déjà surpassé les humains dans les jeux de cartes et les jeux vidéo en raison de la clarté, du sandbox fermé des règles. Cependant, les progrès dans la conduite autonome sont relativement lents en raison des défis de l'environnement externe ouvert, et nous sommes moins tolérants à l'aléatoire dans la résolution de problèmes de l'IA dans de tels environnements.

Exemple B: Façonner les ressources grâce aux incitations en jetons**

Le réseau mondial derrière BTC, avec un taux de hachage total actuel de 576,70 EH/s, dépasse la puissance de calcul combinée de n'importe quel supercalculateur de pays. Son développement est stimulé par un incitatif de réseau simple et équitable.

Tendance de la puissance de calcul du réseau BTC, source : https://www.coinwarz.com/

En plus de cela, des projets tels que DePIN de Mobile tentent de façonner un marché à deux faces pour l'offre et la demande grâce à des incitations en jetons, visant à atteindre des effets de réseau. Le sujet de la discussion suivante dans cet article, IO.NET, est une plateforme conçue pour agréger la puissance de calcul de l'IA, espérant libérer plus de potentiel en IA grâce à un modèle de jeton.

Exemple C : Code source ouvert, introduction de preuves de connaissance nulle (ZK) pour différencier les humains des machines tout en protégeant la vie privée

En tant que projet Web3 impliquant le fondateur d'OpenAI, Sam Altman, Worldcoin utilise un appareil matériel appelé Orb, qui génère une valeur de hachage unique et anonyme basée sur la biométrie de l'iris humain grâce à la technologie ZK pour vérifier l'identité et différencier les humains des machines. Début mars de cette année, le projet artistique Web3 Drip a commencé à utiliser l'identifiant de Worldcoin pour vérifier les utilisateurs humains réels et distribuer des récompenses.

De plus, Worldcoin a récemment rendu open source le code du programme de son matériel de reconnaissance de l'iris, Orb, garantissant la sécurité et la confidentialité des données biométriques des utilisateurs.

Dans l'ensemble, l'économie de la cryptomonnaie est devenue une solution potentielle significative aux défis posés par l'IA à la société humaine, en raison de la certitude du code et de la cryptographie, des avantages de la circulation des ressources et de la collecte de fonds apportés par les mécanismes de jetons, et de la nature sans confiance basée sur le code source ouvert et les registres publics.

Le défi le plus urgent et commercialement exigeant est la faim extrême de ressources computationnelles par les produits d'IA, qui tourne autour de l'énorme demande de puces et de puissance de calcul.

C'est également la principale raison pour laquelle les projets de calcul distribué ont conduit la tendance globale de l'IA dans ce cycle haussier.

La nécessité commerciale de l'informatique décentralisée

L'IA nécessite des ressources informatiques importantes, tant pour la formation de modèles que pour l'inférence.

Dans la pratique de la formation de grands modèles linguistiques, il a été confirmé que tant que l'échelle des paramètres de données est suffisamment grande, de nouvelles capacités émergent qui n'étaient pas présentes auparavant. Chaque génération de GPT montre un saut exponentiel de capacités par rapport à son prédécesseur, soutenu par une croissance exponentielle du volume de calcul nécessaire pour la formation du modèle.

Une recherche menée par DeepMind et l'Université Stanford montre que différents grands modèles de langage, lorsqu'ils sont confrontés à diverses tâches (calcul, QA en persan, compréhension du langage naturel, etc.), se comportent de manière similaire à des réponses aléatoires jusqu'à ce que l'entraînement atteigne moins de 10^22 FLOPs (FLOPs désignant les opérations en virgule flottante par seconde, une mesure des performances de calcul) ; cependant, une fois que l'échelle des paramètres dépasse ce seuil critique, les performances de toute tâche s'améliorent de manière spectaculaire, quel que soit le modèle de langage.

Source: Capacités émergentes des grands modèles de langage

Capacités émergentes des grands modèles de langage

C'est précisément le principe de "réaliser des miracles avec une grande puissance de calcul" et sa vérification pratique qui a conduit Sam Altman, le fondateur d'OpenAI, à proposer de lever 7 billions de dollars américains pour construire une usine de puces avancée dix fois plus grande que l'actuelle TSMC. Il est prévu que 1,5 billion de dollars seront dépensés pour cette partie, les fonds restants étant utilisés pour la production de puces et la formation des modèles.

Outre la formation des modèles d'IA, le processus d'inférence des modèles eux-mêmes nécessite également une puissance de calcul substantielle, bien que moins que celle nécessaire pour la formation. Par conséquent, la soif de puces et de puissance de calcul est devenue une norme parmi les concurrents en IA.

Comparé aux fournisseurs centralisés de calcul AI comme Amazon Web Services, Google Cloud Platform et Azure de Microsoft, les principales propositions de valeur du calcul AI distribué comprennent :

  • Accessibilité: Accéder aux puces informatiques via des services cloud tels que AWS, GCP ou Azure prend généralement des semaines, et les modèles de GPU populaires sont souvent en rupture de stock. De plus, pour obtenir une puissance de calcul, les consommateurs doivent souvent signer de longs contrats inflexibles avec ces grandes entreprises. En revanche, les plateformes de calcul distribué peuvent offrir des options matérielles flexibles avec une accessibilité accrue.
  • Des prix plus bas : En utilisant des puces inactives, combinées à des subventions en jetons du protocole réseau aux fournisseurs de puces et de puissance de calcul, les réseaux informatiques distribués peuvent offrir une puissance de calcul plus abordable.
  • Résistance à la censure : Actuellement, les puces informatiques de pointe et les fournitures sont monopolisées par de grandes entreprises technologiques. De plus, les gouvernements dirigés par les États-Unis intensifient leur surveillance des services informatiques d'IA. La capacité à acquérir de la puissance de calcul de manière distribuée, flexible et gratuite devient une demande claire, qui est également une proposition de valeur centrale des plateformes de services informatiques basées sur le web3.

Si les combustibles fossiles étaient le sang de la révolution industrielle, la puissance de calcul sera probablement le sang de la nouvelle ère numérique inaugurée par l'IA, l'approvisionnement en puissance de calcul devenant l'infrastructure de l'ère de l'IA. Tout comme les stablecoins sont devenus un dérivé solide de la monnaie fiduciaire à l'ère de Web3, le marché de l'informatique distribuée pourrait-il devenir un dérivé en forte croissance du marché de l'informatique IA?

Étant donné qu'il s'agit encore d'un marché relativement précoce, tout est encore sous observation. Cependant, les facteurs suivants pourraient potentiellement stimuler le récit ou l'adoption du marché de l'informatique distribuée :

  • Tension continue entre l'offre et la demande de GPU. La tension continue dans l'offre de GPU pourrait encourager certains développeurs à se tourner vers des plateformes de calcul distribué.
  • Expansion réglementaire. Accéder aux services de calcul AI des grandes plateformes de cloud computing nécessite une vérification d'identité et un examen approfondi. Cela pourrait au contraire encourager l'adoption de plateformes de calcul distribué, notamment dans les régions confrontées à des restrictions et des sanctions.
  • Incitations au prix du jeton. Les cycles haussiers du marché et la hausse des prix des jetons augmentent la valeur de subvention du côté de l'offre de GPU, attirant davantage de fournisseurs sur le marché, augmentant la taille du marché et réduisant le prix d'achat réel pour les consommateurs.

Cependant, les défis auxquels sont confrontées les plateformes informatiques distribuées sont également assez évidents:

  • Défis techniques et d'ingénierie
  • Problèmes de preuve de travail : Le calcul des modèles d'apprentissage en profondeur, en raison de leur structure hiérarchique où la sortie de chaque couche sert d'entrée pour la suivante, nécessite l'exécution de tout le travail précédent pour vérifier la validité du calcul. Cela ne peut pas être simplement et efficacement vérifié. Pour résoudre ce problème, les plateformes informatiques distribuées doivent développer de nouveaux algorithmes ou utiliser des techniques de vérification approximatives, qui peuvent fournir des garanties probabilistes de la justesse des résultats, plutôt qu'une certitude absolue.
  • Défis de la parallélisation : Les plateformes informatiques distribuées rassemblent la longue traîne de l'approvisionnement en puces, ce qui signifie que les appareils individuels ne peuvent offrir qu'une puissance de calcul limitée. Un seul fournisseur de puces peut difficilement achever les tâches d'entraînement ou d'inférence d'un modèle d'IA de manière indépendante en peu de temps, il est donc nécessaire de décomposer les tâches et de les distribuer par parallélisation pour raccourcir le temps de réalisation global. La parallélisation doit également faire face inévitablement à des problèmes tels que la décomposition des tâches (en particulier pour des tâches complexes d'apprentissage profond), la dépendance aux données et les coûts de communication supplémentaires entre les appareils.
  • Problèmes de protection de la vie privée : Comment s'assurer que les données et les modèles de la partie acheteuse ne sont pas exposés aux destinataires de la tâche ?

Défis de conformité réglementaire

  • En raison du caractère non autorisé des marchés d'approvisionnement et d'approvisionnement en double des plates-formes informatiques distribuées, ils peuvent attirer certains clients comme points de vente. D'autre part, ils peuvent devenir des cibles de la réglementation gouvernementale à mesure que les normes réglementaires en matière d'IA sont affinées. De plus, certains fournisseurs de GPU peuvent s'inquiéter de savoir si leurs ressources informatiques louées sont fournies à des entreprises ou à des particuliers sanctionnés.

Dans l'ensemble, les consommateurs de plateformes informatiques distribuées sont principalement des développeurs professionnels ou des petites et moyennes institutions, contrairement aux investisseurs en cryptomonnaies et en NFT qui diffèrent dans leurs attentes en matière de stabilité et de continuité des services offerts par le protocole. Le prix n'est peut-être pas leur principale motivation dans la prise de décision. Pour l'instant, il semble que les plateformes informatiques distribuées ont encore un long chemin à parcourir pour obtenir l'approbation de ces utilisateurs.

Ensuite, nous allons organiser et analyser les informations du projet pour un nouveau projet informatique distribué dans ce cycle, IO.NET, et estimer sa possible valorisation sur le marché après sa cotation, en fonction des concurrents actuels du marché dans les secteurs de l'IA et de l'informatique distribuée.

Plateforme de calcul AI distribuée : IO.NETPlateforme de calcul AI distribuée : IO.NET

2.1 Positionnement du projet

IO.NET est un réseau informatique décentralisé qui a établi un marché bilatéral centré autour des puces. Le côté offre se compose de puces (principalement des GPU, mais aussi des CPU et des iGPU d'Apple) distribuées mondialement, tandis que le côté demande est composé d'ingénieurs en intelligence artificielle cherchant à effectuer des tâches d'entraînement ou d'inférence de modèles d'IA.

Comme indiqué sur le site officiel de IO.NET :

Notre mission

Assemblage d'un million de GPU dans un DePIN - réseau d'infrastructure physique décentralisé.

La mission est d'intégrer des millions de GPU dans son réseau DePIN.

Comparé aux fournisseurs de services informatiques cloud AI existants, IO.NET met l'accent sur les points de vente clés suivants :

  • Combinaison flexible : les ingénieurs en IA peuvent librement sélectionner et combiner les puces dont ils ont besoin pour former des "Clusters" afin de compléter leurs tâches de calcul.
  • Déploiement rapide: le déploiement peut être terminé en quelques secondes, sans les semaines d'approbation et d'attente généralement nécessaires par les fournisseurs centralisés comme AWS.
  • Service rentable: le coût des services est 90% inférieur à celui des fournisseurs principaux.

De plus, IO.NET prévoit de lancer des services tels qu'une boutique de modèles d'IA à l'avenir.

2.2 Mécanisme du produit et données commerciales

Mécanisme du produit et expérience de déploiement

Similaire à Amazon Cloud, Google Cloud et Alibaba Cloud, le service informatique fourni par IO.NET s'appelle IO Cloud. IO Cloud est un réseau distribué et décentralisé de puces capable d'exécuter du code d'apprentissage automatique basé sur Python et d'exécuter des programmes d'IA et d'apprentissage automatique.

Le module commercial de base de IO Cloud s'appelle "Clusters". Les Clusters sont des groupes de GPU qui peuvent coordonner de manière autonome pour accomplir des tâches de calcul. Les ingénieurs en intelligence artificielle peuvent personnaliser leurs Clusters souhaités en fonction de leurs besoins.

L'interface produit d'IO.NET est très conviviale. Si vous devez déployer vos propres clusters de puces pour accomplir des tâches de calcul AI, vous pouvez commencer à configurer vos clusters de puces souhaités dès que vous accédez à la page produit Clusters sur leur site Web.

Informations sur la page: https://cloud.io.net/cloud/clusters/create-cluster, le même ci-dessous

Tout d'abord, vous devez sélectionner votre scénario de projet, et actuellement, il existe trois types disponibles:

  1. Général (type générique) : Fournit un environnement plus générique, adapté aux premières étapes du projet lorsque les besoins en ressources spécifiques sont incertains.

  2. Train (type de formation): Conçu pour la formation et le peaufinage des modèles d'apprentissage automatique. Cette option offre des ressources GPU supplémentaires, une capacité mémoire plus élevée et/ou des connexions réseau plus rapides pour gérer ces tâches computationnelles intensives.

  3. Inférence (type d'inférence) : Conçu pour l'inférence à faible latence et les tâches à forte charge. Dans le contexte de l'apprentissage automatique, l'inférence désigne l'utilisation de modèles entraînés pour prédire ou analyser de nouvelles données et fournir des retours. Par conséquent, cette option se concentre sur l'optimisation de la latence et du débit pour prendre en charge les besoins de traitement des données en temps réel ou quasi temps réel.

Ensuite, vous devez choisir le fournisseur pour la puce Clusters. Actuellement, IO.NET a des partenariats avec Render Network et le réseau minier de Filecoin, permettant aux utilisateurs de choisir des puces chez IO.NET ou les deux autres réseaux comme fournisseur de leurs Clusters de calcul. IO.NET agit en tant qu'agrégateur (bien que, au moment de la rédaction, le service de Filecoin soit temporairement hors ligne). Notamment, selon l'affichage de la page, le nombre de GPU en ligne disponible pour IO.NET est de plus de 200 000, tandis que celui de Render Network est de plus de 3 700.

Enfin, vous entrez dans la phase de sélection du matériel de puce pour les clusters. Actuellement, IO.NET ne répertorie que des GPU pour la sélection, à l'exclusion des CPU ou des iGPU d'Apple (M1, M2, etc.), et les GPU sont principalement des produits NVIDIA.

Dans la liste officielle des options matérielles GPU disponibles, basée sur les données testées par l'auteur ce jour-là, le nombre total de GPU disponibles en ligne dans le réseau IO.NET est de 206 001. Parmi eux, la GeForce RTX 4090 est la plus disponible avec 45 250 unités, suivie de la GeForce RTX 3090 Ti avec 30 779 unités.

De plus, la puce A100-SXM4-80GB, plus efficace pour les tâches de calcul AI telles que l'apprentissage automatique, l'apprentissage en profondeur et le calcul scientifique (prix du marché supérieur à 15 000 $), compte 7 965 unités en ligne.

La carte graphique NVIDIA H100 80GB HBM3, spécialement conçue pour l'IA (prix du marché de plus de 40 000 $), offre des performances d'entraînement 3,3 fois supérieures à celles de l'A100 et des performances d'inférence 4,5 fois supérieures à celles de l'A100, avec un total de 86 unités en ligne.

Après avoir sélectionné le type de matériel pour les Clusters, les utilisateurs doivent également choisir la région, la vitesse de communication, le nombre de GPUs loués et la durée de la location, parmi d'autres paramètres.

Enfin, IO.NET fournira une facture basée sur la sélection complète. Par exemple, dans la configuration des clusters de l'auteur :

  • Scénario de tâche générale
  • 16 puces A100-SXM4-80GB
  • Connexion ultra-rapide
  • Situé aux États-Unis
  • Période de location d'une semaine

Le total de la facture est de $3311.6, avec un prix par heure par carte de $1.232

En comparaison, les prix de location horaire du A100-SXM4-80GB sur Amazon Cloud, Google Cloud et Microsoft Azure sont respectivement de 5,12 $, 5,07 $ et 3,67 $ (source de données : https://cloud-gpus.com/, les prix réels peuvent varier en fonction des détails du contrat).

Ainsi, simplement en termes de prix, la puissance de calcul d'IO.NET est significativement moins chère que celle des fabricants grand public, et les options d'approvisionnement et d'approvisionnement sont très flexibles, ce qui facilite le démarrage.

Conditions commerciales

Situation du côté de l'offre

Au 4 avril de cette année, selon les données officielles, IO.NET a un approvisionnement total de 371 027 GPU et 42 321 CPU du côté de l'offre. De plus, Render Network, en tant que partenaire, a également connecté 9 997 GPU et 776 CPU à l'offre du réseau.

Source de données : https://cloud.io.net/explorer/home, la même ci-dessous

Au moment de la rédaction de cet article, 214 387 des GPU connectés par IO.NET sont en ligne, avec un taux de disponibilité de 57,8%. Le taux de disponibilité en ligne pour les GPU du réseau Render est de 45,1%.

Que signifient les données du côté de l'offre ci-dessus?

Pour établir une comparaison, permettez-nous de présenter un autre projet de calcul distribué plus ancien, Akash Network, pour contraste. Akash Network a lancé son mainnet dès 2020, se concentrant initialement sur les services distribués pour les CPU et le stockage. En juin 2023, il a lancé un testnet pour les services GPU et a mis en service son mainnet pour la puissance de calcul distribuée GPU en septembre de la même année.

Source de données : https://stats.akash.network/provider-graph/graphics-gpu

Selon les données officielles d'Akash, bien que le côté de l'offre ait continué de croître, le nombre total de GPU connectés à son réseau n'a atteint que 365 à ce jour.

En termes de volume d'approvisionnement en GPU, IO.NET est plusieurs ordres de grandeur plus élevé que le réseau Akash, ce qui en fait le plus grand réseau d'approvisionnement dans la course à la puissance de calcul GPU distribuée.

Situation du côté de la demande

Cependant, en regardant du côté de la demande, IO.NET en est encore aux premiers stades de la culture du marché, et le volume réel des tâches de calcul effectuées à l'aide d'IO.NET n'est pas important. La plupart des GPU en ligne ont une charge de travail de 0%, seuls quatre types de puces - A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S et H100 80GB HBM3 - gèrent les tâches. À l'exception de l'A100 PCIe 80GB K8S, la charge de travail des trois autres puces est inférieure à 20%.

La valeur officielle du stress du réseau divulguée le jour même est de 0 %, ce qui indique que la plupart de l'approvisionnement en puces est dans un état de veille en ligne. Pendant ce temps, IO.NET a généré un total de 586 029 $ de frais de service, le coût s'élevant à 3 200 $ au cours de la dernière journée.

Source de données :https://cloud.io.net/explorer/clusters

L'ampleur de ces frais de règlement du réseau, tant en termes de montant total que de volume de transactions journalières, est du même ordre de grandeur que celui d'Akash, bien que la majeure partie des revenus du réseau d'Akash provienne du segment du CPU, avec plus de 20 000 CPU fournis.

Source de données: https://stats.akash.network/

De plus, IO.NET a divulgué des données sur les tâches d'inférence en IA traitées par le réseau ; à ce jour, il a traité et vérifié plus de 230 000 tâches d'inférence, bien que la majeure partie de ce volume ait été générée par des projets parrainés par IO.NET, tels que BC8.AI.

Source de données : https://cloud.io.net/explorer/inferences

Sur la base des données commerciales actuelles, l'expansion du côté offre de IO.NET progresse bien, soutenue par l'anticipation de largages aériens et d'un événement communautaire surnommé "Ignition", qui a rapidement accumulé une quantité significative de puissance de calcul de puce IA. Cependant, l'expansion du côté demande en est encore à ses débuts, la demande organique étant actuellement insuffisante. Il reste à évaluer si le manque actuel de demande est dû au fait que la sensibilisation des consommateurs n'a pas encore commencé, ou parce que l'expérience de service actuelle n'est pas assez stable, manquant ainsi d'une adoption généralisée.

Compte tenu de la difficulté à court terme de combler le fossé dans la puissance de calcul de l'IA, de nombreux ingénieurs et projets en IA cherchent des solutions alternatives, ce qui pourrait susciter l'intérêt des fournisseurs de services décentralisés. De plus, étant donné que IO.NET n'a pas encore initié d'incitations économiques et d'activités pour la demande, et avec l'amélioration progressive de l'expérience produit, la correspondance finale entre l'offre et la demande est toujours attendue avec optimisme.

2.3 Antécédents de l'équipe et financement

Situation de l'équipe

L'équipe principale d'IO.NET s'est initialement concentrée sur le trading quantitatif, développant des systèmes de trading quantitatif de niveau institutionnel pour les actions et les actifs cryptographiques jusqu'en juin 2022. Poussée par le besoin de puissance de calcul du système backend, l'équipe a commencé à explorer les possibilités de calcul décentralisé, se concentrant finalement sur la réduction du coût des services de calcul GPU.

Fondateur & PDG: Ahmad Shadid, qui a une formation en finance quantitative et en ingénierie et a également fait du volontariat avec la Fondation Ethereum.

CMO & Directeur de la stratégie: Garrison Yang, qui a rejoint IO.NET en mars de cette année. Il était auparavant le vice-président de la stratégie et de la croissance chez Avalanche et diplômé de l'Université de Californie, Santa Barbara.

COO : Tory Green, auparavant COO chez Hum Capital et directeur du développement et de la stratégie chez Fox Mobile Group, diplômé de Stanford.

Selon les informations de LinkedIn, IO.NET a son siège à New York, aux États-Unis, avec une succursale à San Francisco, et l'équipe compte plus de 50 membres.

Situation de financement

À ce jour, IO.NET n'a divulgué qu'un tour de financement, qui est la série A achevée en mars de cette année, évaluée à 1 milliard USD. Il a levé 30 millions USD dirigés par Hack VC, avec d'autres participants, dont Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures et ArkStream Capital.

Il convient de mentionner qu'en raison peut-être de l'investissement de la Fondation Aptos, le projet BC8.AI, qui réglait initialement ses comptes sur Solana, est passé à la blockchain L1 haute performance Aptos.

2.4 Estimation de la valorisation

Selon le fondateur et PDG d'IO.NET, Ahmad Shadid, la société lancera son jeton à la fin avril.

IO.NET a deux projets comparables pour la référence en matière de valorisation : Render Network et Akash Network, tous deux représentatifs de projets de calcul distribué.

Il existe deux façons d'extrapoler la fourchette de capitalisation boursière de IO.NET : 1. Ratio prix/ventes (ratio P/S), c'est-à-dire ratio capitalisation boursière/revenus ; 2. Ratio capitalisation boursière par puce de réseau.

Tout d'abord, examinons l'extrapolation de la valorisation basée sur le ratio P/S :

Du point de vue du ratio P/S, Akash peut servir de limite inférieure de la fourchette de valorisation de IO.NET, tandis que Render sert de référence pour la tarification à haute valorisation. Leur fourchette de FDV (Fully Diluted Valuation) va de 1,67 milliard USD à 5,93 milliards USD.

Cependant, compte tenu des mises à jour du projet IO.NET, de son récit plus chaud, de sa plus petite capitalisation boursière en circulation initiale et de son échelle actuellement plus grande du côté de l'offre, la probabilité que sa FDV dépasse celle de Render n'est pas petite.

Ensuite, examinons une autre perspective d'évaluation, le «ratio marché-noyau».

Sur un marché où la demande de puissance de calcul de l'IA dépasse l'offre, l'élément le plus crucial des réseaux de puissance de calcul de l'IA distribuée est l'échelle de l'offre de GPU. Par conséquent, nous pouvons utiliser le "ratio marché-nœud", le ratio de la capitalisation boursière totale du projet au nombre de puces dans le réseau, pour extrapoler la fourchette de valorisation possible de IO.NET pour les lecteurs en tant que référence en valeur de marché.

)

Si elle est calculée sur la base du ratio marché/cœur, avec Render Network comme limite supérieure et Akash Network comme limite inférieure, la fourchette FDV pour IO.NET se situe entre 20,6 milliards de dollars et 197,5 milliards de dollars.

Les lecteurs qui sont optimistes quant au projet IO.NET considéreraient ceci comme une estimation de valeur de marché très optimiste.

De plus, nous devons considérer que le nombre important de jetons en ligne actuellement sur IO.NET peut être stimulé par les attentes de largage aérien et les activités incitatives, et que le nombre réel en ligne du côté de l'offre doit encore être observé après le lancement officiel du projet.

Par conséquent, dans l'ensemble, l'estimation de la valorisation du point de vue du ratio P/S peut être plus référentielle.

IO.NET, en tant que projet combinant l'IA, DePIN et l'écosystème Solana, attend avec impatience sa performance sur le marché après son lancement.

3. Informations de référence

Avertissement:

  1. Cet article est repris de [ mintventures]. Tous les droits d'auteur appartiennent à l'auteur original IO.NET. Si vous avez des objections à cette réimpression, veuillez contacter le Portail Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité: Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdite.

Triple Halo de l'écosystème AI/DePIN/Sol : Analyse du lancement du jeton IO.NET

Avancé4/17/2024, 6:40:46 AM
Cet article organisera les informations clés du projet de calcul décentralisé d'IA : le projet IO.NET, y compris la logique du produit, la situation concurrentielle et l'arrière-plan du projet. Il fournit également des estimations de valorisation, analyse la valorisation sous différents angles à travers l'analyse des données et offre un calcul de référence pour la valorisation.

Introduction

Dans mon article précédent, j'ai mentionné qu'en comparaison avec les deux cycles précédents, ce cycle du marché haussier des cryptomonnaies manque de nouvelles narrations commerciales et d'actifs influentes. L'IA est l'une des rares nouvelles narrations de ce tour dans le domaine de la Web3. Dans cet article, je vais combiner le projet AI IO.NET, très en vogue cette année, pour réfléchir aux deux problématiques suivantes:

  1. La nécessité de l'IA+Web3 dans les affaires

  2. La nécessité et les défis des services de calcul distribué

De plus, je vais organiser les informations clés du projet représentatif dans le calcul distribué en intelligence artificielle : le projet IO.NET, y compris la logique du produit, la situation concurrentielle et l'arrière-plan du projet. Je vais également approfondir la valorisation du projet.

La partie de cet article sur la combinaison de l'IA et de Web3 a été inspirée par "The Real Merge" écrit par le chercheur de Delphi Digital, Michael Rinko. Certaines opinions dans cet article sont tirées et citent ce document, et je recommande aux lecteurs de se référer à l'original.

Cet article représente mes réflexions provisoires telles qu'elles sont à sa publication. La situation peut changer à l'avenir et les points de vue ont une forte nature subjective. Ils peuvent également contenir des erreurs factuelles, de données ou de raisonnement. Veuillez ne pas utiliser ceci comme un conseil en investissement et je suis ouvert aux critiques et aux discussions de mes pairs.

Ce qui suit est le texte principal.

1. Logique Métier: L'Intersection de l'IA et de Web3

1.1 2023: La nouvelle année "Miracle" créée par l'IA

En regardant en arrière l'histoire de l'humanité, une fois qu'il y a une percée technologique, tout, de la vie quotidienne individuelle, aux différents paysages industriels, et même toute la civilisation de l'humanité, subit des changements révolutionnaires.

Il y a deux années importantes dans l'histoire de l'humanité, à savoir 1666 et 1905, qui sont maintenant appelées les deux grandes "années miracles" dans l'histoire de la technologie.

L'année 1666 est considérée comme une année miraculeuse car les réalisations scientifiques de Newton ont émergé de manière prépondérante à cette époque. Cette année-là, il a été un pionnier dans le domaine de la physique connu sous le nom d'optique, a fondé la branche mathématique du calcul différentiel et a dérivé la loi de la gravité, une loi fondamentale de la science naturelle moderne. Chacune de ces réalisations a été une contribution fondamentale au développement scientifique de l'humanité pour le siècle suivant, accélérant significativement le progrès global de la science.

La deuxième année miracle fut 1905, lorsque Einstein, à seulement 26 ans, publia quatre articles d'affilée dans les "Annales de Physique," couvrant l'effet photoélectrique (posant les bases de la mécanique quantique), le mouvement brownien (devenant une référence cruciale pour l'analyse des processus stochastiques), la théorie de la relativité restreinte et l'équation masse-énergie (la formule célèbre E=MC^2). Dans les évaluations ultérieures, chacun de ces articles fut considéré comme dépassant le niveau moyen du Prix Nobel de Physique (Einstein lui-même reçut également le Prix Nobel pour son article sur l'effet photoélectrique), et une fois de plus, la progression historique de la civilisation humaine fit plusieurs bonds en avant.

L'année 2023 récemment écoulée est susceptible d'être appelée une autre "année miracle" en raison de ChatGPT.

Nous considérons 2023 comme une autre "année miracle" dans l'histoire de la technologie humaine, non seulement en raison des avancées significatives réalisées par GPT dans la compréhension et la génération de langage naturel, mais aussi parce que l'humanité a décrypté le schéma de croissance des grands modèles linguistiques à partir de l'évolution de GPT, c'est-à-dire en étendant les paramètres du modèle et les données d'entraînement, les capacités du modèle peuvent être exponentiellement améliorées, et ce processus ne semble pas encore rencontrer de goulot d'étranglement à court terme (tant qu'il y a suffisamment de puissance de calcul).

Cette capacité va bien au-delà de la compréhension du langage et de la génération de dialogues et est largement utilisée dans divers domaines technologiques. Par exemple, dans le domaine biologique en 2018, la lauréate du prix Nobel de chimie, Frances Arnold, a déclaré lors de la cérémonie de remise des prix : "Aujourd'hui, dans les applications pratiques, nous pouvons lire, écrire et éditer n'importe quelle séquence d'ADN, mais nous sommes toujours incapables de la composer." Juste cinq ans après son discours, en 2023, des chercheurs de l'Université Stanford et du Salesforce Research de la Silicon Valley ont publié un article dans "Nature Biotechnology". Ils ont créé 1 million de nouvelles protéines à partir de zéro en utilisant un grand modèle de langage affiné à partir de GPT3 et ont identifié deux protéines avec des structures distinctes, toutes les deux dotées de capacités antibactériennes, devenant potentiellement une nouvelle solution pour lutter contre les bactéries au-delà des antibiotiques. Cela signifie que le goulot d'étranglement dans la "création" de protéines a été brisé avec l'aide de l'IA.

De plus, l'algorithme d'IA AlphaFold a prédit les structures de près de 214 millions de protéines sur Terre en 18 mois, un exploit qui dépasse de plusieurs centaines de fois les résultats collectifs de tous les biologistes structuraux de l'histoire.

Avec des modèles basés sur l'IA en biotechnologie, en science des matériaux, en développement de médicaments et dans d'autres sciences dures, ainsi que dans les humanités telles que le droit et l'art, une transformation révolutionnaire est inévitable, et 2023 est en effet l'année inaugurale pour toutes ces avancées.

Comme nous le savons tous, au cours du siècle dernier, la création de richesse humaine a augmenté de manière exponentielle, et la maturation rapide de la technologie de l'IA accélérera sans aucun doute davantage ce processus.

Graphique de tendance du PIB mondial, source de données : Banque mondiale

1.2 L'intégration de l'IA et de la crypto

Pour comprendre fondamentalement la nécessité d'intégrer l'IA et la Crypto, nous pouvons commencer par leurs caractéristiques complémentaires.

Caractéristiques complémentaires de l'IA et de la cryptomonnaie

L'IA possède trois attributs:

  1. Aléatoire: L'IA présente de l'aléatoire; le mécanisme derrière sa production de contenu est une boîte noire difficile à reproduire et à inspecter, les résultats sont donc également aléatoires.

  2. Intensif en ressources: L'IA est une industrie gourmande en ressources nécessitant des quantités importantes d'énergie, de puces et de puissance de calcul.

  3. Intelligence semblable à celle des humains: L'IA pourra bientôt passer le test de Turing, rendant ainsi difficile de distinguer entre les humains et les machines.

Le 30 octobre 2023, une équipe de recherche de l'Université de Californie, San Diego, a publié les résultats du test de Turing pour GPT-3.5 et GPT-4.0. GPT-4.0 a obtenu un score de 41 %, à seulement 9 % en dessous de la note de passage de 50 %, tandis que les participants humains ont obtenu un score de 63 %. La signification de ce test de Turing est le pourcentage de personnes qui croient que leur partenaire de conversation est un humain. Si plus de 50 % le croient, cela indique qu'au moins la moitié des personnes considèrent l'entité conversationnelle comme humaine, et non comme une machine, et donc considérée comme réussissant le test de Turing.

Alors que l'IA crée une nouvelle productivité révolutionnaire pour l'humanité, ses trois attributs apportent également des défis importants à la société humaine, notamment :

  • Comment vérifier et contrôler l'aléatoire de l'IA, transformant l'aléatoire d'un défaut en un avantage.

  • Comment répondre aux besoins importants en énergie et en puissance de calcul de l'IA.

  • Comment différencier entre les humains et les machines.

La crypto-économie et la blockchain pourraient bien être le remède aux défis posés par l'IA. L'économie cryptographique présente les trois caractéristiques suivantes :

  1. Déterminisme: Les opérations commerciales sont basées sur la blockchain, le code et les contrats intelligents, avec des règles et des limites claires; l'entrée dicte le résultat, garantissant une haute déterminisme.

  2. Allocation efficace des ressources: L'économie crypto a construit un immense marché mondial libre où la tarification, la collecte de fonds et la circulation des ressources sont très rapides. Grâce à la présence de jetons, les incitations peuvent accélérer la mise en correspondance de l'offre et de la demande du marché, atteignant plus rapidement des points critiques.

  3. Confiance: Avec des registres publics et un code source ouvert, tout le monde peut facilement vérifier les opérations, ce qui conduit à un système « sans confiance ». De plus, la technologie ZK (Zero-Knowledge) évite l'exposition de la vie privée lors de la vérification.

Illustrons la complémentarité entre l'IA et l'économie crypto avec trois exemples.

Exemple A: Traitement de l'aléatoire, Agents d'IA basés sur l'économie crypto

Les agents d'IA, tels que ceux de Fetch.AI, sont conçus pour agir selon la volonté humaine et accomplir des tâches au nom des humains. Si nous voulons que notre agent d'IA gère une transaction financière, comme "acheter 1000 $ de BTC", il pourrait rencontrer deux scénarios :

  • Scénario Un: Il faut qu'il interagisse avec des institutions financières traditionnelles (comme BlackRock) pour acheter des ETF BTC, en affrontant de nombreux problèmes de compatibilité avec des agents d'IA et des institutions centralisées, tels que le KYC, l'examen de la documentation, la connexion et la vérification de l'identité, qui sont actuellement assez contraignants.

  • Scénario Deux: Il fonctionne sur la base de l'économie native de la cryptomonnaie, qui est beaucoup plus simple; il pourrait exécuter des transactions directement via Uniswap ou une plateforme de trading agrégée similaire en utilisant la signature de votre compte, complétant rapidement et simplement la transaction pour recevoir des WBTC (ou une autre forme enveloppée de BTC). Essentiellement, c'est ce que font déjà divers robots de trading, bien que pour l'instant ils se concentrent uniquement sur le trading. Alors que l'IA s'intègre et évolue, les futurs robots de trading seront sans aucun doute capables d'exécuter des intentions de trading plus complexes, telles que le suivi des stratégies de trading et des taux de réussite de 100 adresses de smart money sur la blockchain, exécutant des transactions similaires avec 10% de mes fonds sur une semaine, et arrêtant et résumant les raisons de l'échec si les résultats ne sont pas satisfaisants.

L'IA fonctionne mieux au sein des systèmes blockchain principalement en raison de la clarté des règles cryptonomiques et de l'accès au système sans restriction. Dans ces règles définies, les risques potentiels posés par le caractère aléatoire de l'IA sont minimisés. Par exemple, l'IA a déjà surpassé les humains dans les jeux de cartes et les jeux vidéo en raison de la clarté, du sandbox fermé des règles. Cependant, les progrès dans la conduite autonome sont relativement lents en raison des défis de l'environnement externe ouvert, et nous sommes moins tolérants à l'aléatoire dans la résolution de problèmes de l'IA dans de tels environnements.

Exemple B: Façonner les ressources grâce aux incitations en jetons**

Le réseau mondial derrière BTC, avec un taux de hachage total actuel de 576,70 EH/s, dépasse la puissance de calcul combinée de n'importe quel supercalculateur de pays. Son développement est stimulé par un incitatif de réseau simple et équitable.

Tendance de la puissance de calcul du réseau BTC, source : https://www.coinwarz.com/

En plus de cela, des projets tels que DePIN de Mobile tentent de façonner un marché à deux faces pour l'offre et la demande grâce à des incitations en jetons, visant à atteindre des effets de réseau. Le sujet de la discussion suivante dans cet article, IO.NET, est une plateforme conçue pour agréger la puissance de calcul de l'IA, espérant libérer plus de potentiel en IA grâce à un modèle de jeton.

Exemple C : Code source ouvert, introduction de preuves de connaissance nulle (ZK) pour différencier les humains des machines tout en protégeant la vie privée

En tant que projet Web3 impliquant le fondateur d'OpenAI, Sam Altman, Worldcoin utilise un appareil matériel appelé Orb, qui génère une valeur de hachage unique et anonyme basée sur la biométrie de l'iris humain grâce à la technologie ZK pour vérifier l'identité et différencier les humains des machines. Début mars de cette année, le projet artistique Web3 Drip a commencé à utiliser l'identifiant de Worldcoin pour vérifier les utilisateurs humains réels et distribuer des récompenses.

De plus, Worldcoin a récemment rendu open source le code du programme de son matériel de reconnaissance de l'iris, Orb, garantissant la sécurité et la confidentialité des données biométriques des utilisateurs.

Dans l'ensemble, l'économie de la cryptomonnaie est devenue une solution potentielle significative aux défis posés par l'IA à la société humaine, en raison de la certitude du code et de la cryptographie, des avantages de la circulation des ressources et de la collecte de fonds apportés par les mécanismes de jetons, et de la nature sans confiance basée sur le code source ouvert et les registres publics.

Le défi le plus urgent et commercialement exigeant est la faim extrême de ressources computationnelles par les produits d'IA, qui tourne autour de l'énorme demande de puces et de puissance de calcul.

C'est également la principale raison pour laquelle les projets de calcul distribué ont conduit la tendance globale de l'IA dans ce cycle haussier.

La nécessité commerciale de l'informatique décentralisée

L'IA nécessite des ressources informatiques importantes, tant pour la formation de modèles que pour l'inférence.

Dans la pratique de la formation de grands modèles linguistiques, il a été confirmé que tant que l'échelle des paramètres de données est suffisamment grande, de nouvelles capacités émergent qui n'étaient pas présentes auparavant. Chaque génération de GPT montre un saut exponentiel de capacités par rapport à son prédécesseur, soutenu par une croissance exponentielle du volume de calcul nécessaire pour la formation du modèle.

Une recherche menée par DeepMind et l'Université Stanford montre que différents grands modèles de langage, lorsqu'ils sont confrontés à diverses tâches (calcul, QA en persan, compréhension du langage naturel, etc.), se comportent de manière similaire à des réponses aléatoires jusqu'à ce que l'entraînement atteigne moins de 10^22 FLOPs (FLOPs désignant les opérations en virgule flottante par seconde, une mesure des performances de calcul) ; cependant, une fois que l'échelle des paramètres dépasse ce seuil critique, les performances de toute tâche s'améliorent de manière spectaculaire, quel que soit le modèle de langage.

Source: Capacités émergentes des grands modèles de langage

Capacités émergentes des grands modèles de langage

C'est précisément le principe de "réaliser des miracles avec une grande puissance de calcul" et sa vérification pratique qui a conduit Sam Altman, le fondateur d'OpenAI, à proposer de lever 7 billions de dollars américains pour construire une usine de puces avancée dix fois plus grande que l'actuelle TSMC. Il est prévu que 1,5 billion de dollars seront dépensés pour cette partie, les fonds restants étant utilisés pour la production de puces et la formation des modèles.

Outre la formation des modèles d'IA, le processus d'inférence des modèles eux-mêmes nécessite également une puissance de calcul substantielle, bien que moins que celle nécessaire pour la formation. Par conséquent, la soif de puces et de puissance de calcul est devenue une norme parmi les concurrents en IA.

Comparé aux fournisseurs centralisés de calcul AI comme Amazon Web Services, Google Cloud Platform et Azure de Microsoft, les principales propositions de valeur du calcul AI distribué comprennent :

  • Accessibilité: Accéder aux puces informatiques via des services cloud tels que AWS, GCP ou Azure prend généralement des semaines, et les modèles de GPU populaires sont souvent en rupture de stock. De plus, pour obtenir une puissance de calcul, les consommateurs doivent souvent signer de longs contrats inflexibles avec ces grandes entreprises. En revanche, les plateformes de calcul distribué peuvent offrir des options matérielles flexibles avec une accessibilité accrue.
  • Des prix plus bas : En utilisant des puces inactives, combinées à des subventions en jetons du protocole réseau aux fournisseurs de puces et de puissance de calcul, les réseaux informatiques distribués peuvent offrir une puissance de calcul plus abordable.
  • Résistance à la censure : Actuellement, les puces informatiques de pointe et les fournitures sont monopolisées par de grandes entreprises technologiques. De plus, les gouvernements dirigés par les États-Unis intensifient leur surveillance des services informatiques d'IA. La capacité à acquérir de la puissance de calcul de manière distribuée, flexible et gratuite devient une demande claire, qui est également une proposition de valeur centrale des plateformes de services informatiques basées sur le web3.

Si les combustibles fossiles étaient le sang de la révolution industrielle, la puissance de calcul sera probablement le sang de la nouvelle ère numérique inaugurée par l'IA, l'approvisionnement en puissance de calcul devenant l'infrastructure de l'ère de l'IA. Tout comme les stablecoins sont devenus un dérivé solide de la monnaie fiduciaire à l'ère de Web3, le marché de l'informatique distribuée pourrait-il devenir un dérivé en forte croissance du marché de l'informatique IA?

Étant donné qu'il s'agit encore d'un marché relativement précoce, tout est encore sous observation. Cependant, les facteurs suivants pourraient potentiellement stimuler le récit ou l'adoption du marché de l'informatique distribuée :

  • Tension continue entre l'offre et la demande de GPU. La tension continue dans l'offre de GPU pourrait encourager certains développeurs à se tourner vers des plateformes de calcul distribué.
  • Expansion réglementaire. Accéder aux services de calcul AI des grandes plateformes de cloud computing nécessite une vérification d'identité et un examen approfondi. Cela pourrait au contraire encourager l'adoption de plateformes de calcul distribué, notamment dans les régions confrontées à des restrictions et des sanctions.
  • Incitations au prix du jeton. Les cycles haussiers du marché et la hausse des prix des jetons augmentent la valeur de subvention du côté de l'offre de GPU, attirant davantage de fournisseurs sur le marché, augmentant la taille du marché et réduisant le prix d'achat réel pour les consommateurs.

Cependant, les défis auxquels sont confrontées les plateformes informatiques distribuées sont également assez évidents:

  • Défis techniques et d'ingénierie
  • Problèmes de preuve de travail : Le calcul des modèles d'apprentissage en profondeur, en raison de leur structure hiérarchique où la sortie de chaque couche sert d'entrée pour la suivante, nécessite l'exécution de tout le travail précédent pour vérifier la validité du calcul. Cela ne peut pas être simplement et efficacement vérifié. Pour résoudre ce problème, les plateformes informatiques distribuées doivent développer de nouveaux algorithmes ou utiliser des techniques de vérification approximatives, qui peuvent fournir des garanties probabilistes de la justesse des résultats, plutôt qu'une certitude absolue.
  • Défis de la parallélisation : Les plateformes informatiques distribuées rassemblent la longue traîne de l'approvisionnement en puces, ce qui signifie que les appareils individuels ne peuvent offrir qu'une puissance de calcul limitée. Un seul fournisseur de puces peut difficilement achever les tâches d'entraînement ou d'inférence d'un modèle d'IA de manière indépendante en peu de temps, il est donc nécessaire de décomposer les tâches et de les distribuer par parallélisation pour raccourcir le temps de réalisation global. La parallélisation doit également faire face inévitablement à des problèmes tels que la décomposition des tâches (en particulier pour des tâches complexes d'apprentissage profond), la dépendance aux données et les coûts de communication supplémentaires entre les appareils.
  • Problèmes de protection de la vie privée : Comment s'assurer que les données et les modèles de la partie acheteuse ne sont pas exposés aux destinataires de la tâche ?

Défis de conformité réglementaire

  • En raison du caractère non autorisé des marchés d'approvisionnement et d'approvisionnement en double des plates-formes informatiques distribuées, ils peuvent attirer certains clients comme points de vente. D'autre part, ils peuvent devenir des cibles de la réglementation gouvernementale à mesure que les normes réglementaires en matière d'IA sont affinées. De plus, certains fournisseurs de GPU peuvent s'inquiéter de savoir si leurs ressources informatiques louées sont fournies à des entreprises ou à des particuliers sanctionnés.

Dans l'ensemble, les consommateurs de plateformes informatiques distribuées sont principalement des développeurs professionnels ou des petites et moyennes institutions, contrairement aux investisseurs en cryptomonnaies et en NFT qui diffèrent dans leurs attentes en matière de stabilité et de continuité des services offerts par le protocole. Le prix n'est peut-être pas leur principale motivation dans la prise de décision. Pour l'instant, il semble que les plateformes informatiques distribuées ont encore un long chemin à parcourir pour obtenir l'approbation de ces utilisateurs.

Ensuite, nous allons organiser et analyser les informations du projet pour un nouveau projet informatique distribué dans ce cycle, IO.NET, et estimer sa possible valorisation sur le marché après sa cotation, en fonction des concurrents actuels du marché dans les secteurs de l'IA et de l'informatique distribuée.

Plateforme de calcul AI distribuée : IO.NETPlateforme de calcul AI distribuée : IO.NET

2.1 Positionnement du projet

IO.NET est un réseau informatique décentralisé qui a établi un marché bilatéral centré autour des puces. Le côté offre se compose de puces (principalement des GPU, mais aussi des CPU et des iGPU d'Apple) distribuées mondialement, tandis que le côté demande est composé d'ingénieurs en intelligence artificielle cherchant à effectuer des tâches d'entraînement ou d'inférence de modèles d'IA.

Comme indiqué sur le site officiel de IO.NET :

Notre mission

Assemblage d'un million de GPU dans un DePIN - réseau d'infrastructure physique décentralisé.

La mission est d'intégrer des millions de GPU dans son réseau DePIN.

Comparé aux fournisseurs de services informatiques cloud AI existants, IO.NET met l'accent sur les points de vente clés suivants :

  • Combinaison flexible : les ingénieurs en IA peuvent librement sélectionner et combiner les puces dont ils ont besoin pour former des "Clusters" afin de compléter leurs tâches de calcul.
  • Déploiement rapide: le déploiement peut être terminé en quelques secondes, sans les semaines d'approbation et d'attente généralement nécessaires par les fournisseurs centralisés comme AWS.
  • Service rentable: le coût des services est 90% inférieur à celui des fournisseurs principaux.

De plus, IO.NET prévoit de lancer des services tels qu'une boutique de modèles d'IA à l'avenir.

2.2 Mécanisme du produit et données commerciales

Mécanisme du produit et expérience de déploiement

Similaire à Amazon Cloud, Google Cloud et Alibaba Cloud, le service informatique fourni par IO.NET s'appelle IO Cloud. IO Cloud est un réseau distribué et décentralisé de puces capable d'exécuter du code d'apprentissage automatique basé sur Python et d'exécuter des programmes d'IA et d'apprentissage automatique.

Le module commercial de base de IO Cloud s'appelle "Clusters". Les Clusters sont des groupes de GPU qui peuvent coordonner de manière autonome pour accomplir des tâches de calcul. Les ingénieurs en intelligence artificielle peuvent personnaliser leurs Clusters souhaités en fonction de leurs besoins.

L'interface produit d'IO.NET est très conviviale. Si vous devez déployer vos propres clusters de puces pour accomplir des tâches de calcul AI, vous pouvez commencer à configurer vos clusters de puces souhaités dès que vous accédez à la page produit Clusters sur leur site Web.

Informations sur la page: https://cloud.io.net/cloud/clusters/create-cluster, le même ci-dessous

Tout d'abord, vous devez sélectionner votre scénario de projet, et actuellement, il existe trois types disponibles:

  1. Général (type générique) : Fournit un environnement plus générique, adapté aux premières étapes du projet lorsque les besoins en ressources spécifiques sont incertains.

  2. Train (type de formation): Conçu pour la formation et le peaufinage des modèles d'apprentissage automatique. Cette option offre des ressources GPU supplémentaires, une capacité mémoire plus élevée et/ou des connexions réseau plus rapides pour gérer ces tâches computationnelles intensives.

  3. Inférence (type d'inférence) : Conçu pour l'inférence à faible latence et les tâches à forte charge. Dans le contexte de l'apprentissage automatique, l'inférence désigne l'utilisation de modèles entraînés pour prédire ou analyser de nouvelles données et fournir des retours. Par conséquent, cette option se concentre sur l'optimisation de la latence et du débit pour prendre en charge les besoins de traitement des données en temps réel ou quasi temps réel.

Ensuite, vous devez choisir le fournisseur pour la puce Clusters. Actuellement, IO.NET a des partenariats avec Render Network et le réseau minier de Filecoin, permettant aux utilisateurs de choisir des puces chez IO.NET ou les deux autres réseaux comme fournisseur de leurs Clusters de calcul. IO.NET agit en tant qu'agrégateur (bien que, au moment de la rédaction, le service de Filecoin soit temporairement hors ligne). Notamment, selon l'affichage de la page, le nombre de GPU en ligne disponible pour IO.NET est de plus de 200 000, tandis que celui de Render Network est de plus de 3 700.

Enfin, vous entrez dans la phase de sélection du matériel de puce pour les clusters. Actuellement, IO.NET ne répertorie que des GPU pour la sélection, à l'exclusion des CPU ou des iGPU d'Apple (M1, M2, etc.), et les GPU sont principalement des produits NVIDIA.

Dans la liste officielle des options matérielles GPU disponibles, basée sur les données testées par l'auteur ce jour-là, le nombre total de GPU disponibles en ligne dans le réseau IO.NET est de 206 001. Parmi eux, la GeForce RTX 4090 est la plus disponible avec 45 250 unités, suivie de la GeForce RTX 3090 Ti avec 30 779 unités.

De plus, la puce A100-SXM4-80GB, plus efficace pour les tâches de calcul AI telles que l'apprentissage automatique, l'apprentissage en profondeur et le calcul scientifique (prix du marché supérieur à 15 000 $), compte 7 965 unités en ligne.

La carte graphique NVIDIA H100 80GB HBM3, spécialement conçue pour l'IA (prix du marché de plus de 40 000 $), offre des performances d'entraînement 3,3 fois supérieures à celles de l'A100 et des performances d'inférence 4,5 fois supérieures à celles de l'A100, avec un total de 86 unités en ligne.

Après avoir sélectionné le type de matériel pour les Clusters, les utilisateurs doivent également choisir la région, la vitesse de communication, le nombre de GPUs loués et la durée de la location, parmi d'autres paramètres.

Enfin, IO.NET fournira une facture basée sur la sélection complète. Par exemple, dans la configuration des clusters de l'auteur :

  • Scénario de tâche générale
  • 16 puces A100-SXM4-80GB
  • Connexion ultra-rapide
  • Situé aux États-Unis
  • Période de location d'une semaine

Le total de la facture est de $3311.6, avec un prix par heure par carte de $1.232

En comparaison, les prix de location horaire du A100-SXM4-80GB sur Amazon Cloud, Google Cloud et Microsoft Azure sont respectivement de 5,12 $, 5,07 $ et 3,67 $ (source de données : https://cloud-gpus.com/, les prix réels peuvent varier en fonction des détails du contrat).

Ainsi, simplement en termes de prix, la puissance de calcul d'IO.NET est significativement moins chère que celle des fabricants grand public, et les options d'approvisionnement et d'approvisionnement sont très flexibles, ce qui facilite le démarrage.

Conditions commerciales

Situation du côté de l'offre

Au 4 avril de cette année, selon les données officielles, IO.NET a un approvisionnement total de 371 027 GPU et 42 321 CPU du côté de l'offre. De plus, Render Network, en tant que partenaire, a également connecté 9 997 GPU et 776 CPU à l'offre du réseau.

Source de données : https://cloud.io.net/explorer/home, la même ci-dessous

Au moment de la rédaction de cet article, 214 387 des GPU connectés par IO.NET sont en ligne, avec un taux de disponibilité de 57,8%. Le taux de disponibilité en ligne pour les GPU du réseau Render est de 45,1%.

Que signifient les données du côté de l'offre ci-dessus?

Pour établir une comparaison, permettez-nous de présenter un autre projet de calcul distribué plus ancien, Akash Network, pour contraste. Akash Network a lancé son mainnet dès 2020, se concentrant initialement sur les services distribués pour les CPU et le stockage. En juin 2023, il a lancé un testnet pour les services GPU et a mis en service son mainnet pour la puissance de calcul distribuée GPU en septembre de la même année.

Source de données : https://stats.akash.network/provider-graph/graphics-gpu

Selon les données officielles d'Akash, bien que le côté de l'offre ait continué de croître, le nombre total de GPU connectés à son réseau n'a atteint que 365 à ce jour.

En termes de volume d'approvisionnement en GPU, IO.NET est plusieurs ordres de grandeur plus élevé que le réseau Akash, ce qui en fait le plus grand réseau d'approvisionnement dans la course à la puissance de calcul GPU distribuée.

Situation du côté de la demande

Cependant, en regardant du côté de la demande, IO.NET en est encore aux premiers stades de la culture du marché, et le volume réel des tâches de calcul effectuées à l'aide d'IO.NET n'est pas important. La plupart des GPU en ligne ont une charge de travail de 0%, seuls quatre types de puces - A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S et H100 80GB HBM3 - gèrent les tâches. À l'exception de l'A100 PCIe 80GB K8S, la charge de travail des trois autres puces est inférieure à 20%.

La valeur officielle du stress du réseau divulguée le jour même est de 0 %, ce qui indique que la plupart de l'approvisionnement en puces est dans un état de veille en ligne. Pendant ce temps, IO.NET a généré un total de 586 029 $ de frais de service, le coût s'élevant à 3 200 $ au cours de la dernière journée.

Source de données :https://cloud.io.net/explorer/clusters

L'ampleur de ces frais de règlement du réseau, tant en termes de montant total que de volume de transactions journalières, est du même ordre de grandeur que celui d'Akash, bien que la majeure partie des revenus du réseau d'Akash provienne du segment du CPU, avec plus de 20 000 CPU fournis.

Source de données: https://stats.akash.network/

De plus, IO.NET a divulgué des données sur les tâches d'inférence en IA traitées par le réseau ; à ce jour, il a traité et vérifié plus de 230 000 tâches d'inférence, bien que la majeure partie de ce volume ait été générée par des projets parrainés par IO.NET, tels que BC8.AI.

Source de données : https://cloud.io.net/explorer/inferences

Sur la base des données commerciales actuelles, l'expansion du côté offre de IO.NET progresse bien, soutenue par l'anticipation de largages aériens et d'un événement communautaire surnommé "Ignition", qui a rapidement accumulé une quantité significative de puissance de calcul de puce IA. Cependant, l'expansion du côté demande en est encore à ses débuts, la demande organique étant actuellement insuffisante. Il reste à évaluer si le manque actuel de demande est dû au fait que la sensibilisation des consommateurs n'a pas encore commencé, ou parce que l'expérience de service actuelle n'est pas assez stable, manquant ainsi d'une adoption généralisée.

Compte tenu de la difficulté à court terme de combler le fossé dans la puissance de calcul de l'IA, de nombreux ingénieurs et projets en IA cherchent des solutions alternatives, ce qui pourrait susciter l'intérêt des fournisseurs de services décentralisés. De plus, étant donné que IO.NET n'a pas encore initié d'incitations économiques et d'activités pour la demande, et avec l'amélioration progressive de l'expérience produit, la correspondance finale entre l'offre et la demande est toujours attendue avec optimisme.

2.3 Antécédents de l'équipe et financement

Situation de l'équipe

L'équipe principale d'IO.NET s'est initialement concentrée sur le trading quantitatif, développant des systèmes de trading quantitatif de niveau institutionnel pour les actions et les actifs cryptographiques jusqu'en juin 2022. Poussée par le besoin de puissance de calcul du système backend, l'équipe a commencé à explorer les possibilités de calcul décentralisé, se concentrant finalement sur la réduction du coût des services de calcul GPU.

Fondateur & PDG: Ahmad Shadid, qui a une formation en finance quantitative et en ingénierie et a également fait du volontariat avec la Fondation Ethereum.

CMO & Directeur de la stratégie: Garrison Yang, qui a rejoint IO.NET en mars de cette année. Il était auparavant le vice-président de la stratégie et de la croissance chez Avalanche et diplômé de l'Université de Californie, Santa Barbara.

COO : Tory Green, auparavant COO chez Hum Capital et directeur du développement et de la stratégie chez Fox Mobile Group, diplômé de Stanford.

Selon les informations de LinkedIn, IO.NET a son siège à New York, aux États-Unis, avec une succursale à San Francisco, et l'équipe compte plus de 50 membres.

Situation de financement

À ce jour, IO.NET n'a divulgué qu'un tour de financement, qui est la série A achevée en mars de cette année, évaluée à 1 milliard USD. Il a levé 30 millions USD dirigés par Hack VC, avec d'autres participants, dont Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures et ArkStream Capital.

Il convient de mentionner qu'en raison peut-être de l'investissement de la Fondation Aptos, le projet BC8.AI, qui réglait initialement ses comptes sur Solana, est passé à la blockchain L1 haute performance Aptos.

2.4 Estimation de la valorisation

Selon le fondateur et PDG d'IO.NET, Ahmad Shadid, la société lancera son jeton à la fin avril.

IO.NET a deux projets comparables pour la référence en matière de valorisation : Render Network et Akash Network, tous deux représentatifs de projets de calcul distribué.

Il existe deux façons d'extrapoler la fourchette de capitalisation boursière de IO.NET : 1. Ratio prix/ventes (ratio P/S), c'est-à-dire ratio capitalisation boursière/revenus ; 2. Ratio capitalisation boursière par puce de réseau.

Tout d'abord, examinons l'extrapolation de la valorisation basée sur le ratio P/S :

Du point de vue du ratio P/S, Akash peut servir de limite inférieure de la fourchette de valorisation de IO.NET, tandis que Render sert de référence pour la tarification à haute valorisation. Leur fourchette de FDV (Fully Diluted Valuation) va de 1,67 milliard USD à 5,93 milliards USD.

Cependant, compte tenu des mises à jour du projet IO.NET, de son récit plus chaud, de sa plus petite capitalisation boursière en circulation initiale et de son échelle actuellement plus grande du côté de l'offre, la probabilité que sa FDV dépasse celle de Render n'est pas petite.

Ensuite, examinons une autre perspective d'évaluation, le «ratio marché-noyau».

Sur un marché où la demande de puissance de calcul de l'IA dépasse l'offre, l'élément le plus crucial des réseaux de puissance de calcul de l'IA distribuée est l'échelle de l'offre de GPU. Par conséquent, nous pouvons utiliser le "ratio marché-nœud", le ratio de la capitalisation boursière totale du projet au nombre de puces dans le réseau, pour extrapoler la fourchette de valorisation possible de IO.NET pour les lecteurs en tant que référence en valeur de marché.

)

Si elle est calculée sur la base du ratio marché/cœur, avec Render Network comme limite supérieure et Akash Network comme limite inférieure, la fourchette FDV pour IO.NET se situe entre 20,6 milliards de dollars et 197,5 milliards de dollars.

Les lecteurs qui sont optimistes quant au projet IO.NET considéreraient ceci comme une estimation de valeur de marché très optimiste.

De plus, nous devons considérer que le nombre important de jetons en ligne actuellement sur IO.NET peut être stimulé par les attentes de largage aérien et les activités incitatives, et que le nombre réel en ligne du côté de l'offre doit encore être observé après le lancement officiel du projet.

Par conséquent, dans l'ensemble, l'estimation de la valorisation du point de vue du ratio P/S peut être plus référentielle.

IO.NET, en tant que projet combinant l'IA, DePIN et l'écosystème Solana, attend avec impatience sa performance sur le marché après son lancement.

3. Informations de référence

Avertissement:

  1. Cet article est repris de [ mintventures]. Tous les droits d'auteur appartiennent à l'auteur original IO.NET. Si vous avez des objections à cette réimpression, veuillez contacter le Portail Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité: Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdite.
Empieza ahora
¡Registrarse y recibe un bono de
$100
!