AI/DePIN/Sol Ekosistem Triple Halo: Menganalisis Peluncuran Token IO.NET

Lanjutan4/17/2024, 6:40:47 AM
Artikel ini akan mengorganisir informasi kunci dari proyek komputasi terdesentralisasi AI: proyek IO.NET, termasuk logika produk, situasi kompetitif, dan latar belakang proyek. Ini juga memberikan estimasi valuasi, menganalisis valuasi dari berbagai sudut pandang melalui analisis data, dan menawarkan perhitungan referensi untuk valuasi.

Pengantar

Dalam artikel sebelumnya, saya menyebutkan bahwa dibandingkan dengan dua siklus sebelumnya, siklus pasar banteng kripto ini kekurangan narasi bisnis dan aset baru yang berpengaruh. AI adalah salah satu dari sedikit narasi baru dalam putaran lapangan Web3 kali ini. Dalam artikel ini, saya akan menggabungkan proyek AI populer tahun ini, IO.NET, untuk merenungkan dua isu berikut:

  1. Kebutuhan AI+Web3 dalam bisnis

  2. Keperluan dan tantangan dari layanan komputasi terdistribusi

Selain itu, saya akan mengatur informasi kunci dari proyek perwakilan dalam komputasi terdistribusi AI: proyek IO.NET, termasuk logika produk, situasi kompetitif, dan latar belakang proyek. Saya juga akan menelusuri penilaian proyek tersebut.

Bagian dari artikel ini tentang kombinasi AI dan Web3 terinspirasi oleh "The Real Merge" yang ditulis oleh peneliti Delphi Digital Michael Rinko. Beberapa pandangan dalam artikel ini mencerna dan mengutip dari makalah tersebut, dan saya sarankan pembaca untuk merujuk ke aslinya.

Artikel ini mewakili pemikiran sementara saya pada saat publikasi. Situasi dapat berubah di masa depan, dan pandangan memiliki sifat subjektif yang kuat. Mereka juga mungkin mengandung kesalahan faktual, data, atau penalaran. Tolong jangan gunakan ini sebagai saran investasi, dan saya menyambut kritik dan diskusi dari rekan-rekan saya.

Berikut adalah teks utama.

1. Logika Bisnis: Persimpangan AI dan Web3

1.1 2023: Tahun “Keajaiban” Baru yang Diciptakan oleh AI

Mengingat sejarah manusia, sekali terjadi terobosan dalam teknologi, segala hal mulai dari kehidupan sehari-hari individu, hingga berbagai lanskap industri, dan bahkan seluruh peradaban umat manusia, mengalami perubahan revolusioner.

Ada dua tahun penting dalam sejarah umat manusia, yaitu 1666 dan 1905, yang kini disebut sebagai dua tahun “ajaib” besar dalam sejarah teknologi.

Tahun 1666 dianggap sebagai tahun keajaiban karena prestasi ilmiah Newton secara prominent muncul selama waktu tersebut. Pada tahun itu, dia menjadi pelopor cabang fisika yang dikenal sebagai optik, mendirikan cabang matematika kalkulus, dan menurunkan hukum gravitasi, hukum dasar sains alam modern. Setiap pencapaian ini merupakan kontribusi dasar bagi perkembangan ilmiah umat manusia untuk abad berikutnya, secara signifikan mempercepat kemajuan ilmu pengetahuan secara keseluruhan.

Tahun keajaiban kedua adalah 1905, ketika Einstein, pada usia 26 tahun, menerbitkan empat makalah berturut-turut dalam "Annals of Physics," yang mencakup efek fotolistrik (meletakkan dasar bagi mekanika kuantum), gerak Brown (menjadi referensi penting untuk menganalisis proses stokastik), teori relativitas khusus, dan persamaan massa-energi (rumus terkenal E = MC ^ 2). Dalam evaluasi selanjutnya, masing-masing makalah ini dianggap melebihi tingkat rata-rata Hadiah Nobel dalam Fisika (Einstein sendiri juga menerima Hadiah Nobel untuk makalahnya tentang efek fotolistrik), dan sekali lagi, perkembangan historis peradaban manusia mengambil beberapa lompatan raksasa ke depan.

Tahun 2023 yang baru saja berlalu kemungkinan akan disebut sebagai "tahun keajaiban" lainnya karena ChatGPT.

Kami menganggap 2023 sebagai "tahun keajaiban" lain dalam sejarah teknologi manusia bukan hanya karena kemajuan signifikan yang telah dibuat GPT dalam pemahaman dan generasi bahasa alami, tetapi juga karena umat manusia telah menguraikan pola pertumbuhan model bahasa besar dari evolusi GPT—yaitu, dengan memperluas parameter model dan data pelatihan, Kemampuan model dapat ditingkatkan secara eksponensial — dan proses ini belum melihat hambatan jangka pendek (selama ada daya komputasi yang cukup).

Kemampuan ini melampaui pemahaman bahasa dan menghasilkan dialog dan banyak digunakan di berbagai bidang teknologi. Sebagai contoh, di bidang biologi pada tahun 2018, pemenang Nobel Kimia, Frances Arnold, mengatakan selama upacara penganugerahan, “Hari ini, dalam aplikasi praktis, kita dapat membaca, menulis, dan mengedit setiap urutan DNA, namun kita masih belum mampu mengkomposisinya.” Hanya lima tahun setelah pidatonya, pada tahun 2023, peneliti dari Universitas Stanford dan Salesforce Research di Silicon Valley menerbitkan sebuah makalah di “Nature Biotechnology.” Mereka menciptakan 1 juta protein baru dari awal menggunakan model bahasa besar yang disesuaikan dari GPT3 dan mengidentifikasi dua protein dengan struktur yang berbeda, keduanya dengan kemampuan antibakteri, yang berpotensi menjadi solusi baru untuk melawan bakteri di luar antibiotik. Ini menandakan bahwa bottleneck dalam “penciptaan” protein telah terpecahkan dengan bantuan AI.

Selain itu, algoritma kecerdasan buatan AlphaFold memprediksi struktur hampir semua 214 juta protein di Bumi dalam waktu 18 bulan, sebuah prestasi yang melebihi hasil kolektif dari semua ahli biologi struktural dalam sejarah ratusan kali lipat.

Dengan model berbasis AI dalam bioteknologi, ilmu material, pengembangan obat, dan ilmu-ilmu keras lainnya, serta dalam ilmu humaniora seperti hukum dan seni, transformasi revolusioner tidak terhindarkan, dan 2023 memang tahun perkenalannya untuk semua kemajuan ini.

Seperti yang kita semua ketahui, di abad yang lalu, penciptaan kekayaan manusia telah berkembang secara eksponensial, dan kedewasaan teknologi AI yang cepat akan tanpa ragu mempercepat proses ini lebih jauh.

Grafik tren PDB global, sumber data: Bank Dunia

1.2 Integrasi AI dan Crypto

Untuk memahami secara mendasar kebutuhan untuk mengintegrasikan AI dan Crypto, kita dapat mulai dari karakteristik yang saling melengkapi mereka.

Karakteristik Komplementer AI dan Crypto

AI memiliki tiga atribut:

  1. Randomness: AI menunjukkan keacakan; mekanisme di balik produksi kontennya adalah kotak hitam yang sulit untuk direplikasi dan diperiksa, sehingga hasilnya juga acak.

  2. Sumber Daya Intensif: AI adalah industri yang membutuhkan sumber daya yang intensif memerlukan sejumlah besar energi, chip, dan daya komputasi yang signifikan.

  3. Inteligensi Seperti Manusia: AI akan segera bisa lulus uji Turing, setelah itu akan sulit untuk membedakan antara manusia dan mesin.

Pada 30 Oktober 2023, tim peneliti dari Universitas California, San Diego merilis hasil uji Turing untuk GPT-3.5 dan GPT-4.0. GPT-4.0 mencetak 41%, hanya 9% lebih rendah dari nilai lulus 50%, dengan peserta manusia mencetak 63%. Arti dari uji Turing ini adalah persentase orang yang percaya bahwa mitra percakapannya adalah manusia. Jika lebih dari 50% percaya demikian, itu menunjukkan bahwa setidaknya separuh orang menganggap entitas percakapan tersebut sebagai manusia, bukan mesin, sehingga dianggap lolos uji Turing.

Sementara AI menciptakan produktivitas terobosan baru bagi umat manusia, tiga atributnya juga membawa tantangan signifikan bagi masyarakat manusia, termasuk:

  • Bagaimana cara memverifikasi dan mengontrol keacakan AI, mengubah keacakan dari kelemahan menjadi keunggulan.

  • Bagaimana memenuhi kebutuhan energi dan daya komputasi yang signifikan untuk kecerdasan buatan.

  • Bagaimana cara membedakan antara manusia dan mesin.

Ekonomi kripto dan blockchain mungkin saja menjadi obat untuk tantangan yang dibawa oleh AI. Ekonomi kriptografi memiliki tiga karakteristik berikut:

  1. Determinisme: Operasi bisnis didasarkan pada blockchain, kode, dan kontrak pintar, dengan aturan dan batasan yang jelas; input menentukan hasilnya, memastikan determinisme yang tinggi.

  2. Pengalokasian Sumber Daya yang Efisien: Ekonomi kripto telah membangun pasar bebas global yang besar di mana penetapan harga, penggalangan dana, dan sirkulasi sumber daya sangat cepat. Karena adanya token, insentif dapat mempercepat pencocokan pasokan dan permintaan pasar, mencapai titik-titik kritis lebih cepat.

  3. Tanpa kepercayaan: Dengan buku besar publik dan kode sumber terbuka, semua orang dapat dengan mudah memverifikasi operasi, mengarah ke sistem yang tidak memerlukan kepercayaan. Selain itu, teknologi ZK (Zero-Knowledge) menghindari paparan privasi selama verifikasi.

Mari kita ilustrasikan komplemen antara AI dan ekonomi kripto dengan tiga contoh.

Contoh A: Mengatasi Keacakan, Agen Kecerdasan Buatan Berbasis Ekonomi Kripto

Agen AI, seperti yang dari Fetch.AI, dirancang untuk bertindak atas kemauan manusia dan melakukan tugas atas nama manusia. Jika kita menginginkan agen AI kita untuk menangani transaksi keuangan, seperti “membeli $1000 BTC,” mungkin akan menghadapi dua skenario:

  • Skenario Satu: Diperlukan untuk berinteraksi dengan lembaga keuangan tradisional (seperti BlackRock) untuk membeli ETF BTC, menghadapi sejumlah masalah kompatibilitas dengan agen kecerdasan buatan dan lembaga terpusat, seperti KYC, tinjauan dokumen, login, dan verifikasi identitas, yang saat ini cukup merepotkan.

  • Scenario Dua: Ini beroperasi berdasarkan ekonomi kripto asli, yang jauh lebih sederhana; itu bisa melaksanakan transaksi langsung melalui Uniswap atau platform perdagangan teragregasi serupa menggunakan tanda tangan akun Anda, menyelesaikan transaksi dengan cepat dan sederhana untuk menerima WBTC (atau bentuk BTC terbungkus lainnya). Pada dasarnya, ini adalah apa yang berbagai bot perdagangan sudah lakukan, meskipun hanya fokus pada perdagangan saat ini. Saat KI terintegrasi dan berkembang, bot perdagangan masa depan niscaya akan mampu melaksanakan niat perdagangan yang lebih kompleks, seperti melacak strategi perdagangan dan tingkat keberhasilan dari 100 alamat uang pintar di blockchain, melaksanakan transaksi serupa dengan 10% dana saya selama seminggu, dan menghentikan serta merangkum alasan kegagalan jika hasilnya tidak memuaskan.

AI berkinerja lebih baik dalam sistem blockchain terutama karena kejelasan aturan kripto ekonomi dan akses sistem yang tidak terbatas. Dalam aturan yang telah ditetapkan ini, risiko potensial yang ditimbulkan oleh keacakan AI diminimalkan. Sebagai contoh, AI telah melampaui manusia dalam permainan kartu dan permainan video karena aturan yang jelas, tertutup. Namun, kemajuan dalam kendaraan otonom relatif lambat karena tantangan lingkungan eksternal yang terbuka, dan kita kurang toleran terhadap keacakan dalam pemecahan masalah AI dalam pengaturan tersebut.

Contoh B: Membentuk Sumber Daya melalui Insentif Token**

Jaringan global di balik BTC, dengan total hash rate saat ini mencapai 576,70 EH/s, melampaui kekuatan komputasi gabungan dari superkomputer negara mana pun. Pengembangannya didorong oleh insentif jaringan yang sederhana dan adil.

Tren kekuatan komputasi jaringan BTC, sumber: https://www.coinwarz.com/

Selain itu, proyek-proyek termasuk DePIN Mobile sedang berusaha membentuk pasar dua sisi untuk pasokan dan permintaan melalui insentif token, bertujuan untuk mencapai efek jaringan. Fokus dari diskusi berikut dalam artikel ini, IO.NET, adalah platform yang dirancang untuk menggabungkan kekuatan komputasi AI, dengan harapan dapat melepaskan lebih banyak potensi AI melalui model token.

Contoh C: Kode sumber terbuka, pengenalan Bukti Pengetahuan Nol (ZK) untuk membedakan manusia dari mesin sambil melindungi privasi

Sebagai proyek Web3 yang melibatkan pendiri OpenAI Sam Altman, Worldcoin menggunakan perangkat keras bernama Orb, yang menghasilkan nilai hash unik dan anonim berdasarkan biometrik iris manusia melalui teknologi ZK untuk memverifikasi identitas dan membedakan manusia dari mesin. Pada awal Maret tahun ini, proyek seni Web3 Drip mulai menggunakan ID Worldcoin untuk memverifikasi pengguna manusia sejati dan mendistribusikan imbalan.

Selain itu, Worldcoin baru-baru ini telah mempublikasikan kode program perangkat keras pengenalan iris Orbnya, memastikan keamanan dan privasi data biometrik pengguna.

Secara keseluruhan, ekonomi kripto telah menjadi solusi potensial yang signifikan terhadap tantangan yang dihadapi oleh kecerdasan buatan terhadap masyarakat manusia, karena kepastian kode dan kriptografi, keuntungan sirkulasi sumber daya dan penggalangan dana yang dibawa oleh mekanisme token, dan sifat tanpa kepercayaan berdasarkan kode sumber terbuka dan buku besar publik.

Tantangan paling mendesak dan menuntut secara komersial adalah kelaparan ekstrim untuk sumber daya komputasi oleh produk AI, yang berkaitan dengan permintaan besar akan chip dan daya komputasi.

Ini juga merupakan alasan utama mengapa proyek komputasi terdistribusi telah memimpin jalur kecerdasan buatan secara keseluruhan dalam siklus pasar bullish ini.

Kebutuhan komersial dari komputasi terdesentralisasi

AI memerlukan sumber daya komputasi yang substansial, baik untuk melatih model maupun untuk inferensi.

Dalam praktik pelatihan model bahasa besar, telah dikonfirmasi bahwa selama skala parameter data cukup besar, kemampuan baru muncul yang sebelumnya tidak ada. Setiap generasi GPT menunjukkan lonjakan eksponensial dalam kemampuan dibandingkan dengan pendahulunya, didukung oleh pertumbuhan eksponensial dalam volume komputasi yang diperlukan untuk pelatihan model.

Penelitian oleh DeepMind dan Universitas Stanford menunjukkan bahwa model bahasa besar yang berbeda, ketika menghadapi berbagai tugas (komputasi, pertanyaan dan jawaban dalam bahasa Persia, pemahaman bahasa alami, dll.), melakukan hal yang sama dengan jawaban acak sampai pelatihan mencapai kurang dari 10^22 FLOPs (FLOPs menunjukkan operasi titik mengambang per detik, sebuah ukuran kinerja komputasi); namun, begitu skala parameter melebihi ambang batas kritis itu, kinerja dari setiap tugas secara dramatis meningkat, terlepas dari model bahasa yang digunakan.

Sumber: Kemampuan Emergent dari Model Bahasa Besar

Kemampuan Darurat dari Model Bahasa Besar

Tepatnya prinsip 'mencapai keajaiban dengan kekuatan komputasi besar' dan verifikasi praktisnya yang mengarahkan Sam Altman, pendiri OpenAI, untuk mengusulkan pengumpulan dana sebesar 7 triliun dolar AS untuk membangun pabrik chip canggih yang sepuluh kali lebih besar dari TSMC saat ini. Diperkirakan sebesar 1,5 triliun dolar akan dihabiskan untuk bagian ini, dengan sisa dana digunakan untuk produksi chip dan pelatihan model.

Selain pelatihan model AI, proses inferensi dari model-model itu sendiri juga memerlukan daya komputasi yang substansial, meskipun lebih sedikit daripada yang dibutuhkan untuk pelatihan. Oleh karena itu, keinginan akan chip dan daya komputasi telah menjadi hal yang lazim di kalangan pesaing AI.

Dibandingkan dengan penyedia komputasi AI terpusat seperti Amazon Web Services, Google Cloud Platform, dan Azure milik Microsoft, proposisi nilai utama dari komputasi AI terdistribusi termasuk:

  • Aksesibilitas: Mengakses chip komputasi melalui layanan cloud seperti AWS, GCP, atau Azure biasanya memerlukan waktu berhari-hari, dan model GPU populer seringkali kehabisan stok. Selain itu, untuk mendapatkan daya komputasi, konsumen seringkali harus menandatangani kontrak jangka panjang dan tidak fleksibel dengan perusahaan-perusahaan besar tersebut. Sebaliknya, platform komputasi terdistribusi dapat menyediakan pilihan perangkat keras yang fleksibel dengan aksesibilitas yang lebih besar.
  • Harga Lebih Rendah: Dengan memanfaatkan chip yang tidak terpakai, dikombinasikan dengan subsidi token dari protokol jaringan untuk penyedia chip dan daya komputasi, jaringan komputasi terdistribusi dapat menawarkan daya komputasi yang lebih terjangkau.
  • Ketahanan Sensor: Saat ini, chip komputasi dan pasokan terkini dikuasai oleh perusahaan teknologi besar. Selain itu, pemerintah yang dipimpin oleh Amerika Serikat semakin memperketat pengawasan atas layanan komputasi AI. Kemampuan untuk memperoleh daya komputasi secara terdistribusi, fleksibel, dan bebas menjadi tuntutan yang jelas, yang juga merupakan proposisi nilai inti dari platform layanan komputasi berbasis web3.

Jika bahan bakar fosil adalah darah kehidupan era industri, maka daya komputasi kemungkinan besar akan menjadi darah kehidupan era digital baru yang diperkenalkan oleh kecerdasan buatan, dengan pasokan daya komputasi menjadi infrastruktur era kecerdasan buatan. Sama seperti stablecoin telah menjadi cabang kuat dari mata uang fiat di era Web3, apakah pasar komputasi terdistribusi bisa menjadi cabang yang berkembang pesat dari pasar komputasi kecerdasan buatan?

Karena ini masih pasar yang relatif awal, segalanya masih dalam pengamatan. Namun, faktor-faktor berikut ini bisa berpotensi merangsang narasi atau adopsi pasar komputasi terdistribusi:

  • Tegangan pasokan dan permintaan GPU yang berkelanjutan. Tegangan yang terus berlanjut dalam pasokan GPU mungkin mendorong beberapa pengembang untuk beralih ke platform komputasi terdistribusi.
  • Ekspansi regulasi. Mengakses layanan komputasi AI dari platform komputasi awan besar memerlukan KYC dan pemeriksaan yang sangat ketat. Ini mungkin justru mendorong adopsi platform komputasi terdistribusi, terutama di daerah yang menghadapi pembatasan dan sanksi.
  • Insentif harga Token. Siklus pasar bullish dan kenaikan harga token meningkatkan nilai subsidi ke sisi pasokan GPU, menarik lebih banyak pemasok ke pasar, meningkatkan ukuran pasar, dan mengurangi harga pembelian aktual bagi konsumen.

Namun, tantangan yang dihadapi oleh platform komputasi terdistribusi juga cukup jelas:

  • Tantangan Teknis dan Rekayasa
  • Masalah Bukti Kerja: Komputasi untuk model pembelajaran mendalam, karena struktur hierarkisnya di mana keluaran setiap lapisan berfungsi sebagai masukan untuk yang berikutnya, memerlukan mengeksekusi semua pekerjaan sebelumnya untuk memverifikasi validitas komputasi. Hal ini tidak dapat diverifikasi dengan cara yang sederhana dan efektif. Untuk mengatasi masalah ini, platform komputasi terdistribusi perlu mengembangkan algoritma baru atau menggunakan teknik verifikasi perkiraan, yang dapat memberikan jaminan probabilitas kebenaran hasil, daripada kepastian mutlak.
  • Tantangan Paralelisasi: Platform komputasi terdistribusi mengumpulkan ekor panjang pasokan chip, artinya perangkat individual hanya dapat menawarkan daya komputasi terbatas. Sebuah pemasok chip tunggal hampir tidak dapat menyelesaikan tugas pelatihan atau inferensi model AI secara independen dalam jangka waktu singkat, sehingga tugas harus diuraikan dan didistribusikan melalui paralelisasi untuk mempersingkat waktu penyelesaian secara keseluruhan. Paralelisasi juga tak terelakkan menghadapi isu-isu seperti bagaimana tugas diuraikan (terutama tugas deep learning yang kompleks), ketergantungan data, dan biaya komunikasi tambahan antara perangkat.
  • Masalah Perlindungan Privasi: Bagaimana memastikan bahwa data dan model pihak pembeli tidak terpapar kepada penerima tugas?

Tantangan kepatuhan regulasi

  • Karena sifat tanpa izin dari pasar pasokan dan pengadaan ganda platform komputasi terdistribusi, mereka dapat menarik perhatian pelanggan tertentu sebagai titik penjualan. Di sisi lain, mereka mungkin menjadi target regulasi pemerintah karena standar regulasi AI sedang disempurnakan. Selain itu, beberapa pemasok GPU mungkin khawatir apakah sumber daya komputasi yang disewakan mereka disediakan kepada bisnis atau individu yang dikenai sanksi.

Secara keseluruhan, konsumen platform komputasi terdistribusi sebagian besar adalah pengembang profesional atau lembaga kecil hingga menengah, berbeda dengan investor cryptocurrency dan NFT yang berbeda dalam harapan mereka terhadap stabilitas dan kelangsungan layanan yang ditawarkan oleh protokol. Harga mungkin bukan motif utama mereka dalam pengambilan keputusan. Untuk saat ini, tampaknya platform komputasi terdistribusi masih memiliki jalan panjang untuk mendapatkan persetujuan dari pengguna-pengguna tersebut.

Selanjutnya, kami akan mengatur dan menganalisis informasi proyek untuk proyek komputasi terdistribusi baru dalam siklus ini, IO.NET, dan memperkirakan valuasi pasar yang mungkin setelah terdaftar, berdasarkan pesaing pasar saat ini di sektor kecerdasan buatan dan komputasi terdistribusi.

2. Platform Komputasi AI Terdistribusi: IO.NETPlatform Komputasi AI Terdistribusi: IO.NET

2.1 Posisi Proyek

IO.NET adalah jaringan komputasi terdesentralisasi yang telah membentuk pasar bilateral yang berpusat di sekitar chip. Sisi pasokan terdiri dari chip (terutama GPU, tetapi juga CPU dan iGPU Apple) yang didistribusikan secara global, sementara sisi permintaan terdiri dari insinyur kecerdasan buatan yang mencari melakukan pelatihan model AI atau tugas inferensi.

Seperti yang dinyatakan di situs web resmi IO.NET:

Misi Kami

Mengumpulkan satu juta GPU dalam DePIN – jaringan infrastruktur fisik terdesentralisasi.

Misi ini adalah mengintegrasikan jutaan GPU ke dalam jaringan DePIN-nya.

Dibandingkan dengan penyedia layanan komputasi AI cloud yang ada, IO.NET menekankan titik penjualan kunci berikut:

  • Kombinasi Fleksibel: Para insinyur AI dapat bebas memilih dan menggabungkan chip yang mereka butuhkan untuk membentuk “Klaster” guna menyelesaikan tugas komputasi mereka.
  • Pengimplementasian Cepat: Implementasi dapat diselesaikan dalam hitungan detik, tanpa minggu persetujuan dan menunggu yang biasanya diperlukan oleh penyedia terpusat seperti AWS.
  • Layanan yang hemat biaya: Biaya layanan 90% lebih rendah daripada penyedia utama.

Selain itu, IO.NET berencana untuk meluncurkan layanan seperti toko model AI di masa depan.

Mekanisme Produk dan Data Bisnis 2.2

Mekanisme Produk dan Pengalaman Implementasi

Mirip dengan Amazon Cloud, Google Cloud, dan Alibaba Cloud, layanan komputasi yang disediakan oleh IO.NET disebut IO Cloud. IO Cloud adalah jaringan terdistribusi dan terdesentralisasi dari chip yang mampu menjalankan kode pembelajaran mesin berbasis Python dan menjalankan program kecerdasan buatan dan pembelajaran mesin.

Modul bisnis dasar dari IO Cloud disebut “Clusters.” Clusters adalah kelompok GPU yang dapat berkoordinasi secara mandiri untuk menyelesaikan tugas komputasi. Insinyur kecerdasan buatan dapat menyesuaikan Clusters yang diinginkan berdasarkan kebutuhan mereka.

Antarmuka produk IO.NET sangat ramah pengguna. Jika Anda perlu mendeploy Kluster chip Anda sendiri untuk menyelesaikan tugas komputasi AI, Anda dapat mulai mengkonfigurasi Kluster chip yang diinginkan segera setelah masuk ke halaman produk Kluster di situs web mereka.

Informasi halaman: https://cloud.io.net/cloud/clusters/create-cluster, sama seperti di bawah ini

Pertama, Anda perlu memilih skenario proyek Anda, dan saat ini, ada tiga jenis yang tersedia:

  1. Umum (Jenis Umum): Menyediakan lingkungan yang lebih umum, cocok untuk tahap awal proyek ketika kebutuhan sumber daya tertentu tidak pasti.

  2. Train (Jenis Pelatihan): Dirancang untuk pelatihan dan penyetelan model pembelajaran mesin. Pilihan ini menawarkan sumber daya GPU tambahan, kapasitas memori yang lebih tinggi, dan/atau koneksi jaringan yang lebih cepat untuk menangani tugas komputasi intensif ini.

  3. Inferensi (Jenis Inferensi): Dirancang untuk inferensi latensi rendah dan tugas beban tinggi. Dalam konteks pembelajaran mesin, inferensi merujuk pada penggunaan model-model yang sudah dilatih untuk memprediksi atau menganalisis data baru dan memberikan umpan balik. Oleh karena itu, opsi ini berfokus pada mengoptimalkan latensi dan throughput untuk mendukung kebutuhan pemrosesan data real-time atau mendekati real-time.

Selanjutnya, Anda perlu memilih pemasok untuk Clusters chip. Saat ini, IO.NET memiliki kemitraan dengan Render Network dan jaringan penambangan Filecoin, memungkinkan pengguna untuk memilih chip dari IO.NET atau kedua jaringan lain sebagai pemasok Komputasi Clusters mereka. IO.NET bertindak sebagai aggregator (meskipun, pada saat tulisan ini, layanan Filecoin sedang offline sementara). Terutama, menurut tampilan halaman, jumlah GPU online yang tersedia untuk IO.NET adalah lebih dari 200.000, sementara untuk Render Network lebih dari 3.700.

Akhirnya, Anda memasuki fase pemilihan perangkat keras chip untuk Kluster. Saat ini, IO.NET hanya mencantumkan GPU untuk dipilih, tidak termasuk CPU atau iGPU Apple (M1, M2, dll.), dan GPU tersebut terutama menampilkan produk-produk NVIDIA.

Dalam daftar resmi opsi perangkat keras GPU yang tersedia, berdasarkan data yang diuji oleh penulis pada hari itu, jumlah total GPU yang tersedia online di jaringan IO.NET adalah 206.001. Dari jumlah tersebut, GeForce RTX 4090 memiliki ketersediaan tertinggi dengan 45.250 unit, diikuti oleh GeForce RTX 3090 Ti dengan 30.779 unit.

Selain itu, chip A100-SXM4-80GB, yang lebih efisien untuk tugas komputasi kecerdasan buatan seperti pembelajaran mesin, pembelajaran mendalam, dan perhitungan ilmiah (harga pasar lebih dari $15,000), memiliki 7.965 unit online.

Kartu grafis NVIDIA H100 80GB HBM3, dirancang khusus dari awal untuk kecerdasan buatan (harga pasar di atas $40.000), memiliki kinerja pelatihan 3,3 kali lipat dari A100 dan kinerja inferensi 4,5 kali lipat dari A100, dengan total 86 unit online.

Setelah memilih tipe hardware untuk Clusters, pengguna juga perlu memilih wilayah, kecepatan komunikasi, jumlah GPU yang disewa, dan durasi sewa, di antara parameter lainnya.

Akhirnya, IO.NET akan memberikan tagihan berdasarkan seleksi komprehensif. Misalnya, dalam konfigurasi Cluster penulis:

  • Skenario tugas umum
  • 16 chip A100-SXM4-80GB
  • Koneksi ultra cepat
  • Terletak di Amerika Serikat
  • Sewa selama 1 minggu

Total tagihan adalah $3311.6, dengan harga per jam per kartu sebesar $1.232

Dalam perbandingan, harga sewa per jam A100-SXM4-80GB di Amazon Cloud, Google Cloud, dan Microsoft Azure masing-masing adalah $5.12, $5.07, dan $3.67, (sumber data: https://cloud-gpus.com/, harga sebenarnya mungkin bervariasi berdasarkan detail kontrak).

Dengan demikian, secara murni dari segi harga, kekuatan komputasi IO.NET jauh lebih murah daripada para produsen utama, dan pilihan pasokan dan pengadaan sangat fleksibel, sehingga memudahkan untuk memulai.

Kondisi bisnis

Situasi sisi pasokan

Per tanggal 4 April tahun ini, menurut data resmi, IO.NET memiliki total pasokan sebanyak 371.027 GPU dan 42.321 CPU di sisi pasokan. Selain itu, Render Network, sebagai mitranya, juga telah menghubungkan 9.997 GPU dan 776 CPU ke pasokan jaringan.

Sumber data: https://cloud.io.net/explorer/home, sama di bawah ini

Saat artikel ini ditulis, 214.387 GPU yang terhubung oleh IO.NET online, dengan tingkat online sebesar 57,8%. Tingkat online untuk GPU dari Render Network adalah 45,1%.

Apa yang tersirat dari data sisi pasokan di atas?

Untuk memberikan perbandingan, mari kita perkenalkan proyek komputasi terdistribusi lain yang lebih tua, yaitu Jaringan Akash, untuk kontras. Jaringan Akash meluncurkan mainnet-nya secepat 2020, awalnya berfokus pada layanan terdistribusi untuk CPU dan penyimpanan. Pada Juni 2023, diluncurkan testnet untuk layanan GPU dan diluncurkan mainnet-nya untuk daya komputasi GPU terdistribusi pada bulan September tahun yang sama.

Sumber data: https://stats.akash.network/provider-graph/graphics-gpu

Menurut data resmi dari Akash, meskipun sisi pasokan terus berkembang, jumlah total GPU yang terhubung ke jaringannya baru mencapai 365 hingga saat ini.

Dari segi volume pasokan GPU, IO.NET beberapa kali lipat lebih tinggi daripada Jaringan Akash, menjadikannya jaringan pasokan terbesar dalam perlombaan kekuatan komputasi GPU terdistribusi.

situasi sisi permintaan

Namun, melihat dari sisi permintaan, IO.NET masih berada dalam tahap awal budidaya pasar, dan volume sebenarnya dari tugas komputasi yang dilakukan menggunakan IO.NET tidak besar. Sebagian besar GPU online memiliki beban kerja 0%, hanya empat jenis chip—A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S, dan H100 80GB HBM3—yang menangani tugas. Kecuali untuk A100 PCIe 80GB K8S, beban kerja dari tiga chip lainnya kurang dari 20%.

Nilai stres jaringan resmi yang diungkapkan pada hari itu adalah 0%, menunjukkan bahwa sebagian besar pasokan chip berada dalam keadaan siaga online. Sementara itu, IO.NET telah menghasilkan total $586,029 dalam biaya layanan, dengan biaya dalam sehari tercatat sebesar $3,200.

Sumber data: https://cloud.io.net/explorer/clusters

Skala biaya penyelesaian jaringan ini, baik secara total maupun dalam volume transaksi harian, berada pada urutan besaran yang sama dengan Akash, meskipun sebagian besar pendapatan jaringan Akash berasal dari segmen CPU, dengan lebih dari 20.000 CPU disediakan.

Sumber data: https://stats.akash.network/

Selain itu, IO.NET telah mengungkapkan data tentang tugas inferensi AI yang diproses oleh jaringan; hingga saat ini, jaringan telah memproses dan memverifikasi lebih dari 230.000 tugas inferensi, meskipun sebagian besar volume ini dihasilkan oleh proyek yang disponsori oleh IO.NET, seperti BC8.AI.

Sumber data: https://cloud.io.net/explorer/inferences

Berdasarkan data bisnis saat ini, ekspansi sisi pasokan IO.NET sedang berjalan lancar, didorong oleh antisipasi airdrop dan acara komunitas yang dikenal sebagai “Ignition”, yang dengan cepat mengumpulkan sejumlah besar daya komputasi chip AI. Namun, ekspansi sisi permintaan masih dalam tahap awal, dengan permintaan organik saat ini masih belum mencukupi. Masih perlu dievaluasi apakah kurangnya permintaan saat ini disebabkan oleh kenyataan bahwa jangkauan konsumen belum dimulai, atau karena pengalaman layanan saat ini belum cukup stabil, sehingga kurang adopsi secara luas.

Mempertimbangkan kesulitan jangka pendek dalam menjembatani kesenjangan dalam kekuatan komputasi AI, banyak insinyur dan proyek AI mencari solusi alternatif, yang mungkin menarik minat dalam penyedia layanan terdesentralisasi. Selain itu, karena IO.NET belum memulai insentif ekonomi dan kegiatan untuk sisi permintaan, bersama dengan peningkatan bertahap pengalaman produk, pencocokan akhirnya dari penawaran dan permintaan masih diantisipasi dengan optimisme.

2.3 Latar Belakang Tim dan Pendanaan

Kondisi tim

Tim inti IO.NET awalnya fokus pada perdagangan kuantitatif, mengembangkan sistem perdagangan kuantitatif tingkat institusi untuk saham dan aset kripto hingga Juni 2022. Didorong oleh kebutuhan sistem backend akan daya komputasi, tim mulai menjelajahi kemungkinan komputasi terdesentralisasi, yang pada akhirnya berfokus pada mengurangi biaya layanan komputasi GPU.

Pendiri & CEO: Ahmad Shadid, yang memiliki latar belakang di bidang keuangan kuantitatif dan teknik dan juga menjadi relawan dengan Ethereum Foundation.

CMO & Chief Strategy Officer: Garrison Yang, yang bergabung dengan IO.NET pada bulan Maret tahun ini. Sebelumnya, ia menjabat sebagai VP Strategi dan Pertumbuhan di Avalanche dan lulus dari University of California, Santa Barbara.

COO: Tory Green, sebelumnya COO di Hum Capital dan Direktur Pengembangan Perusahaan dan Strategi di Fox Mobile Group, lulus dari Stanford.

Menurut informasi LinkedIn, IO.NET berkantor pusat di New York, Amerika Serikat, dengan cabang di San Francisco, dan jumlah timnya melebihi 50 anggota.

Keuangan situasi

Saat ini, IO.NET hanya telah mengumumkan satu putaran pendanaan, yaitu Seri A yang selesai pada Maret tahun ini, dengan nilai USD 1 miliar. Ini mengumpulkan USD 30 juta yang dipimpin oleh Hack VC, dengan peserta lain termasuk Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures, dan ArkStream Capital.

Mentioning bahwa mungkin karena investasi dari Aptos Foundation, proyek BC8.AI, yang awalnya menyelesaikan akun di Solana, beralih ke blockchain L1 berkinerja tinggi Aptos.

2.4 Estimasi Penilaian

Menurut pendiri dan CEO IO.NET Ahmad Shadid, perusahaan akan meluncurkan tokennya pada akhir April.

IO.NET memiliki dua proyek yang dapat dibandingkan untuk referensi valuasi: Render Network dan Akash Network, keduanya merupakan proyek komputasi terdistribusi yang representatif.

Ada dua cara untuk mengekstrapolasi kisaran kapitalisasi pasar IO.NET: 1. Rasio harga penjualan (P/S ratio), yaitu rasio kapitalisasi pasar/pendapatan; 2. Rasio kapitalisasi pasar per chip jaringan.

Pertama, mari kita lihat ekstrapolasi valuasi berdasarkan rasio P/S:

Dari sudut pandang rasio P/S, Akash dapat berfungsi sebagai batas bawah rentang valuasi IO.NET, sementara Render bertindak sebagai referensi untuk penetapan harga valuasi tinggi. Rentang FDV (Fully Diluted Valuation) mereka adalah dari USD 1,67 miliar hingga USD 5,93 miliar.

Namun, mengingat pembaruan proyek IO.NET, naratif yang lebih panas, kapitalisasi pasar yang lebih kecil di awal penyebaran, dan skala sisi pasokan yang lebih besar saat ini, kemungkinan FDV melebihi Render tidak kecil.

Selanjutnya, mari kita lihat perspektif valuasi lainnya, rasio 'pasar-ke-core'.

Dalam pasar di mana permintaan akan daya komputasi AI melebihi pasokan, elemen paling penting dari jaringan daya komputasi AI terdistribusi adalah skala pasokan GPU. Oleh karena itu, kita dapat menggunakan “rasio pasar-inti,” yaitu rasio total kapitalisasi pasar proyek terhadap jumlah chip dalam jaringan, untuk mengekstrapolasi kisaran valuasi IO.NET yang mungkin bagi pembaca sebagai referensi nilai pasar.

)

Jika dihitung berdasarkan rasio pasar inti, dengan Render Network sebagai batas atas dan Akash Network sebagai batas bawah, rentang FDV untuk IO.NET adalah antara USD 20,6 miliar dan USD 197,5 miliar.

Pembaca yang optimis tentang proyek IO.NET akan menganggap ini sebagai estimasi nilai pasar yang sangat optimis.

Selain itu, kita perlu mempertimbangkan bahwa jumlah chip online besar saat ini dari IO.NET mungkin dipicu oleh harapan airdrop dan kegiatan insentif, dan jumlah online aktual dari sisi pasokan masih perlu diamati setelah proyek diluncurkan secara resmi.

Oleh karena itu, secara keseluruhan, estimasi valuasi dari perspektif rasio P/S mungkin lebih bersifat referensial.

IO.NET, sebagai proyek yang menggabungkan AI, DePIN, dan ekosistem Solana, menanti performa pasar setelah peluncuran dengan penuh antisipasi.

3. Informasi referensi

Penafian:

  1. Artikel ini dicetak ulang dari [ mintventures]. Semua hak cipta milik penulis asli IO.NET. Jika ada keberatan terhadap cetak ulang ini, silakan hubungi Gerbang Belajartim, dan mereka akan menanganinya dengan segera.
  2. Penafian Tanggung Jawab: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan saran investasi apa pun.
  3. Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel yang diterjemahkan dilarang.

AI/DePIN/Sol Ekosistem Triple Halo: Menganalisis Peluncuran Token IO.NET

Lanjutan4/17/2024, 6:40:47 AM
Artikel ini akan mengorganisir informasi kunci dari proyek komputasi terdesentralisasi AI: proyek IO.NET, termasuk logika produk, situasi kompetitif, dan latar belakang proyek. Ini juga memberikan estimasi valuasi, menganalisis valuasi dari berbagai sudut pandang melalui analisis data, dan menawarkan perhitungan referensi untuk valuasi.

Pengantar

Dalam artikel sebelumnya, saya menyebutkan bahwa dibandingkan dengan dua siklus sebelumnya, siklus pasar banteng kripto ini kekurangan narasi bisnis dan aset baru yang berpengaruh. AI adalah salah satu dari sedikit narasi baru dalam putaran lapangan Web3 kali ini. Dalam artikel ini, saya akan menggabungkan proyek AI populer tahun ini, IO.NET, untuk merenungkan dua isu berikut:

  1. Kebutuhan AI+Web3 dalam bisnis

  2. Keperluan dan tantangan dari layanan komputasi terdistribusi

Selain itu, saya akan mengatur informasi kunci dari proyek perwakilan dalam komputasi terdistribusi AI: proyek IO.NET, termasuk logika produk, situasi kompetitif, dan latar belakang proyek. Saya juga akan menelusuri penilaian proyek tersebut.

Bagian dari artikel ini tentang kombinasi AI dan Web3 terinspirasi oleh "The Real Merge" yang ditulis oleh peneliti Delphi Digital Michael Rinko. Beberapa pandangan dalam artikel ini mencerna dan mengutip dari makalah tersebut, dan saya sarankan pembaca untuk merujuk ke aslinya.

Artikel ini mewakili pemikiran sementara saya pada saat publikasi. Situasi dapat berubah di masa depan, dan pandangan memiliki sifat subjektif yang kuat. Mereka juga mungkin mengandung kesalahan faktual, data, atau penalaran. Tolong jangan gunakan ini sebagai saran investasi, dan saya menyambut kritik dan diskusi dari rekan-rekan saya.

Berikut adalah teks utama.

1. Logika Bisnis: Persimpangan AI dan Web3

1.1 2023: Tahun “Keajaiban” Baru yang Diciptakan oleh AI

Mengingat sejarah manusia, sekali terjadi terobosan dalam teknologi, segala hal mulai dari kehidupan sehari-hari individu, hingga berbagai lanskap industri, dan bahkan seluruh peradaban umat manusia, mengalami perubahan revolusioner.

Ada dua tahun penting dalam sejarah umat manusia, yaitu 1666 dan 1905, yang kini disebut sebagai dua tahun “ajaib” besar dalam sejarah teknologi.

Tahun 1666 dianggap sebagai tahun keajaiban karena prestasi ilmiah Newton secara prominent muncul selama waktu tersebut. Pada tahun itu, dia menjadi pelopor cabang fisika yang dikenal sebagai optik, mendirikan cabang matematika kalkulus, dan menurunkan hukum gravitasi, hukum dasar sains alam modern. Setiap pencapaian ini merupakan kontribusi dasar bagi perkembangan ilmiah umat manusia untuk abad berikutnya, secara signifikan mempercepat kemajuan ilmu pengetahuan secara keseluruhan.

Tahun keajaiban kedua adalah 1905, ketika Einstein, pada usia 26 tahun, menerbitkan empat makalah berturut-turut dalam "Annals of Physics," yang mencakup efek fotolistrik (meletakkan dasar bagi mekanika kuantum), gerak Brown (menjadi referensi penting untuk menganalisis proses stokastik), teori relativitas khusus, dan persamaan massa-energi (rumus terkenal E = MC ^ 2). Dalam evaluasi selanjutnya, masing-masing makalah ini dianggap melebihi tingkat rata-rata Hadiah Nobel dalam Fisika (Einstein sendiri juga menerima Hadiah Nobel untuk makalahnya tentang efek fotolistrik), dan sekali lagi, perkembangan historis peradaban manusia mengambil beberapa lompatan raksasa ke depan.

Tahun 2023 yang baru saja berlalu kemungkinan akan disebut sebagai "tahun keajaiban" lainnya karena ChatGPT.

Kami menganggap 2023 sebagai "tahun keajaiban" lain dalam sejarah teknologi manusia bukan hanya karena kemajuan signifikan yang telah dibuat GPT dalam pemahaman dan generasi bahasa alami, tetapi juga karena umat manusia telah menguraikan pola pertumbuhan model bahasa besar dari evolusi GPT—yaitu, dengan memperluas parameter model dan data pelatihan, Kemampuan model dapat ditingkatkan secara eksponensial — dan proses ini belum melihat hambatan jangka pendek (selama ada daya komputasi yang cukup).

Kemampuan ini melampaui pemahaman bahasa dan menghasilkan dialog dan banyak digunakan di berbagai bidang teknologi. Sebagai contoh, di bidang biologi pada tahun 2018, pemenang Nobel Kimia, Frances Arnold, mengatakan selama upacara penganugerahan, “Hari ini, dalam aplikasi praktis, kita dapat membaca, menulis, dan mengedit setiap urutan DNA, namun kita masih belum mampu mengkomposisinya.” Hanya lima tahun setelah pidatonya, pada tahun 2023, peneliti dari Universitas Stanford dan Salesforce Research di Silicon Valley menerbitkan sebuah makalah di “Nature Biotechnology.” Mereka menciptakan 1 juta protein baru dari awal menggunakan model bahasa besar yang disesuaikan dari GPT3 dan mengidentifikasi dua protein dengan struktur yang berbeda, keduanya dengan kemampuan antibakteri, yang berpotensi menjadi solusi baru untuk melawan bakteri di luar antibiotik. Ini menandakan bahwa bottleneck dalam “penciptaan” protein telah terpecahkan dengan bantuan AI.

Selain itu, algoritma kecerdasan buatan AlphaFold memprediksi struktur hampir semua 214 juta protein di Bumi dalam waktu 18 bulan, sebuah prestasi yang melebihi hasil kolektif dari semua ahli biologi struktural dalam sejarah ratusan kali lipat.

Dengan model berbasis AI dalam bioteknologi, ilmu material, pengembangan obat, dan ilmu-ilmu keras lainnya, serta dalam ilmu humaniora seperti hukum dan seni, transformasi revolusioner tidak terhindarkan, dan 2023 memang tahun perkenalannya untuk semua kemajuan ini.

Seperti yang kita semua ketahui, di abad yang lalu, penciptaan kekayaan manusia telah berkembang secara eksponensial, dan kedewasaan teknologi AI yang cepat akan tanpa ragu mempercepat proses ini lebih jauh.

Grafik tren PDB global, sumber data: Bank Dunia

1.2 Integrasi AI dan Crypto

Untuk memahami secara mendasar kebutuhan untuk mengintegrasikan AI dan Crypto, kita dapat mulai dari karakteristik yang saling melengkapi mereka.

Karakteristik Komplementer AI dan Crypto

AI memiliki tiga atribut:

  1. Randomness: AI menunjukkan keacakan; mekanisme di balik produksi kontennya adalah kotak hitam yang sulit untuk direplikasi dan diperiksa, sehingga hasilnya juga acak.

  2. Sumber Daya Intensif: AI adalah industri yang membutuhkan sumber daya yang intensif memerlukan sejumlah besar energi, chip, dan daya komputasi yang signifikan.

  3. Inteligensi Seperti Manusia: AI akan segera bisa lulus uji Turing, setelah itu akan sulit untuk membedakan antara manusia dan mesin.

Pada 30 Oktober 2023, tim peneliti dari Universitas California, San Diego merilis hasil uji Turing untuk GPT-3.5 dan GPT-4.0. GPT-4.0 mencetak 41%, hanya 9% lebih rendah dari nilai lulus 50%, dengan peserta manusia mencetak 63%. Arti dari uji Turing ini adalah persentase orang yang percaya bahwa mitra percakapannya adalah manusia. Jika lebih dari 50% percaya demikian, itu menunjukkan bahwa setidaknya separuh orang menganggap entitas percakapan tersebut sebagai manusia, bukan mesin, sehingga dianggap lolos uji Turing.

Sementara AI menciptakan produktivitas terobosan baru bagi umat manusia, tiga atributnya juga membawa tantangan signifikan bagi masyarakat manusia, termasuk:

  • Bagaimana cara memverifikasi dan mengontrol keacakan AI, mengubah keacakan dari kelemahan menjadi keunggulan.

  • Bagaimana memenuhi kebutuhan energi dan daya komputasi yang signifikan untuk kecerdasan buatan.

  • Bagaimana cara membedakan antara manusia dan mesin.

Ekonomi kripto dan blockchain mungkin saja menjadi obat untuk tantangan yang dibawa oleh AI. Ekonomi kriptografi memiliki tiga karakteristik berikut:

  1. Determinisme: Operasi bisnis didasarkan pada blockchain, kode, dan kontrak pintar, dengan aturan dan batasan yang jelas; input menentukan hasilnya, memastikan determinisme yang tinggi.

  2. Pengalokasian Sumber Daya yang Efisien: Ekonomi kripto telah membangun pasar bebas global yang besar di mana penetapan harga, penggalangan dana, dan sirkulasi sumber daya sangat cepat. Karena adanya token, insentif dapat mempercepat pencocokan pasokan dan permintaan pasar, mencapai titik-titik kritis lebih cepat.

  3. Tanpa kepercayaan: Dengan buku besar publik dan kode sumber terbuka, semua orang dapat dengan mudah memverifikasi operasi, mengarah ke sistem yang tidak memerlukan kepercayaan. Selain itu, teknologi ZK (Zero-Knowledge) menghindari paparan privasi selama verifikasi.

Mari kita ilustrasikan komplemen antara AI dan ekonomi kripto dengan tiga contoh.

Contoh A: Mengatasi Keacakan, Agen Kecerdasan Buatan Berbasis Ekonomi Kripto

Agen AI, seperti yang dari Fetch.AI, dirancang untuk bertindak atas kemauan manusia dan melakukan tugas atas nama manusia. Jika kita menginginkan agen AI kita untuk menangani transaksi keuangan, seperti “membeli $1000 BTC,” mungkin akan menghadapi dua skenario:

  • Skenario Satu: Diperlukan untuk berinteraksi dengan lembaga keuangan tradisional (seperti BlackRock) untuk membeli ETF BTC, menghadapi sejumlah masalah kompatibilitas dengan agen kecerdasan buatan dan lembaga terpusat, seperti KYC, tinjauan dokumen, login, dan verifikasi identitas, yang saat ini cukup merepotkan.

  • Scenario Dua: Ini beroperasi berdasarkan ekonomi kripto asli, yang jauh lebih sederhana; itu bisa melaksanakan transaksi langsung melalui Uniswap atau platform perdagangan teragregasi serupa menggunakan tanda tangan akun Anda, menyelesaikan transaksi dengan cepat dan sederhana untuk menerima WBTC (atau bentuk BTC terbungkus lainnya). Pada dasarnya, ini adalah apa yang berbagai bot perdagangan sudah lakukan, meskipun hanya fokus pada perdagangan saat ini. Saat KI terintegrasi dan berkembang, bot perdagangan masa depan niscaya akan mampu melaksanakan niat perdagangan yang lebih kompleks, seperti melacak strategi perdagangan dan tingkat keberhasilan dari 100 alamat uang pintar di blockchain, melaksanakan transaksi serupa dengan 10% dana saya selama seminggu, dan menghentikan serta merangkum alasan kegagalan jika hasilnya tidak memuaskan.

AI berkinerja lebih baik dalam sistem blockchain terutama karena kejelasan aturan kripto ekonomi dan akses sistem yang tidak terbatas. Dalam aturan yang telah ditetapkan ini, risiko potensial yang ditimbulkan oleh keacakan AI diminimalkan. Sebagai contoh, AI telah melampaui manusia dalam permainan kartu dan permainan video karena aturan yang jelas, tertutup. Namun, kemajuan dalam kendaraan otonom relatif lambat karena tantangan lingkungan eksternal yang terbuka, dan kita kurang toleran terhadap keacakan dalam pemecahan masalah AI dalam pengaturan tersebut.

Contoh B: Membentuk Sumber Daya melalui Insentif Token**

Jaringan global di balik BTC, dengan total hash rate saat ini mencapai 576,70 EH/s, melampaui kekuatan komputasi gabungan dari superkomputer negara mana pun. Pengembangannya didorong oleh insentif jaringan yang sederhana dan adil.

Tren kekuatan komputasi jaringan BTC, sumber: https://www.coinwarz.com/

Selain itu, proyek-proyek termasuk DePIN Mobile sedang berusaha membentuk pasar dua sisi untuk pasokan dan permintaan melalui insentif token, bertujuan untuk mencapai efek jaringan. Fokus dari diskusi berikut dalam artikel ini, IO.NET, adalah platform yang dirancang untuk menggabungkan kekuatan komputasi AI, dengan harapan dapat melepaskan lebih banyak potensi AI melalui model token.

Contoh C: Kode sumber terbuka, pengenalan Bukti Pengetahuan Nol (ZK) untuk membedakan manusia dari mesin sambil melindungi privasi

Sebagai proyek Web3 yang melibatkan pendiri OpenAI Sam Altman, Worldcoin menggunakan perangkat keras bernama Orb, yang menghasilkan nilai hash unik dan anonim berdasarkan biometrik iris manusia melalui teknologi ZK untuk memverifikasi identitas dan membedakan manusia dari mesin. Pada awal Maret tahun ini, proyek seni Web3 Drip mulai menggunakan ID Worldcoin untuk memverifikasi pengguna manusia sejati dan mendistribusikan imbalan.

Selain itu, Worldcoin baru-baru ini telah mempublikasikan kode program perangkat keras pengenalan iris Orbnya, memastikan keamanan dan privasi data biometrik pengguna.

Secara keseluruhan, ekonomi kripto telah menjadi solusi potensial yang signifikan terhadap tantangan yang dihadapi oleh kecerdasan buatan terhadap masyarakat manusia, karena kepastian kode dan kriptografi, keuntungan sirkulasi sumber daya dan penggalangan dana yang dibawa oleh mekanisme token, dan sifat tanpa kepercayaan berdasarkan kode sumber terbuka dan buku besar publik.

Tantangan paling mendesak dan menuntut secara komersial adalah kelaparan ekstrim untuk sumber daya komputasi oleh produk AI, yang berkaitan dengan permintaan besar akan chip dan daya komputasi.

Ini juga merupakan alasan utama mengapa proyek komputasi terdistribusi telah memimpin jalur kecerdasan buatan secara keseluruhan dalam siklus pasar bullish ini.

Kebutuhan komersial dari komputasi terdesentralisasi

AI memerlukan sumber daya komputasi yang substansial, baik untuk melatih model maupun untuk inferensi.

Dalam praktik pelatihan model bahasa besar, telah dikonfirmasi bahwa selama skala parameter data cukup besar, kemampuan baru muncul yang sebelumnya tidak ada. Setiap generasi GPT menunjukkan lonjakan eksponensial dalam kemampuan dibandingkan dengan pendahulunya, didukung oleh pertumbuhan eksponensial dalam volume komputasi yang diperlukan untuk pelatihan model.

Penelitian oleh DeepMind dan Universitas Stanford menunjukkan bahwa model bahasa besar yang berbeda, ketika menghadapi berbagai tugas (komputasi, pertanyaan dan jawaban dalam bahasa Persia, pemahaman bahasa alami, dll.), melakukan hal yang sama dengan jawaban acak sampai pelatihan mencapai kurang dari 10^22 FLOPs (FLOPs menunjukkan operasi titik mengambang per detik, sebuah ukuran kinerja komputasi); namun, begitu skala parameter melebihi ambang batas kritis itu, kinerja dari setiap tugas secara dramatis meningkat, terlepas dari model bahasa yang digunakan.

Sumber: Kemampuan Emergent dari Model Bahasa Besar

Kemampuan Darurat dari Model Bahasa Besar

Tepatnya prinsip 'mencapai keajaiban dengan kekuatan komputasi besar' dan verifikasi praktisnya yang mengarahkan Sam Altman, pendiri OpenAI, untuk mengusulkan pengumpulan dana sebesar 7 triliun dolar AS untuk membangun pabrik chip canggih yang sepuluh kali lebih besar dari TSMC saat ini. Diperkirakan sebesar 1,5 triliun dolar akan dihabiskan untuk bagian ini, dengan sisa dana digunakan untuk produksi chip dan pelatihan model.

Selain pelatihan model AI, proses inferensi dari model-model itu sendiri juga memerlukan daya komputasi yang substansial, meskipun lebih sedikit daripada yang dibutuhkan untuk pelatihan. Oleh karena itu, keinginan akan chip dan daya komputasi telah menjadi hal yang lazim di kalangan pesaing AI.

Dibandingkan dengan penyedia komputasi AI terpusat seperti Amazon Web Services, Google Cloud Platform, dan Azure milik Microsoft, proposisi nilai utama dari komputasi AI terdistribusi termasuk:

  • Aksesibilitas: Mengakses chip komputasi melalui layanan cloud seperti AWS, GCP, atau Azure biasanya memerlukan waktu berhari-hari, dan model GPU populer seringkali kehabisan stok. Selain itu, untuk mendapatkan daya komputasi, konsumen seringkali harus menandatangani kontrak jangka panjang dan tidak fleksibel dengan perusahaan-perusahaan besar tersebut. Sebaliknya, platform komputasi terdistribusi dapat menyediakan pilihan perangkat keras yang fleksibel dengan aksesibilitas yang lebih besar.
  • Harga Lebih Rendah: Dengan memanfaatkan chip yang tidak terpakai, dikombinasikan dengan subsidi token dari protokol jaringan untuk penyedia chip dan daya komputasi, jaringan komputasi terdistribusi dapat menawarkan daya komputasi yang lebih terjangkau.
  • Ketahanan Sensor: Saat ini, chip komputasi dan pasokan terkini dikuasai oleh perusahaan teknologi besar. Selain itu, pemerintah yang dipimpin oleh Amerika Serikat semakin memperketat pengawasan atas layanan komputasi AI. Kemampuan untuk memperoleh daya komputasi secara terdistribusi, fleksibel, dan bebas menjadi tuntutan yang jelas, yang juga merupakan proposisi nilai inti dari platform layanan komputasi berbasis web3.

Jika bahan bakar fosil adalah darah kehidupan era industri, maka daya komputasi kemungkinan besar akan menjadi darah kehidupan era digital baru yang diperkenalkan oleh kecerdasan buatan, dengan pasokan daya komputasi menjadi infrastruktur era kecerdasan buatan. Sama seperti stablecoin telah menjadi cabang kuat dari mata uang fiat di era Web3, apakah pasar komputasi terdistribusi bisa menjadi cabang yang berkembang pesat dari pasar komputasi kecerdasan buatan?

Karena ini masih pasar yang relatif awal, segalanya masih dalam pengamatan. Namun, faktor-faktor berikut ini bisa berpotensi merangsang narasi atau adopsi pasar komputasi terdistribusi:

  • Tegangan pasokan dan permintaan GPU yang berkelanjutan. Tegangan yang terus berlanjut dalam pasokan GPU mungkin mendorong beberapa pengembang untuk beralih ke platform komputasi terdistribusi.
  • Ekspansi regulasi. Mengakses layanan komputasi AI dari platform komputasi awan besar memerlukan KYC dan pemeriksaan yang sangat ketat. Ini mungkin justru mendorong adopsi platform komputasi terdistribusi, terutama di daerah yang menghadapi pembatasan dan sanksi.
  • Insentif harga Token. Siklus pasar bullish dan kenaikan harga token meningkatkan nilai subsidi ke sisi pasokan GPU, menarik lebih banyak pemasok ke pasar, meningkatkan ukuran pasar, dan mengurangi harga pembelian aktual bagi konsumen.

Namun, tantangan yang dihadapi oleh platform komputasi terdistribusi juga cukup jelas:

  • Tantangan Teknis dan Rekayasa
  • Masalah Bukti Kerja: Komputasi untuk model pembelajaran mendalam, karena struktur hierarkisnya di mana keluaran setiap lapisan berfungsi sebagai masukan untuk yang berikutnya, memerlukan mengeksekusi semua pekerjaan sebelumnya untuk memverifikasi validitas komputasi. Hal ini tidak dapat diverifikasi dengan cara yang sederhana dan efektif. Untuk mengatasi masalah ini, platform komputasi terdistribusi perlu mengembangkan algoritma baru atau menggunakan teknik verifikasi perkiraan, yang dapat memberikan jaminan probabilitas kebenaran hasil, daripada kepastian mutlak.
  • Tantangan Paralelisasi: Platform komputasi terdistribusi mengumpulkan ekor panjang pasokan chip, artinya perangkat individual hanya dapat menawarkan daya komputasi terbatas. Sebuah pemasok chip tunggal hampir tidak dapat menyelesaikan tugas pelatihan atau inferensi model AI secara independen dalam jangka waktu singkat, sehingga tugas harus diuraikan dan didistribusikan melalui paralelisasi untuk mempersingkat waktu penyelesaian secara keseluruhan. Paralelisasi juga tak terelakkan menghadapi isu-isu seperti bagaimana tugas diuraikan (terutama tugas deep learning yang kompleks), ketergantungan data, dan biaya komunikasi tambahan antara perangkat.
  • Masalah Perlindungan Privasi: Bagaimana memastikan bahwa data dan model pihak pembeli tidak terpapar kepada penerima tugas?

Tantangan kepatuhan regulasi

  • Karena sifat tanpa izin dari pasar pasokan dan pengadaan ganda platform komputasi terdistribusi, mereka dapat menarik perhatian pelanggan tertentu sebagai titik penjualan. Di sisi lain, mereka mungkin menjadi target regulasi pemerintah karena standar regulasi AI sedang disempurnakan. Selain itu, beberapa pemasok GPU mungkin khawatir apakah sumber daya komputasi yang disewakan mereka disediakan kepada bisnis atau individu yang dikenai sanksi.

Secara keseluruhan, konsumen platform komputasi terdistribusi sebagian besar adalah pengembang profesional atau lembaga kecil hingga menengah, berbeda dengan investor cryptocurrency dan NFT yang berbeda dalam harapan mereka terhadap stabilitas dan kelangsungan layanan yang ditawarkan oleh protokol. Harga mungkin bukan motif utama mereka dalam pengambilan keputusan. Untuk saat ini, tampaknya platform komputasi terdistribusi masih memiliki jalan panjang untuk mendapatkan persetujuan dari pengguna-pengguna tersebut.

Selanjutnya, kami akan mengatur dan menganalisis informasi proyek untuk proyek komputasi terdistribusi baru dalam siklus ini, IO.NET, dan memperkirakan valuasi pasar yang mungkin setelah terdaftar, berdasarkan pesaing pasar saat ini di sektor kecerdasan buatan dan komputasi terdistribusi.

2. Platform Komputasi AI Terdistribusi: IO.NETPlatform Komputasi AI Terdistribusi: IO.NET

2.1 Posisi Proyek

IO.NET adalah jaringan komputasi terdesentralisasi yang telah membentuk pasar bilateral yang berpusat di sekitar chip. Sisi pasokan terdiri dari chip (terutama GPU, tetapi juga CPU dan iGPU Apple) yang didistribusikan secara global, sementara sisi permintaan terdiri dari insinyur kecerdasan buatan yang mencari melakukan pelatihan model AI atau tugas inferensi.

Seperti yang dinyatakan di situs web resmi IO.NET:

Misi Kami

Mengumpulkan satu juta GPU dalam DePIN – jaringan infrastruktur fisik terdesentralisasi.

Misi ini adalah mengintegrasikan jutaan GPU ke dalam jaringan DePIN-nya.

Dibandingkan dengan penyedia layanan komputasi AI cloud yang ada, IO.NET menekankan titik penjualan kunci berikut:

  • Kombinasi Fleksibel: Para insinyur AI dapat bebas memilih dan menggabungkan chip yang mereka butuhkan untuk membentuk “Klaster” guna menyelesaikan tugas komputasi mereka.
  • Pengimplementasian Cepat: Implementasi dapat diselesaikan dalam hitungan detik, tanpa minggu persetujuan dan menunggu yang biasanya diperlukan oleh penyedia terpusat seperti AWS.
  • Layanan yang hemat biaya: Biaya layanan 90% lebih rendah daripada penyedia utama.

Selain itu, IO.NET berencana untuk meluncurkan layanan seperti toko model AI di masa depan.

Mekanisme Produk dan Data Bisnis 2.2

Mekanisme Produk dan Pengalaman Implementasi

Mirip dengan Amazon Cloud, Google Cloud, dan Alibaba Cloud, layanan komputasi yang disediakan oleh IO.NET disebut IO Cloud. IO Cloud adalah jaringan terdistribusi dan terdesentralisasi dari chip yang mampu menjalankan kode pembelajaran mesin berbasis Python dan menjalankan program kecerdasan buatan dan pembelajaran mesin.

Modul bisnis dasar dari IO Cloud disebut “Clusters.” Clusters adalah kelompok GPU yang dapat berkoordinasi secara mandiri untuk menyelesaikan tugas komputasi. Insinyur kecerdasan buatan dapat menyesuaikan Clusters yang diinginkan berdasarkan kebutuhan mereka.

Antarmuka produk IO.NET sangat ramah pengguna. Jika Anda perlu mendeploy Kluster chip Anda sendiri untuk menyelesaikan tugas komputasi AI, Anda dapat mulai mengkonfigurasi Kluster chip yang diinginkan segera setelah masuk ke halaman produk Kluster di situs web mereka.

Informasi halaman: https://cloud.io.net/cloud/clusters/create-cluster, sama seperti di bawah ini

Pertama, Anda perlu memilih skenario proyek Anda, dan saat ini, ada tiga jenis yang tersedia:

  1. Umum (Jenis Umum): Menyediakan lingkungan yang lebih umum, cocok untuk tahap awal proyek ketika kebutuhan sumber daya tertentu tidak pasti.

  2. Train (Jenis Pelatihan): Dirancang untuk pelatihan dan penyetelan model pembelajaran mesin. Pilihan ini menawarkan sumber daya GPU tambahan, kapasitas memori yang lebih tinggi, dan/atau koneksi jaringan yang lebih cepat untuk menangani tugas komputasi intensif ini.

  3. Inferensi (Jenis Inferensi): Dirancang untuk inferensi latensi rendah dan tugas beban tinggi. Dalam konteks pembelajaran mesin, inferensi merujuk pada penggunaan model-model yang sudah dilatih untuk memprediksi atau menganalisis data baru dan memberikan umpan balik. Oleh karena itu, opsi ini berfokus pada mengoptimalkan latensi dan throughput untuk mendukung kebutuhan pemrosesan data real-time atau mendekati real-time.

Selanjutnya, Anda perlu memilih pemasok untuk Clusters chip. Saat ini, IO.NET memiliki kemitraan dengan Render Network dan jaringan penambangan Filecoin, memungkinkan pengguna untuk memilih chip dari IO.NET atau kedua jaringan lain sebagai pemasok Komputasi Clusters mereka. IO.NET bertindak sebagai aggregator (meskipun, pada saat tulisan ini, layanan Filecoin sedang offline sementara). Terutama, menurut tampilan halaman, jumlah GPU online yang tersedia untuk IO.NET adalah lebih dari 200.000, sementara untuk Render Network lebih dari 3.700.

Akhirnya, Anda memasuki fase pemilihan perangkat keras chip untuk Kluster. Saat ini, IO.NET hanya mencantumkan GPU untuk dipilih, tidak termasuk CPU atau iGPU Apple (M1, M2, dll.), dan GPU tersebut terutama menampilkan produk-produk NVIDIA.

Dalam daftar resmi opsi perangkat keras GPU yang tersedia, berdasarkan data yang diuji oleh penulis pada hari itu, jumlah total GPU yang tersedia online di jaringan IO.NET adalah 206.001. Dari jumlah tersebut, GeForce RTX 4090 memiliki ketersediaan tertinggi dengan 45.250 unit, diikuti oleh GeForce RTX 3090 Ti dengan 30.779 unit.

Selain itu, chip A100-SXM4-80GB, yang lebih efisien untuk tugas komputasi kecerdasan buatan seperti pembelajaran mesin, pembelajaran mendalam, dan perhitungan ilmiah (harga pasar lebih dari $15,000), memiliki 7.965 unit online.

Kartu grafis NVIDIA H100 80GB HBM3, dirancang khusus dari awal untuk kecerdasan buatan (harga pasar di atas $40.000), memiliki kinerja pelatihan 3,3 kali lipat dari A100 dan kinerja inferensi 4,5 kali lipat dari A100, dengan total 86 unit online.

Setelah memilih tipe hardware untuk Clusters, pengguna juga perlu memilih wilayah, kecepatan komunikasi, jumlah GPU yang disewa, dan durasi sewa, di antara parameter lainnya.

Akhirnya, IO.NET akan memberikan tagihan berdasarkan seleksi komprehensif. Misalnya, dalam konfigurasi Cluster penulis:

  • Skenario tugas umum
  • 16 chip A100-SXM4-80GB
  • Koneksi ultra cepat
  • Terletak di Amerika Serikat
  • Sewa selama 1 minggu

Total tagihan adalah $3311.6, dengan harga per jam per kartu sebesar $1.232

Dalam perbandingan, harga sewa per jam A100-SXM4-80GB di Amazon Cloud, Google Cloud, dan Microsoft Azure masing-masing adalah $5.12, $5.07, dan $3.67, (sumber data: https://cloud-gpus.com/, harga sebenarnya mungkin bervariasi berdasarkan detail kontrak).

Dengan demikian, secara murni dari segi harga, kekuatan komputasi IO.NET jauh lebih murah daripada para produsen utama, dan pilihan pasokan dan pengadaan sangat fleksibel, sehingga memudahkan untuk memulai.

Kondisi bisnis

Situasi sisi pasokan

Per tanggal 4 April tahun ini, menurut data resmi, IO.NET memiliki total pasokan sebanyak 371.027 GPU dan 42.321 CPU di sisi pasokan. Selain itu, Render Network, sebagai mitranya, juga telah menghubungkan 9.997 GPU dan 776 CPU ke pasokan jaringan.

Sumber data: https://cloud.io.net/explorer/home, sama di bawah ini

Saat artikel ini ditulis, 214.387 GPU yang terhubung oleh IO.NET online, dengan tingkat online sebesar 57,8%. Tingkat online untuk GPU dari Render Network adalah 45,1%.

Apa yang tersirat dari data sisi pasokan di atas?

Untuk memberikan perbandingan, mari kita perkenalkan proyek komputasi terdistribusi lain yang lebih tua, yaitu Jaringan Akash, untuk kontras. Jaringan Akash meluncurkan mainnet-nya secepat 2020, awalnya berfokus pada layanan terdistribusi untuk CPU dan penyimpanan. Pada Juni 2023, diluncurkan testnet untuk layanan GPU dan diluncurkan mainnet-nya untuk daya komputasi GPU terdistribusi pada bulan September tahun yang sama.

Sumber data: https://stats.akash.network/provider-graph/graphics-gpu

Menurut data resmi dari Akash, meskipun sisi pasokan terus berkembang, jumlah total GPU yang terhubung ke jaringannya baru mencapai 365 hingga saat ini.

Dari segi volume pasokan GPU, IO.NET beberapa kali lipat lebih tinggi daripada Jaringan Akash, menjadikannya jaringan pasokan terbesar dalam perlombaan kekuatan komputasi GPU terdistribusi.

situasi sisi permintaan

Namun, melihat dari sisi permintaan, IO.NET masih berada dalam tahap awal budidaya pasar, dan volume sebenarnya dari tugas komputasi yang dilakukan menggunakan IO.NET tidak besar. Sebagian besar GPU online memiliki beban kerja 0%, hanya empat jenis chip—A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S, dan H100 80GB HBM3—yang menangani tugas. Kecuali untuk A100 PCIe 80GB K8S, beban kerja dari tiga chip lainnya kurang dari 20%.

Nilai stres jaringan resmi yang diungkapkan pada hari itu adalah 0%, menunjukkan bahwa sebagian besar pasokan chip berada dalam keadaan siaga online. Sementara itu, IO.NET telah menghasilkan total $586,029 dalam biaya layanan, dengan biaya dalam sehari tercatat sebesar $3,200.

Sumber data: https://cloud.io.net/explorer/clusters

Skala biaya penyelesaian jaringan ini, baik secara total maupun dalam volume transaksi harian, berada pada urutan besaran yang sama dengan Akash, meskipun sebagian besar pendapatan jaringan Akash berasal dari segmen CPU, dengan lebih dari 20.000 CPU disediakan.

Sumber data: https://stats.akash.network/

Selain itu, IO.NET telah mengungkapkan data tentang tugas inferensi AI yang diproses oleh jaringan; hingga saat ini, jaringan telah memproses dan memverifikasi lebih dari 230.000 tugas inferensi, meskipun sebagian besar volume ini dihasilkan oleh proyek yang disponsori oleh IO.NET, seperti BC8.AI.

Sumber data: https://cloud.io.net/explorer/inferences

Berdasarkan data bisnis saat ini, ekspansi sisi pasokan IO.NET sedang berjalan lancar, didorong oleh antisipasi airdrop dan acara komunitas yang dikenal sebagai “Ignition”, yang dengan cepat mengumpulkan sejumlah besar daya komputasi chip AI. Namun, ekspansi sisi permintaan masih dalam tahap awal, dengan permintaan organik saat ini masih belum mencukupi. Masih perlu dievaluasi apakah kurangnya permintaan saat ini disebabkan oleh kenyataan bahwa jangkauan konsumen belum dimulai, atau karena pengalaman layanan saat ini belum cukup stabil, sehingga kurang adopsi secara luas.

Mempertimbangkan kesulitan jangka pendek dalam menjembatani kesenjangan dalam kekuatan komputasi AI, banyak insinyur dan proyek AI mencari solusi alternatif, yang mungkin menarik minat dalam penyedia layanan terdesentralisasi. Selain itu, karena IO.NET belum memulai insentif ekonomi dan kegiatan untuk sisi permintaan, bersama dengan peningkatan bertahap pengalaman produk, pencocokan akhirnya dari penawaran dan permintaan masih diantisipasi dengan optimisme.

2.3 Latar Belakang Tim dan Pendanaan

Kondisi tim

Tim inti IO.NET awalnya fokus pada perdagangan kuantitatif, mengembangkan sistem perdagangan kuantitatif tingkat institusi untuk saham dan aset kripto hingga Juni 2022. Didorong oleh kebutuhan sistem backend akan daya komputasi, tim mulai menjelajahi kemungkinan komputasi terdesentralisasi, yang pada akhirnya berfokus pada mengurangi biaya layanan komputasi GPU.

Pendiri & CEO: Ahmad Shadid, yang memiliki latar belakang di bidang keuangan kuantitatif dan teknik dan juga menjadi relawan dengan Ethereum Foundation.

CMO & Chief Strategy Officer: Garrison Yang, yang bergabung dengan IO.NET pada bulan Maret tahun ini. Sebelumnya, ia menjabat sebagai VP Strategi dan Pertumbuhan di Avalanche dan lulus dari University of California, Santa Barbara.

COO: Tory Green, sebelumnya COO di Hum Capital dan Direktur Pengembangan Perusahaan dan Strategi di Fox Mobile Group, lulus dari Stanford.

Menurut informasi LinkedIn, IO.NET berkantor pusat di New York, Amerika Serikat, dengan cabang di San Francisco, dan jumlah timnya melebihi 50 anggota.

Keuangan situasi

Saat ini, IO.NET hanya telah mengumumkan satu putaran pendanaan, yaitu Seri A yang selesai pada Maret tahun ini, dengan nilai USD 1 miliar. Ini mengumpulkan USD 30 juta yang dipimpin oleh Hack VC, dengan peserta lain termasuk Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures, dan ArkStream Capital.

Mentioning bahwa mungkin karena investasi dari Aptos Foundation, proyek BC8.AI, yang awalnya menyelesaikan akun di Solana, beralih ke blockchain L1 berkinerja tinggi Aptos.

2.4 Estimasi Penilaian

Menurut pendiri dan CEO IO.NET Ahmad Shadid, perusahaan akan meluncurkan tokennya pada akhir April.

IO.NET memiliki dua proyek yang dapat dibandingkan untuk referensi valuasi: Render Network dan Akash Network, keduanya merupakan proyek komputasi terdistribusi yang representatif.

Ada dua cara untuk mengekstrapolasi kisaran kapitalisasi pasar IO.NET: 1. Rasio harga penjualan (P/S ratio), yaitu rasio kapitalisasi pasar/pendapatan; 2. Rasio kapitalisasi pasar per chip jaringan.

Pertama, mari kita lihat ekstrapolasi valuasi berdasarkan rasio P/S:

Dari sudut pandang rasio P/S, Akash dapat berfungsi sebagai batas bawah rentang valuasi IO.NET, sementara Render bertindak sebagai referensi untuk penetapan harga valuasi tinggi. Rentang FDV (Fully Diluted Valuation) mereka adalah dari USD 1,67 miliar hingga USD 5,93 miliar.

Namun, mengingat pembaruan proyek IO.NET, naratif yang lebih panas, kapitalisasi pasar yang lebih kecil di awal penyebaran, dan skala sisi pasokan yang lebih besar saat ini, kemungkinan FDV melebihi Render tidak kecil.

Selanjutnya, mari kita lihat perspektif valuasi lainnya, rasio 'pasar-ke-core'.

Dalam pasar di mana permintaan akan daya komputasi AI melebihi pasokan, elemen paling penting dari jaringan daya komputasi AI terdistribusi adalah skala pasokan GPU. Oleh karena itu, kita dapat menggunakan “rasio pasar-inti,” yaitu rasio total kapitalisasi pasar proyek terhadap jumlah chip dalam jaringan, untuk mengekstrapolasi kisaran valuasi IO.NET yang mungkin bagi pembaca sebagai referensi nilai pasar.

)

Jika dihitung berdasarkan rasio pasar inti, dengan Render Network sebagai batas atas dan Akash Network sebagai batas bawah, rentang FDV untuk IO.NET adalah antara USD 20,6 miliar dan USD 197,5 miliar.

Pembaca yang optimis tentang proyek IO.NET akan menganggap ini sebagai estimasi nilai pasar yang sangat optimis.

Selain itu, kita perlu mempertimbangkan bahwa jumlah chip online besar saat ini dari IO.NET mungkin dipicu oleh harapan airdrop dan kegiatan insentif, dan jumlah online aktual dari sisi pasokan masih perlu diamati setelah proyek diluncurkan secara resmi.

Oleh karena itu, secara keseluruhan, estimasi valuasi dari perspektif rasio P/S mungkin lebih bersifat referensial.

IO.NET, sebagai proyek yang menggabungkan AI, DePIN, dan ekosistem Solana, menanti performa pasar setelah peluncuran dengan penuh antisipasi.

3. Informasi referensi

Penafian:

  1. Artikel ini dicetak ulang dari [ mintventures]. Semua hak cipta milik penulis asli IO.NET. Jika ada keberatan terhadap cetak ulang ini, silakan hubungi Gerbang Belajartim, dan mereka akan menanganinya dengan segera.
  2. Penafian Tanggung Jawab: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan saran investasi apa pun.
  3. Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel yang diterjemahkan dilarang.
即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!