Judul asli yang diteruskan: Jalur Pengembangan Masa Depan AI+Web3 (2): Bab Infrastruktur
Dalam beberapa tahun terakhir, permintaan akan daya komputasi mengalami pertumbuhan pesat, terutama setelah munculnya model LLM besar. Lonjakan permintaan akan daya komputasi AI ini telah berdampak signifikan pada pasar komputasi berkinerja tinggi. Data dari OpenAI mengungkapkan tren luar biasa sejak 2012, dengan daya komputasi yang digunakan untuk melatih model AI terbesar tumbuh secara eksponensial, melipatgandakan setiap 3-4 bulan secara rata-rata, melampaui laju pertumbuhan yang diprediksi oleh Hukum Moore. Peningkatan permintaan akan aplikasi AI telah mengakibatkan lonjakan cepat dalam kebutuhan akan perangkat keras komputasi. Proyeksi menunjukkan bahwa pada tahun 2025, permintaan akan perangkat keras komputasi yang didorong oleh aplikasi AI diperkirakan akan meningkat sekitar 10% hingga 15%.
Didorong oleh permintaan akan kekuatan komputasi AI, produsen perangkat keras GPU NVIDIA telah menyaksikan pertumbuhan terus menerus dalam pendapatan pusat data. Pada kuartal kedua tahun 2023, pendapatan pusat data mencapai $10,32 miliar, menandai peningkatan 141% dari kuartal pertama tahun 2023 dan lonjakan signifikan sebesar 171% dari periode yang sama pada tahun sebelumnya. Pada kuartal keempat tahun fiskal 2024, segmen pusat data menyumbang lebih dari 83% dari total pendapatan, mengalami pertumbuhan sebesar 409% secara bersamaan, dengan 40% berasal dari skenario inferensi model besar, menunjukkan permintaan yang kuat akan kekuatan komputasi berkinerja tinggi.
Pada saat yang sama, kebutuhan akan jumlah data yang besar menimbulkan persyaratan signifikan pada penyimpanan dan memori perangkat keras. Terutama selama tahap pelatihan model, masukan parameter yang luas dan penyimpanan data sangat penting. Chip memori yang digunakan dalam server AI umumnya mencakup memori berkecepatan tinggi (HBM), DRAM, dan SSD. Lingkungan kerja untuk server AI harus menawarkan kapasitas yang lebih besar, kinerja yang ditingkatkan, latensi yang lebih rendah, dan waktu tanggapan yang lebih cepat. Menurut perhitungan dari Micron, jumlah DRAM dalam server AI melebihi jumlahnya dalam server tradisional sebanyak delapan kali lipat, sementara jumlah NAND melampaui standar server tradisional sebanyak tiga kali lipat.
Biasanya, daya komputasi utamanya digunakan dalam tahap pelatihan, penyempurnaan, dan tahap inferensi dari model AI, terutama selama tahap pelatihan dan penyempurnaan. Karena peningkatan input parameter data, persyaratan komputasi, dan permintaan tinggi untuk keterhubungan dalam komputasi paralel, ada kebutuhan akan hardware GPU yang lebih kuat dan terhubung, seringkali dalam bentuk cluster GPU berkinerja tinggi. Saat model-model besar berkembang, kompleksitas komputasinya meningkat secara linear, memerlukan hardware yang lebih canggih untuk memenuhi tuntutan pelatihan model.
Mengambil GPT-3 sebagai contoh, dengan skenario melibatkan sekitar 13 juta kunjungan pengguna independen, permintaan chip yang sesuai akan melebihi 30.000 GPU A100. Biaya investasi awal ini akan mencapai $800 juta yang mengagumkan, dengan perkiraan biaya inferensi model harian mencapai sekitar $700.000.
Secara bersamaan, laporan industri menunjukkan bahwa pada kuartal keempat tahun 2023, pasokan GPU NVIDIA sangat terbatas secara global, menyebabkan ketidakseimbangan yang nyata antara pasokan dan permintaan di pasar-pasar di seluruh dunia. Kapasitas produksi NVIDIA dibatasi oleh faktor-faktor seperti TSMC, kemasan HBM, CoWos, dan isu 'kekurangan parah' dari GPU H100 diperkirakan akan bertahan setidaknya hingga akhir tahun 2024.
Oleh karena itu, lonjakan permintaan untuk GPU high-end dan kendala pasokan telah mendorong harga-harga melambung dari komponen hardware saat ini seperti GPU. Terutama bagi perusahaan-perusahaan seperti NVIDIA yang menduduki posisi inti dalam rantai industri, harga tinggi tersebut lebih diperkuat oleh dominasi monopoli mereka, memungkinkan mereka untuk meraih dividen nilai tambahan. Sebagai contoh, biaya material kartu akselerator AI H100 NVIDIA sekitar $3,000, namun harganya mencapai sekitar $35,000 pada pertengahan 2023 dan bahkan melampaui $40,000 di eBay.
Sebuah laporan oleh Grand View Research menunjukkan bahwa ukuran pasar AI cloud global diperkirakan sebesar $62,63 miliar pada tahun 2023, diproyeksikan mencapai $647,6 miliar pada tahun 2030, dengan tingkat pertumbuhan tahunan gabungan sebesar 39,6%. Angka-angka ini menegaskan potensi pertumbuhan signifikan dari layanan AI cloud dan kontribusi substansial mereka terhadap rantai industri AI secara keseluruhan.
Menurut perkiraan oleh a16z, sebagian besar dana di pasar AIGC (AI dan Global Computing) pada akhirnya mengalir ke perusahaan infrastruktur. Rata-rata, perusahaan aplikasi mengalokasikan sekitar 20-40% dari pendapatannya untuk inferensi dan penyempurnaan untuk setiap pelanggan. Pengeluaran ini biasanya diarahkan ke penyedia cloud dari contoh komputasi atau penyedia model pihak ketiga, yang pada gilirannya mengalokasikan sekitar separuh dari pendapatan untuk infrastruktur cloud. Oleh karena itu, adalah wajar untuk mengasumsikan bahwa 10-20% dari total pendapatan yang dihasilkan oleh AIGC diarahkan ke penyedia cloud.
Selain itu, sebagian besar permintaan akan kekuatan komputasi berpusat di sekitar pelatihan model AI besar, termasuk berbagai model LLM yang luas. Khususnya untuk startup model, 80-90% biaya dikaitkan dengan kekuatan komputasi AI. Secara kolektif, infrastruktur komputasi AI, yang mencakup komputasi awan dan perangkat keras, diperkirakan akan mewakili lebih dari 50% dari nilai awal pasar.
Seperti yang dibahas sebelumnya, biaya saat ini dari komputasi AI terpusat tetap tinggi, terutama karena permintaan yang meningkat untuk infrastruktur kinerja tinggi untuk pelatihan AI. Namun, jumlah daya komputasi yang menganggur secara signifikan ada di pasar, menyebabkan ketidakcocokan antara penawaran dan permintaan. Faktor kunci yang berkontribusi pada ketidakseimbangan ini termasuk:
Sebagai tanggapan terhadap tantangan yang diuraikan di atas, pengejaran desain chip berkinerja tinggi atau chip ASIC khusus yang disesuaikan untuk tugas AI adalah jalur yang menonjol yang sedang dieksplorasi oleh banyak pengembang dan perusahaan besar. Pendekatan lain melibatkan pemanfaatan komprehensif sumber daya komputasi yang ada untuk mendirikan jaringan komputasi terdistribusi, dengan tujuan mengurangi biaya daya komputasi melalui penyewaan, berbagi, dan penjadwalan sumber daya yang efisien. Selain itu, pasar saat ini memiliki surplus GPU dan CPU tingkat konsumen yang tidak terpakai. Meskipun unit-unit individu mungkin kurang memiliki daya komputasi yang kuat, mereka dapat memenuhi persyaratan komputasi yang ada secara efektif dalam skenario tertentu atau saat diintegrasikan dengan chip berkinerja tinggi. Pentingnya, memastikan pasokan yang cukup adalah penting, karena biaya dapat lebih ditekan melalui penjadwalan jaringan terdistribusi.
Akibatnya, pergeseran menuju kekuatan komputasi terdistribusi telah muncul sebagai arah utama dalam kemajuan infrastruktur AI. Secara bersamaan, mengingat keselarasan konseptual antara Web3 dan sistem terdistribusi, jaringan kekuatan komputasi terdesentralisasi telah menjadi fokus utama dalam lanskap infrastruktur Web3+AI. Saat ini, platform kekuatan komputasi terdesentralisasi di pasar Web3 umumnya menawarkan harga yang 80%-90% lebih rendah daripada layanan komputasi awan terpusat.
Sementara penyimpanan memainkan peran penting dalam infrastruktur AI, penyimpanan terpusat memiliki keunggulan yang jelas dalam hal skala, kegunaan, dan latensi rendah. Namun, karena efisiensi biaya yang signifikan yang mereka tawarkan, jaringan komputasi terdistribusi memiliki potensi pasar yang signifikan dan berpotensi mendapatkan manfaat substansial dari ekspansi pasar AI yang berkembang.
Sektor infrastruktur AI terdistribusi menunjukkan permintaan yang kuat dan prospek pertumbuhan jangka panjang yang signifikan, menjadikannya area yang menarik untuk modal investasi. Saat ini, proyek-proyek utama dalam lapisan infrastruktur industri AI+Web3 secara dominan berpusat pada jaringan komputasi terdesentralisasi. Proyek-proyek ini menekankan biaya rendah sebagai keuntungan utama, memanfaatkan insentif token untuk memperluas jaringan mereka, dan memprioritaskan pelayanan kepada klien AI+Web3 sebagai tujuan utama mereka. Sektor ini terutama terdiri dari dua tingkat kunci:
Menawarkan layanan dengan harga yang lebih kompetitif daripada layanan komputasi awan terpusat, sambil tetap mempertahankan fasilitas dukungan dan pengalaman pengguna yang sebanding, proyek ini telah mendapatkan pengakuan dari investor terkemuka. Namun, peningkatan kompleksitas teknis menjadi tantangan yang signifikan. Saat ini, proyek berada dalam fase naratif dan pengembangan, tanpa produk yang sepenuhnya diluncurkan sampai saat ini.
Render Network adalah platform rendering berbasis blockchain global yang memanfaatkan GPU terdistribusi untuk menawarkan layanan rendering 3D yang hemat biaya dan efisien kepada para kreator. Setelah konfirmasi hasil rendering oleh kreator, jaringan blockchain mengirimkan imbalan token ke node. Platform ini memiliki jaringan penjadwalan dan alokasi GPU terdistribusi, menugaskan tugas berdasarkan penggunaan node, reputasi, dan faktor lain untuk mengoptimalkan efisiensi komputasi, meminimalkan sumber daya yang tidak terpakai, dan mengurangi pengeluaran.
Token asli platform, RNDR, berfungsi sebagai mata uang pembayaran dalam ekosistem. Pengguna dapat menggunakan RNDR untuk menyelesaikan biaya layanan rendering, sementara penyedia layanan mendapatkan imbalan RNDR dengan menyumbangkan daya komputasi untuk menyelesaikan tugas rendering. Harga layanan rendering disesuaikan secara dinamis sebagai respons terhadap penggunaan jaringan saat ini dan metrik relevan lainnya.
Rendering terbukti menjadi kasus penggunaan yang sesuai dan mapan untuk arsitektur kekuatan komputasi terdistribusi. Sifat tugas rendering memungkinkan untuk segmentasinya menjadi beberapa sub-tugas yang dieksekusi secara paralel, meminimalkan komunikasi dan interaksi antar-tugas. Pendekatan ini mengurangi kerugian arsitektur komputasi terdistribusi sambil memanfaatkan jaringan node GPU yang luas untuk menggerakkan efisiensi biaya.
Permintaan untuk Jaringan Render sangat besar, dengan pengguna telah merender lebih dari 16 juta frame dan hampir 500.000 scene di platform sejak dimulainya pada tahun 2017. Volume pekerjaan rendering dan node aktif terus meningkat. Selain itu, pada Q1 tahun 2023, Jaringan Render memperkenalkan sebuah set alat Kestabilan AI yang terintegrasi secara native, memungkinkan pengguna untuk menggabungkan operasi Diffusi Stabil. Perluasan ini di luar operasi rendering menandakan langkah strategis ke dalam ranah aplikasi AI.
Gensyn beroperasi sebagai jaringan gugus superkomputasi global yang mengkhususkan diri dalam komputasi deep learning, memanfaatkan protokol L1 Polkadot. Pada tahun 2023, platform ini mengamankan pendanaan Seri A sebesar $43 juta, dipimpin oleh a16z. Kerangka arsitektur Gensyn meluas melampaui gugus daya komputasi terdistribusi infrastruktur untuk mencakup sistem verifikasi lapisan atas. Sistem ini memastikan bahwa komputasi di luar rantai yang ekstensif sejalan dengan persyaratan di rantai melalui verifikasi blockchain, membentuk jaringan pembelajaran mesin tanpa kepercayaan.
Mengenai komputasi terdistribusi, Gensyn mengakomodasi berbagai perangkat, mulai dari pusat data dengan kapasitas berlebih hingga laptop pribadi dengan GPU potensial. Gensyn menyatukan perangkat-perangkat ini ke dalam sebuah klaster virtual yang terpadu yang dapat diakses oleh pengembang untuk penggunaan peer-to-peer sesuai permintaan. Gensyn bertujuan untuk membangun pasar di mana penetapan harga ditentukan oleh kekuatan pasar, mendorong inklusivitas, dan memungkinkan biaya komputasi ML mencapai tingkat yang adil.
Sistem verifikasi berdiri sebagai konsep penting bagi Gensyn, bertujuan untuk memvalidasi akurasi tugas pembelajaran mesin sesuai yang ditentukan. Ini memperkenalkan pendekatan verifikasi inovatif yang mencakup bukti pembelajaran probabilitas, protokol penempatan presisi berbasis graf, dan Truebit. Fitur teknis inti dari permainan insentif ini menawarkan efisiensi yang ditingkatkan dibandingkan dengan metode validasi blockchain tradisional. Peserta jaringan termasuk pengirim, penyelesaian, verifikator, dan pengadu, secara bersama-sama memfasilitasi proses verifikasi.
Berdasarkan data uji coba yang ekstensif yang diuraikan dalam white paper protokol Gensyn, keunggulan-keunggulan platform meliputi:
Namun, secara bersamaan, kekuatan komputasi terdistribusi memperkenalkan peningkatan waktu pelatihan yang tak terhindarkan dibandingkan dengan pelatihan lokal, yang disebabkan oleh tantangan komunikasi dan jaringan. Berdasarkan data uji, protokol Gensyn menimbulkan sekitar 46% tambahan waktu dalam pelatihan model.
Akash Network berfungsi sebagai platform komputasi awan terdistribusi yang mengintegrasikan berbagai elemen teknis untuk memungkinkan pengguna mendeploy dan mengelola aplikasi secara efisien dalam lingkungan awan terdesentralisasi. Pada dasarnya, platform ini menawarkan kemampuan kepada pengguna untuk menyewa sumber daya komputasi terdistribusi.
Inti dari Akash terletak jaringan penyedia layanan infrastruktur yang tersebar secara global, menawarkan CPU, GPU, memori, dan sumber daya penyimpanan. Penyedia ini menyediakan sumber daya untuk penyewaan pengguna melalui kluster Kubernetes atas. Pengguna dapat menyebarkan aplikasi sebagai kontainer Docker untuk memanfaatkan layanan infrastruktur yang hemat biaya. Selain itu, Akash menerapkan pendekatan "lelang terbalik" untuk lebih menurunkan harga sumber daya. Sesuai perkiraan di situs web resmi Akash, biaya layanan platform sekitar 80% lebih rendah daripada server terpusat.
io.net berdiri sebagai jaringan komputasi terdesentralisasi yang menghubungkan GPU yang didistribusikan secara global untuk menyediakan dukungan komputasi untuk pelatihan model AI dan penalaran. Baru-baru ini menyelesaikan putaran pendanaan Seri A sebesar $30 juta, platform ini sekarang memiliki valuasi sebesar $1 miliar.
Dibedakan dari platform seperti Render dan Akash, io.net muncul sebagai jaringan komputasi terdesentralisasi yang tangguh dan dapat diskalakan, yang terhubung secara rumit dengan berbagai tingkat alat pengembang. Fitur utamanya mencakup:
Mengenai harga, situs web resmi io.net memperkirakan bahwa tarifnya akan sekitar 90% lebih rendah dibandingkan dengan layanan komputasi awan terpusat.
Selain itu, token asli io.net, IO coin, akan secara utama berfungsi sebagai mekanisme pembayaran dan imbalan dalam ekosistem. Sebagai alternatif, pihak yang membutuhkan dapat mengadopsi model mirip dengan Helium dengan menukar IO coin menjadi mata uang stabil "IOSD points" untuk transaksi.
Artikel ini dicetak ulang dari [Blockchain Wanxiang], judul asli adalah âAI+Web3 Masa Depan Pengembangan Jalan (2) ): Infrastrukturâ, hak cipta dimiliki oleh penulis asli [Wanxiang Blockchain]. Jika ada keberatan terhadap cetakan ulang ini, silakan hubungi Tim Pembelajaran Gatedan mereka akan menanganinya dengan cepat.
Penafian Tanggung Jawab: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan nasihat investasi apapun.
Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Tanpa menyebutkan Gate.io, artikel yang diterjemahkan mungkin tidak boleh direproduksi, didistribusikan, atau diplagiat.
Judul asli yang diteruskan: Jalur Pengembangan Masa Depan AI+Web3 (2): Bab Infrastruktur
Dalam beberapa tahun terakhir, permintaan akan daya komputasi mengalami pertumbuhan pesat, terutama setelah munculnya model LLM besar. Lonjakan permintaan akan daya komputasi AI ini telah berdampak signifikan pada pasar komputasi berkinerja tinggi. Data dari OpenAI mengungkapkan tren luar biasa sejak 2012, dengan daya komputasi yang digunakan untuk melatih model AI terbesar tumbuh secara eksponensial, melipatgandakan setiap 3-4 bulan secara rata-rata, melampaui laju pertumbuhan yang diprediksi oleh Hukum Moore. Peningkatan permintaan akan aplikasi AI telah mengakibatkan lonjakan cepat dalam kebutuhan akan perangkat keras komputasi. Proyeksi menunjukkan bahwa pada tahun 2025, permintaan akan perangkat keras komputasi yang didorong oleh aplikasi AI diperkirakan akan meningkat sekitar 10% hingga 15%.
Didorong oleh permintaan akan kekuatan komputasi AI, produsen perangkat keras GPU NVIDIA telah menyaksikan pertumbuhan terus menerus dalam pendapatan pusat data. Pada kuartal kedua tahun 2023, pendapatan pusat data mencapai $10,32 miliar, menandai peningkatan 141% dari kuartal pertama tahun 2023 dan lonjakan signifikan sebesar 171% dari periode yang sama pada tahun sebelumnya. Pada kuartal keempat tahun fiskal 2024, segmen pusat data menyumbang lebih dari 83% dari total pendapatan, mengalami pertumbuhan sebesar 409% secara bersamaan, dengan 40% berasal dari skenario inferensi model besar, menunjukkan permintaan yang kuat akan kekuatan komputasi berkinerja tinggi.
Pada saat yang sama, kebutuhan akan jumlah data yang besar menimbulkan persyaratan signifikan pada penyimpanan dan memori perangkat keras. Terutama selama tahap pelatihan model, masukan parameter yang luas dan penyimpanan data sangat penting. Chip memori yang digunakan dalam server AI umumnya mencakup memori berkecepatan tinggi (HBM), DRAM, dan SSD. Lingkungan kerja untuk server AI harus menawarkan kapasitas yang lebih besar, kinerja yang ditingkatkan, latensi yang lebih rendah, dan waktu tanggapan yang lebih cepat. Menurut perhitungan dari Micron, jumlah DRAM dalam server AI melebihi jumlahnya dalam server tradisional sebanyak delapan kali lipat, sementara jumlah NAND melampaui standar server tradisional sebanyak tiga kali lipat.
Biasanya, daya komputasi utamanya digunakan dalam tahap pelatihan, penyempurnaan, dan tahap inferensi dari model AI, terutama selama tahap pelatihan dan penyempurnaan. Karena peningkatan input parameter data, persyaratan komputasi, dan permintaan tinggi untuk keterhubungan dalam komputasi paralel, ada kebutuhan akan hardware GPU yang lebih kuat dan terhubung, seringkali dalam bentuk cluster GPU berkinerja tinggi. Saat model-model besar berkembang, kompleksitas komputasinya meningkat secara linear, memerlukan hardware yang lebih canggih untuk memenuhi tuntutan pelatihan model.
Mengambil GPT-3 sebagai contoh, dengan skenario melibatkan sekitar 13 juta kunjungan pengguna independen, permintaan chip yang sesuai akan melebihi 30.000 GPU A100. Biaya investasi awal ini akan mencapai $800 juta yang mengagumkan, dengan perkiraan biaya inferensi model harian mencapai sekitar $700.000.
Secara bersamaan, laporan industri menunjukkan bahwa pada kuartal keempat tahun 2023, pasokan GPU NVIDIA sangat terbatas secara global, menyebabkan ketidakseimbangan yang nyata antara pasokan dan permintaan di pasar-pasar di seluruh dunia. Kapasitas produksi NVIDIA dibatasi oleh faktor-faktor seperti TSMC, kemasan HBM, CoWos, dan isu 'kekurangan parah' dari GPU H100 diperkirakan akan bertahan setidaknya hingga akhir tahun 2024.
Oleh karena itu, lonjakan permintaan untuk GPU high-end dan kendala pasokan telah mendorong harga-harga melambung dari komponen hardware saat ini seperti GPU. Terutama bagi perusahaan-perusahaan seperti NVIDIA yang menduduki posisi inti dalam rantai industri, harga tinggi tersebut lebih diperkuat oleh dominasi monopoli mereka, memungkinkan mereka untuk meraih dividen nilai tambahan. Sebagai contoh, biaya material kartu akselerator AI H100 NVIDIA sekitar $3,000, namun harganya mencapai sekitar $35,000 pada pertengahan 2023 dan bahkan melampaui $40,000 di eBay.
Sebuah laporan oleh Grand View Research menunjukkan bahwa ukuran pasar AI cloud global diperkirakan sebesar $62,63 miliar pada tahun 2023, diproyeksikan mencapai $647,6 miliar pada tahun 2030, dengan tingkat pertumbuhan tahunan gabungan sebesar 39,6%. Angka-angka ini menegaskan potensi pertumbuhan signifikan dari layanan AI cloud dan kontribusi substansial mereka terhadap rantai industri AI secara keseluruhan.
Menurut perkiraan oleh a16z, sebagian besar dana di pasar AIGC (AI dan Global Computing) pada akhirnya mengalir ke perusahaan infrastruktur. Rata-rata, perusahaan aplikasi mengalokasikan sekitar 20-40% dari pendapatannya untuk inferensi dan penyempurnaan untuk setiap pelanggan. Pengeluaran ini biasanya diarahkan ke penyedia cloud dari contoh komputasi atau penyedia model pihak ketiga, yang pada gilirannya mengalokasikan sekitar separuh dari pendapatan untuk infrastruktur cloud. Oleh karena itu, adalah wajar untuk mengasumsikan bahwa 10-20% dari total pendapatan yang dihasilkan oleh AIGC diarahkan ke penyedia cloud.
Selain itu, sebagian besar permintaan akan kekuatan komputasi berpusat di sekitar pelatihan model AI besar, termasuk berbagai model LLM yang luas. Khususnya untuk startup model, 80-90% biaya dikaitkan dengan kekuatan komputasi AI. Secara kolektif, infrastruktur komputasi AI, yang mencakup komputasi awan dan perangkat keras, diperkirakan akan mewakili lebih dari 50% dari nilai awal pasar.
Seperti yang dibahas sebelumnya, biaya saat ini dari komputasi AI terpusat tetap tinggi, terutama karena permintaan yang meningkat untuk infrastruktur kinerja tinggi untuk pelatihan AI. Namun, jumlah daya komputasi yang menganggur secara signifikan ada di pasar, menyebabkan ketidakcocokan antara penawaran dan permintaan. Faktor kunci yang berkontribusi pada ketidakseimbangan ini termasuk:
Sebagai tanggapan terhadap tantangan yang diuraikan di atas, pengejaran desain chip berkinerja tinggi atau chip ASIC khusus yang disesuaikan untuk tugas AI adalah jalur yang menonjol yang sedang dieksplorasi oleh banyak pengembang dan perusahaan besar. Pendekatan lain melibatkan pemanfaatan komprehensif sumber daya komputasi yang ada untuk mendirikan jaringan komputasi terdistribusi, dengan tujuan mengurangi biaya daya komputasi melalui penyewaan, berbagi, dan penjadwalan sumber daya yang efisien. Selain itu, pasar saat ini memiliki surplus GPU dan CPU tingkat konsumen yang tidak terpakai. Meskipun unit-unit individu mungkin kurang memiliki daya komputasi yang kuat, mereka dapat memenuhi persyaratan komputasi yang ada secara efektif dalam skenario tertentu atau saat diintegrasikan dengan chip berkinerja tinggi. Pentingnya, memastikan pasokan yang cukup adalah penting, karena biaya dapat lebih ditekan melalui penjadwalan jaringan terdistribusi.
Akibatnya, pergeseran menuju kekuatan komputasi terdistribusi telah muncul sebagai arah utama dalam kemajuan infrastruktur AI. Secara bersamaan, mengingat keselarasan konseptual antara Web3 dan sistem terdistribusi, jaringan kekuatan komputasi terdesentralisasi telah menjadi fokus utama dalam lanskap infrastruktur Web3+AI. Saat ini, platform kekuatan komputasi terdesentralisasi di pasar Web3 umumnya menawarkan harga yang 80%-90% lebih rendah daripada layanan komputasi awan terpusat.
Sementara penyimpanan memainkan peran penting dalam infrastruktur AI, penyimpanan terpusat memiliki keunggulan yang jelas dalam hal skala, kegunaan, dan latensi rendah. Namun, karena efisiensi biaya yang signifikan yang mereka tawarkan, jaringan komputasi terdistribusi memiliki potensi pasar yang signifikan dan berpotensi mendapatkan manfaat substansial dari ekspansi pasar AI yang berkembang.
Sektor infrastruktur AI terdistribusi menunjukkan permintaan yang kuat dan prospek pertumbuhan jangka panjang yang signifikan, menjadikannya area yang menarik untuk modal investasi. Saat ini, proyek-proyek utama dalam lapisan infrastruktur industri AI+Web3 secara dominan berpusat pada jaringan komputasi terdesentralisasi. Proyek-proyek ini menekankan biaya rendah sebagai keuntungan utama, memanfaatkan insentif token untuk memperluas jaringan mereka, dan memprioritaskan pelayanan kepada klien AI+Web3 sebagai tujuan utama mereka. Sektor ini terutama terdiri dari dua tingkat kunci:
Menawarkan layanan dengan harga yang lebih kompetitif daripada layanan komputasi awan terpusat, sambil tetap mempertahankan fasilitas dukungan dan pengalaman pengguna yang sebanding, proyek ini telah mendapatkan pengakuan dari investor terkemuka. Namun, peningkatan kompleksitas teknis menjadi tantangan yang signifikan. Saat ini, proyek berada dalam fase naratif dan pengembangan, tanpa produk yang sepenuhnya diluncurkan sampai saat ini.
Render Network adalah platform rendering berbasis blockchain global yang memanfaatkan GPU terdistribusi untuk menawarkan layanan rendering 3D yang hemat biaya dan efisien kepada para kreator. Setelah konfirmasi hasil rendering oleh kreator, jaringan blockchain mengirimkan imbalan token ke node. Platform ini memiliki jaringan penjadwalan dan alokasi GPU terdistribusi, menugaskan tugas berdasarkan penggunaan node, reputasi, dan faktor lain untuk mengoptimalkan efisiensi komputasi, meminimalkan sumber daya yang tidak terpakai, dan mengurangi pengeluaran.
Token asli platform, RNDR, berfungsi sebagai mata uang pembayaran dalam ekosistem. Pengguna dapat menggunakan RNDR untuk menyelesaikan biaya layanan rendering, sementara penyedia layanan mendapatkan imbalan RNDR dengan menyumbangkan daya komputasi untuk menyelesaikan tugas rendering. Harga layanan rendering disesuaikan secara dinamis sebagai respons terhadap penggunaan jaringan saat ini dan metrik relevan lainnya.
Rendering terbukti menjadi kasus penggunaan yang sesuai dan mapan untuk arsitektur kekuatan komputasi terdistribusi. Sifat tugas rendering memungkinkan untuk segmentasinya menjadi beberapa sub-tugas yang dieksekusi secara paralel, meminimalkan komunikasi dan interaksi antar-tugas. Pendekatan ini mengurangi kerugian arsitektur komputasi terdistribusi sambil memanfaatkan jaringan node GPU yang luas untuk menggerakkan efisiensi biaya.
Permintaan untuk Jaringan Render sangat besar, dengan pengguna telah merender lebih dari 16 juta frame dan hampir 500.000 scene di platform sejak dimulainya pada tahun 2017. Volume pekerjaan rendering dan node aktif terus meningkat. Selain itu, pada Q1 tahun 2023, Jaringan Render memperkenalkan sebuah set alat Kestabilan AI yang terintegrasi secara native, memungkinkan pengguna untuk menggabungkan operasi Diffusi Stabil. Perluasan ini di luar operasi rendering menandakan langkah strategis ke dalam ranah aplikasi AI.
Gensyn beroperasi sebagai jaringan gugus superkomputasi global yang mengkhususkan diri dalam komputasi deep learning, memanfaatkan protokol L1 Polkadot. Pada tahun 2023, platform ini mengamankan pendanaan Seri A sebesar $43 juta, dipimpin oleh a16z. Kerangka arsitektur Gensyn meluas melampaui gugus daya komputasi terdistribusi infrastruktur untuk mencakup sistem verifikasi lapisan atas. Sistem ini memastikan bahwa komputasi di luar rantai yang ekstensif sejalan dengan persyaratan di rantai melalui verifikasi blockchain, membentuk jaringan pembelajaran mesin tanpa kepercayaan.
Mengenai komputasi terdistribusi, Gensyn mengakomodasi berbagai perangkat, mulai dari pusat data dengan kapasitas berlebih hingga laptop pribadi dengan GPU potensial. Gensyn menyatukan perangkat-perangkat ini ke dalam sebuah klaster virtual yang terpadu yang dapat diakses oleh pengembang untuk penggunaan peer-to-peer sesuai permintaan. Gensyn bertujuan untuk membangun pasar di mana penetapan harga ditentukan oleh kekuatan pasar, mendorong inklusivitas, dan memungkinkan biaya komputasi ML mencapai tingkat yang adil.
Sistem verifikasi berdiri sebagai konsep penting bagi Gensyn, bertujuan untuk memvalidasi akurasi tugas pembelajaran mesin sesuai yang ditentukan. Ini memperkenalkan pendekatan verifikasi inovatif yang mencakup bukti pembelajaran probabilitas, protokol penempatan presisi berbasis graf, dan Truebit. Fitur teknis inti dari permainan insentif ini menawarkan efisiensi yang ditingkatkan dibandingkan dengan metode validasi blockchain tradisional. Peserta jaringan termasuk pengirim, penyelesaian, verifikator, dan pengadu, secara bersama-sama memfasilitasi proses verifikasi.
Berdasarkan data uji coba yang ekstensif yang diuraikan dalam white paper protokol Gensyn, keunggulan-keunggulan platform meliputi:
Namun, secara bersamaan, kekuatan komputasi terdistribusi memperkenalkan peningkatan waktu pelatihan yang tak terhindarkan dibandingkan dengan pelatihan lokal, yang disebabkan oleh tantangan komunikasi dan jaringan. Berdasarkan data uji, protokol Gensyn menimbulkan sekitar 46% tambahan waktu dalam pelatihan model.
Akash Network berfungsi sebagai platform komputasi awan terdistribusi yang mengintegrasikan berbagai elemen teknis untuk memungkinkan pengguna mendeploy dan mengelola aplikasi secara efisien dalam lingkungan awan terdesentralisasi. Pada dasarnya, platform ini menawarkan kemampuan kepada pengguna untuk menyewa sumber daya komputasi terdistribusi.
Inti dari Akash terletak jaringan penyedia layanan infrastruktur yang tersebar secara global, menawarkan CPU, GPU, memori, dan sumber daya penyimpanan. Penyedia ini menyediakan sumber daya untuk penyewaan pengguna melalui kluster Kubernetes atas. Pengguna dapat menyebarkan aplikasi sebagai kontainer Docker untuk memanfaatkan layanan infrastruktur yang hemat biaya. Selain itu, Akash menerapkan pendekatan "lelang terbalik" untuk lebih menurunkan harga sumber daya. Sesuai perkiraan di situs web resmi Akash, biaya layanan platform sekitar 80% lebih rendah daripada server terpusat.
io.net berdiri sebagai jaringan komputasi terdesentralisasi yang menghubungkan GPU yang didistribusikan secara global untuk menyediakan dukungan komputasi untuk pelatihan model AI dan penalaran. Baru-baru ini menyelesaikan putaran pendanaan Seri A sebesar $30 juta, platform ini sekarang memiliki valuasi sebesar $1 miliar.
Dibedakan dari platform seperti Render dan Akash, io.net muncul sebagai jaringan komputasi terdesentralisasi yang tangguh dan dapat diskalakan, yang terhubung secara rumit dengan berbagai tingkat alat pengembang. Fitur utamanya mencakup:
Mengenai harga, situs web resmi io.net memperkirakan bahwa tarifnya akan sekitar 90% lebih rendah dibandingkan dengan layanan komputasi awan terpusat.
Selain itu, token asli io.net, IO coin, akan secara utama berfungsi sebagai mekanisme pembayaran dan imbalan dalam ekosistem. Sebagai alternatif, pihak yang membutuhkan dapat mengadopsi model mirip dengan Helium dengan menukar IO coin menjadi mata uang stabil "IOSD points" untuk transaksi.
Artikel ini dicetak ulang dari [Blockchain Wanxiang], judul asli adalah âAI+Web3 Masa Depan Pengembangan Jalan (2) ): Infrastrukturâ, hak cipta dimiliki oleh penulis asli [Wanxiang Blockchain]. Jika ada keberatan terhadap cetakan ulang ini, silakan hubungi Tim Pembelajaran Gatedan mereka akan menanganinya dengan cepat.
Penafian Tanggung Jawab: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan nasihat investasi apapun.
Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Tanpa menyebutkan Gate.io, artikel yang diterjemahkan mungkin tidak boleh direproduksi, didistribusikan, atau diplagiat.