Proyek Web3 dengan konsep AI menjadi sasaran pengumpulan dana di pasar primer dan sekunder.
Peluang Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial dalam ekor panjang—melalui data, penyimpanan, dan komputasi; sambil membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan untuk keuangan on-chain (pembayaran kripto, perdagangan, analisis data) dan mendukung pengembangan.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, sementara AI diharapkan dapat membantu Web3 memperluas jangkauannya.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seolah-olah telah dipercepat. Gelombang yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga menciptakan arus besar di bidang Web3.
Di bawah dukungan konsep AI, pembiayaan pasar kripto jelas meningkat. Hanya dalam paruh pertama tahun 2024, ada 64 proyek Web3+AI yang menyelesaikan pembiayaan, di mana sistem operasi berbasis kecerdasan buatan Zyber365 mencapai pembiayaan tertinggi sebesar 100 juta USD pada putaran A.
Pasar sekunder semakin berkembang, situs agregator kripto Coingecko menunjukkan bahwa dalam waktu singkat lebih dari satu tahun, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan 24 jam mendekati 8,6 miliar dolar AS. Kemajuan teknologi AI yang mainstream membawa keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata di sektor AI naik 151%. Efek AI juga menjangkau salah satu sektor pengumpulan cryptocurrency, Meme: MemeCoin pertama dengan konsep AI Agent—GOAT dengan cepat menjadi terkenal dan mendapatkan valuasi 1,4 miliar dolar AS, berhasil memicu tren AI Meme.
Penelitian dan topik mengenai AI+Web3 juga sedang panas, mulai dari AI+Depin hingga AI Memecoin dan saat ini AI Agent serta AI DAO, perasaan FOMO sudah tidak bisa mengikuti kecepatan rotasi narasi baru.
AI+Web3, kombinasi istilah yang penuh dengan uang panas, peluang, dan fantasi masa depan ini, tak terhindarkan dianggap sebagai sebuah pernikahan yang diatur oleh modal, kita tampaknya sulit untuk membedakan di balik jubah megah ini, apakah ini adalah arena para spekulan, atau malam menjelang ledakan fajar?
Untuk menjawab pertanyaan ini, sebuah pemikiran yang krusial bagi kedua belah pihak adalah, apakah keberadaan pihak lain akan membuatnya lebih baik? Apakah kita bisa mendapatkan manfaat dari pola pihak lain? Dalam artikel ini, kami juga berusaha untuk melihat pola ini dari sudut pandang para pendahulu: Bagaimana Web3 dapat berperan di berbagai tahap tumpukan teknologi AI, dan apa yang dapat AI bawa untuk memberikan semangat baru bagi Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model AI besar:
Dengan bahasa yang lebih sederhana, keseluruhan proses dapat diungkapkan sebagai berikut: "Model besar" seperti otak manusia; pada tahap awal, otak ini milik bayi yang baru saja lahir, yang perlu mengamati dan menyerap informasi besar dari dunia di sekitarnya untuk memahami dunia ini, yaitu tahap "pengumpulan" data. Karena komputer tidak memiliki indera seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi besar yang tidak terlabel dari luar perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah data dimasukkan, AI membangun model yang memiliki kemampuan memahami dan memprediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model mirip dengan kemampuan bahasa bayi yang terus disesuaikan selama proses pembelajaran. Ketika konten yang dipelajari mulai dibagi menjadi subjek, atau ketika berinteraksi dengan orang lain mendapatkan umpan balik dan diperbaiki, maka masuk ke tahap "penyesuaian halus" model besar.
Anak-anak yang mulai tumbuh dan belajar berbicara, dapat memahami makna dan mengekspresikan perasaan serta pikiran mereka dalam dialog baru, fase ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa, ini juga mirip dengan bagaimana model AI besar diterapkan setelah dilatih untuk tugas-tugas tertentu, seperti klasifikasi gambar, pengenalan suara, dll.
AI Agent semakin mendekati bentuk berikutnya dari model besar — mampu menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga mampu mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik sakit AI di berbagai tumpukan, Web3 saat ini telah secara awal membentuk ekosistem yang berlapis-lapis dan saling terhubung, mencakup semua tahap proses model AI.
Satu, Lapisan Dasar: Airbnb untuk Kekuatan Komputasi dan Data
Kekuatan komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi.
Salah satu contohnya adalah, model bahasa besar dari sebuah perusahaan teknologi besar membutuhkan 16.000 GPU berkinerja tinggi yang diproduksi oleh produsen chip terkenal selama 30 hari untuk menyelesaikan pelatihan. Versi 80GB dari yang terakhir memiliki harga unit antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.
Untuk pelepasan kekuatan komputasi AI, ini adalah salah satu bidang awal di mana Web3 berinteraksi dengan AI - DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah menampilkan lebih dari 1400 proyek, di mana proyek perwakilan berbagi kekuatan GPU termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa perlu izin, melalui pasar online antara pembeli dan penjual yang mirip dengan platform ekonomi berbagi, meningkatkan penggunaan sumber daya GPU yang tidak dimanfaatkan secara optimal, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah. Sementara itu, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme pengendalian kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri khasnya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Penyedia utama adalah operator pusat data kecil dan menengah independen pihak ketiga, sumber daya komputasi surplus dari tambang kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin penambang FileCoin dan ETH. Saat ini juga ada proyek yang bertujuan untuk memulai perangkat dengan ambang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk menjalankan inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. "Dari sisi teknis", pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang diberikan oleh GPU dengan skala kluster yang sangat besar, sementara inferensi memiliki kebutuhan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan", pihak dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyesuaikan diri di sekitar beberapa model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi yang tidak terpakai secara terdistribusi.
Kepemilikan terdesentralisasi: Makna teknis dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya mereka, dapat menyesuaikan secara fleksibel sesuai permintaan, sambil mendapatkan keuntungan.
Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti ilalang yang tidak berguna, dan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai-nilai dan perilaku kemanusiaan. Saat ini, tantangan kebutuhan data AI berfokus pada empat aspek berikut:
Kekurangan Data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa sebuah perusahaan AI terkenal melatih model bahasa besarnya dengan jumlah parameter mencapai triliunan.
Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keragaman data, keahlian data vertikal, serta penyerapan sumber data baru seperti emosi media sosial juga mengajukan tuntutan baru terhadap kualitasnya.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Volume data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi Web3 tercermin dalam empat aspek berikut:
Pengumpulan Data: Kemampuan untuk secara gratis menyediakan data dunia nyata yang diambil dengan cepat semakin menipis, pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pada saat yang sama, pengeluaran ini tidak kembali kepada kontributor nyata data, platform sepenuhnya menikmati penciptaan nilai yang dibawa oleh data, seperti sebuah platform media sosial yang menghasilkan total pendapatan 203 juta dolar AS melalui perjanjian lisensi data yang ditandatangani dengan perusahaan AI.
Membiarkan pengguna yang benar-benar berkontribusi juga terlibat dalam penciptaan nilai yang dihasilkan oleh data, serta mendapatkan data yang lebih pribadi dan lebih bernilai dengan biaya rendah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.
Grass adalah lapisan data dan jaringan terdesentralisasi, di mana pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token.
Vana memperkenalkan konsep kolam likuiditas data (DLP) yang unik, di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan dengan fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut.
Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori dan @PublicAI di platform sosial tertentu untuk melakukan pengumpulan data.
Pra-pemrosesan data: Dalam proses pemrosesan data AI, karena data yang dikumpulkan biasanya bising dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, yang melibatkan tugas standar, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit langkah manual di industri AI, yang telah melahirkan industri penandaan data. Seiring meningkatnya tuntutan kualitas data oleh model, ambang batas untuk penandaan data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk menambahkan penandaan data sebagai langkah kunci.
Synesis mengusulkan konsep "Train2earn", menekankan pada kualitas data, pengguna dapat memperoleh imbalan dengan menyediakan data yang diberi label, komentar, atau bentuk masukan lainnya.
Proyek anotasi data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Privasi dan Keamanan Data: Yang perlu diperjelas adalah, privasi dan keamanan data adalah dua konsep yang berbeda. Privasi data berkaitan dengan pengolahan data sensitif, sementara keamanan data melindungi informasi dari akses, perusakan, dan pencurian yang tidak sah. Dengan demikian, keunggulan teknologi privasi Web3 dan potensi skenario aplikasinya terwujud dalam dua aspek: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa perlu berbagi data asli mereka.
Teknologi privasi yang umum dalam Web3 saat ini meliputi:
Lingkungan Eksekusi Tepercaya ( TEE ), seperti Super Protocol.
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io atau Inco Network.
Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, salah satu dilema saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah:
Kerangka zkML EZKL membutuhkan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.
Menurut data Modulus Labs, overhead zkML lebih dari seribu kali lipat dibandingkan dengan perhitungan murni.
Penyimpanan Data: Setelah memiliki data, dibutuhkan tempat untuk menyimpan data di blockchain, serta LLM yang dihasilkan dari data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, throughputnya adalah 0,08MB sebelum pembaruan Danksharding di Ethereum. Sementara itu, pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data sebesar 50 hingga 100GB per detik. Selisih skala ini membuat solusi blockchain yang ada tidak mampu menghadapi "aplikasi AI yang membutuhkan sumber daya yang intensif."
0g.AI adalah perwakilan dari kategori ini
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 Suka
Hadiah
12
5
Bagikan
Komentar
0/400
StablecoinEnjoyer
· 9jam yang lalu
Tidak optimis tentang penggabungan ini
Lihat AsliBalas0
ApeEscapeArtist
· 07-11 12:17
Melihat prospek di masa depan
Lihat AsliBalas0
LayerZeroHero
· 07-11 12:05
Keterlengkapan dapat menghasilkan kemenangan bersama
Integrasi AI dan Web3: Peluang Baru untuk Membangun Infrastruktur AI Terdistribusi
AI+Web3: Menara dan Lapangan
TL;DR
Proyek Web3 dengan konsep AI menjadi sasaran pengumpulan dana di pasar primer dan sekunder.
Peluang Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial dalam ekor panjang—melalui data, penyimpanan, dan komputasi; sambil membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan untuk keuangan on-chain (pembayaran kripto, perdagangan, analisis data) dan mendukung pengembangan.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, sementara AI diharapkan dapat membantu Web3 memperluas jangkauannya.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seolah-olah telah dipercepat. Gelombang yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga menciptakan arus besar di bidang Web3.
Di bawah dukungan konsep AI, pembiayaan pasar kripto jelas meningkat. Hanya dalam paruh pertama tahun 2024, ada 64 proyek Web3+AI yang menyelesaikan pembiayaan, di mana sistem operasi berbasis kecerdasan buatan Zyber365 mencapai pembiayaan tertinggi sebesar 100 juta USD pada putaran A.
Pasar sekunder semakin berkembang, situs agregator kripto Coingecko menunjukkan bahwa dalam waktu singkat lebih dari satu tahun, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan 24 jam mendekati 8,6 miliar dolar AS. Kemajuan teknologi AI yang mainstream membawa keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata di sektor AI naik 151%. Efek AI juga menjangkau salah satu sektor pengumpulan cryptocurrency, Meme: MemeCoin pertama dengan konsep AI Agent—GOAT dengan cepat menjadi terkenal dan mendapatkan valuasi 1,4 miliar dolar AS, berhasil memicu tren AI Meme.
Penelitian dan topik mengenai AI+Web3 juga sedang panas, mulai dari AI+Depin hingga AI Memecoin dan saat ini AI Agent serta AI DAO, perasaan FOMO sudah tidak bisa mengikuti kecepatan rotasi narasi baru.
AI+Web3, kombinasi istilah yang penuh dengan uang panas, peluang, dan fantasi masa depan ini, tak terhindarkan dianggap sebagai sebuah pernikahan yang diatur oleh modal, kita tampaknya sulit untuk membedakan di balik jubah megah ini, apakah ini adalah arena para spekulan, atau malam menjelang ledakan fajar?
Untuk menjawab pertanyaan ini, sebuah pemikiran yang krusial bagi kedua belah pihak adalah, apakah keberadaan pihak lain akan membuatnya lebih baik? Apakah kita bisa mendapatkan manfaat dari pola pihak lain? Dalam artikel ini, kami juga berusaha untuk melihat pola ini dari sudut pandang para pendahulu: Bagaimana Web3 dapat berperan di berbagai tahap tumpukan teknologi AI, dan apa yang dapat AI bawa untuk memberikan semangat baru bagi Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model AI besar:
Dengan bahasa yang lebih sederhana, keseluruhan proses dapat diungkapkan sebagai berikut: "Model besar" seperti otak manusia; pada tahap awal, otak ini milik bayi yang baru saja lahir, yang perlu mengamati dan menyerap informasi besar dari dunia di sekitarnya untuk memahami dunia ini, yaitu tahap "pengumpulan" data. Karena komputer tidak memiliki indera seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi besar yang tidak terlabel dari luar perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah data dimasukkan, AI membangun model yang memiliki kemampuan memahami dan memprediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model mirip dengan kemampuan bahasa bayi yang terus disesuaikan selama proses pembelajaran. Ketika konten yang dipelajari mulai dibagi menjadi subjek, atau ketika berinteraksi dengan orang lain mendapatkan umpan balik dan diperbaiki, maka masuk ke tahap "penyesuaian halus" model besar.
Anak-anak yang mulai tumbuh dan belajar berbicara, dapat memahami makna dan mengekspresikan perasaan serta pikiran mereka dalam dialog baru, fase ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa, ini juga mirip dengan bagaimana model AI besar diterapkan setelah dilatih untuk tugas-tugas tertentu, seperti klasifikasi gambar, pengenalan suara, dll.
AI Agent semakin mendekati bentuk berikutnya dari model besar — mampu menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga mampu mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik sakit AI di berbagai tumpukan, Web3 saat ini telah secara awal membentuk ekosistem yang berlapis-lapis dan saling terhubung, mencakup semua tahap proses model AI.
Satu, Lapisan Dasar: Airbnb untuk Kekuatan Komputasi dan Data
Kekuatan komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi.
Salah satu contohnya adalah, model bahasa besar dari sebuah perusahaan teknologi besar membutuhkan 16.000 GPU berkinerja tinggi yang diproduksi oleh produsen chip terkenal selama 30 hari untuk menyelesaikan pelatihan. Versi 80GB dari yang terakhir memiliki harga unit antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.
Untuk pelepasan kekuatan komputasi AI, ini adalah salah satu bidang awal di mana Web3 berinteraksi dengan AI - DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah menampilkan lebih dari 1400 proyek, di mana proyek perwakilan berbagi kekuatan GPU termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa perlu izin, melalui pasar online antara pembeli dan penjual yang mirip dengan platform ekonomi berbagi, meningkatkan penggunaan sumber daya GPU yang tidak dimanfaatkan secara optimal, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah. Sementara itu, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme pengendalian kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri khasnya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Penyedia utama adalah operator pusat data kecil dan menengah independen pihak ketiga, sumber daya komputasi surplus dari tambang kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin penambang FileCoin dan ETH. Saat ini juga ada proyek yang bertujuan untuk memulai perangkat dengan ambang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk menjalankan inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. "Dari sisi teknis", pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang diberikan oleh GPU dengan skala kluster yang sangat besar, sementara inferensi memiliki kebutuhan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan", pihak dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyesuaikan diri di sekitar beberapa model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi yang tidak terpakai secara terdistribusi.
Data
Data adalah fondasi AI. Tanpa data, perhitungan seperti ilalang yang tidak berguna, dan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai-nilai dan perilaku kemanusiaan. Saat ini, tantangan kebutuhan data AI berfokus pada empat aspek berikut:
Kekurangan Data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa sebuah perusahaan AI terkenal melatih model bahasa besarnya dengan jumlah parameter mencapai triliunan.
Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keragaman data, keahlian data vertikal, serta penyerapan sumber data baru seperti emosi media sosial juga mengajukan tuntutan baru terhadap kualitasnya.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Volume data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi Web3 tercermin dalam empat aspek berikut:
Membiarkan pengguna yang benar-benar berkontribusi juga terlibat dalam penciptaan nilai yang dihasilkan oleh data, serta mendapatkan data yang lebih pribadi dan lebih bernilai dengan biaya rendah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.
Grass adalah lapisan data dan jaringan terdesentralisasi, di mana pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token.
Vana memperkenalkan konsep kolam likuiditas data (DLP) yang unik, di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan dengan fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut.
Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori dan @PublicAI di platform sosial tertentu untuk melakukan pengumpulan data.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk menambahkan penandaan data sebagai langkah kunci.
Synesis mengusulkan konsep "Train2earn", menekankan pada kualitas data, pengguna dapat memperoleh imbalan dengan menyediakan data yang diberi label, komentar, atau bentuk masukan lainnya.
Proyek anotasi data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Teknologi privasi yang umum dalam Web3 saat ini meliputi:
Lingkungan Eksekusi Tepercaya ( TEE ), seperti Super Protocol.
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io atau Inco Network.
Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, salah satu dilema saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah:
Kerangka zkML EZKL membutuhkan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.
Menurut data Modulus Labs, overhead zkML lebih dari seribu kali lipat dibandingkan dengan perhitungan murni.