Memahami Persimpangan Kripto dan AI

Lanjutan2/22/2024, 5:28:27 AM
Percobaan di perpotongan kripto dan kecerdasan buatan didorong oleh kekuatan yang sama yang mendasari kasus penggunaan paling menjanjikan untuk kripto—akses ke lapisan koordinasi tanpa izin dan tanpa kepercayaan, memfasilitasi transfer nilai secara lebih efektif.

Pengantar

Kedatangan rantai blok publik adalah salah satu kemajuan paling mendalam dalam sejarah ilmu komputer. Tetapi perkembangan kecerdasan buatan akan, dan sudah, memiliki dampak mendalam pada dunia kita. Jika teknologi blockchain menyediakan template baru untuk penyelesaian transaksi, penyimpanan data, dan desain sistem, kecerdasan buatan adalah revolusi dalam komputasi, analisis, dan pengiriman konten. Inovasi dalam dua industri tersebut membuka kunci kasus penggunaan baru yang dapat mempercepat adopsi keduanya dalam beberapa tahun mendatang. Laporan ini mengeksplorasi integrasi yang sedang berlangsung dari kripto dan kecerdasan buatan dengan fokus pada kasus penggunaan baru yang mencoba untuk menjembatani kesenjangan di antara keduanya, memanfaatkan kekuatan keduanya. Secara khusus, laporan ini mengkaji proyek-proyek yang mengembangkan protokol komputasi terdesentralisasi, infrastruktur pembelajaran mesin pengetahuan nol (zkML), dan agen kecerdasan buatan.

Crypto memberi AI lapisan penyelesaian tanpa izin, tanpa kepercayaan, dan dapat disusun. Ini membuka kasus penggunaan seperti membuat perangkat keras lebih mudah diakses melalui sistem komputasi terdesentralisasi, membangun agen AI yang dapat menjalankan tugas-tugas kompleks yang membutuhkan pertukaran nilai, dan mengembangkan solusi identitas dan asal untuk memerangi serangan Sybil dan deep fake. AI membawa ke crypto banyak manfaat yang sama yang kita lihat di Web 2. Ini termasuk pengalaman pengguna (UX) yang ditingkatkan untuk pengguna dan pengembang berkat model bahasa besar (yaitu, versi ChatGPT dan Copilot yang terlatih khusus) serta potensi untuk secara signifikan meningkatkan fungsionalitas dan otomatisasi kontrak pintar. Blockchain adalah lingkungan kaya data transparan yang dibutuhkan AI. Tetapi blockchain juga memiliki kapasitas komputasi terbatas, hambatan utama untuk integrasi langsung model AI.

Kekuatan pendorong di balik eksperimen yang sedang berlangsung dan adopsi akhirnya di persimpangan antara kripto dan AI adalah sama dengan yang mendorong sebagian besar kasus penggunaan kripto yang paling menjanjikan - akses ke lapisan koordinasi tanpa izin dan tanpa kepercayaan yang lebih baik memfasilitasi transfer nilai. Mengingat potensi besar, para peserta di ruang ini perlu memahami cara-cara mendasar di mana dua teknologi tersebut berpotongan.

Poin Penting:

  • Integrasi Kripto dan Kecerdasan Buatan (AI) dalam waktu dekat (6 bulan hingga 1 tahun) akan didominasi oleh aplikasi AI yang meningkatkan efisiensi pengembang, auditabilitas dan keamanan kontrak pintar, serta aksesibilitas pengguna. Integrasi-integrasi ini tidak spesifik untuk kripto tetapi meningkatkan pengalaman pengembang dan pengguna on-chain.
  • Penawaran komputasi terdesentralisasi sedang mengimplementasikan penawaran GPU yang disesuaikan dengan kecerdasan buatan (AI) tepat ketika terjadi kekurangan signifikan dalam GPU berkinerja tinggi, memberikan dorongan bagi adopsi.
  • Pengalaman pengguna dan regulasi tetap menjadi hambatan bagi pelanggan komputasi terdesentralisasi.Perkembangan terbaru di OpenAIserta jugaulasan regulasi yang sedang berlangsungdi Amerika Serikat, bagaimanapun, menyoroti nilai tawaran jaringan AI terdesentralisasi yang tak berizin, tahan sensor, dan tanpa sensor.
  • Integrasi AI on-chain, terutama untuk kontrak pintar yang mampu menggunakan model AI, memerlukan peningkatan dalam teknologi zkML dan metode komputasi lain yang memverifikasi komputasi offchain on-chain. Kurangnya penanganan alat yang komprehensif dan talenta pengembang serta biaya tinggi menjadi hambatan dalam adopsi.
  • Agen AI sangat cocok untuk kripto di mana pengguna (atau agen itu sendiri) dapat membuat dompet untuk bertransaksi dengan layanan lain, agen, atau orang. Saat ini hal ini tidak mungkin dilakukan menggunakan rel keuangan tradisional. Integrasi tambahan dengan produk non-kripto diperlukan untuk adopsi yang lebih luas.

Terminologi

Kecerdasan Buatan adalah penggunaan komputasi dan mesin untuk meniru kemampuan penalaran dan pemecahan masalah manusia.

Jaringan Saraf Tiruan adalah salah satu metode pelatihan untuk model AI. Mereka menjalankan input melalui lapisan algoritma diskrit, menyempurnakannya sampai output yang diinginkan dihasilkan. Jaringan saraf terdiri dari persamaan yang memiliki bobot yang dapat dimodifikasi untuk mengubah output. Mereka dapat membutuhkan jumlah data dan perhitungan yang luar biasa untuk dilatih sehingga hasilnya akurat. Ini adalah salah satu cara paling umum bahwa model AI dikembangkan (ChatGPT menggunakan proses jaringan saraf yang bergantung pada transformers.

Pelatihan adalah proses di mana jaringan saraf dan model AI lainnya dikembangkan. Ini memerlukan sejumlah besar data untuk melatih model agar dapat menginterpretasikan input dengan benar dan menghasilkan output yang akurat. Selama proses pelatihan, bobot persamaan model terus dimodifikasi hingga output yang memuaskan dihasilkan. Pelatihan bisa sangat mahal. ChatGPT, misalnya, menggunakanpuluhan ribu GPU miliknya untuk memproses datanya. Tim dengan sumber daya yang lebih sedikit sering mengandalkan penyedia komputasi khusus seperti Amazon Web Services, Azure, dan Google Cloud Providers.

Inferensi adalah penggunaan sebenarnya dari model AI untuk mendapatkan output atau hasil (misalnya, menggunakan ChatGPT untuk membuat garis besar untuk makalah tentang persilangan kripto dan AI). Inferensi digunakan sepanjang proses pelatihan dan pada produk akhir. Mereka dapat mahal untuk dijalankan, bahkan setelah pelatihan selesai, karena biaya komputasi, tetapi kurang intensif komputasi dibandingkan dengan pelatihan.

Bukti Pengetahuan Nol (ZKP) memungkinkan verifikasi klaim tanpa mengungkapkan informasi yang mendasarinya. Ini berguna dalam kripto karena dua alasan utama: 1) privasi dan 2) skalabilitas. Untuk privasi, ini memungkinkan pengguna untuk bertransaksi tanpa mengungkapkan informasi sensitif seperti berapa banyak ETH di dompet mereka. Untuk skalabilitas, ini memungkinkan komputasi di luar rantai untuk dibuktikan di rantai lebih cepat daripada harus mengeksekusi ulang komputasi. Ini memungkinkan blockchain dan aplikasi untuk menjalankan komputasi dengan biaya murah di luar rantai dan kemudian memverifikasinya di rantai. Untuk informasi lebih lanjut tentang pengetahuan nol dan perannya dalam Mesin Virtual Ethereum, silakan lihat laporan Christine Kim.zkEVMs: Masa Depan Skalabilitas Ethereum.

Peta Pasar AI/Kripto

Proyek di persimpangan AI dan kripto masih membangun infrastruktur dasar yang diperlukan untuk mendukung interaksi AI on-chain dalam skala besar.

Pasar komputasi terdesentralisasi sedang muncul untuk menyediakan sejumlah besar perangkat keras fisik, terutama dalam bentuk unit pemrosesan grafis (GPU), yang diperlukan untuk pelatihan dan inferensi model AI. Pasar dua sisi ini menghubungkan mereka yang menyewa dan mencari untuk menyewa komputasi, memfasilitasi transfer nilai dan verifikasi komputasi. Dalam komputasi terdesentralisasi, beberapa subkategori sedang muncul yang menyediakan fungsionalitas tambahan. Selain pasar dua sisi, laporan ini akan menguji penyedia pelatihan pembelajaran mesin yang mengkhususkan diri dalam layanan pelatihan yang dapat diverifikasi dan keluaran penyetelan halus serta proyek-proyek yang bekerja untuk menghubungkan komputasi dan generasi model untuk mencapai kecerdasan buatan umum, juga sering disebut sebagai jaringan insentif kecerdasan.

zkML adalah area yang sedang berkembang untuk proyek-proyek yang ingin memberikan keluaran model yang dapat diverifikasi secara on-chain dengan cara yang efisien biaya dan tepat waktu. Proyek-proyek ini secara utama memungkinkan aplikasi untuk menangani permintaan komputasi berat offchain, dan kemudian memposting keluaran yang dapat diverifikasi secara on-chain membuktikan bahwa beban kerja offchain sudah selesai dan akurat. zkML saat ini mahal dan memakan waktu, namun semakin banyak digunakan sebagai solusi. Hal ini terlihat dari jumlah integrasi yang semakin bertambah antara penyedia zkML dan aplikasi DeFi/Gaming yang ingin memanfaatkan model AI.

Pasokan komputasi yang cukup dan kemampuan untuk memverifikasi komputasi tersebut on-chain membuka pintu bagi agen AI on-chain. Agen adalah model-model yang dilatih yang mampu mengeksekusi permintaan atas nama pengguna. Agen menawarkan kesempatan untuk secara signifikan meningkatkan pengalaman on-chain, memungkinkan pengguna mengeksekusi transaksi kompleks hanya dengan berbicara pada chatbot. Namun, seperti yang ada saat ini, proyek Agen masih difokuskan pada pengembangan infrastruktur dan alat untuk penyebaran yang mudah dan cepat.

Komputasi Terdesentralisasi

Ikhtisar

AI membutuhkan banyak komputasi, baik untuk melatih model maupun menjalankan inferensi. Selama dekade terakhir, seiring model menjadi lebih canggih, kebutuhan komputasi telah tumbuh secara eksponensial. OpenAI, misalnya, ditemukanantara 2012 hingga 2018 persyaratan komputasi untuk modelnya meningkat dari penggandaan setiap dua tahun menjadi setiap tiga setengah bulan. Hal ini telah menyebabkan lonjakan permintaan untuk GPU dengan beberapa penambang kripto bahkanmengalihfungsikan GPU merekauntuk menyediakan layanan komputasi awan (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">baca lebih lanjut tentang ini dalam laporan pertambangan Bitcoin tahunan kami). Seiring dengan meningkatnya persaingan untuk mengakses komputasi dan biaya yang meningkat, beberapa proyek menggunakan kripto untuk menyediakan solusi komputasi terdesentralisasi. Mereka menawarkan komputasi on-demand dengan harga yang kompetitif sehingga tim dapat melatih dan menjalankan model secara terjangkau. Pertukaran yang bisa terjadi, dalam beberapa kasus, adalah performa dan keamanan.

GPU terkini, seperti mereka diproduksioleh Nvidia, sangat diminati. Pada bulan September, Tether mendapatkansebuah saham di Northern Data, penambang Bitcoin Jerman, dilaporkan membayar $420 juta untuk mengakuisisi 10.000 GPU H100 (salah satu GPU paling canggih untuk pelatihan kecerdasan buatan).TungguWaktu untuk perangkat keras terbaik dalam kelas dapat setidaknya enam bulan, dan dalam banyak kasus lebih lama. Membuat situasi menjadi lebih buruk, perusahaan seringkali harus menandatangani kontrak jangka panjang untuk jumlah komputasi yang mungkin bahkan tidak mereka gunakan. Hal ini dapat menyebabkan situasi di mana ada komputasi yang tersedia, tetapi tidak tersedia di pasar. Sistem komputasi terdesentralisasi membantu mengatasi ketidaksempurnaan pasar ini, menciptakan pasar sekunder di mana pemilik komputasi dapat menyewakan kapasitas berlebih mereka sewaktu-waktu, membuka pasokan baru.

Selain harga yang kompetitif dan aksesibilitas, proposisi nilai kunci komputasi terdesentralisasi adalah ketahanan sensor. Pengembangan kecerdasan buatan terkini semakin didominasi oleh perusahaan teknologi besar dengan akses yang tak tertandingi ke komputasi dan data. Tema kunci pertama yang disorot pada Laporan Indeks AILaporan tahunan 2023 adalah bahwa industri semakin melampaui akademisi dalam pengembangan model AI, mengkonsentrasikan kontrol di tangan beberapa pemimpin teknologi. Hal ini menimbulkan kekhawatiran atas kemampuan mereka untuk memiliki pengaruh yang besar dalam menentukan norma dan nilai yang mendasari model AI, terutama setelah regulasiMendorongoleh perusahaan teknologi yang sama ini untuk membatasi pengembangan kecerdasan buatan di luar kendali mereka.

Vertikal Komputasi Terdesentralisasi

Beberapa model untuk komputasi terdesentralisasi muncul dalam beberapa tahun terakhir, masing-masing dengan fokus dan kompromi mereka sendiri.

Komputasi Umum

Proyek-proyek seperti Akash, io.net, iExec, Cudos, dan banyak lainnya adalah aplikasi komputasi terdesentralisasi yang menawarkan akses ke, atau akan segera menawarkan akses ke, komputasi khusus untuk pelatihan KI dan inferensi serta data dan solusi komputasi umum.

Akash saat ini adalah satu-satunya platform "supercloud" open source sepenuhnya. Ini adalah bukti jaringan saham menggunakan Cosmos SDK. AKT, token asli Akash digunakan untuk mengamankan jaringan, sebagai bentuk pembayaran, dan untuk mendorong partisipasi. Akash meluncurkan mainnet pertamanya pada tahun 2020 yang berfokus pada penyediaan pasar komputasi cloud tanpa izin yang awalnya menampilkan layanan penyimpanan dan penyewaan CPU. Pada Juni 2023, Akash diluncurkansebuah testnet baru yang difokuskan pada GPU dan pada bulan Septemberdiluncurkanmainnet GPU-nya memungkinkan pengguna menyewa GPU untuk pelatihan dan inferensi kecerdasan buatan.

Ada dua aktor utama dalam ekosistem Akash - Penyewa dan Penyedia. Penyewa adalah pengguna jaringan Akash yang ingin membeli sumber daya komputasi. Penyedia adalah pemasok komputasi. Untuk mencocokkan penyewa dan penyedia, Akash mengandalkan proses lelang terbalik. Penyewa mengirimkan persyaratan komputasi mereka, di mana mereka dapat menentukan kondisi tertentu seperti lokasi server atau jenis perangkat keras yang melakukan komputasi, dan jumlah yang bersedia mereka bayar. Penyedia kemudian mengirimkan harga penawaran mereka, dengan penawaran terendah menerima tugas.

Validator Akash menjaga integritas jaringan. Set validator saat ini dibatasi hingga 100 dengan rencana untuk meningkat secara bertahap dari waktu ke waktu. Siapa pun dapat menjadi validator dengan mempertaruhkan lebih banyak AKT daripada validator saat ini dengan jumlah AKT paling sedikit yang dipertaruhkan. Pemegang AKT juga dapat mendelegasikan AKT mereka kepada validator. Biaya transaksi dan hadiah blok untuk jaringan didistribusikan dalam AKT. Selain itu, untuk setiap sewa, jaringan Akash mendapatkan "biaya pengambilan" dengan tarif yang ditentukan oleh komunitas yang didistribusikan kepada pemegang AKT.

Pasar Sekunder

Pasar komputasi terdesentralisasi bertujuan untuk mengisi ketidaksempurnaan dalam pasar komputasi yang ada. Kendala pasokan mendorong perusahaan untuk menyimpan komputasi melebihi kebutuhan mereka, dan pasokan lebih terbatas karena struktur kontrak dengan penyedia cloud yang mengunci pelanggan ke kontrak jangka panjang meskipun akses yang berkelanjutan mungkin tidak diperlukan. Platform komputasi terdesentralisasi membuka pasokan baru, memungkinkan siapa pun di dunia dengan komputasi yang diminta menjadi penyedia.

Masih harus dilihat apakah permintaan yang meningkat untuk GPU untuk pelatihan kecerdasan buatan akan berdampak pada penggunaan jaringan jangka panjang di Akash. Akash telah lama menyediakan pasar untuk CPU, misalnya, menawarkan layanan serupa seperti alternatif terpusat di 70-80% diskon. Harga yang lebih rendah, bagaimanapun, belum menghasilkan penyerapan yang signifikan. Sewa aktif di jaringan telah diratakan, rata-rata hanya 33% komputasi, 16% memori, dan 13% penyimpanan untuk kedua tahun 2023. Meskipun ini adalah metrik yang mengesankan untuk adopsi on-chain (untuk referensi, penyedia penyimpanan terkemuka Filecoin memiliki Pemanfaatan penyimpanan 12.6%pada Q3 2023), ini menunjukkan bahwa pasokan terus melampaui permintaan untuk produk-produk ini.

Sudah lebih dari setengah tahun sejak Akash meluncurkan jaringan GPU-nya dan masih terlalu dini untuk secara akurat mengukur adopsi jangka panjang. Sebagai tanda permintaan, utilisasi GPU rata-rata hingga saat ini adalah 44% dan lebih tinggi dari CPU, memori, dan penyimpanan. Hal ini terutama didorong oleh permintaan untuk GPU kualitas tertinggi (seperti A100), dengan lebih dari 90%disewakan.

Pengeluaran harian untuk Akash juga meningkat, hampir dua kali lipat dibandingkan dengan sebelumnya. Hal ini sebagian dapat diatribusikan pada peningkatan penggunaan layanan lain, terutama CPU, tetapi secara utama merupakan hasil dari penggunaan GPU baru.

Harga sesuai (atau dalam beberapa kasus sedikit lebih mahal) dengan pesaing-pesaing terpusatnya seperti Lambda Cloud dan Vast.ai. Permintaan luar biasa untuk GPU paling canggih (seperti H100 dan A100) berarti sebagian besar pemilik peralatan tersebut sedikit tertarik untuk mencantumkan di pasar di mana mereka menghadapi penetapan harga yang kompetitif.

Sementara minat awal menjanjikan, masih ada hambatan untuk adopsi (dibahas lebih lanjut di bawah). Jaringan komputasi terdesentralisasi perlu melakukan lebih banyak untuk menghasilkan permintaan dan pasokan dan tim sedang bereksperimen dengan cara terbaik untuk menarik pengguna baru. Pada awal tahun 2024, misalnya, Akash berhasil Usulan 240untuk meningkatkan emisi AKT bagi pemasok GPU dan mendorong lebih banyak pasokan, khususnya menargetkan GPU kelas atas. Tim juga sedang bekerja untuk meluncurkan model proof-of-concept untuk menunjukkan kepada pengguna prospektif kemampuan jaringan mereka secara real-time. Akash adalah Pelatihanmodel dasar mereka sendiri dan sudah diluncurkanchatbotdangenerasi gambarpenawaran yang menciptakan output menggunakan GPU Akash. Demikian pula, io.net memilikidikembangkansebuah model difusi yang stabil dan sedang diperkenalkanfungsi jaringan baruyang lebih baik meniru kinerja dan skala pusat data GPU tradisional.

Pelatihan Pembelajaran Mesin Terdesentralisasi

Selain platform komputasi umum yang dapat melayani kebutuhan AI, sekelompok penyedia GPU AI khusus yang berfokus pada pelatihan model pembelajaran mesin juga mulai muncul. Gensyn, sebagai contoh, adalahmengkoordinasikanlistrik dan perangkat keras untuk membangun kecerdasan kolektif” dengan pandangan bahwa, “Jika seseorang ingin melatih sesuatu, dan seseorang bersedia melatihnya, maka pelatihan itu harus diizinkan terjadi.”

Protokol ini memiliki empat aktor utama: pengirim, pemecah, pemverifikasi, dan pelapor. Pengirim mengirimkan tugas ke jaringan dengan permintaan pelatihan. Tugas-tugas ini termasuk tujuan pelatihan, model yang akan dilatih, dan data pelatihan. Sebagai bagian dari proses pengajuan, pengirim membayar biaya di muka untuk perkiraan komputasi yang diperlukan dari solver.

Setelah diserahkan, tugas ditugaskan kepada penyelesaian yang melakukan pelatihan aktual dari model-model tersebut. Penyelesaian kemudian menyerahkan tugas-tugas yang sudah selesai kepada pemeriksa yang bertanggung jawab untuk memeriksa pelatihan untuk memastikan bahwa itu dilakukan dengan benar. Pemberi tahu bertanggung jawab untuk memastikan bahwa pemeriksa berperilaku jujur. Untuk mendorong pemberi tahu untuk berpartisipasi dalam jaringan, Gensyn berencana untuk secara berkala memberikan bukti yang sengaja tidak benar yang memberi imbalan kepada pemberi tahu yang berhasil menangkapnya.

Selain menyediakan komputasi untuk beban kerja terkait kecerdasan buatan, nilai proposisi kunci Gensyn adalah sistem verifikasinya, yang masih dalam pengembangan. Verifikasi diperlukan untuk memastikan bahwa komputasi eksternal oleh penyedia GPU dilakukan dengan benar (yaitu, untuk memastikan bahwa model pengguna dilatih sesuai keinginan mereka). Gensyn menangani masalah ini dengan pendekatan unik, memanfaatkan metode verifikasi baru yang disebut, "Bukti pembelajaran probabilistik, protokol pinpoint berbasis graf, dan permainan insentif gaya Truebit." Ini adalah mode pemecahan yang optimis yang memungkinkan verifier untuk mengonfirmasi bahwa solver telah menjalankan model dengan benar tanpa harus sepenuhnya menjalankannya sendiri, yang merupakan proses yang mahal dan tidak efisien.

Selain metode verifikasi inovatifnya, Gensyn juga klaimuntuk menjadi efektif biaya relatif terhadap alternatif terpusat dan pesaing kripto - menyediakan pelatihan ML hingga 80% lebih murah dari AWS sambil mengungguli proyek serupa seperti Truebit dalam pengujian.

Apakah hasil awal ini dapat direplikasi dalam skala yang lebih luas di seluruh jaringan terdesentralisasi masih harus dilihat. Gensyn ingin memanfaatkan komputasi berlebih dari penyedia seperti pusat data kecil, pengguna ritel, dan di masa depan bahkan perangkat mobile yang lebih kecil seperti ponsel. Namun, seperti tim Gensyn sendiri memilikidiakui, mengandalkan penyedia komputasi heterogen memperkenalkan beberapa tantangan baru.

Bagi penyedia terpusat seperti Penyedia Google Cloud dan Coreweave, komputasi mahal sementara komunikasi antara komputasi tersebut (bandwidth dan laten) murah. Sistem-sistem ini dirancang untuk memungkinkan komunikasi antara perangkat keras secepat mungkin. Gensyn membalikkan kerangka kerja tersebut, mengurangi biaya komputasi dengan memungkinkan siapa pun di dunia untuk menyediakan GPU tetapi meningkatkan biaya komunikasi karena jaringan sekarang harus mengkoordinasikan pekerjaan komputasi di seluruh perangkat keras heterogen yang terletak jauh. Gensyn belum diluncurkan, tetapi merupakan bukti konsep dari apa yang mungkin terjadi saat membangun protokol pelatihan pembelajaran mesin terdesentralisasi.

Intelejen Terdesentralisasi Umum

Platform komputasi terdesentralisasi juga membuka kemungkinan desain untuk metode penciptaan kecerdasan buatan. Bittensor adalah protokol komputasi terdesentralisasi yang dibangun di Substrate yangmencoba menjawabpertanyaan, “bagaimana kita bisa mengubah AI menjadi pendekatan kolaboratif?” Bittensor bertujuan untuk mendesentralisasikan dan mengkomodifikasi generasi kecerdasan buatan. Diluncurkan pada tahun 2021, protokol ini ingin memanfaatkan kekuatan model pembelajaran mesin kolaboratif untuk terus mengiterasi dan menghasilkan kecerdasan buatan yang lebih baik.

Bittensor mengambil inspirasi dari Bitcoin, dengan pasokan mata uang aslinya TAO sebanyak dua puluh satu juta dan siklus pengurangan empat tahun (pengurangan pertama akan terjadi pada tahun 2025). Alih-alih menggunakan Proof of Work untuk menghasilkan nonce yang benar dan mendapatkan hadiah blok, Bittensor bergantung pada 'Proof of Intelligence,' yang memerlukan para penambang untuk menjalankan model yang menghasilkan output sebagai respons terhadap permintaan inferensi.

Mendorong Kecerdasan

Bittensor awalnya mengandalkan model Mixture of Experts (MoE) untuk menghasilkan output. Ketika permintaan inferensi dikirimkan, daripada mengandalkan satu model umum, model MoE meneruskan permintaan inferensi ke model-model paling akurat untuk jenis input tertentu. Bayangkan membangun rumah di mana Anda menyewa berbagai spesialis untuk berbagai aspek proses konstruksi (contoh: arsitek, insinyur, pelukis, pekerja konstruksi, dll...). MoE menerapkan hal ini pada model pembelajaran mesin, berupaya memanfaatkan output dari berbagai model tergantung pada input. Seperti pendiri Bittensor Ala Shaabana dijelaskan, itu seperti “berbicara kepada sekelompok orang pintar dan mendapatkan jawaban terbaik daripada berbicara kepada satu orang.” Karena tantangandengan memastikan routing yang tepat, sinkronisasi pesan ke model yang benar, dan insentivasi, pendekatan ini telah disampingkan sampai proyek lebih dikembangkan.

Ada dua aktor utama dalam jaringan Bittensor: validator dan penambang. Validator bertugas mengirimkan permintaan inferensi ke penambang, meninjau output mereka, dan merangking mereka berdasarkan kualitas respons mereka. Untuk memastikan peringkat mereka dapat diandalkan, validator diberi skor “vtrust” berdasarkan seberapa baik peringkat mereka sejalan dengan peringkat validator lainnya. Semakin tinggi skor vtrust validator, semakin banyak emisi TAO yang mereka peroleh. Hal ini dimaksudkan untuk mendorong validator mencapai konsensus tentang peringkat model dari waktu ke waktu, karena semakin banyak validator yang mencapai kesepakatan tentang peringkat, semakin tinggi skor vtrust individu mereka.

Penambang, juga disebut server, adalah peserta jaringan yang menjalankan model pembelajaran mesin sebenarnya. Penambang bersaing satu sama lain untuk memberikan validator hasil yang paling akurat untuk kueri tertentu, menghasilkan emisi TAO lebih banyak semakin akurat hasil mereka. Penambang dapat menghasilkan output tersebut sesuai keinginan mereka. Sebagai contoh, sangat mungkin dalam skenario masa depan bahwa seorang penambang Bittensor sebelumnya dapat melatih model pada Gensyn yang mereka gunakan untuk menghasilkan emisi TAO.

Saat ini, sebagian besar interaksi terjadi langsung antara validator dan penambang. Validator mengirimkan input ke penambang dan meminta output (yaitu, melatih model). Setelah validator mengajukan pertanyaan kepada penambang di jaringan dan menerima respons mereka, mereka kemudian menilai penambang dan mengirimkan peringkat mereka ke jaringan.

Interaksi ini antara validator (yang mengandalkan PoS) dan penambang (yang mengandalkan Proof of Model, suatu bentuk PoW) – disebut Konsensus Yuma. Ini bertujuan untuk mendorong penambang untuk menghasilkan output terbaik untuk mendapatkan emisi TAO dan validator untuk secara akurat menilai output penambang untuk mendapatkan skor vtrust yang lebih tinggi dan meningkatkan imbalan TAO mereka membentuk mekanisme konsensus jaringan.

Subnet dan Aplikasi

Interaksi pada Bittensor terutama terdiri dari validator mengirimkan permintaan kepada penambang dan mengevaluasi hasil keluaran mereka. Namun, ketika kualitas penambang yang berkontribusi meningkat dan kecerdasan jaringan secara keseluruhan tumbuh, Bittensor akan membuat lapisan aplikasi di atas tumpukan yang sudah ada sehingga pengembang dapat membangun aplikasi yang meminta jaringan Bittensor.

Pada Oktober 2023, Bittensor menyelesaikan langkah penting menuju pencapaian ini dengan pengenalandari subnet melalui upgrade Revolusinya. Subnet adalah jaringan individual pada Bittensor yang mendorong perilaku spesifik. Revolusi membuka jaringan kepada siapa pun yang tertarik untuk membuat subnet. Dalam beberapa bulan sejak rilisnya, lebih dari 32 subnettelah diluncurkan, termasuk yang untuk memicu teks, pengikisan data, generasi gambar, dan penyimpanan. Saat subnets menjadi matang dan siap digunakan sebagai produk, pencipta subnet juga akan membuat integrasi aplikasi, memungkinkan tim untuk membangun aplikasi yang mengakses subnet tertentu. Beberapa aplikasi ( chatbot, generator gambar, bot balasan twitter, pasar prediksi) memang ada saat ini, namun tidak ada insentif formal bagi validator untuk menerima dan meneruskan pertanyaan-pertanyaan tersebut selain dari hibah dari yayasan Bittensor.

Untuk memberikan ilustrasi yang lebih jelas, berikut contoh bagaimana Bittensor mungkin berfungsi setelah aplikasi terintegrasi ke dalam jaringan.

Subnets mendapatkan TAO berdasarkan kinerja mereka yang dievaluasi oleh jaringan root. Jaringan akar duduk di atas semua subnet, pada dasarnya bertindak sebagai jenis subnet khusus, dan dikelola oleh 64 validator subnet terbesar berdasarkan taruhan. Validator jaringan akar menilai subnet berdasarkan kinerjanya dan mendistribusikan emisi TAO ke subnet secara berkala. Dengan cara ini, subnet individual bertindak sebagai penambang untuk jaringan akar.

Bittensor Outlook

Bittensor masih mengalami masa-masa sulit saat memperluas fungsionalitas protokol untuk mendorong generasi kecerdasan di beberapa subnet. Para penambang terus mencari cara baru untuk menyerang jaringan guna mendapatkan lebih banyak imbalan TAO, misalnya dengan sedikit.memodifikasioutput dari jalankan inferensi yang sangat dinilai oleh model mereka dan kemudian mengirimkan variasi ganda. Usulan tata kelola yang memengaruhi seluruh jaringan hanya dapat diajukan dan dilaksanakan oleh Triumvirate, yang terdiri sepenuhnya dari pemegang kepentingan Opentensor Foundation (penting untuk dicatat bahwa proposal memerlukan persetujuan oleh Bittensor Senatterdiri dari validator Bittensor sebelum implementasi). Dan tokenomika proyek sedang dalam proses penyempurnaan untuk meningkatkan insentif penggunaan TAO di seluruh subnet. Proyek ini juga dengan cepat mendapat ketenaran karena pendekatan uniknya, dengan CEO salah satu situs AI paling populerHuggingFacemenunjukkan bahwa Bittensor harus menambahkan sumber dayanya ke situs web.

Dalam sebuah yang baru-baru ini diterbitkan potonganoleh seorang pengembang inti yang disebut sebagai 'Bittensor Paradigm,' tim tersebut menjabarkan visi mereka untuk Bittensor pada akhirnya berkembang menjadi 'agnostik terhadap apa yang diukur.' Secara teori, ini dapat memungkinkan Bittensor untuk mengembangkan subnets yang mendorong segala jenis perilaku yang didukung oleh TAO. Masih ada kendala praktis yang signifikan - terutama menunjukkan bahwa jaringan ini mampu mengatasi berbagai proses yang beragam dan insentif yang mendasarinya mendorong kemajuan yang melampaui penawaran terpusat.

Membangun Tumpukan Komputasi Terdesentralisasi untuk Model AI

Bagian di atas memberikan gambaran umum tingkat tinggi tentang berbagai jenis protokol komputasi kecerdasan buatan terdesentralisasi yang sedang dikembangkan. Sementara di awal pengembangan dan adopsi mereka, mereka memberikan fondasi ekosistem yang pada akhirnya dapat memfasilitasi pembuatan "blok bangunan AI," seperti konsep "Lego Uang" DeFi. Komposabilitas blockchain tanpa izin membuka kemungkinan bagi setiap protokol untuk membangun di atas yang lain untuk menyediakan ekosistem kecerdasan buatan terdesentralisasi yang lebih komprehensif.

Sebagai contoh, berikut adalah salah satu cara di mana Akash, Gensyn, dan Bittensor mungkin berinteraksi untuk merespons permintaan inferensi.

Untuk jelasnya, ini hanyalah contoh tentang apa yang mungkin terjadi di masa depan, bukan representasi dari ekosistem saat ini, mitra yang ada, atau hasil yang mungkin. Kendala pada interoperabilitas, serta pertimbangan lain yang dijelaskan di bawah, sangat membatasi kemungkinan integrasi saat ini. Selain itu, fragmentasi likuiditas dan kebutuhan untuk menggunakan beberapa token dapat merugikan pengalaman pengguna, sesuatu yang telahmenunjukkanoleh para pendiri Akash dan Bittensor.

Penawaran Terdesentralisasi Lainnya

Selain komputasi, beberapa layanan infrastruktur terdesentralisasi lain sedang diperkenalkan untuk mendukung ekosistem kecerdasan buatan yang muncul dari kripto. Untuk mencantumkan semuanya di luar lingkup laporan ini, tetapi beberapa contoh menarik dan menggambarkan termasuk:

  • Samudra: Pasar data terdesentralisasi. Pengguna dapat membuat NFT data yang mewakili data mereka yang dapat dibeli menggunakan token data. Pengguna dapat memonetisasi data mereka dan memiliki kedaulatan yang lebih besar atasnya sambil memberikan tim yang bekerja pada kecerdasan buatan akses ke data yang diperlukan untuk mengembangkan dan melatih model.
  • Rumput: Pasar bandwidth terdesentralisasi. Pengguna dapat menjual kelebihan bandwidth mereka kepada perusahaan AI yang menggunakannya untuk mengumpulkan data dari internet. Dibangun di atas Jaringan Wynd, ini tidak hanya memungkinkan individu untuk memonetisasi bandwidth mereka, tetapi juga memberikan pembeli bandwidth dengan serangkaian sudut pandang yang lebih beragam tentang apa yang dilihat pengguna individu secara online (karena akses internet seseorang biasanya disesuaikan dengan alamat IP mereka secara khusus).
  • HiveMapper: Membangun penawaran peta terdesentralisasi yang terdiri dari informasi yang dikumpulkan dari pengemudi mobil sehari-hari. HiveMapper bergantung pada kecerdasan buatan untuk menginterpretasi gambar yang dikumpulkan dari kamera dashboard pengguna dan memberi pengguna imbalan berupa token atas bantuan mereka dalam menyempurnakan model kecerdasan buatan melalui umpan balik pembelajaran manusia yang diperkuat (RHLF).

Secara kolektif, hal-hal ini menunjukkan peluang tak terbatas untuk menjelajahi model pasar terdesentralisasi yang mendukung model AI, atau infrastruktur sekitarnya yang diperlukan untuk mengembangkannya. Saat ini, proyek-proyek ini sebagian besar berada dalam tahap bukti konsep dan dibutuhkan penelitian dan pengembangan yang lebih banyak untuk menunjukkan bahwa mereka dapat beroperasi pada skala yang diperlukan untuk menyediakan layanan AI yang komprehensif.

Tinjauan

Penawaran komputasi terdesentralisasi masih dalam tahap awal pengembangan. Mereka baru mulai menyediakan akses ke komputasi canggih yang mampu melatih model AI paling kuat dalam produksi. Untuk mendapatkan pangsa pasar yang signifikan, mereka perlu menunjukkan keunggulan praktis dibandingkan dengan alternatif terpusat. Pemicu potensial untuk adopsi yang lebih luas termasuk:

  • Pasokan/Demand GPU. Kelangkaan GPU yang dipadukan dengan permintaan komputasi yang meningkat dengan cepat mengarah pada perlombaan senjata GPU. OpenAI telah sekaliterbatasakses ke platformnya karena kendala GPU. Platform seperti Akash dan Gensyn dapat menyediakan alternatif yang kompetitif biaya untuk tim-tim yang membutuhkan komputasi berkinerja tinggi. 6-12 bulan mendatang adalah kesempatan yang sangat unik bagi penyedia komputasi terdesentralisasi untuk menerima pengguna baru yang terpaksa mempertimbangkan penawaran terdesentralisasi mengingat kurangnya akses di pasar yang lebih luas. Dikombinasikan dengan model open-source yang semakin performa seperti LLaMA 2 milik Meta, pengguna tidak lagi menghadapi hambatan yang sama untuk mengeksekusi model yang efektif dan disesuaikan dengan baik, menjadikan sumber daya komputasi sebagai bottleneck utama. Namun, keberadaan platform itu sendiri tidak menjamin pasokan komputasi yang memadai dan permintaan yang sesuai dari konsumen. Mendapatkan GPU kelas atas tetap sulit, dan biaya tidak selalu menjadi motivasi utama di sisi permintaan. Platform-platform ini akan diuji untuk menunjukkan manfaat praktis menggunakan opsi komputasi terdesentralisasi - baik itu karena biaya, ketahanan terhadap sensor, waktu aktif dan ketangguhan, atau aksesibilitas - untuk mengumpulkan pengguna yang loyal. Mereka harus bergerak cepat. Infrastruktur GPUinvestasi dan pengembanganterjadi dengan tingkat luar biasa.
  • Regulasi. Regulasi terus menjadi hambatan bagi gerakan komputasi terdesentralisasi. Pada jangka pendek, kurangnya regulasi yang jelas berarti bahwa baik penyedia maupun pengguna menghadapi risiko potensial dalam menggunakan layanan ini. Bagaimana jika seorang pemasok menyediakan komputasi atau seorang pembeli membeli komputasi dari entitas yang dikenai sanksi tanpa disadari? Pengguna mungkin enggan menggunakan platform terdesentralisasi yang tidak memiliki kontrol dan pengawasan entitas terpusat. Protokol telah berusaha untuk mengurangi kekhawatiran ini dengan memasukkan kontrol ke dalam platform mereka atau menambahkan filter untuk mengakses hanya penyedia komputasi yang dikenal (yaitu, telah memberikan informasi kenal-pelanggan (KYC)), namun metode yang lebih kuat yang melindungi privasi sambil memastikan kepatuhan akan diperlukan untuk adopsi. Pada jangka pendek, kita kemungkinan akan melihat munculnya platform yang mematuhi KYC dan regulasi yang membatasi akses ke protokol mereka untuk mengatasi kekhawatiran ini. Selain itu, diskusi seputar kerangka regulasi AS baru yang mungkin, terbaik diilustrasikan dengan rilis dariPerintah Eksekutif tentang Pengembangan dan Penggunaan Kecerdasan Buatan yang Aman, Aman, dan Terpercaya, menyoroti potensi tindakan regulasi yang lebih membatasi akses ke GPU.
  • Sensor. Regulasi berlaku dua arah dan penawaran komputasi terdesentralisasi bisa mendapat manfaat dari tindakan yang diambil untuk membatasi akses ke AI. Selain Perintah Eksekutif, pendiri OpenAI Sam Altman memiliki memberikan kesaksiandi Kongres tentang perlunya lembaga regulasi yang mengeluarkan lisensi untuk pengembangan AI. Diskusi seputar regulasi AI baru saja dimulai, tetapi upaya-upaya semacam itu untuk membatasi akses atau menyensor apa yang dapat dilakukan dengan AI dapat mempercepat adopsi platform terdesentralisasi yang tidak memiliki hambatan tersebut. The Guncangan kepemimpinan OpenAI November(atau kekurangannya) lebih lanjut menunjukkan risiko pemberian keputusan bagi model AI yang paling kuat kepada hanya beberapa orang. Selain itu, semua model AI secara wajib mencerminkan bias dari para pembuatnya, baik dengan sengaja maupun tidak. Salah satu cara untuk menghilangkan bias tersebut adalah dengan membuat model sebuka mungkin untuk penyempurnaan dan pelatihan, memastikan bahwa model-model dari berbagai jenis dan bias selalu dapat diakses oleh siapa pun di mana pun.
  • Privasi Data. Ketika terintegrasi dengan solusi data eksternal dan privasi yang memberikan pengguna otonomi atas data mereka, komputasi terdesentralisasi mungkin menjadi lebih menarik daripada alternatif terpusat. Samsungmenjadi korbanketika mereka menyadari bahwa insinyur menggunakan ChatGPT untuk membantu desain chip dan bocor informasi sensitif ke ChatGPT. Jaringan Phala dan iExec mengklaim menawarkan pengguna enclave aman SGX untuk melindungi data pengguna dan penelitian berkelanjutan dalam enkripsi homomorfik penuh bisa lebih membuka kunci komputasi terdesentralisasi yang menjamin privasi. Saat AI semakin terintegrasi ke dalam kehidupan kita, pengguna akan menempatkan nilai lebih tinggi pada kemampuan menjalankan model pada aplikasi yang sudah memiliki privasi terintegrasi di dalamnya. Pengguna juga akan menuntut layanan yang memungkinkan komposabilitas data sehingga mereka dapat dengan lancar memindahkan data mereka dari satu model ke model lainnya.
  • Pengalaman Pengguna (UX). UX terus menjadi penghalang signifikan untuk adopsi yang lebih luas dari semua jenis aplikasi dan infrastruktur crypto. Ini tidak berbeda untuk penawaran komputasi terdesentralisasi, dan dalam beberapa kasus diperburuk oleh kebutuhan pengembang untuk memahami crypto dan AI. Perbaikan diperlukan dari dasar-dasar seperti orientasi dan abstraksi interaksi dengan blockchain untuk menyediakan hal yang sama output berkualitas tinggisebagai pemimpin pasar saat ini. Ini jelas terlihat mengingat kenyataan bahwa banyak protokol komputasi terdesentralisasi operasional yang menyediakan penawaran lebih murah kesulitan untuk mendapatkan penggunaan reguler.

Kontrak Pintar & zkML

Kontrak pintar adalah blok bangunan inti dari setiap ekosistem blockchain. Dengan seperangkat kondisi tertentu, mereka dieksekusi secara otomatis dan mengurangi atau menghilangkan kebutuhan akan pihak ketiga yang dipercayai, memungkinkan penciptaan aplikasi terdesentralisasi kompleks seperti yang terlihat dalam DeFi. Namun, sebagian besar kontrak pintar saat ini masih terbatas dalam fungsionalitasnya karena mereka dieksekusi berdasarkan parameter yang telah ditetapkan yang harus diperbarui.

Sebagai contoh, kontrak pintar protokol peminjaman/peminjaman dideploy dengan spesifikasi kapan harus likuidasi posisi berdasarkan rasio pinjaman tertentu terhadap nilai. Meskipun bermanfaat dalam lingkungan statis, dalam situasi dinamis di mana risiko terus berubah, kontrak pintar ini harus terus diperbarui untuk memperhitungkan perubahan toleransi risiko, menciptakan tantangan bagi kontrak yang tidak diatur melalui proses terpusat. DAO, misalnya, yang bergantung pada proses governance terdesentralisasi, mungkin tidak bisa bereaksi cukup cepat untuk menanggapi risiko sistemik.

Kontrak pintar yang mengintegrasikan kecerdasan buatan (yaitu, model pembelajaran mesin) adalah salah satu cara untuk meningkatkan fungsionalitas, keamanan, dan efisiensi sambil meningkatkan pengalaman pengguna secara keseluruhan. Integrasi-integrasi ini juga memperkenalkan risiko tambahan, meskipun, karena tidak mungkin untuk memastikan bahwa model-model yang mendasari kontrak pintar ini tidak dapat dieksploitasi atau memperhitungkan situasi longtail (yang terkenal sulit dilatih modelnya mengingat kelangkaan masukan datauntuk mereka).

Machine Learning Pengetahuan Nol (zkML)

Machine learning memerlukan jumlah komputasi yang besar untuk menjalankan model-model kompleks, yang mencegah model AI dari dijalankan langsung di dalam kontrak pintar karena biaya yang tinggi. Protokol DeFi yang memberikan akses pengguna ke model optimisasi hasil, misalnya, akan kesulitan menjalankan model tersebut on-chain tanpa harus membayar biaya gas yang sangat tinggi. Salah satu solusinya adalah meningkatkan daya komputasi dari blockchain yang mendasarinya. Namun, hal ini juga meningkatkan tuntutan pada set validator rantai, yang berpotensi merusak sifat desentralisasi. Sebaliknya, beberapa proyek sedang mengeksplorasi penggunaan zkML untuk memverifikasi output secara tidak terpercaya tanpa perlu komputasi on-chain yang intensif.

Satu umumnyaContoh berbagi yang mengilustrasikan kegunaan zkML adalah ketika seorang pengguna memerlukan orang lain untuk menjalankan data melalui model dan juga memverifikasi bahwa pihak lain benar-benar menjalankan model yang benar. Mungkin seorang pengembang menggunakan penyedia komputasi terdesentralisasi untuk melatih model mereka dan khawatir bahwa penyedia mencoba untuk memotong biaya dengan menggunakan model yang lebih murah dengan perbedaan output yang hampir tidak terlihat. zkML memungkinkan penyedia komputasi menjalankan data melalui model mereka dan kemudian menghasilkan bukti yang dapat diverifikasi on-chain untuk membuktikan output model untuk input yang diberikan adalah benar. Dalam kasus ini, penyedia model akan memiliki keuntungan tambahan dengan dapat menawarkan model mereka tanpa harus mengungkapkan bobot yang mendasari yang menghasilkan output.

Kebalikannya juga bisa dilakukan. Jika seorang pengguna ingin menjalankan model menggunakan data mereka tetapi tidak ingin proyek yang menyediakan model tersebut memiliki akses ke data mereka karena kekhawatiran privasi (yaitu, dalam kasus pemeriksaan medis atau informasi bisnis properti), maka pengguna dapat menjalankan model pada data mereka tanpa membagikannya dan kemudian memverifikasi bahwa mereka menjalankan model yang benar dengan bukti. Kemungkinan-kemungkinan ini secara signifikan memperluas ruang desain untuk integrasi AI dan fungsionalitas kontrak pintar dengan mengatasi pembatasan komputasi yang melarang.

Infrastruktur dan Peralatan

Dengan tahapan awal ruang zkML, pengembangan terutama difokuskan pada membangun infrastruktur dan alat yang diperlukan untuk tim mengubah model dan output mereka menjadi bukti yang dapat diverifikasi di rantai. Produk-produk ini menyembunyikan aspek pengetahuan nol sebanyak mungkin dari pengembangan.

EZKLdanGizaada dua proyek yang membangun alat ini dengan menyediakan bukti-bukti verifikasi eksekusi model pembelajaran mesin. Kedua proyek ini membantu tim membangun model pembelajaran mesin untuk memastikan bahwa model-model tersebut dapat dieksekusi dengan cara yang hasilnya dapat diverifikasi secara terpercaya di rantai. Kedua proyek ini menggunakan Open Neural Network Exchange (ONNX) untuk mentransformasikan model-model pembelajaran mesin yang ditulis dalam bahasa-bahasa umum seperti TensorFlow dan Pytorch menjadi format standar. Mereka kemudian mengeluarkan versi-versi dari model-model tersebut yang juga menghasilkan bukti-bukti zk ketika dieksekusi. EZKL adalah sumber terbuka dan menghasilkan zk-SNARKS sementara Giza adalah sumber tertutup dan menghasilkan zk-STARKS. Kedua proyek ini saat ini hanya kompatibel dengan EVM.

EZKL telah menunjukkan kemajuan signifikan dalam beberapa bulan terakhir dalam meningkatkan solusi zkML mereka, yang terutama difokuskan padamengurangi biaya, meningkatkan keamanan, dan mempercepat pembangkitan buktiPada November 2023, misalnya, EZKL mengintegrasikan perpustakaan GPU sumber terbuka baru yang mengurangi waktu bukti agregat sebesar 35% dan pada bulan Januari EZKL mengumumkan Lilith, solusi perangkat lunak untuk mengintegrasikan kluster komputasi berkinerja tinggi dan mengatur pekerjaan bersamaan saat menggunakan sistem pembuktian EZKL. Giza unik karena selain menyediakan alat untuk membuat model pembelajaran mesin yang dapat diverifikasi, mereka juga berencana untuk mengimplementasikan web3 yang setara dengan Hugging Face, membuka pasar pengguna untuk kolaborasi zkML dan berbagi model serta akhirnya mengintegrasikan penawaran komputasi terdesentralisasi. Pada bulan Januari EZKL merilis sebuah penilaian benchmarkmembandingkan kinerja EZKL, Giza, dan RiscZero (dibahas di bawah) . EZKL menunjukkan waktu pembuktian dan penggunaan memori yang lebih cepat.


Modulus Labssedang mengembangkan teknik bukti zk baru yang disesuaikan khusus untuk model AI. Modulus menerbitkan sebuah makalah yang disebutBiaya Intelejensi(memberikan petunjuk tentang biaya yang sangat tinggi untuk menjalankan model AI on-chain), yang membandingkan sistem bukti-zk yang ada pada saat itu untuk mengidentifikasi kemampuan dan hambatan untuk meningkatkan bukti zk model AI. Diterbitkan pada Januari 2023, makalah tersebut menunjukkan bahwa penawaran yang ada terlalu mahal dan tidak efisien untuk memungkinkan aplikasi AI secara luas. Berdasarkan penelitian awal mereka, pada November Modulus @ModulusLabs/memperkenalkan-modulus-bawa-ai-on-chain-d75dcb82c5e3">memperkenalkan Sisa, seorang pembuktikhusus pengetahuan nol yang dibangun khusus untuk mengurangi biaya dan waktu pembuktian untuk model AI dengan tujuan membuatnya ekonomis layak untuk proyek-proyek untuk mengintegrasikan model ke dalam kontrak pintar mereka secara massal. Karyanya bersifat tertutup dan oleh karena itu tidak dapat dibandingkan dengan solusi di atas, tetapi baru-baru ini disebutkan dalam Vitalik’sposting blogpada kripto dan AI.

Pengembangan tool dan infrastruktur sangat penting untuk pertumbuhan masa depan ruang zkML karena secara signifikan mengurangi gesekan bagi tim yang perlu mendeploy sirkuit zk yang diperlukan untuk menjalankan komputasi offchain yang dapat diverifikasi. Pembuatan antarmuka yang aman yang memungkinkan pembangun non-kripto asli yang bekerja di bidang pembelajaran mesin untuk membawa model-model mereka ke on-chain akan memungkinkan eksperimen aplikasi dengan kasus penggunaan yang benar-benar baru. Tooling juga mengatasi hambatan utama untuk adopsi zkML yang lebih luas, yaitu kurangnya pengembang yang berpengetahuan dan tertarik untuk bekerja pada persimpangan pengetahuan zero-knowledge, pembelajaran mesin, dan kriptografi.

Koprosesor

Solusi tambahan dalam pengembangan, yang disebut sebagai “koprosesor,” termasuk RiscZero,Aksioma, dan Ritual. Istilah koprocesor sebagian besar adalah semantik - jaringan ini memenuhi banyak peran yang berbeda, termasuk memverifikasi komputasi di luar rantai di rantai. Seperti halnya EZKL, Giza, dan Modulus, mereka bertujuan untuk sepenuhnya mengabstraksi proses generasi bukti pengetahuan nol, menciptakan mesin virtual pengetahuan nol yang mampu menjalankan program di luar rantai dan menghasilkan bukti untuk verifikasi di rantai. RiscZero dan Axiom dapat layanan model AI sederhana karena dimaksudkan untuk menjadi koprosesor tujuan umum sementara Ritual dibuat khusus untuk digunakan dengan model AI.

Infernetadalah instantiasi pertama dari Ritual dan mencakup Infernet SDK yang memungkinkan pengembang mengirimkan permintaan inferensi ke jaringan dan menerima output dan bukti (opsional) sebagai balasannya. Sebuah Node Infernet menerima permintaan ini dan menangani komputasi di luar jaringan sebelum mengembalikan output. Sebagai contoh, sebuah DAO bisa membuat proses untuk memastikan semua proposal tata kelola baru memenuhi syarat tertentu sebelum disampaikan. Setiap kali proposal baru diajukan, kontrak tata kelola memicu permintaan inferensi melalui Infernet yang memanggil model AI tata kelola DAO tertentu. Model tersebut meninjau proposal untuk memastikan semua kriteria yang diperlukan telah diajukan dan mengembalikan output dan bukti, baik menyetujui atau menolak pengajuan proposal.

Selama tahun mendatang, tim Ritual berencana untuk meluncurkan fitur tambahan yang membentuk lapisan infrastruktur dasar yang disebut Ritual Superchain. Banyak proyek yang dibahas sebelumnya dapat terhubung ke Ritual sebagai penyedia layanan. Tim Ritual telah berintegrasi dengan EZKL untuk generasi bukti dan kemungkinan segera menambahkan fungsionalitas dari penyedia lainnya yang terkemuka. Node Infernet di Ritual juga dapat menggunakan GPU Akash atau io.net dan model kueri yang dilatih pada subnet Bittensor. Tujuan akhir mereka adalah menjadi penyedia terkemuka untuk infrastruktur AI terbuka, mampu melayani tugas-tugas terkait pembelajaran mesin dan AI lainnya dari jaringan manapun di seluruh beban kerja apa pun.

Aplikasi

zkML membantu mencocokkankontradiksi antara blockchain dan AI, di mana yang pertama secara inheren terbatas sumber dayanya dan yang terakhir memerlukan jumlah komputasi dan data yang besar. Sebagai salah satu pendiri Giza letakkan itu, "Kasus penggunaannya sangat melimpah ... itu seperti bertanya di hari-hari awal Ethereum apa kasus penggunaan kontrak pintar ... Apa yang kami lakukan hanyalah memperluas kasus penggunaan kontrak pintar." Namun, seperti yang disorot di atas, pembangunan saat ini terutama terjadi di tingkat perkakas dan infrastruktur. Aplikasi masih dalam tahap eksplorasi, dengan tim ditantang untuk menunjukkan bahwa nilai yang dihasilkan dari penerapan model menggunakan zkML melebihi kompleksitas dan biaya untuk melakukannya.

Beberapa aplikasi hari ini termasuk:

  • Keuangan Terdesentralisasi. zkML meningkatkan ruang desain untuk DeFi dengan meningkatkan kemampuan kontrak pintar. Protokol DeFi menyediakan model pembelajaran mesin dengan jumlah data yang besar yang dapat diverifikasi dan tidak berubah yang dapat digunakan untuk menghasilkan strategi perdagangan atau menghasilkan hasil, analisis risiko, UX, dan banyak lagi. Giza, misalnya, memiliki sebuahkemitraandengan Yearn Finance untuk membangun mesin penilaian risiko otomatis proof-of-concept untuk brankas v3 baru Yearn. Modulus Labs memiliki @ModulusLabs/chapter-4-blockchains-that-self-improve-e9716c041f36"> bekerja sama dengan Lyra Finance dalam menggabungkan pembelajaran mesin ke dalam AMM mereka, adalahmitradengan Protokol Ion untuk menerapkan model analisis risiko validator, dan membantu Intimemverifikasi feed harga NFT yang didukung AI mereka. Protokol seperti NOYA(yang memanfaatkan EZKL) danMozaicmemberikan akses ke model offchain milik sendiri yang memberikan akses pengguna ke pertanian hasil otomatis sambil memungkinkan mereka memverifikasi input data dan bukti di-chain.Keuangan Spektralsedang membangun mesin penilaian kredit on-chain untuk memprediksi kemungkinan peminjam Compound atau Aave mengalami kegagalan pembayaran pinjaman mereka. Produk-produk yang disebut "De-Ai-Fi" ini kemungkinan akan menjadi lebih umum di masa mendatang berkat zkML.
  • Gaming. Gaming telah lama dianggap siap untuk gangguan dan peningkatan oleh blockchain publik (untuk informasi lebih lanjut tentang kripto dan gaming, lihat laporan Galaxy Digital ini - Sejarah Gaming dan Masa Depan Web3-nya. zkML membuat permainan on-chain dengan kecerdasan buatan menjadi mungkin.Modulus Labstelah mengimplementasikan bukti konsep untuk permainan on-chain sederhana.Leela vs Duniaadalah permainan catur teoretis game di mana pengguna berhadapan dengan model catur AI, dengan zkML memverifikasi bahwa setiap langkah Leela didasarkan pada model permainan yang sedang berjalan. Demikian pula, tim telah menggunakan kerangka EZKL untuk membangun sederhana kontes menyanyi dan tictactoe on-chain.Cartridgemenggunakan Giza untuk memungkinkan tim untuk mendeploy permainan sepenuhnya on-chain, baru-baru ini highlightingsebuah permainan mengemudi AI sederhana di mana pengguna bersaing untuk membuat model yang lebih baik untuk mobil yang mencoba menghindari rintangan. Meskipun sederhana, proof-of-concept ini menunjukkan implementasi masa depan yang memungkinkan verifikasi on-chain yang lebih kompleks seperti aktor NPC yang canggih mampu berinteraksi dengan ekonomi dalam permainan seperti yang terlihat di @ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307">AI Arena, permainan mirip super smash brothers di mana pemain melatih pejuang mereka yang kemudian dikerahkan sebagai model AI untuk bertarung.
  • Identitas, Asal Usul, dan Privasi. Kripto sudah digunakan digunakansebagai cara untuk memverifikasi keaslian dan melawan jumlah konten yang dihasilkan/diubah oleh AI dan deep fake yang semakin meningkat. zkML dapat memajukan upaya-upaya tersebut. WorldCoin adalah solusi bukti keberadaan manusia yang memerlukan pengguna untuk memindai iris mereka untuk menghasilkan ID unik. Di masa depan, ID biometrik bisaself-custodiedpada perangkat pribadi menggunakan penyimpanan terenkripsi dengan model yang diperlukan untuk memverifikasi biometrik tersebut dijalankan secara lokal. Pengguna kemudian dapat memberikan bukti biometrik mereka tanpa perlu mengungkapkan identitas mereka, melawan serangan sybil sambil memastikan privasi. Hal ini juga dapat diterapkan pada inferensi lain yang memerlukan privasi, seperti menggunakan modeluntuk menganalisis data/gambar medis untuk mendeteksi penyakit, memverifikasi keaslian identitas dan mengembangkan algoritma pencocokan dalam aplikasi kencan, atau untuk agensi asuransi dan pinjaman yang perlu memverifikasi informasi keuangan.

Tinjauan

zkML masih berada dalam tahap eksperimental dengan sebagian besar proyek berfokus pada membangun infrastruktur dasar dan konsep bukti. Tantangannya saat ini termasuk biaya komputasi, keterbatasan memori, kompleksitas model, keterbatasan alat dan infrastruktur, dan talenta pengembang. Singkatnya, masih banyak pekerjaan yang harus dilakukan sebelum zkML dapat diimplementasikan pada skala yang dibutuhkan untuk produk konsumen.

Saat lapangan semakin matang, namun, dan keterbatasan-keterbatasan ini ditangani, zkML akan menjadi komponen kritis dari integrasi AI dan kripto. Pada intinya, zkML menjanjikan kemampuan untuk membawa komputasi off-chain apa pun ukurannya on-chain sambil mempertahankan jaminan keamanan yang sama atau hampir sama seperti jika komputasi tersebut dijalankan on-chain. Sampai visi tersebut terwujud, namun, pengguna awal teknologi akan terus harus menyeimbangkan kompromi antara privasi dan keamanan zkML dan efisiensi alternatif.

Agen AI

Salah satu integrasi yang lebih menarik dari AI dan kripto adalah eksperimen yang sedang berlangsung dengan Agen AI. Agen adalah bot otonom yang mampu menerima, menginterpretasikan, dan mengeksekusi tugas menggunakan model AI. Ini bisa berupa memiliki asisten pribadi yang selalu tersedia yang disesuaikan dengan preferensi Anda atau menyewa agen keuangan yang mengelola dan menyesuaikan portofolio Anda sesuai dengan preferensi risiko Anda.

Agen dan kripto cocok bersama karena infrastruktur pembayaran tanpa izin dan tanpa kepercayaan yang disediakan kripto. Begitu dilatih, agen dapat diberi dompet sehingga mereka dapat bertransaksi dengan kontrak pintar sendiri. Agen sederhana saat ini, misalnya, dapat menjelajah internet untuk informasi dan kemudian melakukan perdagangan di pasar prediksi berdasarkan model.

Penyedia Agen

Morpheussalah satu proyek agen sumber terbuka terbaru yang akan datang ke pasar pada Ethereum dan Arbitrum pada tahun 2024. White paper-nya diterbitkan secara anonim pada September 2023, memberikan dasar bagi komunitas untuk terbentuk dan berkembang (termasuk tokoh-tokoh terkenal seperti Erik Vorhees). White paper mencakup unduhan Protokol Agen Cerdas, yang merupakan LLM sumber terbuka yang dapat dijalankan secara lokal, dikelola oleh dompet pengguna, dan berinteraksi dengan kontrak pintar. Ini menggunakan sebuah Peringkat Kontrak Pintaruntuk membantu agen menentukan kontrak pintar mana yang aman untuk berinteraksi berdasarkan kriteria seperti jumlah transaksi yang diproses.

White paper juga menyediakan kerangka untuk membangun jaringan Morpheus, seperti struktur insentif dan infrastruktur yang diperlukan untuk membuat Protokol Agen Pintar dapat beroperasi. Ini termasuk memberikan insentif kepada kontributor untuk membangun frontend untuk berinteraksi dengan agen, API untuk pengembang membangun aplikasi yang dapat tersambung ke agen sehingga mereka dapat berinteraksi satu sama lain, dan solusi cloud untuk memungkinkan pengguna mengakses komputasi dan penyimpanan yang diperlukan untuk menjalankan agen pada perangkat tepi. Pendanaan awal untuk proyek diluncurkan pada awal Februari dengan protokol lengkap diharapkan diluncurkan pada K2 24.

Jaringan Infrastruktur Otonom Terdesentralisasi (DAIN)adalah protokol infrastruktur agen baru yang membangun ekonomi agen-ke-agen di Solana. DAIN bertujuan membuat agen dari bisnis berbeda dapat berinteraksi dengan lancar melalui API universal, secara signifikan membuka ruang desain untuk agen kecerdasan buatan dengan fokus pada mengimplementasikan agen yang mampu berinteraksi dengan produk web2 dan web3. Pada bulan Januari, DAIN mengumumkan kemitraandengan Asset Shield yang memungkinkan pengguna menambahkan “penandatangan agen” ke multisig mereka yang mampu menginterpretasikan transaksi dan menyetujui/menolak berdasarkan aturan yang ditetapkan oleh pengguna.

Fetch.AIadalah salah satu protokol Agen AI pertama yang diterapkan dan telah mengembangkan ekosistem untuk membangun, mendeploy, dan menggunakan Agen on-chain menggunakan token FET-nya dan Fetch.AIwallet. Protokol ini menyediakan paket lengkap alat dan aplikasi untuk menggunakan Agen, termasuk fungsionalitas di dalam dompet untuk berinteraksi dengan dan memesan agen.

Autonolas, yang pendirinya termasuk anggota sebelumnya dari tim Fetch, adalah pasar terbuka untuk pembuatan dan penggunaan agen AI terdesentralisasi. Autonolas juga menyediakan serangkaian alat untuk pengembang membangun agen AI yang di-host offchain dan dapat terhubung ke beberapa blockchain termasuk Polygon, Ethereum, Gnosis Chain, dan Solana. Saat ini mereka memiliki beberapa bukti konsep agen aktifproduktermasuk untuk digunakan dalam pasar prediksi dan tata kelola DAO.

SingularityNetsedang membangun pasar terdesentralisasi untuk agen AI di mana orang dapat mendeploy agen AI yang berfokus sempit yang dapat disewa oleh orang lain atau agen lain untuk menjalankan tugas kompleks. Lainnya, seperti AlteredStateMachine, sedang membangun integrasi AI Agent dengan NFT. Pengguna membuat NFT dengan atribut-atribut acak yang memberi mereka kekuatan dan kelemahan untuk tugas-tugas yang berbeda. Agen-agen ini kemudian dapat dilatih untuk meningkatkan atribut-atribut tertentu untuk digunakan dalam permainan, DeFi, atau sebagai asisten virtual dan diperdagangkan dengan pengguna lain.

Secara kolektif, proyek-proyek ini memvisualisasikan suatu ekosistem masa depan dari agen-agen yang mampu bekerja bersama untuk tidak hanya mengeksekusi tugas-tugas tetapi juga membantu membangun kecerdasan buatan umum. Agen-agen yang benar-benar canggih akan memiliki kemampuan untuk melaksanakan setiap tugas pengguna secara mandiri. Sebagai contoh, daripada harus memastikan bahwa Agen sudah terintegrasi dengan API eksternal (seperti situs web pemesanan perjalanan) sebelum menggunakannya, agen-agen yang sepenuhnya otonom akan memiliki kemampuan untuk mencari cara untuk menyewa agen lain untuk mengintegrasikan API tersebut dan kemudian mengeksekusi tugas tersebut. Dari sudut pandang pengguna, tidak akan ada kebutuhan untuk memeriksa apakah seorang agen dapat melaksanakan suatu tugas karena agen dapat menentukan itu sendiri.

Bitcoin dan Agen Kecerdasan Buatan

Pada Juli 2023, Lightning Labsmengimplementasikan proof of concept untuk menggunakan Agen pada Jaringan Lightning yang disebut Suite Bitcoin LangChain. Produk ini sangat menarik karena bertujuan untuk mengatasi masalah yang semakin meningkat di dunia web 2 -tertutupdanmahalKunci API untuk aplikasi web.

LangChain memecahkan masalah ini dengan menyediakan pengembang dengan seperangkat alat yang memungkinkan agen untuk membeli, menjual, dan menyimpan Bitcoin, serta mengajukan kunci API dan mengirim pembayaran mikro. Sedangkan pada rel pembayaran tradisional pembayaran mikro kecil tidak ekonomis karena biaya, pada Lightning Network agen dapat mengirim pembayaran mikro tanpa batas setiap hari dengan biaya minimal. Ketika digabungkan dengan kerangka API metered pembayaran L402 LangChain ini bisa memungkinkan perusahaan untuk menyesuaikan biaya akses ke API mereka saat penggunaan meningkat dan menurun, daripada menetapkan standar biaya tunggal yang tidak ekonomis.

Di masa depan di mana aktivitas on-chain didominasi oleh agen yang berinteraksi dengan agen, hal seperti ini akan diperlukan untuk memastikan agen dapat berinteraksi satu sama lain dengan cara yang tidak mahal. Ini adalah contoh awal bagaimana menggunakan agen pada jalur pembayaran tanpa izin dan hemat biaya membuka kemungkinan untuk pasar baru dan interaksi ekonomi.

Tampilan

Ruang Agen masih sangat baru. Proyek-proyek baru mulai meluncurkan agen berfungsi yang dapat menangani tugas-tugas sederhana menggunakan infrastruktur mereka – yang seringkali hanya dapat diakses oleh pengembang dan pengguna yang canggih. Seiring waktu, salah satu dampak terbesar agen AI terhadap kripto adalah peningkatan UX di semua vertikal. Bertransaksi akan mulai berpindah dari klik dan pilih menjadi berbasis teks, dengan pengguna memiliki kemampuan untuk berinteraksi dengan agen on-chain melalui LLMs. Tim-tim seperti Dompet Fajar memperkenalkan dompet chat-bot bagi pengguna untuk berinteraksi secara berantai.

Selain itu, tidak jelas bagaimana agen bisa beroperasi di web 2 di mana rel keuangan bergantung pada lembaga perbankan yang diatur yang tidak beroperasi 24/7 dan tidak dapat melakukan transaksi lintas batas yang mulus. Seperti Lyn AldenTelah disorot, rel kripto sangat menarik dibandingkan dengan kartu kredit karena tidak adanya pengembalian dana dan kemampuan untuk memproses mikrotransaksi. Jika agen menjadi cara transaksi yang lebih umum, namun, kemungkinan penyedia pembayaran dan aplikasi yang ada segera melangkah untuk menerapkan infrastruktur yang diperlukan agar mereka dapat beroperasi pada rel keuangan yang sudah ada, mengurangi beberapa manfaat penggunaan kripto.

Untuk saat ini, agen cenderung terbatas pada transaksi kripto ke kripto yang deterministik di mana output tertentu dijamin untuk input tertentu. Kedua model, yang mengatur kapasitas agen ini untuk mencari tahu cara mengeksekusi tugas kompleks, dan tooling, yang memperluas cakupan apa yang dapat mereka capai, memerlukan pengembangan lebih lanjut. Agar agen kripto menjadi berguna di luar kasus penggunaan kripto on-chain yang baru, diperlukan integrasi yang lebih luas dan penerimaan kripto sebagai bentuk pembayaran serta kejelasan regulasi. Namun, ketika komponen-komponen ini berkembang, agen-agen siap menjadi salah satu konsumen terbesar komputasi terdesentralisasi dan solusi zkML yang dibahas di atas, bertindak secara mandiri non-deterministik untuk menerima dan menyelesaikan tugas apa pun.

Kesimpulan

AI memperkenalkan ke kripto inovasi yang sama yang sudah kita lihat di web2, meningkatkan segalanya mulai dari pengembangan infrastruktur hingga pengalaman pengguna dan aksesibilitas. Namun, proyek-proyek masih dalam tahap awal evolusi mereka dan integrasi kripto dan AI jangka pendek akan didominasi oleh integrasi offchain.

Produk sepertiPilot bersamaakan“10x”efisiensi pengembang, denganlapisan 1sdanDeFiaplikasi sudah menggelinding platform pengembangan yang dibantu AI dalam kemitraan dengan perusahaan-perusahaan besar seperti Microsoft. Perusahaan-perusahaan seperti Cub3.ai dan Mesin Ujisedang mengembangkan integrasi AI untuk audit kontrak pintar dan pemantauan ancaman real-time untuk meningkatkan keamanan on-chain. Dan chatbot LLM sedang dilatih menggunakan data on-chain, dokumen protokol, dan aplikasi untuk memberikan aksesibilitas dan UX yang ditingkatkan kepada pengguna.

Untuk integrasi yang lebih canggih yang benar-benar memanfaatkan teknologi dasar kripto, tantangannya tetap menunjukkan bahwa mengimplementasikan solusi AI on-chain secara teknis memungkinkan dan ekonomis layak dalam skala besar. Perkembangan dalam komputasi terdesentralisasi, zkML, dan AI Agents menunjukkan ke arah vertikal yang menjanjikan yang sedang menyiapkan landasan untuk masa depan di mana kripto dan AI saling terkait secara mendalam.

Penafian:

  1. Artikel ini diambil dari [galaksi]. Semua hak cipta adalah milik penulis asli [Lucas Tcheyan]. Jika ada keberatan terhadap cetakan ulang ini, silakan hubungi Gate Belajartim, dan mereka akan menanganinya dengan cepat.
  2. Penafian Tanggung Jawab: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan saran investasi apa pun.
  3. Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel yang diterjemahkan dilarang.

Memahami Persimpangan Kripto dan AI

Lanjutan2/22/2024, 5:28:27 AM
Percobaan di perpotongan kripto dan kecerdasan buatan didorong oleh kekuatan yang sama yang mendasari kasus penggunaan paling menjanjikan untuk kripto—akses ke lapisan koordinasi tanpa izin dan tanpa kepercayaan, memfasilitasi transfer nilai secara lebih efektif.

Pengantar

Kedatangan rantai blok publik adalah salah satu kemajuan paling mendalam dalam sejarah ilmu komputer. Tetapi perkembangan kecerdasan buatan akan, dan sudah, memiliki dampak mendalam pada dunia kita. Jika teknologi blockchain menyediakan template baru untuk penyelesaian transaksi, penyimpanan data, dan desain sistem, kecerdasan buatan adalah revolusi dalam komputasi, analisis, dan pengiriman konten. Inovasi dalam dua industri tersebut membuka kunci kasus penggunaan baru yang dapat mempercepat adopsi keduanya dalam beberapa tahun mendatang. Laporan ini mengeksplorasi integrasi yang sedang berlangsung dari kripto dan kecerdasan buatan dengan fokus pada kasus penggunaan baru yang mencoba untuk menjembatani kesenjangan di antara keduanya, memanfaatkan kekuatan keduanya. Secara khusus, laporan ini mengkaji proyek-proyek yang mengembangkan protokol komputasi terdesentralisasi, infrastruktur pembelajaran mesin pengetahuan nol (zkML), dan agen kecerdasan buatan.

Crypto memberi AI lapisan penyelesaian tanpa izin, tanpa kepercayaan, dan dapat disusun. Ini membuka kasus penggunaan seperti membuat perangkat keras lebih mudah diakses melalui sistem komputasi terdesentralisasi, membangun agen AI yang dapat menjalankan tugas-tugas kompleks yang membutuhkan pertukaran nilai, dan mengembangkan solusi identitas dan asal untuk memerangi serangan Sybil dan deep fake. AI membawa ke crypto banyak manfaat yang sama yang kita lihat di Web 2. Ini termasuk pengalaman pengguna (UX) yang ditingkatkan untuk pengguna dan pengembang berkat model bahasa besar (yaitu, versi ChatGPT dan Copilot yang terlatih khusus) serta potensi untuk secara signifikan meningkatkan fungsionalitas dan otomatisasi kontrak pintar. Blockchain adalah lingkungan kaya data transparan yang dibutuhkan AI. Tetapi blockchain juga memiliki kapasitas komputasi terbatas, hambatan utama untuk integrasi langsung model AI.

Kekuatan pendorong di balik eksperimen yang sedang berlangsung dan adopsi akhirnya di persimpangan antara kripto dan AI adalah sama dengan yang mendorong sebagian besar kasus penggunaan kripto yang paling menjanjikan - akses ke lapisan koordinasi tanpa izin dan tanpa kepercayaan yang lebih baik memfasilitasi transfer nilai. Mengingat potensi besar, para peserta di ruang ini perlu memahami cara-cara mendasar di mana dua teknologi tersebut berpotongan.

Poin Penting:

  • Integrasi Kripto dan Kecerdasan Buatan (AI) dalam waktu dekat (6 bulan hingga 1 tahun) akan didominasi oleh aplikasi AI yang meningkatkan efisiensi pengembang, auditabilitas dan keamanan kontrak pintar, serta aksesibilitas pengguna. Integrasi-integrasi ini tidak spesifik untuk kripto tetapi meningkatkan pengalaman pengembang dan pengguna on-chain.
  • Penawaran komputasi terdesentralisasi sedang mengimplementasikan penawaran GPU yang disesuaikan dengan kecerdasan buatan (AI) tepat ketika terjadi kekurangan signifikan dalam GPU berkinerja tinggi, memberikan dorongan bagi adopsi.
  • Pengalaman pengguna dan regulasi tetap menjadi hambatan bagi pelanggan komputasi terdesentralisasi.Perkembangan terbaru di OpenAIserta jugaulasan regulasi yang sedang berlangsungdi Amerika Serikat, bagaimanapun, menyoroti nilai tawaran jaringan AI terdesentralisasi yang tak berizin, tahan sensor, dan tanpa sensor.
  • Integrasi AI on-chain, terutama untuk kontrak pintar yang mampu menggunakan model AI, memerlukan peningkatan dalam teknologi zkML dan metode komputasi lain yang memverifikasi komputasi offchain on-chain. Kurangnya penanganan alat yang komprehensif dan talenta pengembang serta biaya tinggi menjadi hambatan dalam adopsi.
  • Agen AI sangat cocok untuk kripto di mana pengguna (atau agen itu sendiri) dapat membuat dompet untuk bertransaksi dengan layanan lain, agen, atau orang. Saat ini hal ini tidak mungkin dilakukan menggunakan rel keuangan tradisional. Integrasi tambahan dengan produk non-kripto diperlukan untuk adopsi yang lebih luas.

Terminologi

Kecerdasan Buatan adalah penggunaan komputasi dan mesin untuk meniru kemampuan penalaran dan pemecahan masalah manusia.

Jaringan Saraf Tiruan adalah salah satu metode pelatihan untuk model AI. Mereka menjalankan input melalui lapisan algoritma diskrit, menyempurnakannya sampai output yang diinginkan dihasilkan. Jaringan saraf terdiri dari persamaan yang memiliki bobot yang dapat dimodifikasi untuk mengubah output. Mereka dapat membutuhkan jumlah data dan perhitungan yang luar biasa untuk dilatih sehingga hasilnya akurat. Ini adalah salah satu cara paling umum bahwa model AI dikembangkan (ChatGPT menggunakan proses jaringan saraf yang bergantung pada transformers.

Pelatihan adalah proses di mana jaringan saraf dan model AI lainnya dikembangkan. Ini memerlukan sejumlah besar data untuk melatih model agar dapat menginterpretasikan input dengan benar dan menghasilkan output yang akurat. Selama proses pelatihan, bobot persamaan model terus dimodifikasi hingga output yang memuaskan dihasilkan. Pelatihan bisa sangat mahal. ChatGPT, misalnya, menggunakanpuluhan ribu GPU miliknya untuk memproses datanya. Tim dengan sumber daya yang lebih sedikit sering mengandalkan penyedia komputasi khusus seperti Amazon Web Services, Azure, dan Google Cloud Providers.

Inferensi adalah penggunaan sebenarnya dari model AI untuk mendapatkan output atau hasil (misalnya, menggunakan ChatGPT untuk membuat garis besar untuk makalah tentang persilangan kripto dan AI). Inferensi digunakan sepanjang proses pelatihan dan pada produk akhir. Mereka dapat mahal untuk dijalankan, bahkan setelah pelatihan selesai, karena biaya komputasi, tetapi kurang intensif komputasi dibandingkan dengan pelatihan.

Bukti Pengetahuan Nol (ZKP) memungkinkan verifikasi klaim tanpa mengungkapkan informasi yang mendasarinya. Ini berguna dalam kripto karena dua alasan utama: 1) privasi dan 2) skalabilitas. Untuk privasi, ini memungkinkan pengguna untuk bertransaksi tanpa mengungkapkan informasi sensitif seperti berapa banyak ETH di dompet mereka. Untuk skalabilitas, ini memungkinkan komputasi di luar rantai untuk dibuktikan di rantai lebih cepat daripada harus mengeksekusi ulang komputasi. Ini memungkinkan blockchain dan aplikasi untuk menjalankan komputasi dengan biaya murah di luar rantai dan kemudian memverifikasinya di rantai. Untuk informasi lebih lanjut tentang pengetahuan nol dan perannya dalam Mesin Virtual Ethereum, silakan lihat laporan Christine Kim.zkEVMs: Masa Depan Skalabilitas Ethereum.

Peta Pasar AI/Kripto

Proyek di persimpangan AI dan kripto masih membangun infrastruktur dasar yang diperlukan untuk mendukung interaksi AI on-chain dalam skala besar.

Pasar komputasi terdesentralisasi sedang muncul untuk menyediakan sejumlah besar perangkat keras fisik, terutama dalam bentuk unit pemrosesan grafis (GPU), yang diperlukan untuk pelatihan dan inferensi model AI. Pasar dua sisi ini menghubungkan mereka yang menyewa dan mencari untuk menyewa komputasi, memfasilitasi transfer nilai dan verifikasi komputasi. Dalam komputasi terdesentralisasi, beberapa subkategori sedang muncul yang menyediakan fungsionalitas tambahan. Selain pasar dua sisi, laporan ini akan menguji penyedia pelatihan pembelajaran mesin yang mengkhususkan diri dalam layanan pelatihan yang dapat diverifikasi dan keluaran penyetelan halus serta proyek-proyek yang bekerja untuk menghubungkan komputasi dan generasi model untuk mencapai kecerdasan buatan umum, juga sering disebut sebagai jaringan insentif kecerdasan.

zkML adalah area yang sedang berkembang untuk proyek-proyek yang ingin memberikan keluaran model yang dapat diverifikasi secara on-chain dengan cara yang efisien biaya dan tepat waktu. Proyek-proyek ini secara utama memungkinkan aplikasi untuk menangani permintaan komputasi berat offchain, dan kemudian memposting keluaran yang dapat diverifikasi secara on-chain membuktikan bahwa beban kerja offchain sudah selesai dan akurat. zkML saat ini mahal dan memakan waktu, namun semakin banyak digunakan sebagai solusi. Hal ini terlihat dari jumlah integrasi yang semakin bertambah antara penyedia zkML dan aplikasi DeFi/Gaming yang ingin memanfaatkan model AI.

Pasokan komputasi yang cukup dan kemampuan untuk memverifikasi komputasi tersebut on-chain membuka pintu bagi agen AI on-chain. Agen adalah model-model yang dilatih yang mampu mengeksekusi permintaan atas nama pengguna. Agen menawarkan kesempatan untuk secara signifikan meningkatkan pengalaman on-chain, memungkinkan pengguna mengeksekusi transaksi kompleks hanya dengan berbicara pada chatbot. Namun, seperti yang ada saat ini, proyek Agen masih difokuskan pada pengembangan infrastruktur dan alat untuk penyebaran yang mudah dan cepat.

Komputasi Terdesentralisasi

Ikhtisar

AI membutuhkan banyak komputasi, baik untuk melatih model maupun menjalankan inferensi. Selama dekade terakhir, seiring model menjadi lebih canggih, kebutuhan komputasi telah tumbuh secara eksponensial. OpenAI, misalnya, ditemukanantara 2012 hingga 2018 persyaratan komputasi untuk modelnya meningkat dari penggandaan setiap dua tahun menjadi setiap tiga setengah bulan. Hal ini telah menyebabkan lonjakan permintaan untuk GPU dengan beberapa penambang kripto bahkanmengalihfungsikan GPU merekauntuk menyediakan layanan komputasi awan (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">baca lebih lanjut tentang ini dalam laporan pertambangan Bitcoin tahunan kami). Seiring dengan meningkatnya persaingan untuk mengakses komputasi dan biaya yang meningkat, beberapa proyek menggunakan kripto untuk menyediakan solusi komputasi terdesentralisasi. Mereka menawarkan komputasi on-demand dengan harga yang kompetitif sehingga tim dapat melatih dan menjalankan model secara terjangkau. Pertukaran yang bisa terjadi, dalam beberapa kasus, adalah performa dan keamanan.

GPU terkini, seperti mereka diproduksioleh Nvidia, sangat diminati. Pada bulan September, Tether mendapatkansebuah saham di Northern Data, penambang Bitcoin Jerman, dilaporkan membayar $420 juta untuk mengakuisisi 10.000 GPU H100 (salah satu GPU paling canggih untuk pelatihan kecerdasan buatan).TungguWaktu untuk perangkat keras terbaik dalam kelas dapat setidaknya enam bulan, dan dalam banyak kasus lebih lama. Membuat situasi menjadi lebih buruk, perusahaan seringkali harus menandatangani kontrak jangka panjang untuk jumlah komputasi yang mungkin bahkan tidak mereka gunakan. Hal ini dapat menyebabkan situasi di mana ada komputasi yang tersedia, tetapi tidak tersedia di pasar. Sistem komputasi terdesentralisasi membantu mengatasi ketidaksempurnaan pasar ini, menciptakan pasar sekunder di mana pemilik komputasi dapat menyewakan kapasitas berlebih mereka sewaktu-waktu, membuka pasokan baru.

Selain harga yang kompetitif dan aksesibilitas, proposisi nilai kunci komputasi terdesentralisasi adalah ketahanan sensor. Pengembangan kecerdasan buatan terkini semakin didominasi oleh perusahaan teknologi besar dengan akses yang tak tertandingi ke komputasi dan data. Tema kunci pertama yang disorot pada Laporan Indeks AILaporan tahunan 2023 adalah bahwa industri semakin melampaui akademisi dalam pengembangan model AI, mengkonsentrasikan kontrol di tangan beberapa pemimpin teknologi. Hal ini menimbulkan kekhawatiran atas kemampuan mereka untuk memiliki pengaruh yang besar dalam menentukan norma dan nilai yang mendasari model AI, terutama setelah regulasiMendorongoleh perusahaan teknologi yang sama ini untuk membatasi pengembangan kecerdasan buatan di luar kendali mereka.

Vertikal Komputasi Terdesentralisasi

Beberapa model untuk komputasi terdesentralisasi muncul dalam beberapa tahun terakhir, masing-masing dengan fokus dan kompromi mereka sendiri.

Komputasi Umum

Proyek-proyek seperti Akash, io.net, iExec, Cudos, dan banyak lainnya adalah aplikasi komputasi terdesentralisasi yang menawarkan akses ke, atau akan segera menawarkan akses ke, komputasi khusus untuk pelatihan KI dan inferensi serta data dan solusi komputasi umum.

Akash saat ini adalah satu-satunya platform "supercloud" open source sepenuhnya. Ini adalah bukti jaringan saham menggunakan Cosmos SDK. AKT, token asli Akash digunakan untuk mengamankan jaringan, sebagai bentuk pembayaran, dan untuk mendorong partisipasi. Akash meluncurkan mainnet pertamanya pada tahun 2020 yang berfokus pada penyediaan pasar komputasi cloud tanpa izin yang awalnya menampilkan layanan penyimpanan dan penyewaan CPU. Pada Juni 2023, Akash diluncurkansebuah testnet baru yang difokuskan pada GPU dan pada bulan Septemberdiluncurkanmainnet GPU-nya memungkinkan pengguna menyewa GPU untuk pelatihan dan inferensi kecerdasan buatan.

Ada dua aktor utama dalam ekosistem Akash - Penyewa dan Penyedia. Penyewa adalah pengguna jaringan Akash yang ingin membeli sumber daya komputasi. Penyedia adalah pemasok komputasi. Untuk mencocokkan penyewa dan penyedia, Akash mengandalkan proses lelang terbalik. Penyewa mengirimkan persyaratan komputasi mereka, di mana mereka dapat menentukan kondisi tertentu seperti lokasi server atau jenis perangkat keras yang melakukan komputasi, dan jumlah yang bersedia mereka bayar. Penyedia kemudian mengirimkan harga penawaran mereka, dengan penawaran terendah menerima tugas.

Validator Akash menjaga integritas jaringan. Set validator saat ini dibatasi hingga 100 dengan rencana untuk meningkat secara bertahap dari waktu ke waktu. Siapa pun dapat menjadi validator dengan mempertaruhkan lebih banyak AKT daripada validator saat ini dengan jumlah AKT paling sedikit yang dipertaruhkan. Pemegang AKT juga dapat mendelegasikan AKT mereka kepada validator. Biaya transaksi dan hadiah blok untuk jaringan didistribusikan dalam AKT. Selain itu, untuk setiap sewa, jaringan Akash mendapatkan "biaya pengambilan" dengan tarif yang ditentukan oleh komunitas yang didistribusikan kepada pemegang AKT.

Pasar Sekunder

Pasar komputasi terdesentralisasi bertujuan untuk mengisi ketidaksempurnaan dalam pasar komputasi yang ada. Kendala pasokan mendorong perusahaan untuk menyimpan komputasi melebihi kebutuhan mereka, dan pasokan lebih terbatas karena struktur kontrak dengan penyedia cloud yang mengunci pelanggan ke kontrak jangka panjang meskipun akses yang berkelanjutan mungkin tidak diperlukan. Platform komputasi terdesentralisasi membuka pasokan baru, memungkinkan siapa pun di dunia dengan komputasi yang diminta menjadi penyedia.

Masih harus dilihat apakah permintaan yang meningkat untuk GPU untuk pelatihan kecerdasan buatan akan berdampak pada penggunaan jaringan jangka panjang di Akash. Akash telah lama menyediakan pasar untuk CPU, misalnya, menawarkan layanan serupa seperti alternatif terpusat di 70-80% diskon. Harga yang lebih rendah, bagaimanapun, belum menghasilkan penyerapan yang signifikan. Sewa aktif di jaringan telah diratakan, rata-rata hanya 33% komputasi, 16% memori, dan 13% penyimpanan untuk kedua tahun 2023. Meskipun ini adalah metrik yang mengesankan untuk adopsi on-chain (untuk referensi, penyedia penyimpanan terkemuka Filecoin memiliki Pemanfaatan penyimpanan 12.6%pada Q3 2023), ini menunjukkan bahwa pasokan terus melampaui permintaan untuk produk-produk ini.

Sudah lebih dari setengah tahun sejak Akash meluncurkan jaringan GPU-nya dan masih terlalu dini untuk secara akurat mengukur adopsi jangka panjang. Sebagai tanda permintaan, utilisasi GPU rata-rata hingga saat ini adalah 44% dan lebih tinggi dari CPU, memori, dan penyimpanan. Hal ini terutama didorong oleh permintaan untuk GPU kualitas tertinggi (seperti A100), dengan lebih dari 90%disewakan.

Pengeluaran harian untuk Akash juga meningkat, hampir dua kali lipat dibandingkan dengan sebelumnya. Hal ini sebagian dapat diatribusikan pada peningkatan penggunaan layanan lain, terutama CPU, tetapi secara utama merupakan hasil dari penggunaan GPU baru.

Harga sesuai (atau dalam beberapa kasus sedikit lebih mahal) dengan pesaing-pesaing terpusatnya seperti Lambda Cloud dan Vast.ai. Permintaan luar biasa untuk GPU paling canggih (seperti H100 dan A100) berarti sebagian besar pemilik peralatan tersebut sedikit tertarik untuk mencantumkan di pasar di mana mereka menghadapi penetapan harga yang kompetitif.

Sementara minat awal menjanjikan, masih ada hambatan untuk adopsi (dibahas lebih lanjut di bawah). Jaringan komputasi terdesentralisasi perlu melakukan lebih banyak untuk menghasilkan permintaan dan pasokan dan tim sedang bereksperimen dengan cara terbaik untuk menarik pengguna baru. Pada awal tahun 2024, misalnya, Akash berhasil Usulan 240untuk meningkatkan emisi AKT bagi pemasok GPU dan mendorong lebih banyak pasokan, khususnya menargetkan GPU kelas atas. Tim juga sedang bekerja untuk meluncurkan model proof-of-concept untuk menunjukkan kepada pengguna prospektif kemampuan jaringan mereka secara real-time. Akash adalah Pelatihanmodel dasar mereka sendiri dan sudah diluncurkanchatbotdangenerasi gambarpenawaran yang menciptakan output menggunakan GPU Akash. Demikian pula, io.net memilikidikembangkansebuah model difusi yang stabil dan sedang diperkenalkanfungsi jaringan baruyang lebih baik meniru kinerja dan skala pusat data GPU tradisional.

Pelatihan Pembelajaran Mesin Terdesentralisasi

Selain platform komputasi umum yang dapat melayani kebutuhan AI, sekelompok penyedia GPU AI khusus yang berfokus pada pelatihan model pembelajaran mesin juga mulai muncul. Gensyn, sebagai contoh, adalahmengkoordinasikanlistrik dan perangkat keras untuk membangun kecerdasan kolektif” dengan pandangan bahwa, “Jika seseorang ingin melatih sesuatu, dan seseorang bersedia melatihnya, maka pelatihan itu harus diizinkan terjadi.”

Protokol ini memiliki empat aktor utama: pengirim, pemecah, pemverifikasi, dan pelapor. Pengirim mengirimkan tugas ke jaringan dengan permintaan pelatihan. Tugas-tugas ini termasuk tujuan pelatihan, model yang akan dilatih, dan data pelatihan. Sebagai bagian dari proses pengajuan, pengirim membayar biaya di muka untuk perkiraan komputasi yang diperlukan dari solver.

Setelah diserahkan, tugas ditugaskan kepada penyelesaian yang melakukan pelatihan aktual dari model-model tersebut. Penyelesaian kemudian menyerahkan tugas-tugas yang sudah selesai kepada pemeriksa yang bertanggung jawab untuk memeriksa pelatihan untuk memastikan bahwa itu dilakukan dengan benar. Pemberi tahu bertanggung jawab untuk memastikan bahwa pemeriksa berperilaku jujur. Untuk mendorong pemberi tahu untuk berpartisipasi dalam jaringan, Gensyn berencana untuk secara berkala memberikan bukti yang sengaja tidak benar yang memberi imbalan kepada pemberi tahu yang berhasil menangkapnya.

Selain menyediakan komputasi untuk beban kerja terkait kecerdasan buatan, nilai proposisi kunci Gensyn adalah sistem verifikasinya, yang masih dalam pengembangan. Verifikasi diperlukan untuk memastikan bahwa komputasi eksternal oleh penyedia GPU dilakukan dengan benar (yaitu, untuk memastikan bahwa model pengguna dilatih sesuai keinginan mereka). Gensyn menangani masalah ini dengan pendekatan unik, memanfaatkan metode verifikasi baru yang disebut, "Bukti pembelajaran probabilistik, protokol pinpoint berbasis graf, dan permainan insentif gaya Truebit." Ini adalah mode pemecahan yang optimis yang memungkinkan verifier untuk mengonfirmasi bahwa solver telah menjalankan model dengan benar tanpa harus sepenuhnya menjalankannya sendiri, yang merupakan proses yang mahal dan tidak efisien.

Selain metode verifikasi inovatifnya, Gensyn juga klaimuntuk menjadi efektif biaya relatif terhadap alternatif terpusat dan pesaing kripto - menyediakan pelatihan ML hingga 80% lebih murah dari AWS sambil mengungguli proyek serupa seperti Truebit dalam pengujian.

Apakah hasil awal ini dapat direplikasi dalam skala yang lebih luas di seluruh jaringan terdesentralisasi masih harus dilihat. Gensyn ingin memanfaatkan komputasi berlebih dari penyedia seperti pusat data kecil, pengguna ritel, dan di masa depan bahkan perangkat mobile yang lebih kecil seperti ponsel. Namun, seperti tim Gensyn sendiri memilikidiakui, mengandalkan penyedia komputasi heterogen memperkenalkan beberapa tantangan baru.

Bagi penyedia terpusat seperti Penyedia Google Cloud dan Coreweave, komputasi mahal sementara komunikasi antara komputasi tersebut (bandwidth dan laten) murah. Sistem-sistem ini dirancang untuk memungkinkan komunikasi antara perangkat keras secepat mungkin. Gensyn membalikkan kerangka kerja tersebut, mengurangi biaya komputasi dengan memungkinkan siapa pun di dunia untuk menyediakan GPU tetapi meningkatkan biaya komunikasi karena jaringan sekarang harus mengkoordinasikan pekerjaan komputasi di seluruh perangkat keras heterogen yang terletak jauh. Gensyn belum diluncurkan, tetapi merupakan bukti konsep dari apa yang mungkin terjadi saat membangun protokol pelatihan pembelajaran mesin terdesentralisasi.

Intelejen Terdesentralisasi Umum

Platform komputasi terdesentralisasi juga membuka kemungkinan desain untuk metode penciptaan kecerdasan buatan. Bittensor adalah protokol komputasi terdesentralisasi yang dibangun di Substrate yangmencoba menjawabpertanyaan, “bagaimana kita bisa mengubah AI menjadi pendekatan kolaboratif?” Bittensor bertujuan untuk mendesentralisasikan dan mengkomodifikasi generasi kecerdasan buatan. Diluncurkan pada tahun 2021, protokol ini ingin memanfaatkan kekuatan model pembelajaran mesin kolaboratif untuk terus mengiterasi dan menghasilkan kecerdasan buatan yang lebih baik.

Bittensor mengambil inspirasi dari Bitcoin, dengan pasokan mata uang aslinya TAO sebanyak dua puluh satu juta dan siklus pengurangan empat tahun (pengurangan pertama akan terjadi pada tahun 2025). Alih-alih menggunakan Proof of Work untuk menghasilkan nonce yang benar dan mendapatkan hadiah blok, Bittensor bergantung pada 'Proof of Intelligence,' yang memerlukan para penambang untuk menjalankan model yang menghasilkan output sebagai respons terhadap permintaan inferensi.

Mendorong Kecerdasan

Bittensor awalnya mengandalkan model Mixture of Experts (MoE) untuk menghasilkan output. Ketika permintaan inferensi dikirimkan, daripada mengandalkan satu model umum, model MoE meneruskan permintaan inferensi ke model-model paling akurat untuk jenis input tertentu. Bayangkan membangun rumah di mana Anda menyewa berbagai spesialis untuk berbagai aspek proses konstruksi (contoh: arsitek, insinyur, pelukis, pekerja konstruksi, dll...). MoE menerapkan hal ini pada model pembelajaran mesin, berupaya memanfaatkan output dari berbagai model tergantung pada input. Seperti pendiri Bittensor Ala Shaabana dijelaskan, itu seperti “berbicara kepada sekelompok orang pintar dan mendapatkan jawaban terbaik daripada berbicara kepada satu orang.” Karena tantangandengan memastikan routing yang tepat, sinkronisasi pesan ke model yang benar, dan insentivasi, pendekatan ini telah disampingkan sampai proyek lebih dikembangkan.

Ada dua aktor utama dalam jaringan Bittensor: validator dan penambang. Validator bertugas mengirimkan permintaan inferensi ke penambang, meninjau output mereka, dan merangking mereka berdasarkan kualitas respons mereka. Untuk memastikan peringkat mereka dapat diandalkan, validator diberi skor “vtrust” berdasarkan seberapa baik peringkat mereka sejalan dengan peringkat validator lainnya. Semakin tinggi skor vtrust validator, semakin banyak emisi TAO yang mereka peroleh. Hal ini dimaksudkan untuk mendorong validator mencapai konsensus tentang peringkat model dari waktu ke waktu, karena semakin banyak validator yang mencapai kesepakatan tentang peringkat, semakin tinggi skor vtrust individu mereka.

Penambang, juga disebut server, adalah peserta jaringan yang menjalankan model pembelajaran mesin sebenarnya. Penambang bersaing satu sama lain untuk memberikan validator hasil yang paling akurat untuk kueri tertentu, menghasilkan emisi TAO lebih banyak semakin akurat hasil mereka. Penambang dapat menghasilkan output tersebut sesuai keinginan mereka. Sebagai contoh, sangat mungkin dalam skenario masa depan bahwa seorang penambang Bittensor sebelumnya dapat melatih model pada Gensyn yang mereka gunakan untuk menghasilkan emisi TAO.

Saat ini, sebagian besar interaksi terjadi langsung antara validator dan penambang. Validator mengirimkan input ke penambang dan meminta output (yaitu, melatih model). Setelah validator mengajukan pertanyaan kepada penambang di jaringan dan menerima respons mereka, mereka kemudian menilai penambang dan mengirimkan peringkat mereka ke jaringan.

Interaksi ini antara validator (yang mengandalkan PoS) dan penambang (yang mengandalkan Proof of Model, suatu bentuk PoW) – disebut Konsensus Yuma. Ini bertujuan untuk mendorong penambang untuk menghasilkan output terbaik untuk mendapatkan emisi TAO dan validator untuk secara akurat menilai output penambang untuk mendapatkan skor vtrust yang lebih tinggi dan meningkatkan imbalan TAO mereka membentuk mekanisme konsensus jaringan.

Subnet dan Aplikasi

Interaksi pada Bittensor terutama terdiri dari validator mengirimkan permintaan kepada penambang dan mengevaluasi hasil keluaran mereka. Namun, ketika kualitas penambang yang berkontribusi meningkat dan kecerdasan jaringan secara keseluruhan tumbuh, Bittensor akan membuat lapisan aplikasi di atas tumpukan yang sudah ada sehingga pengembang dapat membangun aplikasi yang meminta jaringan Bittensor.

Pada Oktober 2023, Bittensor menyelesaikan langkah penting menuju pencapaian ini dengan pengenalandari subnet melalui upgrade Revolusinya. Subnet adalah jaringan individual pada Bittensor yang mendorong perilaku spesifik. Revolusi membuka jaringan kepada siapa pun yang tertarik untuk membuat subnet. Dalam beberapa bulan sejak rilisnya, lebih dari 32 subnettelah diluncurkan, termasuk yang untuk memicu teks, pengikisan data, generasi gambar, dan penyimpanan. Saat subnets menjadi matang dan siap digunakan sebagai produk, pencipta subnet juga akan membuat integrasi aplikasi, memungkinkan tim untuk membangun aplikasi yang mengakses subnet tertentu. Beberapa aplikasi ( chatbot, generator gambar, bot balasan twitter, pasar prediksi) memang ada saat ini, namun tidak ada insentif formal bagi validator untuk menerima dan meneruskan pertanyaan-pertanyaan tersebut selain dari hibah dari yayasan Bittensor.

Untuk memberikan ilustrasi yang lebih jelas, berikut contoh bagaimana Bittensor mungkin berfungsi setelah aplikasi terintegrasi ke dalam jaringan.

Subnets mendapatkan TAO berdasarkan kinerja mereka yang dievaluasi oleh jaringan root. Jaringan akar duduk di atas semua subnet, pada dasarnya bertindak sebagai jenis subnet khusus, dan dikelola oleh 64 validator subnet terbesar berdasarkan taruhan. Validator jaringan akar menilai subnet berdasarkan kinerjanya dan mendistribusikan emisi TAO ke subnet secara berkala. Dengan cara ini, subnet individual bertindak sebagai penambang untuk jaringan akar.

Bittensor Outlook

Bittensor masih mengalami masa-masa sulit saat memperluas fungsionalitas protokol untuk mendorong generasi kecerdasan di beberapa subnet. Para penambang terus mencari cara baru untuk menyerang jaringan guna mendapatkan lebih banyak imbalan TAO, misalnya dengan sedikit.memodifikasioutput dari jalankan inferensi yang sangat dinilai oleh model mereka dan kemudian mengirimkan variasi ganda. Usulan tata kelola yang memengaruhi seluruh jaringan hanya dapat diajukan dan dilaksanakan oleh Triumvirate, yang terdiri sepenuhnya dari pemegang kepentingan Opentensor Foundation (penting untuk dicatat bahwa proposal memerlukan persetujuan oleh Bittensor Senatterdiri dari validator Bittensor sebelum implementasi). Dan tokenomika proyek sedang dalam proses penyempurnaan untuk meningkatkan insentif penggunaan TAO di seluruh subnet. Proyek ini juga dengan cepat mendapat ketenaran karena pendekatan uniknya, dengan CEO salah satu situs AI paling populerHuggingFacemenunjukkan bahwa Bittensor harus menambahkan sumber dayanya ke situs web.

Dalam sebuah yang baru-baru ini diterbitkan potonganoleh seorang pengembang inti yang disebut sebagai 'Bittensor Paradigm,' tim tersebut menjabarkan visi mereka untuk Bittensor pada akhirnya berkembang menjadi 'agnostik terhadap apa yang diukur.' Secara teori, ini dapat memungkinkan Bittensor untuk mengembangkan subnets yang mendorong segala jenis perilaku yang didukung oleh TAO. Masih ada kendala praktis yang signifikan - terutama menunjukkan bahwa jaringan ini mampu mengatasi berbagai proses yang beragam dan insentif yang mendasarinya mendorong kemajuan yang melampaui penawaran terpusat.

Membangun Tumpukan Komputasi Terdesentralisasi untuk Model AI

Bagian di atas memberikan gambaran umum tingkat tinggi tentang berbagai jenis protokol komputasi kecerdasan buatan terdesentralisasi yang sedang dikembangkan. Sementara di awal pengembangan dan adopsi mereka, mereka memberikan fondasi ekosistem yang pada akhirnya dapat memfasilitasi pembuatan "blok bangunan AI," seperti konsep "Lego Uang" DeFi. Komposabilitas blockchain tanpa izin membuka kemungkinan bagi setiap protokol untuk membangun di atas yang lain untuk menyediakan ekosistem kecerdasan buatan terdesentralisasi yang lebih komprehensif.

Sebagai contoh, berikut adalah salah satu cara di mana Akash, Gensyn, dan Bittensor mungkin berinteraksi untuk merespons permintaan inferensi.

Untuk jelasnya, ini hanyalah contoh tentang apa yang mungkin terjadi di masa depan, bukan representasi dari ekosistem saat ini, mitra yang ada, atau hasil yang mungkin. Kendala pada interoperabilitas, serta pertimbangan lain yang dijelaskan di bawah, sangat membatasi kemungkinan integrasi saat ini. Selain itu, fragmentasi likuiditas dan kebutuhan untuk menggunakan beberapa token dapat merugikan pengalaman pengguna, sesuatu yang telahmenunjukkanoleh para pendiri Akash dan Bittensor.

Penawaran Terdesentralisasi Lainnya

Selain komputasi, beberapa layanan infrastruktur terdesentralisasi lain sedang diperkenalkan untuk mendukung ekosistem kecerdasan buatan yang muncul dari kripto. Untuk mencantumkan semuanya di luar lingkup laporan ini, tetapi beberapa contoh menarik dan menggambarkan termasuk:

  • Samudra: Pasar data terdesentralisasi. Pengguna dapat membuat NFT data yang mewakili data mereka yang dapat dibeli menggunakan token data. Pengguna dapat memonetisasi data mereka dan memiliki kedaulatan yang lebih besar atasnya sambil memberikan tim yang bekerja pada kecerdasan buatan akses ke data yang diperlukan untuk mengembangkan dan melatih model.
  • Rumput: Pasar bandwidth terdesentralisasi. Pengguna dapat menjual kelebihan bandwidth mereka kepada perusahaan AI yang menggunakannya untuk mengumpulkan data dari internet. Dibangun di atas Jaringan Wynd, ini tidak hanya memungkinkan individu untuk memonetisasi bandwidth mereka, tetapi juga memberikan pembeli bandwidth dengan serangkaian sudut pandang yang lebih beragam tentang apa yang dilihat pengguna individu secara online (karena akses internet seseorang biasanya disesuaikan dengan alamat IP mereka secara khusus).
  • HiveMapper: Membangun penawaran peta terdesentralisasi yang terdiri dari informasi yang dikumpulkan dari pengemudi mobil sehari-hari. HiveMapper bergantung pada kecerdasan buatan untuk menginterpretasi gambar yang dikumpulkan dari kamera dashboard pengguna dan memberi pengguna imbalan berupa token atas bantuan mereka dalam menyempurnakan model kecerdasan buatan melalui umpan balik pembelajaran manusia yang diperkuat (RHLF).

Secara kolektif, hal-hal ini menunjukkan peluang tak terbatas untuk menjelajahi model pasar terdesentralisasi yang mendukung model AI, atau infrastruktur sekitarnya yang diperlukan untuk mengembangkannya. Saat ini, proyek-proyek ini sebagian besar berada dalam tahap bukti konsep dan dibutuhkan penelitian dan pengembangan yang lebih banyak untuk menunjukkan bahwa mereka dapat beroperasi pada skala yang diperlukan untuk menyediakan layanan AI yang komprehensif.

Tinjauan

Penawaran komputasi terdesentralisasi masih dalam tahap awal pengembangan. Mereka baru mulai menyediakan akses ke komputasi canggih yang mampu melatih model AI paling kuat dalam produksi. Untuk mendapatkan pangsa pasar yang signifikan, mereka perlu menunjukkan keunggulan praktis dibandingkan dengan alternatif terpusat. Pemicu potensial untuk adopsi yang lebih luas termasuk:

  • Pasokan/Demand GPU. Kelangkaan GPU yang dipadukan dengan permintaan komputasi yang meningkat dengan cepat mengarah pada perlombaan senjata GPU. OpenAI telah sekaliterbatasakses ke platformnya karena kendala GPU. Platform seperti Akash dan Gensyn dapat menyediakan alternatif yang kompetitif biaya untuk tim-tim yang membutuhkan komputasi berkinerja tinggi. 6-12 bulan mendatang adalah kesempatan yang sangat unik bagi penyedia komputasi terdesentralisasi untuk menerima pengguna baru yang terpaksa mempertimbangkan penawaran terdesentralisasi mengingat kurangnya akses di pasar yang lebih luas. Dikombinasikan dengan model open-source yang semakin performa seperti LLaMA 2 milik Meta, pengguna tidak lagi menghadapi hambatan yang sama untuk mengeksekusi model yang efektif dan disesuaikan dengan baik, menjadikan sumber daya komputasi sebagai bottleneck utama. Namun, keberadaan platform itu sendiri tidak menjamin pasokan komputasi yang memadai dan permintaan yang sesuai dari konsumen. Mendapatkan GPU kelas atas tetap sulit, dan biaya tidak selalu menjadi motivasi utama di sisi permintaan. Platform-platform ini akan diuji untuk menunjukkan manfaat praktis menggunakan opsi komputasi terdesentralisasi - baik itu karena biaya, ketahanan terhadap sensor, waktu aktif dan ketangguhan, atau aksesibilitas - untuk mengumpulkan pengguna yang loyal. Mereka harus bergerak cepat. Infrastruktur GPUinvestasi dan pengembanganterjadi dengan tingkat luar biasa.
  • Regulasi. Regulasi terus menjadi hambatan bagi gerakan komputasi terdesentralisasi. Pada jangka pendek, kurangnya regulasi yang jelas berarti bahwa baik penyedia maupun pengguna menghadapi risiko potensial dalam menggunakan layanan ini. Bagaimana jika seorang pemasok menyediakan komputasi atau seorang pembeli membeli komputasi dari entitas yang dikenai sanksi tanpa disadari? Pengguna mungkin enggan menggunakan platform terdesentralisasi yang tidak memiliki kontrol dan pengawasan entitas terpusat. Protokol telah berusaha untuk mengurangi kekhawatiran ini dengan memasukkan kontrol ke dalam platform mereka atau menambahkan filter untuk mengakses hanya penyedia komputasi yang dikenal (yaitu, telah memberikan informasi kenal-pelanggan (KYC)), namun metode yang lebih kuat yang melindungi privasi sambil memastikan kepatuhan akan diperlukan untuk adopsi. Pada jangka pendek, kita kemungkinan akan melihat munculnya platform yang mematuhi KYC dan regulasi yang membatasi akses ke protokol mereka untuk mengatasi kekhawatiran ini. Selain itu, diskusi seputar kerangka regulasi AS baru yang mungkin, terbaik diilustrasikan dengan rilis dariPerintah Eksekutif tentang Pengembangan dan Penggunaan Kecerdasan Buatan yang Aman, Aman, dan Terpercaya, menyoroti potensi tindakan regulasi yang lebih membatasi akses ke GPU.
  • Sensor. Regulasi berlaku dua arah dan penawaran komputasi terdesentralisasi bisa mendapat manfaat dari tindakan yang diambil untuk membatasi akses ke AI. Selain Perintah Eksekutif, pendiri OpenAI Sam Altman memiliki memberikan kesaksiandi Kongres tentang perlunya lembaga regulasi yang mengeluarkan lisensi untuk pengembangan AI. Diskusi seputar regulasi AI baru saja dimulai, tetapi upaya-upaya semacam itu untuk membatasi akses atau menyensor apa yang dapat dilakukan dengan AI dapat mempercepat adopsi platform terdesentralisasi yang tidak memiliki hambatan tersebut. The Guncangan kepemimpinan OpenAI November(atau kekurangannya) lebih lanjut menunjukkan risiko pemberian keputusan bagi model AI yang paling kuat kepada hanya beberapa orang. Selain itu, semua model AI secara wajib mencerminkan bias dari para pembuatnya, baik dengan sengaja maupun tidak. Salah satu cara untuk menghilangkan bias tersebut adalah dengan membuat model sebuka mungkin untuk penyempurnaan dan pelatihan, memastikan bahwa model-model dari berbagai jenis dan bias selalu dapat diakses oleh siapa pun di mana pun.
  • Privasi Data. Ketika terintegrasi dengan solusi data eksternal dan privasi yang memberikan pengguna otonomi atas data mereka, komputasi terdesentralisasi mungkin menjadi lebih menarik daripada alternatif terpusat. Samsungmenjadi korbanketika mereka menyadari bahwa insinyur menggunakan ChatGPT untuk membantu desain chip dan bocor informasi sensitif ke ChatGPT. Jaringan Phala dan iExec mengklaim menawarkan pengguna enclave aman SGX untuk melindungi data pengguna dan penelitian berkelanjutan dalam enkripsi homomorfik penuh bisa lebih membuka kunci komputasi terdesentralisasi yang menjamin privasi. Saat AI semakin terintegrasi ke dalam kehidupan kita, pengguna akan menempatkan nilai lebih tinggi pada kemampuan menjalankan model pada aplikasi yang sudah memiliki privasi terintegrasi di dalamnya. Pengguna juga akan menuntut layanan yang memungkinkan komposabilitas data sehingga mereka dapat dengan lancar memindahkan data mereka dari satu model ke model lainnya.
  • Pengalaman Pengguna (UX). UX terus menjadi penghalang signifikan untuk adopsi yang lebih luas dari semua jenis aplikasi dan infrastruktur crypto. Ini tidak berbeda untuk penawaran komputasi terdesentralisasi, dan dalam beberapa kasus diperburuk oleh kebutuhan pengembang untuk memahami crypto dan AI. Perbaikan diperlukan dari dasar-dasar seperti orientasi dan abstraksi interaksi dengan blockchain untuk menyediakan hal yang sama output berkualitas tinggisebagai pemimpin pasar saat ini. Ini jelas terlihat mengingat kenyataan bahwa banyak protokol komputasi terdesentralisasi operasional yang menyediakan penawaran lebih murah kesulitan untuk mendapatkan penggunaan reguler.

Kontrak Pintar & zkML

Kontrak pintar adalah blok bangunan inti dari setiap ekosistem blockchain. Dengan seperangkat kondisi tertentu, mereka dieksekusi secara otomatis dan mengurangi atau menghilangkan kebutuhan akan pihak ketiga yang dipercayai, memungkinkan penciptaan aplikasi terdesentralisasi kompleks seperti yang terlihat dalam DeFi. Namun, sebagian besar kontrak pintar saat ini masih terbatas dalam fungsionalitasnya karena mereka dieksekusi berdasarkan parameter yang telah ditetapkan yang harus diperbarui.

Sebagai contoh, kontrak pintar protokol peminjaman/peminjaman dideploy dengan spesifikasi kapan harus likuidasi posisi berdasarkan rasio pinjaman tertentu terhadap nilai. Meskipun bermanfaat dalam lingkungan statis, dalam situasi dinamis di mana risiko terus berubah, kontrak pintar ini harus terus diperbarui untuk memperhitungkan perubahan toleransi risiko, menciptakan tantangan bagi kontrak yang tidak diatur melalui proses terpusat. DAO, misalnya, yang bergantung pada proses governance terdesentralisasi, mungkin tidak bisa bereaksi cukup cepat untuk menanggapi risiko sistemik.

Kontrak pintar yang mengintegrasikan kecerdasan buatan (yaitu, model pembelajaran mesin) adalah salah satu cara untuk meningkatkan fungsionalitas, keamanan, dan efisiensi sambil meningkatkan pengalaman pengguna secara keseluruhan. Integrasi-integrasi ini juga memperkenalkan risiko tambahan, meskipun, karena tidak mungkin untuk memastikan bahwa model-model yang mendasari kontrak pintar ini tidak dapat dieksploitasi atau memperhitungkan situasi longtail (yang terkenal sulit dilatih modelnya mengingat kelangkaan masukan datauntuk mereka).

Machine Learning Pengetahuan Nol (zkML)

Machine learning memerlukan jumlah komputasi yang besar untuk menjalankan model-model kompleks, yang mencegah model AI dari dijalankan langsung di dalam kontrak pintar karena biaya yang tinggi. Protokol DeFi yang memberikan akses pengguna ke model optimisasi hasil, misalnya, akan kesulitan menjalankan model tersebut on-chain tanpa harus membayar biaya gas yang sangat tinggi. Salah satu solusinya adalah meningkatkan daya komputasi dari blockchain yang mendasarinya. Namun, hal ini juga meningkatkan tuntutan pada set validator rantai, yang berpotensi merusak sifat desentralisasi. Sebaliknya, beberapa proyek sedang mengeksplorasi penggunaan zkML untuk memverifikasi output secara tidak terpercaya tanpa perlu komputasi on-chain yang intensif.

Satu umumnyaContoh berbagi yang mengilustrasikan kegunaan zkML adalah ketika seorang pengguna memerlukan orang lain untuk menjalankan data melalui model dan juga memverifikasi bahwa pihak lain benar-benar menjalankan model yang benar. Mungkin seorang pengembang menggunakan penyedia komputasi terdesentralisasi untuk melatih model mereka dan khawatir bahwa penyedia mencoba untuk memotong biaya dengan menggunakan model yang lebih murah dengan perbedaan output yang hampir tidak terlihat. zkML memungkinkan penyedia komputasi menjalankan data melalui model mereka dan kemudian menghasilkan bukti yang dapat diverifikasi on-chain untuk membuktikan output model untuk input yang diberikan adalah benar. Dalam kasus ini, penyedia model akan memiliki keuntungan tambahan dengan dapat menawarkan model mereka tanpa harus mengungkapkan bobot yang mendasari yang menghasilkan output.

Kebalikannya juga bisa dilakukan. Jika seorang pengguna ingin menjalankan model menggunakan data mereka tetapi tidak ingin proyek yang menyediakan model tersebut memiliki akses ke data mereka karena kekhawatiran privasi (yaitu, dalam kasus pemeriksaan medis atau informasi bisnis properti), maka pengguna dapat menjalankan model pada data mereka tanpa membagikannya dan kemudian memverifikasi bahwa mereka menjalankan model yang benar dengan bukti. Kemungkinan-kemungkinan ini secara signifikan memperluas ruang desain untuk integrasi AI dan fungsionalitas kontrak pintar dengan mengatasi pembatasan komputasi yang melarang.

Infrastruktur dan Peralatan

Dengan tahapan awal ruang zkML, pengembangan terutama difokuskan pada membangun infrastruktur dan alat yang diperlukan untuk tim mengubah model dan output mereka menjadi bukti yang dapat diverifikasi di rantai. Produk-produk ini menyembunyikan aspek pengetahuan nol sebanyak mungkin dari pengembangan.

EZKLdanGizaada dua proyek yang membangun alat ini dengan menyediakan bukti-bukti verifikasi eksekusi model pembelajaran mesin. Kedua proyek ini membantu tim membangun model pembelajaran mesin untuk memastikan bahwa model-model tersebut dapat dieksekusi dengan cara yang hasilnya dapat diverifikasi secara terpercaya di rantai. Kedua proyek ini menggunakan Open Neural Network Exchange (ONNX) untuk mentransformasikan model-model pembelajaran mesin yang ditulis dalam bahasa-bahasa umum seperti TensorFlow dan Pytorch menjadi format standar. Mereka kemudian mengeluarkan versi-versi dari model-model tersebut yang juga menghasilkan bukti-bukti zk ketika dieksekusi. EZKL adalah sumber terbuka dan menghasilkan zk-SNARKS sementara Giza adalah sumber tertutup dan menghasilkan zk-STARKS. Kedua proyek ini saat ini hanya kompatibel dengan EVM.

EZKL telah menunjukkan kemajuan signifikan dalam beberapa bulan terakhir dalam meningkatkan solusi zkML mereka, yang terutama difokuskan padamengurangi biaya, meningkatkan keamanan, dan mempercepat pembangkitan buktiPada November 2023, misalnya, EZKL mengintegrasikan perpustakaan GPU sumber terbuka baru yang mengurangi waktu bukti agregat sebesar 35% dan pada bulan Januari EZKL mengumumkan Lilith, solusi perangkat lunak untuk mengintegrasikan kluster komputasi berkinerja tinggi dan mengatur pekerjaan bersamaan saat menggunakan sistem pembuktian EZKL. Giza unik karena selain menyediakan alat untuk membuat model pembelajaran mesin yang dapat diverifikasi, mereka juga berencana untuk mengimplementasikan web3 yang setara dengan Hugging Face, membuka pasar pengguna untuk kolaborasi zkML dan berbagi model serta akhirnya mengintegrasikan penawaran komputasi terdesentralisasi. Pada bulan Januari EZKL merilis sebuah penilaian benchmarkmembandingkan kinerja EZKL, Giza, dan RiscZero (dibahas di bawah) . EZKL menunjukkan waktu pembuktian dan penggunaan memori yang lebih cepat.


Modulus Labssedang mengembangkan teknik bukti zk baru yang disesuaikan khusus untuk model AI. Modulus menerbitkan sebuah makalah yang disebutBiaya Intelejensi(memberikan petunjuk tentang biaya yang sangat tinggi untuk menjalankan model AI on-chain), yang membandingkan sistem bukti-zk yang ada pada saat itu untuk mengidentifikasi kemampuan dan hambatan untuk meningkatkan bukti zk model AI. Diterbitkan pada Januari 2023, makalah tersebut menunjukkan bahwa penawaran yang ada terlalu mahal dan tidak efisien untuk memungkinkan aplikasi AI secara luas. Berdasarkan penelitian awal mereka, pada November Modulus @ModulusLabs/memperkenalkan-modulus-bawa-ai-on-chain-d75dcb82c5e3">memperkenalkan Sisa, seorang pembuktikhusus pengetahuan nol yang dibangun khusus untuk mengurangi biaya dan waktu pembuktian untuk model AI dengan tujuan membuatnya ekonomis layak untuk proyek-proyek untuk mengintegrasikan model ke dalam kontrak pintar mereka secara massal. Karyanya bersifat tertutup dan oleh karena itu tidak dapat dibandingkan dengan solusi di atas, tetapi baru-baru ini disebutkan dalam Vitalik’sposting blogpada kripto dan AI.

Pengembangan tool dan infrastruktur sangat penting untuk pertumbuhan masa depan ruang zkML karena secara signifikan mengurangi gesekan bagi tim yang perlu mendeploy sirkuit zk yang diperlukan untuk menjalankan komputasi offchain yang dapat diverifikasi. Pembuatan antarmuka yang aman yang memungkinkan pembangun non-kripto asli yang bekerja di bidang pembelajaran mesin untuk membawa model-model mereka ke on-chain akan memungkinkan eksperimen aplikasi dengan kasus penggunaan yang benar-benar baru. Tooling juga mengatasi hambatan utama untuk adopsi zkML yang lebih luas, yaitu kurangnya pengembang yang berpengetahuan dan tertarik untuk bekerja pada persimpangan pengetahuan zero-knowledge, pembelajaran mesin, dan kriptografi.

Koprosesor

Solusi tambahan dalam pengembangan, yang disebut sebagai “koprosesor,” termasuk RiscZero,Aksioma, dan Ritual. Istilah koprocesor sebagian besar adalah semantik - jaringan ini memenuhi banyak peran yang berbeda, termasuk memverifikasi komputasi di luar rantai di rantai. Seperti halnya EZKL, Giza, dan Modulus, mereka bertujuan untuk sepenuhnya mengabstraksi proses generasi bukti pengetahuan nol, menciptakan mesin virtual pengetahuan nol yang mampu menjalankan program di luar rantai dan menghasilkan bukti untuk verifikasi di rantai. RiscZero dan Axiom dapat layanan model AI sederhana karena dimaksudkan untuk menjadi koprosesor tujuan umum sementara Ritual dibuat khusus untuk digunakan dengan model AI.

Infernetadalah instantiasi pertama dari Ritual dan mencakup Infernet SDK yang memungkinkan pengembang mengirimkan permintaan inferensi ke jaringan dan menerima output dan bukti (opsional) sebagai balasannya. Sebuah Node Infernet menerima permintaan ini dan menangani komputasi di luar jaringan sebelum mengembalikan output. Sebagai contoh, sebuah DAO bisa membuat proses untuk memastikan semua proposal tata kelola baru memenuhi syarat tertentu sebelum disampaikan. Setiap kali proposal baru diajukan, kontrak tata kelola memicu permintaan inferensi melalui Infernet yang memanggil model AI tata kelola DAO tertentu. Model tersebut meninjau proposal untuk memastikan semua kriteria yang diperlukan telah diajukan dan mengembalikan output dan bukti, baik menyetujui atau menolak pengajuan proposal.

Selama tahun mendatang, tim Ritual berencana untuk meluncurkan fitur tambahan yang membentuk lapisan infrastruktur dasar yang disebut Ritual Superchain. Banyak proyek yang dibahas sebelumnya dapat terhubung ke Ritual sebagai penyedia layanan. Tim Ritual telah berintegrasi dengan EZKL untuk generasi bukti dan kemungkinan segera menambahkan fungsionalitas dari penyedia lainnya yang terkemuka. Node Infernet di Ritual juga dapat menggunakan GPU Akash atau io.net dan model kueri yang dilatih pada subnet Bittensor. Tujuan akhir mereka adalah menjadi penyedia terkemuka untuk infrastruktur AI terbuka, mampu melayani tugas-tugas terkait pembelajaran mesin dan AI lainnya dari jaringan manapun di seluruh beban kerja apa pun.

Aplikasi

zkML membantu mencocokkankontradiksi antara blockchain dan AI, di mana yang pertama secara inheren terbatas sumber dayanya dan yang terakhir memerlukan jumlah komputasi dan data yang besar. Sebagai salah satu pendiri Giza letakkan itu, "Kasus penggunaannya sangat melimpah ... itu seperti bertanya di hari-hari awal Ethereum apa kasus penggunaan kontrak pintar ... Apa yang kami lakukan hanyalah memperluas kasus penggunaan kontrak pintar." Namun, seperti yang disorot di atas, pembangunan saat ini terutama terjadi di tingkat perkakas dan infrastruktur. Aplikasi masih dalam tahap eksplorasi, dengan tim ditantang untuk menunjukkan bahwa nilai yang dihasilkan dari penerapan model menggunakan zkML melebihi kompleksitas dan biaya untuk melakukannya.

Beberapa aplikasi hari ini termasuk:

  • Keuangan Terdesentralisasi. zkML meningkatkan ruang desain untuk DeFi dengan meningkatkan kemampuan kontrak pintar. Protokol DeFi menyediakan model pembelajaran mesin dengan jumlah data yang besar yang dapat diverifikasi dan tidak berubah yang dapat digunakan untuk menghasilkan strategi perdagangan atau menghasilkan hasil, analisis risiko, UX, dan banyak lagi. Giza, misalnya, memiliki sebuahkemitraandengan Yearn Finance untuk membangun mesin penilaian risiko otomatis proof-of-concept untuk brankas v3 baru Yearn. Modulus Labs memiliki @ModulusLabs/chapter-4-blockchains-that-self-improve-e9716c041f36"> bekerja sama dengan Lyra Finance dalam menggabungkan pembelajaran mesin ke dalam AMM mereka, adalahmitradengan Protokol Ion untuk menerapkan model analisis risiko validator, dan membantu Intimemverifikasi feed harga NFT yang didukung AI mereka. Protokol seperti NOYA(yang memanfaatkan EZKL) danMozaicmemberikan akses ke model offchain milik sendiri yang memberikan akses pengguna ke pertanian hasil otomatis sambil memungkinkan mereka memverifikasi input data dan bukti di-chain.Keuangan Spektralsedang membangun mesin penilaian kredit on-chain untuk memprediksi kemungkinan peminjam Compound atau Aave mengalami kegagalan pembayaran pinjaman mereka. Produk-produk yang disebut "De-Ai-Fi" ini kemungkinan akan menjadi lebih umum di masa mendatang berkat zkML.
  • Gaming. Gaming telah lama dianggap siap untuk gangguan dan peningkatan oleh blockchain publik (untuk informasi lebih lanjut tentang kripto dan gaming, lihat laporan Galaxy Digital ini - Sejarah Gaming dan Masa Depan Web3-nya. zkML membuat permainan on-chain dengan kecerdasan buatan menjadi mungkin.Modulus Labstelah mengimplementasikan bukti konsep untuk permainan on-chain sederhana.Leela vs Duniaadalah permainan catur teoretis game di mana pengguna berhadapan dengan model catur AI, dengan zkML memverifikasi bahwa setiap langkah Leela didasarkan pada model permainan yang sedang berjalan. Demikian pula, tim telah menggunakan kerangka EZKL untuk membangun sederhana kontes menyanyi dan tictactoe on-chain.Cartridgemenggunakan Giza untuk memungkinkan tim untuk mendeploy permainan sepenuhnya on-chain, baru-baru ini highlightingsebuah permainan mengemudi AI sederhana di mana pengguna bersaing untuk membuat model yang lebih baik untuk mobil yang mencoba menghindari rintangan. Meskipun sederhana, proof-of-concept ini menunjukkan implementasi masa depan yang memungkinkan verifikasi on-chain yang lebih kompleks seperti aktor NPC yang canggih mampu berinteraksi dengan ekonomi dalam permainan seperti yang terlihat di @ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307">AI Arena, permainan mirip super smash brothers di mana pemain melatih pejuang mereka yang kemudian dikerahkan sebagai model AI untuk bertarung.
  • Identitas, Asal Usul, dan Privasi. Kripto sudah digunakan digunakansebagai cara untuk memverifikasi keaslian dan melawan jumlah konten yang dihasilkan/diubah oleh AI dan deep fake yang semakin meningkat. zkML dapat memajukan upaya-upaya tersebut. WorldCoin adalah solusi bukti keberadaan manusia yang memerlukan pengguna untuk memindai iris mereka untuk menghasilkan ID unik. Di masa depan, ID biometrik bisaself-custodiedpada perangkat pribadi menggunakan penyimpanan terenkripsi dengan model yang diperlukan untuk memverifikasi biometrik tersebut dijalankan secara lokal. Pengguna kemudian dapat memberikan bukti biometrik mereka tanpa perlu mengungkapkan identitas mereka, melawan serangan sybil sambil memastikan privasi. Hal ini juga dapat diterapkan pada inferensi lain yang memerlukan privasi, seperti menggunakan modeluntuk menganalisis data/gambar medis untuk mendeteksi penyakit, memverifikasi keaslian identitas dan mengembangkan algoritma pencocokan dalam aplikasi kencan, atau untuk agensi asuransi dan pinjaman yang perlu memverifikasi informasi keuangan.

Tinjauan

zkML masih berada dalam tahap eksperimental dengan sebagian besar proyek berfokus pada membangun infrastruktur dasar dan konsep bukti. Tantangannya saat ini termasuk biaya komputasi, keterbatasan memori, kompleksitas model, keterbatasan alat dan infrastruktur, dan talenta pengembang. Singkatnya, masih banyak pekerjaan yang harus dilakukan sebelum zkML dapat diimplementasikan pada skala yang dibutuhkan untuk produk konsumen.

Saat lapangan semakin matang, namun, dan keterbatasan-keterbatasan ini ditangani, zkML akan menjadi komponen kritis dari integrasi AI dan kripto. Pada intinya, zkML menjanjikan kemampuan untuk membawa komputasi off-chain apa pun ukurannya on-chain sambil mempertahankan jaminan keamanan yang sama atau hampir sama seperti jika komputasi tersebut dijalankan on-chain. Sampai visi tersebut terwujud, namun, pengguna awal teknologi akan terus harus menyeimbangkan kompromi antara privasi dan keamanan zkML dan efisiensi alternatif.

Agen AI

Salah satu integrasi yang lebih menarik dari AI dan kripto adalah eksperimen yang sedang berlangsung dengan Agen AI. Agen adalah bot otonom yang mampu menerima, menginterpretasikan, dan mengeksekusi tugas menggunakan model AI. Ini bisa berupa memiliki asisten pribadi yang selalu tersedia yang disesuaikan dengan preferensi Anda atau menyewa agen keuangan yang mengelola dan menyesuaikan portofolio Anda sesuai dengan preferensi risiko Anda.

Agen dan kripto cocok bersama karena infrastruktur pembayaran tanpa izin dan tanpa kepercayaan yang disediakan kripto. Begitu dilatih, agen dapat diberi dompet sehingga mereka dapat bertransaksi dengan kontrak pintar sendiri. Agen sederhana saat ini, misalnya, dapat menjelajah internet untuk informasi dan kemudian melakukan perdagangan di pasar prediksi berdasarkan model.

Penyedia Agen

Morpheussalah satu proyek agen sumber terbuka terbaru yang akan datang ke pasar pada Ethereum dan Arbitrum pada tahun 2024. White paper-nya diterbitkan secara anonim pada September 2023, memberikan dasar bagi komunitas untuk terbentuk dan berkembang (termasuk tokoh-tokoh terkenal seperti Erik Vorhees). White paper mencakup unduhan Protokol Agen Cerdas, yang merupakan LLM sumber terbuka yang dapat dijalankan secara lokal, dikelola oleh dompet pengguna, dan berinteraksi dengan kontrak pintar. Ini menggunakan sebuah Peringkat Kontrak Pintaruntuk membantu agen menentukan kontrak pintar mana yang aman untuk berinteraksi berdasarkan kriteria seperti jumlah transaksi yang diproses.

White paper juga menyediakan kerangka untuk membangun jaringan Morpheus, seperti struktur insentif dan infrastruktur yang diperlukan untuk membuat Protokol Agen Pintar dapat beroperasi. Ini termasuk memberikan insentif kepada kontributor untuk membangun frontend untuk berinteraksi dengan agen, API untuk pengembang membangun aplikasi yang dapat tersambung ke agen sehingga mereka dapat berinteraksi satu sama lain, dan solusi cloud untuk memungkinkan pengguna mengakses komputasi dan penyimpanan yang diperlukan untuk menjalankan agen pada perangkat tepi. Pendanaan awal untuk proyek diluncurkan pada awal Februari dengan protokol lengkap diharapkan diluncurkan pada K2 24.

Jaringan Infrastruktur Otonom Terdesentralisasi (DAIN)adalah protokol infrastruktur agen baru yang membangun ekonomi agen-ke-agen di Solana. DAIN bertujuan membuat agen dari bisnis berbeda dapat berinteraksi dengan lancar melalui API universal, secara signifikan membuka ruang desain untuk agen kecerdasan buatan dengan fokus pada mengimplementasikan agen yang mampu berinteraksi dengan produk web2 dan web3. Pada bulan Januari, DAIN mengumumkan kemitraandengan Asset Shield yang memungkinkan pengguna menambahkan “penandatangan agen” ke multisig mereka yang mampu menginterpretasikan transaksi dan menyetujui/menolak berdasarkan aturan yang ditetapkan oleh pengguna.

Fetch.AIadalah salah satu protokol Agen AI pertama yang diterapkan dan telah mengembangkan ekosistem untuk membangun, mendeploy, dan menggunakan Agen on-chain menggunakan token FET-nya dan Fetch.AIwallet. Protokol ini menyediakan paket lengkap alat dan aplikasi untuk menggunakan Agen, termasuk fungsionalitas di dalam dompet untuk berinteraksi dengan dan memesan agen.

Autonolas, yang pendirinya termasuk anggota sebelumnya dari tim Fetch, adalah pasar terbuka untuk pembuatan dan penggunaan agen AI terdesentralisasi. Autonolas juga menyediakan serangkaian alat untuk pengembang membangun agen AI yang di-host offchain dan dapat terhubung ke beberapa blockchain termasuk Polygon, Ethereum, Gnosis Chain, dan Solana. Saat ini mereka memiliki beberapa bukti konsep agen aktifproduktermasuk untuk digunakan dalam pasar prediksi dan tata kelola DAO.

SingularityNetsedang membangun pasar terdesentralisasi untuk agen AI di mana orang dapat mendeploy agen AI yang berfokus sempit yang dapat disewa oleh orang lain atau agen lain untuk menjalankan tugas kompleks. Lainnya, seperti AlteredStateMachine, sedang membangun integrasi AI Agent dengan NFT. Pengguna membuat NFT dengan atribut-atribut acak yang memberi mereka kekuatan dan kelemahan untuk tugas-tugas yang berbeda. Agen-agen ini kemudian dapat dilatih untuk meningkatkan atribut-atribut tertentu untuk digunakan dalam permainan, DeFi, atau sebagai asisten virtual dan diperdagangkan dengan pengguna lain.

Secara kolektif, proyek-proyek ini memvisualisasikan suatu ekosistem masa depan dari agen-agen yang mampu bekerja bersama untuk tidak hanya mengeksekusi tugas-tugas tetapi juga membantu membangun kecerdasan buatan umum. Agen-agen yang benar-benar canggih akan memiliki kemampuan untuk melaksanakan setiap tugas pengguna secara mandiri. Sebagai contoh, daripada harus memastikan bahwa Agen sudah terintegrasi dengan API eksternal (seperti situs web pemesanan perjalanan) sebelum menggunakannya, agen-agen yang sepenuhnya otonom akan memiliki kemampuan untuk mencari cara untuk menyewa agen lain untuk mengintegrasikan API tersebut dan kemudian mengeksekusi tugas tersebut. Dari sudut pandang pengguna, tidak akan ada kebutuhan untuk memeriksa apakah seorang agen dapat melaksanakan suatu tugas karena agen dapat menentukan itu sendiri.

Bitcoin dan Agen Kecerdasan Buatan

Pada Juli 2023, Lightning Labsmengimplementasikan proof of concept untuk menggunakan Agen pada Jaringan Lightning yang disebut Suite Bitcoin LangChain. Produk ini sangat menarik karena bertujuan untuk mengatasi masalah yang semakin meningkat di dunia web 2 -tertutupdanmahalKunci API untuk aplikasi web.

LangChain memecahkan masalah ini dengan menyediakan pengembang dengan seperangkat alat yang memungkinkan agen untuk membeli, menjual, dan menyimpan Bitcoin, serta mengajukan kunci API dan mengirim pembayaran mikro. Sedangkan pada rel pembayaran tradisional pembayaran mikro kecil tidak ekonomis karena biaya, pada Lightning Network agen dapat mengirim pembayaran mikro tanpa batas setiap hari dengan biaya minimal. Ketika digabungkan dengan kerangka API metered pembayaran L402 LangChain ini bisa memungkinkan perusahaan untuk menyesuaikan biaya akses ke API mereka saat penggunaan meningkat dan menurun, daripada menetapkan standar biaya tunggal yang tidak ekonomis.

Di masa depan di mana aktivitas on-chain didominasi oleh agen yang berinteraksi dengan agen, hal seperti ini akan diperlukan untuk memastikan agen dapat berinteraksi satu sama lain dengan cara yang tidak mahal. Ini adalah contoh awal bagaimana menggunakan agen pada jalur pembayaran tanpa izin dan hemat biaya membuka kemungkinan untuk pasar baru dan interaksi ekonomi.

Tampilan

Ruang Agen masih sangat baru. Proyek-proyek baru mulai meluncurkan agen berfungsi yang dapat menangani tugas-tugas sederhana menggunakan infrastruktur mereka – yang seringkali hanya dapat diakses oleh pengembang dan pengguna yang canggih. Seiring waktu, salah satu dampak terbesar agen AI terhadap kripto adalah peningkatan UX di semua vertikal. Bertransaksi akan mulai berpindah dari klik dan pilih menjadi berbasis teks, dengan pengguna memiliki kemampuan untuk berinteraksi dengan agen on-chain melalui LLMs. Tim-tim seperti Dompet Fajar memperkenalkan dompet chat-bot bagi pengguna untuk berinteraksi secara berantai.

Selain itu, tidak jelas bagaimana agen bisa beroperasi di web 2 di mana rel keuangan bergantung pada lembaga perbankan yang diatur yang tidak beroperasi 24/7 dan tidak dapat melakukan transaksi lintas batas yang mulus. Seperti Lyn AldenTelah disorot, rel kripto sangat menarik dibandingkan dengan kartu kredit karena tidak adanya pengembalian dana dan kemampuan untuk memproses mikrotransaksi. Jika agen menjadi cara transaksi yang lebih umum, namun, kemungkinan penyedia pembayaran dan aplikasi yang ada segera melangkah untuk menerapkan infrastruktur yang diperlukan agar mereka dapat beroperasi pada rel keuangan yang sudah ada, mengurangi beberapa manfaat penggunaan kripto.

Untuk saat ini, agen cenderung terbatas pada transaksi kripto ke kripto yang deterministik di mana output tertentu dijamin untuk input tertentu. Kedua model, yang mengatur kapasitas agen ini untuk mencari tahu cara mengeksekusi tugas kompleks, dan tooling, yang memperluas cakupan apa yang dapat mereka capai, memerlukan pengembangan lebih lanjut. Agar agen kripto menjadi berguna di luar kasus penggunaan kripto on-chain yang baru, diperlukan integrasi yang lebih luas dan penerimaan kripto sebagai bentuk pembayaran serta kejelasan regulasi. Namun, ketika komponen-komponen ini berkembang, agen-agen siap menjadi salah satu konsumen terbesar komputasi terdesentralisasi dan solusi zkML yang dibahas di atas, bertindak secara mandiri non-deterministik untuk menerima dan menyelesaikan tugas apa pun.

Kesimpulan

AI memperkenalkan ke kripto inovasi yang sama yang sudah kita lihat di web2, meningkatkan segalanya mulai dari pengembangan infrastruktur hingga pengalaman pengguna dan aksesibilitas. Namun, proyek-proyek masih dalam tahap awal evolusi mereka dan integrasi kripto dan AI jangka pendek akan didominasi oleh integrasi offchain.

Produk sepertiPilot bersamaakan“10x”efisiensi pengembang, denganlapisan 1sdanDeFiaplikasi sudah menggelinding platform pengembangan yang dibantu AI dalam kemitraan dengan perusahaan-perusahaan besar seperti Microsoft. Perusahaan-perusahaan seperti Cub3.ai dan Mesin Ujisedang mengembangkan integrasi AI untuk audit kontrak pintar dan pemantauan ancaman real-time untuk meningkatkan keamanan on-chain. Dan chatbot LLM sedang dilatih menggunakan data on-chain, dokumen protokol, dan aplikasi untuk memberikan aksesibilitas dan UX yang ditingkatkan kepada pengguna.

Untuk integrasi yang lebih canggih yang benar-benar memanfaatkan teknologi dasar kripto, tantangannya tetap menunjukkan bahwa mengimplementasikan solusi AI on-chain secara teknis memungkinkan dan ekonomis layak dalam skala besar. Perkembangan dalam komputasi terdesentralisasi, zkML, dan AI Agents menunjukkan ke arah vertikal yang menjanjikan yang sedang menyiapkan landasan untuk masa depan di mana kripto dan AI saling terkait secara mendalam.

Penafian:

  1. Artikel ini diambil dari [galaksi]. Semua hak cipta adalah milik penulis asli [Lucas Tcheyan]. Jika ada keberatan terhadap cetakan ulang ini, silakan hubungi Gate Belajartim, dan mereka akan menanganinya dengan cepat.
  2. Penafian Tanggung Jawab: Pandangan dan opini yang terdapat dalam artikel ini semata-mata milik penulis dan tidak merupakan saran investasi apa pun.
  3. Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel yang diterjemahkan dilarang.
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!