AI kavramına sahip Web3 projeleri birinci ve ikinci piyasalarda yatırımcıların ilgisini çekiyor.
Web3'ün AI endüstrisindeki fırsatları, uzun kuyruk içindeki potansiyel arzı koordine etmek için dağıtık teşvikler kullanmakta yatmaktadır ------ veri, depolama ve hesaplama arasında; aynı zamanda, açık kaynak bir model ve AI Agent'ın merkeziyetsiz pazarı oluşturulmaktadır.
AI'nin Web3 sektöründeki başlıca kullanıldığı alanlar zincir üzerindeki finans (kripto ödemeler, ticaret, veri analizi) ve geliştirmeye yardımcı olmaktır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığında ortaya çıkmaktadır: Web3, AI merkezileşmesine karşı koyma umudunu taşırken, AI da Web3'ün sınırlarını aşmasına yardımcı olma umudunu taşımaktadır.
Giriş
Son iki yılda, AI'nin gelişimi sanki hızlandırıcıya basılmış gibi, Chatgpt'in tetiklediği bu kelebek kanatları, yalnızca üretken yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda öteki taraftaki Web3'te de büyük bir akıntı yarattı.
AI kavramının desteği ile, yavaşlayan kripto pazarındaki finansman artışı belirgin bir şekilde yükselmiştir. Medya istatistiklerine göre, yalnızca 2024'ün ilk yarısında toplam 64 Web3+AI projesi finansman sağlamıştır; yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolarlık en yüksek finansman miktarına ulaşmıştır.
İkincil piyasa daha da canlı hale geldi, kripto agregat web siteleri verilerine göre, sadece bir yıldan biraz daha kısa bir sürede, AI alanının toplam piyasa değeri 48,5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise 8,6 milyar dolara yaklaştı; ana akım AI teknolojilerindeki ilerlemelerin sağladığı olumlu etkiler belirgin, OpenAI'nin Sora metin-vidyo modeli piyasaya sürüldükten sonra, AI sektöründeki ortalama fiyat %151 arttı; AI etkisi aynı zamanda kripto para çekim sektörlerinden biri olan Meme'yi de etkiledi: ilk AI Agent konsepti olan MemeCoin------GOAT hızla popülerlik kazandı ve 1,4 milyar dolarlık bir değerleme elde etti, AI Meme çılgınlığını başarıyla başlattı.
AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler, AI+Depin'den AI Memecoin'e, şu anki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatı döngüsünün hızına ayak uyduramaz hale geldi.
AI+Web3, bu sıcak para, fırsatlar ve geleceğe dair hayallerle dolu terim kombinasyonu, kaçınılmaz olarak insanların bunu bir kapitalin eşleştirdiği bir düğün olarak görmesine sebep oluyor, bu muhteşem giysinin altında, aslında spekülatörlerin sahnesi mi, yoksa bir uyanışın eşiğinde miyiz, ayırt etmekte zorlanıyoruz?
Bu soruya cevap vermek için, her iki taraf için de kritik bir düşünce, karşı tarafın varlığının durumu daha iyi hale getirip getirmeyeceğidir. Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, önceki çalışmaların üzerine çıkarak bu yapıyı incelemeye çalışıyoruz: Web3, AI teknoloji yığınındaki her aşamada nasıl rol oynayabilir ve AI, Web3'e ne gibi yeni bir canlılık katabilir?
Bölüm.1 AI yığınında Web3'te ne fırsatlar var?
Bu konuyu açmadan önce, AI büyük modellerinin teknik yığınını anlamamız gerekiyor:
Daha basit bir dille süreci ifade etmek gerekirse: "büyük model" insan beynine benzer. Erken aşamalarda, bu beyin yeni dünyaya gelmiş bir bebeğe aittir; çevresindeki devasa bilgileri gözlemleyip alarak bu dünyayı anlamaya ihtiyaç duyar. Bu, verilerin "toplanma" aşamasıdır; çünkü bilgisayarlar insanın görme, işitme gibi birçok duyusuna sahip olmadığından, eğitim öncesinde dışarıdan gelen büyük ölçekli etiketlenmemiş bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bilgi formatına "ön işleme" ile dönüştürülmelidir.
Girdi verilerinden sonra AI, "eğitim" aracılığıyla anlayış ve tahmin yeteneğine sahip bir model oluşturdu; bu, bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı süreç olarak düşünülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneği gibidir. Öğrenilen içerik branşlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim aldığında ve düzeltme yaptığında, büyük modelin "ince ayar" aşamasına girmiş olur.
Çocuklar büyüdükçe ve konuşmayı öğrendikçe, yeni diyaloglarda anlamı kavrayabilir ve kendi duygularını ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "çıkarım" aşamasına benzer; model, yeni dil ve metin girişi üzerinde tahmin ve analiz yapabilir. Bebekler, dil becerileri aracılığıyla duygularını ifade eder, nesneleri tanımlar ve çeşitli sorunları çözer. Bu da, AI büyük modellerinin eğitim tamamlandıktan sonra çıkarım aşamasında çeşitli spesifik görevlerde (örneğin, görüntü sınıflandırma, ses tanıma vb.) uygulanmasına benzer.
AI Ajanı, bağımsız görevler yerine getirebilen ve karmaşık hedefler peşinde koşabilen bir büyük modelin bir sonraki biçimine daha da yakınlaşmaktadır; sadece düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafızaya, planlamaya sahip olup, araçları kullanarak dünya ile etkileşimde bulunabilmektedir.
Şu anda, AI'nın çeşitli yığınlardaki sorunlarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbiriyle bağlantılı bir ekosistem oluşturmaya başlamıştır.
Bir, Temel Katman: Hesaplama Gücü ve Verilerin Airbnb'si
▎işlem gücü
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerji.
Bir örnek, Meta'nın LLAMA3'ün NVIDIA tarafından üretilen 16000 adet H100GPU'ya ihtiyaç duymasıdır (bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış birinci sınıf grafik işleme birimi). Eğitim tamamlanması için 30 gün gerekmektedir. Sonuncusunun 80GB versiyonunun birim fiyatı 30,000 ile 40,000 dolar arasında değişmektedir; bu, 4-7 milyar dolar arasında bir hesaplama donanımı yatırımı (GPU + ağ yongası) gerektirmektedir. Ayrıca, aylık eğitim 1.6 milyar kilovat saat tüketim gerektirirken, enerji harcaması her ay yaklaşık 20 milyon dolardır.
AI hesaplama gücünün serbest bırakılması, Web3'ün AI ile en erken kesiştiği alanlardan biridir ------ DePin (merkeziyetsiz fiziksel altyapı ağı). Şu anda, veri siteleri 1400'den fazla projeyi sergilemektedir; bunlar arasında GPU hesaplama gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projelerdir.
Ana mantığı şudur: Platform, izin almadan merkeziyetsiz bir şekilde hesaplama gücünü katkıda bulunmalarına izin vererek, boşta kalan GPU kaynaklarına sahip bireylerin veya varlıkların, Uber veya Airbnb benzeri alıcı ve satıcı çevrimiçi pazarında, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırmasını sağlıyor. Son kullanıcılar da böylelikle daha düşük maliyetli, verimli hesaplama kaynaklarına erişim sağlıyor; aynı zamanda, staking mekanizması, kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumların ortaya çıkması halinde, kaynak sağlayıcılarının uygun bir şekilde cezalandırılmasını da garanti ediyor.
Özellikleri şunlardır:
Boşta kalan GPU kaynaklarını toplamak: Tedarikçiler, başlıca üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik tesisleri gibi operatörlerin fazla hesaplama gücü kaynaklarıdır; konsensüs mekanizması PoS olan madencilik donanımları, örneğin FileCoin ve ETH madencilik makineleri. Şu anda, daha düşük giriş bariyerine sahip cihazlar başlatmaya yönelik projeler de bulunmaktadır; örneğin exolab, MacBook, iPhone, iPad gibi yerel cihazlar kullanarak büyük model çıkarımına yönelik bir hesaplama ağı oluşturuyor.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknolojik açıdan bakıldığında" merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, büyük ölçekli GPU'ların sağladığı veri işleme kapasitesine daha fazla bağlıdır, oysa çıkarım GPU işlem gücüne göre nispeten daha düşük bir taleptir; örneğin Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta büyüklükteki hesaplama gücü talep edenler kendi büyük modellerini ayrı olarak eğitmeyecek, yalnızca birkaç önde gelen büyük model etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir ve bu senaryolar doğal olarak dağıtılmış atıl hesaplama gücü kaynaklarına uygundur.
Merkeziyetsiz mülkiyet: Blok zincirinin teknik anlamı, kaynak sahiplerinin her zaman kaynak üzerindeki kontrolünü koruması, talebe göre esnek bir şekilde ayarlama yapması ve aynı zamanda gelir elde etmesidir.
▎Veri
Veri, AI'nin temelidir. Veri olmadan, hesaplama, su üzerindeki ördek gibi faydasız hale gelir ve veri ile model arasındaki ilişki, "Çöp girer, çöp çıkar" atasözü gibidir; verinin miktarı ve giriş kalitesi, nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi açısından, veri, modelin dil yeteneğini, anlama kapasitesini, hatta değer yargılarını ve insani performansını belirler. Şu anda, AI'nın veri ihtiyacı sorunları esasen aşağıdaki dört alana odaklanmaktadır:
Veri açlığı: AI model eğitimi büyük miktarda veri girişi gerektirir. Kamuya açık kaynaklar, OpenAI'nin GPT-4'ü eğitmek için trilyon seviyesinde parametre kullandığını gösteriyor.
Veri kalitesi: AI'nın çeşitli endüstrilerle birleşmesiyle birlikte, verinin güncelliği, veri çeşitliliği, dikey verinin uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının etkisi, veri kalitesi için yeni gereksinimler ortaya koymuştur.
Gizlilik ve uyum sorunları: Şu anda ülkeler ve şirketler kaliteli veri setlerinin önemini giderek daha fazla fark ediyor ve veri seti taramasına kısıtlamalar getirmeye çalışıyor.
Veri işleme maliyetleri yüksek: Veri hacmi büyük, işleme süreci karmaşık. Kamuya açık verilere göre, AI şirketlerinin %30'undan fazlası Ar-Ge maliyetlerinin temel veri toplama ve işleme için harcanmaktadır.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Veri Toplama: Ücretsiz olarak toplanan gerçek dünya verileri hızla tükeniyor, AI şirketlerinin veriler için yaptığı harcamalar her yıl artıyor. Ancak bu harcamalar, verinin gerçek katkı sahiplerine geri dönmüyor; platformlar, verinin sağladığı değer yaratımından tamamen yararlanıyor. Örneğin, Reddit, AI şirketleriyle imzaladığı veri lisans anlaşmaları sayesinde toplamda 203 milyon dolar gelir elde etti.
Gerçekten katkıda bulunan kullanıcıların, verilerin sağladığı değer yaratımına katılmalarını sağlamak ve dağıtılmış ağlar ile teşvik mekanizmaları aracılığıyla, düşük maliyetle kullanıcıların daha özel ve daha değerli verilere erişimini sağlamak, Web3'ün vizyonudur.
Grass, merkeziyetsiz bir veri katmanı ve ağdır. Kullanıcılar, Grass düğümlerini çalıştırarak, boşta kalan bant genişliği ve iletim trafiği katkısında bulunabilirler. Bu sayede, internetteki gerçek zamanlı verileri yakalarlar ve token ödülleri alırlar;
Vana, kullanıcıların özel verilerini (alışveriş kayıtları, tarayıcı alışkanlıkları, sosyal medya aktiviteleri vb.) belirli bir veri akış likidite havuzuna (DLP) yükleyebilecekleri ve bu verilerin belirli üçüncü şahıslara kullanımı için yetkilendirilip yetkilendirilmeyeceğini esnek bir şekilde seçebileceği benzersiz bir DLP kavramını tanıttı;
Belirli bir AI platformunda, kullanıcılar sosyal platformda #AI 或#Web3'ü kategori etiketi olarak kullanabilir ve bu platformu etiketleyerek veri toplayabilir.
Veri Ön İşleme: AI veri işleme sürecinde, toplanan veriler genellikle gürültülü ve hatalar içerdiğinden, modelin eğitilmesinden önce temizlenip kullanılabilir bir formata dönüştürülmesi gerekir. Bu, standartlaştırma, filtreleme ve eksik değerlerin işlenmesi gibi tekrarlayan görevleri içerir. Bu aşama, AI endüstrisindeki az sayıda insan etkileşimi gerektiren aşamalardan biridir ve veri etiketleme uzmanı gibi bir meslek dalını doğurmuştur. Modellerin veri kalitesine olan talebinin artmasıyla birlikte, veri etiketleme uzmanlarının gereklilikleri de artmaktadır ve bu görev doğal olarak Web3'ün merkeziyetsiz teşvik mekanizmasına uygundur.
Şu anda, Grass ve OpenLayer, veri etiketleme gibi bu kritik aşamaya katılmayı düşünüyorlar.
Synesis, veri kalitesine vurgu yaparak "Train2earn" kavramını ortaya koydu; kullanıcılar etiketlenmiş veri, açıklama veya diğer biçimlerdeki girdileri sağlayarak ödül kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırmakta ve kullanıcıların daha fazla puan kazanmak için puanlarını kilitlemelerine olanak tanımaktadır.
Veri Gizliliği ve Güvenliği: Açıklığa kavuşturulması gereken, veri gizliliği ve güvenliğinin iki farklı kavram olduğudur. Veri gizliliği, hassas verilerin işlenmesini içerirken, veri güvenliği, veri bilgilerinin yetkisiz erişim, yok etme ve hırsızlıktan korunmasını sağlar. Bu nedenle, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama alanları iki alanda kendini göstermektedir: (1) Hassas verilerin eğitimi; (2) Veri işbirliği: Birden fazla veri sahibi, ham verilerini paylaşmadan AI eğitimine ortak olarak katılabilir.
Mevcut Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir Çalıştırma Ortamı ( TEE ), örneğin Super Protokol;
Tam homomorfik şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır Bilgi Teknolojisi (zk), Reclaim Protocol gibi zkTLS teknolojisini kullanarak, HTTPS trafiğinin sıfır bilgi kanıtlarını oluşturur, bu da kullanıcıların dış web sitelerinden güvenli bir şekilde etkinlik, itibar ve kimlik verilerini hassas bilgileri ifşa etmeden içe aktarmasına olanak tanır.
Ancak, şu anda bu alan hala erken aşamada, çoğu proje hala keşif aşamasında. Şu anki bir çıkmaz, hesaplama maliyetlerinin çok yüksek olması, bazı örnekler şunlardır:
zkML çerçevesi E
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI ve Web3'ün iş birliği etkisi: Merkeziyetsizlik AI ekosisteminin inşası
AI+Web3: Kuleler ve Meydanlar
Kısa Özet
AI kavramına sahip Web3 projeleri birinci ve ikinci piyasalarda yatırımcıların ilgisini çekiyor.
Web3'ün AI endüstrisindeki fırsatları, uzun kuyruk içindeki potansiyel arzı koordine etmek için dağıtık teşvikler kullanmakta yatmaktadır ------ veri, depolama ve hesaplama arasında; aynı zamanda, açık kaynak bir model ve AI Agent'ın merkeziyetsiz pazarı oluşturulmaktadır.
AI'nin Web3 sektöründeki başlıca kullanıldığı alanlar zincir üzerindeki finans (kripto ödemeler, ticaret, veri analizi) ve geliştirmeye yardımcı olmaktır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığında ortaya çıkmaktadır: Web3, AI merkezileşmesine karşı koyma umudunu taşırken, AI da Web3'ün sınırlarını aşmasına yardımcı olma umudunu taşımaktadır.
Giriş
Son iki yılda, AI'nin gelişimi sanki hızlandırıcıya basılmış gibi, Chatgpt'in tetiklediği bu kelebek kanatları, yalnızca üretken yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda öteki taraftaki Web3'te de büyük bir akıntı yarattı.
AI kavramının desteği ile, yavaşlayan kripto pazarındaki finansman artışı belirgin bir şekilde yükselmiştir. Medya istatistiklerine göre, yalnızca 2024'ün ilk yarısında toplam 64 Web3+AI projesi finansman sağlamıştır; yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolarlık en yüksek finansman miktarına ulaşmıştır.
İkincil piyasa daha da canlı hale geldi, kripto agregat web siteleri verilerine göre, sadece bir yıldan biraz daha kısa bir sürede, AI alanının toplam piyasa değeri 48,5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise 8,6 milyar dolara yaklaştı; ana akım AI teknolojilerindeki ilerlemelerin sağladığı olumlu etkiler belirgin, OpenAI'nin Sora metin-vidyo modeli piyasaya sürüldükten sonra, AI sektöründeki ortalama fiyat %151 arttı; AI etkisi aynı zamanda kripto para çekim sektörlerinden biri olan Meme'yi de etkiledi: ilk AI Agent konsepti olan MemeCoin------GOAT hızla popülerlik kazandı ve 1,4 milyar dolarlık bir değerleme elde etti, AI Meme çılgınlığını başarıyla başlattı.
AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler, AI+Depin'den AI Memecoin'e, şu anki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatı döngüsünün hızına ayak uyduramaz hale geldi.
AI+Web3, bu sıcak para, fırsatlar ve geleceğe dair hayallerle dolu terim kombinasyonu, kaçınılmaz olarak insanların bunu bir kapitalin eşleştirdiği bir düğün olarak görmesine sebep oluyor, bu muhteşem giysinin altında, aslında spekülatörlerin sahnesi mi, yoksa bir uyanışın eşiğinde miyiz, ayırt etmekte zorlanıyoruz?
Bu soruya cevap vermek için, her iki taraf için de kritik bir düşünce, karşı tarafın varlığının durumu daha iyi hale getirip getirmeyeceğidir. Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, önceki çalışmaların üzerine çıkarak bu yapıyı incelemeye çalışıyoruz: Web3, AI teknoloji yığınındaki her aşamada nasıl rol oynayabilir ve AI, Web3'e ne gibi yeni bir canlılık katabilir?
Bölüm.1 AI yığınında Web3'te ne fırsatlar var?
Bu konuyu açmadan önce, AI büyük modellerinin teknik yığınını anlamamız gerekiyor:
Daha basit bir dille süreci ifade etmek gerekirse: "büyük model" insan beynine benzer. Erken aşamalarda, bu beyin yeni dünyaya gelmiş bir bebeğe aittir; çevresindeki devasa bilgileri gözlemleyip alarak bu dünyayı anlamaya ihtiyaç duyar. Bu, verilerin "toplanma" aşamasıdır; çünkü bilgisayarlar insanın görme, işitme gibi birçok duyusuna sahip olmadığından, eğitim öncesinde dışarıdan gelen büyük ölçekli etiketlenmemiş bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bilgi formatına "ön işleme" ile dönüştürülmelidir.
Girdi verilerinden sonra AI, "eğitim" aracılığıyla anlayış ve tahmin yeteneğine sahip bir model oluşturdu; bu, bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı süreç olarak düşünülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneği gibidir. Öğrenilen içerik branşlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim aldığında ve düzeltme yaptığında, büyük modelin "ince ayar" aşamasına girmiş olur.
Çocuklar büyüdükçe ve konuşmayı öğrendikçe, yeni diyaloglarda anlamı kavrayabilir ve kendi duygularını ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "çıkarım" aşamasına benzer; model, yeni dil ve metin girişi üzerinde tahmin ve analiz yapabilir. Bebekler, dil becerileri aracılığıyla duygularını ifade eder, nesneleri tanımlar ve çeşitli sorunları çözer. Bu da, AI büyük modellerinin eğitim tamamlandıktan sonra çıkarım aşamasında çeşitli spesifik görevlerde (örneğin, görüntü sınıflandırma, ses tanıma vb.) uygulanmasına benzer.
AI Ajanı, bağımsız görevler yerine getirebilen ve karmaşık hedefler peşinde koşabilen bir büyük modelin bir sonraki biçimine daha da yakınlaşmaktadır; sadece düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafızaya, planlamaya sahip olup, araçları kullanarak dünya ile etkileşimde bulunabilmektedir.
Şu anda, AI'nın çeşitli yığınlardaki sorunlarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbiriyle bağlantılı bir ekosistem oluşturmaya başlamıştır.
Bir, Temel Katman: Hesaplama Gücü ve Verilerin Airbnb'si
▎işlem gücü
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerji.
Bir örnek, Meta'nın LLAMA3'ün NVIDIA tarafından üretilen 16000 adet H100GPU'ya ihtiyaç duymasıdır (bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış birinci sınıf grafik işleme birimi). Eğitim tamamlanması için 30 gün gerekmektedir. Sonuncusunun 80GB versiyonunun birim fiyatı 30,000 ile 40,000 dolar arasında değişmektedir; bu, 4-7 milyar dolar arasında bir hesaplama donanımı yatırımı (GPU + ağ yongası) gerektirmektedir. Ayrıca, aylık eğitim 1.6 milyar kilovat saat tüketim gerektirirken, enerji harcaması her ay yaklaşık 20 milyon dolardır.
AI hesaplama gücünün serbest bırakılması, Web3'ün AI ile en erken kesiştiği alanlardan biridir ------ DePin (merkeziyetsiz fiziksel altyapı ağı). Şu anda, veri siteleri 1400'den fazla projeyi sergilemektedir; bunlar arasında GPU hesaplama gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projelerdir.
Ana mantığı şudur: Platform, izin almadan merkeziyetsiz bir şekilde hesaplama gücünü katkıda bulunmalarına izin vererek, boşta kalan GPU kaynaklarına sahip bireylerin veya varlıkların, Uber veya Airbnb benzeri alıcı ve satıcı çevrimiçi pazarında, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırmasını sağlıyor. Son kullanıcılar da böylelikle daha düşük maliyetli, verimli hesaplama kaynaklarına erişim sağlıyor; aynı zamanda, staking mekanizması, kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumların ortaya çıkması halinde, kaynak sağlayıcılarının uygun bir şekilde cezalandırılmasını da garanti ediyor.
Özellikleri şunlardır:
Boşta kalan GPU kaynaklarını toplamak: Tedarikçiler, başlıca üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik tesisleri gibi operatörlerin fazla hesaplama gücü kaynaklarıdır; konsensüs mekanizması PoS olan madencilik donanımları, örneğin FileCoin ve ETH madencilik makineleri. Şu anda, daha düşük giriş bariyerine sahip cihazlar başlatmaya yönelik projeler de bulunmaktadır; örneğin exolab, MacBook, iPhone, iPad gibi yerel cihazlar kullanarak büyük model çıkarımına yönelik bir hesaplama ağı oluşturuyor.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknolojik açıdan bakıldığında" merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, büyük ölçekli GPU'ların sağladığı veri işleme kapasitesine daha fazla bağlıdır, oysa çıkarım GPU işlem gücüne göre nispeten daha düşük bir taleptir; örneğin Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta büyüklükteki hesaplama gücü talep edenler kendi büyük modellerini ayrı olarak eğitmeyecek, yalnızca birkaç önde gelen büyük model etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir ve bu senaryolar doğal olarak dağıtılmış atıl hesaplama gücü kaynaklarına uygundur.
▎Veri
Veri, AI'nin temelidir. Veri olmadan, hesaplama, su üzerindeki ördek gibi faydasız hale gelir ve veri ile model arasındaki ilişki, "Çöp girer, çöp çıkar" atasözü gibidir; verinin miktarı ve giriş kalitesi, nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi açısından, veri, modelin dil yeteneğini, anlama kapasitesini, hatta değer yargılarını ve insani performansını belirler. Şu anda, AI'nın veri ihtiyacı sorunları esasen aşağıdaki dört alana odaklanmaktadır:
Veri açlığı: AI model eğitimi büyük miktarda veri girişi gerektirir. Kamuya açık kaynaklar, OpenAI'nin GPT-4'ü eğitmek için trilyon seviyesinde parametre kullandığını gösteriyor.
Veri kalitesi: AI'nın çeşitli endüstrilerle birleşmesiyle birlikte, verinin güncelliği, veri çeşitliliği, dikey verinin uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının etkisi, veri kalitesi için yeni gereksinimler ortaya koymuştur.
Gizlilik ve uyum sorunları: Şu anda ülkeler ve şirketler kaliteli veri setlerinin önemini giderek daha fazla fark ediyor ve veri seti taramasına kısıtlamalar getirmeye çalışıyor.
Veri işleme maliyetleri yüksek: Veri hacmi büyük, işleme süreci karmaşık. Kamuya açık verilere göre, AI şirketlerinin %30'undan fazlası Ar-Ge maliyetlerinin temel veri toplama ve işleme için harcanmaktadır.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Gerçekten katkıda bulunan kullanıcıların, verilerin sağladığı değer yaratımına katılmalarını sağlamak ve dağıtılmış ağlar ile teşvik mekanizmaları aracılığıyla, düşük maliyetle kullanıcıların daha özel ve daha değerli verilere erişimini sağlamak, Web3'ün vizyonudur.
Grass, merkeziyetsiz bir veri katmanı ve ağdır. Kullanıcılar, Grass düğümlerini çalıştırarak, boşta kalan bant genişliği ve iletim trafiği katkısında bulunabilirler. Bu sayede, internetteki gerçek zamanlı verileri yakalarlar ve token ödülleri alırlar;
Vana, kullanıcıların özel verilerini (alışveriş kayıtları, tarayıcı alışkanlıkları, sosyal medya aktiviteleri vb.) belirli bir veri akış likidite havuzuna (DLP) yükleyebilecekleri ve bu verilerin belirli üçüncü şahıslara kullanımı için yetkilendirilip yetkilendirilmeyeceğini esnek bir şekilde seçebileceği benzersiz bir DLP kavramını tanıttı;
Belirli bir AI platformunda, kullanıcılar sosyal platformda #AI 或#Web3'ü kategori etiketi olarak kullanabilir ve bu platformu etiketleyerek veri toplayabilir.
Şu anda, Grass ve OpenLayer, veri etiketleme gibi bu kritik aşamaya katılmayı düşünüyorlar.
Synesis, veri kalitesine vurgu yaparak "Train2earn" kavramını ortaya koydu; kullanıcılar etiketlenmiş veri, açıklama veya diğer biçimlerdeki girdileri sağlayarak ödül kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırmakta ve kullanıcıların daha fazla puan kazanmak için puanlarını kilitlemelerine olanak tanımaktadır.
Mevcut Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir Çalıştırma Ortamı ( TEE ), örneğin Super Protokol;
Tam homomorfik şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır Bilgi Teknolojisi (zk), Reclaim Protocol gibi zkTLS teknolojisini kullanarak, HTTPS trafiğinin sıfır bilgi kanıtlarını oluşturur, bu da kullanıcıların dış web sitelerinden güvenli bir şekilde etkinlik, itibar ve kimlik verilerini hassas bilgileri ifşa etmeden içe aktarmasına olanak tanır.
Ancak, şu anda bu alan hala erken aşamada, çoğu proje hala keşif aşamasında. Şu anki bir çıkmaz, hesaplama maliyetlerinin çok yüksek olması, bazı örnekler şunlardır: