การพลิกเหรียญ AI

มือใหม่5/6/2024, 12:41:32 PM
บทความสำรวจศักยภาพและความท้าทายของการผสม AI กับ Web3 ผู้เขียนชี้แจงว่า ถึงแม้จะมีอารมณ์เชื่อมั่นที่ดีต่อ "AI + Web3" แต่ในความเป็นจริงมีอุปสรรคที่สำคัญในด้านการลงทุนฮาร์ดแวร์และการวิจัย ซึ่งทำให้บริษัทเทคโนโลยีขนาดใหญ่ครองเครื่องเรนเนอร์ในวงการ AI โครงการ Web3 ใช้การระดมทุนและแข่งขันผ่านการเข้ารหัสที่เป็นกำลังดึงดูด ทำให้ยากที่จะแข่งขันกับเงินทุนมากมายที่ลงทุนโดยบริษัทเหล่านี้

TLDR

นี่ไม่ใช่บทความ VC ที่เขียนด้วย "AI + Web3" อย่างสวยงามอีกต่อไป เราเต็มเปี่ยมไปด้วยความสดใสเกี่ยวกับการผสมผสานทั้งสองเทคโนโลยี แต่ข้อความด้านล่างนี้คือคำเรียกร้อง ไม่งั้นความสดใสก็จะไม่สิ้นสุดลง

ทำไม? เพราะการพัฒนาและเรียกใช้โมเดล AI ที่ดีที่สุดต้องใช้ค่าใช้จ่ายในการลงทุนที่สำคัญในฮาร์ดแวร์ที่ทันสมัยและบางครั้งยากต่อการเข้าถึงมากพอ และการวิจัยและพัฒนาที่เฉพาะด้านมากมาย การใช้สิ่งส่งเสริมแบบคริปโตสำหรับการรวบรวมทรัพยากรเหล่านี้ ตามที่โครงการ AI แบบ Web3 ส่วนมากกำลังทำอยู่ ไม่เพียงพอที่จะทำให้เท่ากับเงินทุนที่ถูกเทในอันตรายจากบริษัทใหญ่ที่ควบคุมการพัฒนา AI อย่างมั่นคง เมื่อมีข้อจำกัดในฮาร์ดแวร์ นี่อาจเป็นรูปแบบซอฟต์แวร์ขนาดใหญ่เป็นครั้งแรกที่วิศวกรที่ฉลาดและสร้างสรรค์ที่อยู่นอกองค์กรที่มีอิทธิพลไม่มีทรัพยากรที่เพียงพอที่จะทำลาย

ซอฟต์แวร์กำลัง "กินโลก" อย่างรวดเร็วมากขึ้น กำลังจะเพิ่มขึ้นอย่างเร่งรีบด้วยความเร่งของ AI และ "เค้ก" ทั้งหมดนี้ โดยตอนนี้สิ่งที่ยืนอยู่ จะไปที่บริษัทใหญ่ในเทคโนโลยี - ในขณะที่ผู้ใช้งานสุดท้าย รวมถึงรัฐบาลและธุรกิจใหญ่ ยิ่งกลายเป็นผู้มีอำนาจมากขึ้น

การไม่สอดคล้องกับสิทธิราชการ

ทั้งหมดนี้ไม่สามารถคลี่คลายได้ในเวลาที่ไม่เหมาะสมมากขึ้นโดย 90% ของผู้เข้าร่วมเว็บแบบกระจายอํานาจกําลังยุ่งอยู่กับการไล่ล่าห่านทองคําของกําไรจากคําสั่งที่ง่ายของการพัฒนาที่ขับเคลื่อนด้วยการเล่าเรื่อง ใช่นักพัฒนากําลังติดตามนักลงทุนในอุตสาหกรรมของเราไม่ใช่ในทางกลับกัน มันแตกต่างจากการยอมรับอย่างเปิดเผยไปจนถึงแรงจูงใจที่ลึกซึ้งและจิตใต้สํานึกมากขึ้น แต่การเล่าเรื่องและตลาดที่เกิดขึ้นรอบตัวพวกเขาขับเคลื่อนการตัดสินใจมากมายใน Web3 ผู้เข้าร่วมถูกกลืนเข้าไปในฟองสบู่สะท้อนแบบคลาสสิกมากเกินไปที่จะสังเกตเห็นโลกภายนอกยกเว้นเรื่องเล่าที่ช่วยพัฒนาวงจรนี้ต่อไป และเห็นได้ชัดว่า AI เป็นที่ใหญ่ที่สุดเนื่องจากกําลังอยู่ในช่วงบูมของตัวเอง

เราได้พูดคุยกับทีมหลายทีมในส่วนที่เชื่อมโยงระหว่าง AI และ Crypto และสามารถยืนยันได้ว่าหลายทีมในนั้นมีความสามารถมากมาย มีเป้าหมายและเป็นผู้สร้างที่หลงใหล แต่เนื่องจากเป็นธรรมชาติของมนุษย์ที่เมื่อเผชิญกับสิ่งสลดใจเรามักจะล้มเหลว และจากนั้นจึงพยายามอ้างเหตุผลให้ตรง

เส้นทางสะดวกสู่ Likwid ได้เป็นคำสาปของอุตสาหกรรมคริปโตที่สำคัญ - ทำให้อุตสาหกรรมชะลอการพัฒนาและการนำมาใช้ได้ในระดับนี้มาหลายปี มันเอาเสนอแม้แต่นักสืบความศรัทธาของคริปโตที่ดีที่สุดไปทาง “การขยายโทเค็น” การทรทมว่าด้วยเงินทุนที่มากขึ้นในรูปแบบโทเค็นนั้นสร้างโอกาสที่ดีกว่าสำหรับผู้สร้าง

ความซับซ้อนที่ต่ำของทั้งทุนสถาบันและทุนร้านค้าส่งผลให้ผู้สร้างสามารถทำข้อเรียกร้อยที่แยกตัวจากความเป็นจริงได้ พร้อมกับการได้รับประโยชน์จากการให้ค่าลิขสิทธิ์เช่นเดียวกับข้อเรียกร้อยเหล่านั้นมีอยู่แล้ว ผลลัพธ์ของกระบวนการเหล่านี้คือความเสี่ยงทางจริยธรรมที่ซึ่งหนักและการทำลายทุน โดยมีเพียงเล็กน้อยจากกลยุทธ์เช่นนี้ที่ประสบความสำเร็จในระยะยาว ความจำเป็นคือแม่ของการประดิษฐ์ทั้งหมดและเมื่อมันหายไปแล้ว การประดิษฐ์ก็หายไปด้วย

มันไม่สามารถเกิดขึ้นได้ในช่วงเวลาที่เลวร้ายกว่า ในขณะที่ผู้ประกอบการด้านเทคโนโลยีที่ชาญฉลาดที่สุดนักแสดงของรัฐและรัฐวิสาหกิจทั้งขนาดใหญ่และขนาดเล็กกําลังแข่งขันกันเพื่อให้แน่ใจว่าผลประโยชน์ส่วนหนึ่งของพวกเขามาจากการปฏิวัติ AI ผู้ก่อตั้งและนักลงทุน crypto กําลังเลือกใช้ "10x อย่างรวดเร็ว" แทนที่จะเป็นอายุการใช้งาน 1,000 x ซึ่งเป็นค่าเสียโอกาสที่แท้จริงที่นี่ในมุมมองของเรา

สรุปโดยรวมของทัศนียภาพ Web3 AI ที่เป็นรุ่นร่าง

โดยมีสิ่งส่งเสริมที่กล่าวถึงข้างต้น การจัดหมวดหมู่โครงการ AI ของ Web3 นั้นจริงๆ แล้วมาจาก:

  • ถูกต้อง (แบ่งเป็นคนจริงและคนอุดมคติ)
  • Semi-legitimate, and
  • Fakers

โดยพื้นฐานแล้ว เราคิดว่า ผู้ก่อสร้างทราบอย่างแน่นอนว่ามันต้องใช้เวลานานเท่าใดที่จะเข้าข่ายกับการแข่งขันใน Web2 และแนวทางที่จะแข่งขันได้จริง ๆ และที่เป็นแค่ความฝันเล็ก ๆ ซึ่งโดยไม่แน่ใจก็ยังสามารถผลักดันไปสู่ VCs และสาธารณะทั่วไปที่ไม่มีความชำนาญ

เป้าหมายคือสามารถแข่งขันที่นี่และตอนนี้ มิฉะนั้นความเร็วของการพัฒนา AI อาจทิ้ง Web3 ไว้ข้างหลังในขณะที่โลกก้าวกระโดดไปสู่ Web4 ดิสโทเปียของ Corporate AI ในตะวันตกเทียบกับ State AI ของจีน ผู้ที่ไม่สามารถแข่งขันได้เร็วพอและพึ่งพาเทคโนโลยีแบบกระจายเพื่อให้ทันในช่วงเวลาที่ยาวนานขึ้นนั้นมองโลกในแง่ดีเกินกว่าที่จะดําเนินการอย่างจริงจัง

แน่นอนว่านี่เป็นการยุยงทั่วไปที่มีความโหดร้ายและแม้กระทั่งกลุ่มของผู้ปลอมแท้มีอย่างน้อยก็มีทีมที่จริงจังอย่างน้อย (และบางทีอาจมีมากของคนที่เพ้อฝัน) แต่ข้อความนี้เป็นการเรียกร้องให้ทำการเตรียมพร้อม ดังนั้นเราไม่ได้ตั้งใจที่จะเป็นอ客ทัย แต่เป็นการเรียกร้องสู่ความเร่งด่วนของผู้อ่าน[1].

ถูกต้อง:

  • Middleware for “bringing AI on-chain”. Founders behind such solutions, which aren’t many, understand that decentralized training or inference of models users actually want (the cutting-edge) is unfeasible if not impossible at the moment. So finding a way to connect best centralized models with the on-chain environment to let it benefit from sophisticated automation is a good enough first step for them. Hardware enclaves of TEEs (“air-gapped” processors) ที่สามารถเป็นโฮสต์ของจุดเข้าถึง API, โอราเคิล 2 ด้าน (เพื่อดัชนีข้อมูลออนและออฟเชนไดร์แชนเชนอย่างทวิภาค) และให้สภาพแวดล้อมการคำนวณออฟเชนที่สามารถยืนยันได้สำหรับเอเยนต์ ดูเหมือนจะเป็น sol จากตอนนี้. ยังมีโครเพสเซสเซอร์ที่ใช้สถานะภาพที่เป็นศูนย์ซีโรนออกฤทธิ์ (ZKPs) สำหรับการทำสแนปท็อตสเเตตเปลี่ยน (แทนที่จะตรวจสอบการคำนวณแบบเต็ม) ที่เรายังพบว่าเป็นไปได้ในช่วงกลางรอบ.
    แนวทางที่เป็นอุดมคติมากขึ้นสําหรับปัญหาเดียวกันพยายามตรวจสอบการอนุมานนอกเครือข่ายเพื่อนํามาเทียบเคียงกับการคํานวณแบบ on-chain ในแง่ของสมมติฐานความน่าเชื่อถือ เป้าหมายของสิ่งนี้ควรอนุญาตให้ AI ทํางานทั้งในและนอกเครือข่ายเช่นเดียวกับในสภาพแวดล้อมรันไทม์ที่สอดคล้องกันในมุมมองของเรา อย่างไรก็ตามผู้เสนอการตรวจสอบการอนุมานส่วนใหญ่พูดถึง "การไว้วางใจน้ําหนักแบบจําลอง" และเป้าหมายที่มีขนดกอื่น ๆ ในลักษณะเดียวกันซึ่งมีความเกี่ยวข้องจริงในปีหากเคย เมื่อเร็ว ๆ นี้ผู้ก่อตั้งในค่ายนี้เริ่มสํารวจ วิธีการทดแทนเพื่อการอ้างอิงความเชื่อถือได้ แต่เดิมมันทั้งหมดเป็นที่พึ่ง ZKP-based ขณะที่ทีมงานหลายทีมที่ฉลาดกำลังทำงานกับ ZKML หรือที่เรียกว่ามันเริ่มต้น พวกเขากำลังเริ่มเอาความเสี่ยงที่ใหญ่เกินไปโดยคาดหวังว่าการปรับปรุงความปลอดภัยของ crypto จะเร็วกว่าความซับซ้อนและความต้องการของการคำนวณของ AI models เราจึงถือว่าพวกเขาไม่เหมาะสมสำหรับการแข่งขัน อย่างน้อยในขณะนี้ แต่@ModulusLabs/chapter-14-the-worlds-1st-on-chain-llm-7e389189f85e">some recent progress is interesting and shouldn’t be ignored.

Semi-legitimate:

  • แอปสําหรับผู้บริโภคที่ใช้กระดาษห่อรอบโมเดลแบบปิดและโอเพ่นซอร์ส (เช่น Stable Diffusion หรือ Midjourney สําหรับการสร้างภาพ) ทีมเหล่านี้บางทีมเป็นคนแรกที่ออกสู่ตลาดและมีแรงฉุดของผู้ใช้จริง ดังนั้นจึงไม่ยุติธรรมที่จะเรียกพวกเขาว่าปลอม แต่มีเพียงไม่กี่คนที่คิดอย่างลึกซึ้งเกี่ยวกับวิธีที่ทั้งสองจะพัฒนาโมเดลพื้นฐานของพวกเขาในแฟชั่นแบบกระจายอํานาจและสร้างสรรค์นวัตกรรมในการออกแบบสิ่งจูงใจ มีการหมุนการกํากับดูแล / ความเป็นเจ้าของที่น่าสนใจในองค์ประกอบโทเค็นที่นี่และที่นั่น แต่โครงการส่วนใหญ่ในหมวดหมู่นี้เพียงแค่ตบโทเค็นที่ห่อหุ้มแบบรวมศูนย์นอกเหนือจากเช่น OpenAI API เพื่อรับค่าพรีเมียมการประเมินมูลค่าหรือสภาพคล่องที่เร็วขึ้นสําหรับทีม

สิ่งที่ไม่มีใครในสองค่ายด้านบนกล่าวถึงคือการฝึกอบรมและการอินเฟอเรนซ์สำหรับโมเดลขนาดใหญ่ในการตั้งค่าแบบกระจาย ณ ขณะนี้ยังไม่มีวิธีในการฝึกโมเดลพื้นฐานในเวลาที่เหมาะสมโดยไม่ต้องพึ่งพากลุ่มฮาร์ดแวร์ที่เชื่อมต่ออย่างแน่นหนา “เวลาที่เหมาะสม” โดยดูจากระดับการแข่งขันเป็นปัจจัยสำคัญ

บ้าง การวิจัยที่มีความเป็นมั่น ในหัวข้อได้ออกมาเมื่อเร็ว ๆ นี้และในทางทฤษฎีแนวทางเช่น การไหลข้อมูลทางแตกต่างอาจถูกขยายเป็นเครือข่ายคอมพิวเตอร์แบบกระจายเพื่อเพิ่มประสิทธิภาพในอนาคต (เมื่อความสามารถในการเชื่อมต่อเครือข่ายได้รับการปรับปรุงตามความต้องการของการสตรีมข้อมูล) แต่การฝึกโมเดลแบบแข่งขันยังต้องการการสื่อสารระหว่างกลุ่มที่ตั้งต่างกัน ไม่ใช่อุปกรณ์กระจายเดี่ยว และการคำนวณขั้นสูง (GPU ขายปลีกกำลังเริ่มไม่แข่งขัน)

การวิจัยเพื่อการท้องถิ่น (หนึ่งในวิธีทั้งสองของการกระจาย) ที่ลดขนาดโมเดลในการอ่านความหมาย ก็ได้รับการวิจัยเช่นกันก้าวหน้าเร็ว, แต่ยังไม่มีโปรโตคอลที่มีอยู่ใน Web3 ที่ใช้มัน

ปัญหาที่เกิดขึ้นกับการฝึกอบรมแบบกระจายและการออกข้อมูลตามตรรกะนำเราสู่ค่ายสุดท้ายและสำคัญที่สุด และเพราะฉะนั้นมันเป็นเรื่องที่กระตุ้นอารมณ์ของเรามากที่สุด ;-)

Fakers:

  • แอปพลิเคชันโครงสร้างพื้นฐานส่วนใหญ่อยู่ในพื้นที่เซิร์ฟเวอร์แบบกระจายอํานาจโดยนําเสนอฮาร์ดแวร์เปลือยกระดูกหรือสภาพแวดล้อมการฝึกอบรม / โฮสต์โมเดลแบบกระจายอํานาจ นอกจากนี้ยังมีโครงการโครงสร้างพื้นฐานซอฟต์แวร์ที่ผลักดันโปรโตคอลเช่นการเรียนรู้แบบรวมศูนย์ (การฝึกอบรมโมเดลแบบกระจายอํานาจ) หรือโครงการที่รวมทั้งส่วนประกอบซอฟต์แวร์และฮาร์ดแวร์ไว้ในแพลตฟอร์มเดียวซึ่งสามารถฝึกอบรมและปรับใช้โมเดลแบบกระจายอํานาจได้ตั้งแต่ต้นจนจบ ส่วนใหญ่ขาดความซับซ้อนที่จําเป็นในการแก้ไขปัญหาที่ระบุไว้จริง ๆ และความคิด "โทเค็นจูงใจ + ลมหางตลาด" ที่ไร้เดียงสามีชัยที่นี่ ไม่มีโซลูชันใดที่เราเคยเห็นทั้งในตลาดภาครัฐและเอกชนที่ใกล้เคียงกับการแข่งขันที่มีความหมายที่นี่และตอนนี้ บางคนอาจพัฒนาเป็นข้อเสนอที่ใช้งานได้ (แต่เฉพาะกลุ่ม) แต่เราต้องการสิ่งที่สดใหม่และแข่งขันได้ที่นี่และตอนนี้ และสามารถเกิดขึ้นได้ผ่านการออกแบบที่เป็นนวัตกรรมใหม่ที่จัดการกับปัญหาคอขวดในการประมวลผลแบบกระจาย ในการฝึกอบรมไม่เพียง แต่ความเร็ว แต่ยังตรวจสอบความถูกต้องของงานที่ทําและการประสานงานของปริมาณงานการฝึกอบรมเป็นปัญหาใหญ่ซึ่งเพิ่มคอขวดแบนด์วิดธ์

เราต้องการชุดของแบบจำลองที่แข่งขันและแท้จริงที่มีพื้นฐานและต้องการการฝึกและการอุทิศที่กระจายเพื่อทำงาน การสูญเสีย AI อาจยกเลิกความสำเร็จใด ๆ และทั้งหมด "คอมพิวเตอร์โลกที่กระจาย" ที่ได้รับตั้งแต่การเริ่มต้นของ Ethereum หากคอมพิวเตอร์กลายเป็น AI และ AI ถูกกลายเป็นส่วนกลายจะไม่มีคอมพิวเตอร์โลกที่จะพูดถึงนอกจากเวอร์ชันทวีปอพยพบางแห่ง

การฝึกและการใช้ประโยชน์เป็นหัวใจของนวัตกรรม AI ขณะที่โลก AI อื่น ๆ กำลังเคลื่อนไหวไปสู่สถาปัตยกรรมที่แน่นและเชื่อมต่อมากขึ้น เว็บ 3 ต้องการทางอ้อมซึ่งเป็นคำตอบที่แตกต่างเพื่อแข่งขัน เพราะการแข่งขันหัวหน้ากันกำลังกลายเป็นสิ่งที่ไม่สามารถทำได้เร็วขึ้น

ขนาดของปัญหา

มันเป็นเรื่องของการคำนวณ มีเสถียรภาพมากขึ้นเมื่อคุณใช้คำนวณทั้งการฝึกและการอินเฟอเรนซ์มากขึ้น ใช่ มีการปรับแต่งและการปรับปรุงที่นี่และที่นั่น และการคำนวณเองไม่ได้มีความเหมือนกัน - มีวิธีการใหม่ที่หลากหลายเพื่อเอาอุปกรณ์ประมวลผลแบบ Von Neumann แบบดั้งเดิมมาทำงานได้ดีขึ้น - แต่ก็ยังยากที่จะคำนวณว่าคุณสามารถทำการคูณเมทริกซ์ได้เท่าไหร่บนชิ้นหน่วยความจำขนาดใหญ่และเร็วเท่าใด

นั้นเป็นเหตุผลที่เราเห็นการก่อสร้างที่แข็งแกร่งบนด้านศูนย์ข้อมูลโดย "Hyperscalers" ทั้งหมดที่กำลังมองหาว่าจะสร้าง full stack ด้วยโมเดล AI powerhouse ที่ด้านบนและฮาร์ดแวร์ที่จะขับเคลื่อนด้านล่าง: OpenAI(models)+Microsoft(compute), Anthropic(models)+AWS(compute), Google (ทั้งคู่) และ Meta (เพิ่มขึ้นทั้งคู่ผ่านการเพิ่มเติมในการก่อสร้างศูนย์ข้อมูลของตนเอง)

เราเพียงแค่มองไปที่ระดับการก่อสร้างที่คาดหวังในปีนี้เพียงอย่างเดียวจาก 4 บริษัท:

  • Meta anticipates $30-37bnค่าใช้จ่ายในการลงทุนในปี 2024 ซึ่งเป็นไปได้ว่าจะเน้นไปที่ศูนย์ข้อมูลอย่างมาก
  • Microsoft ใช้เงินประมาณ 11.5 พันล้านดอลลาร์ในปี 2023ใน CapEx และมีข่าวลือว่าจะลงทุนเพิ่มอีก $40-50 พันล้านในปี '24-'25 สิ่งนี้สามารถถือว่าเป็นการคาดการณ์บางส่วนจากการลงทุนในศูนย์ข้อมูลขนาดใหญ่ที่ประกาศในประเทศไม่กี่ประเทศ$3.2bในสหราชอาณาจักร$3.5bnในออสเตรเลีย, $2.1bnในสเปน,€3.2bnในเยอรมนี,$1bnในรัฐอเมริกาของจอร์เจียและ$10bnในวิสคอนซิน ตามลำดับ และนั่นเพียงเพียงบางส่วนของการลงทุนในภูมิภาคจากเครือข่ายของพวกเขาที่มีจำนวนศูนย์ข้อมูล 300 แห่งที่กระจายอยู่ใน 60+ ภูมิภาค นอกจากนี้ยังมีพูดคุยของ supercomputer สำหรับ OpenAI ที่อาจทำให้ Microsoft เสียเงินอีก $100 พันล้าน!
  • คณะผู้บริหาร Amazonคาดหวังคาดว่าค่าใช้จ่ายในการลงทุน (CapEx) ของพวกเขาจะเติบโตอย่างมากในปี 2024 จากการใช้จ่ายทั้งหมด 48 พันล้านดอลลาร์ในปี 2023 โดยมีการขับเคลื่อนโดยส่วนใหญ่โดยการขยายพื้นฐานการสร้างอินเฟราสตรัคเจอร์ของ AWS สำหรับ AI
  • Google ใช้จ่าย $11 พันล้านเพื่อขยายขนาดเซิร์ฟเวอร์และศูนย์ข้อมูลของตนในไตรมาสที่ 4 ของปี 2023 เท่านั้น พวกเขาได้ยอมรับว่าการลงทุนเหล่านั้นถูกทำเพื่อตอบสนองต่อความต้องการของ AI ที่คาดว่าจะเพิ่มขึ้น และคาดว่าอัตราการใช้จ่ายโครงสร้างพื้นฐานและขนาดรวมจะเพิ่มขึ้นอย่างมีนัยสำคัญในปี 2024 เนื่องจาก AI

และนี่คือจำนวนเงินที่ถูกใช้ในฮาร์ดแวร์ AI ของ NVIDIA ไปแล้วในปี 2023:

Jensen Huang, รองประธานบริหารของ NVIDIA, ได้เสนอจำนวนเงินรวม 1 ล้านล้านเหรียญให้เทในการระงับการเร่งความเร็วของ AI ในปีหลายปีข้างหน้า คำทำนายที่เขาทำล่าสุดเพิ่มขึ้นสองเท่า ถึง $2 ล้านล้าน, ซึ่งเชื่อว่าถูกกระตุ้นโดยความสนใจที่เขาเห็นจากผู้เล่นซอเวรันที่เข้ามาเล่นในตลาด นักวิเคราะห์ที่ Altimeter คาดว่าการลงทุนในศูนย์ข้อมูลเชื่อมต่อข้อมูลที่เกี่ยวข้องกับ AI ทั่วโลกจะมีมูลค่าประมาณ $160 พันล้านและมากกว่า $200 พันล้านในปี '24 และ '25 ตามลำดับ

ตอนนี้เพื่อเปรียบเทียบตัวเลขเหล่านี้กับสิ่งที่ Web3 มีเสนอให้ผู้ประกอบการศูนย์ข้อมูลอิสระเพื่อกระตุ้นให้พวกเขาขยาย CapEx บนฮาร์ดแวร์ AI ล่าสุด:

  • มูลค่าทางตลาดรวมของโครงการโครงสร้างพื้นฐานที่ไม่มีกลาง (DePIn) ทั้งหมดอยู่ที่ประมาณ 40 พันล้านเหรียญในตลาดที่ไม่สามารถหมุนเวียนได้และเป็นลำดับแรกในการพิสูจน์. พื้นฐาน, มูลค่าตลาดของเครือข่ายเหล่านี้เท่ากับการประมาณภูมิลักษณ์สูงสุดของ CapEx รวมของผู้มีส่วนได้ส่วนเสีย, เนื่องจากสร้างสร้างนี้ด้วยตัวนั้น. แต่ค่า mcap ปัจจุบันเกือบไม่มีประโยชน์เพราะมันได้รับการออกแล้ว
  • ดังนั้นเราจึงสมมติว่ามีเงินทุน DePIn ของภาครัฐและเอกชนอีก $80 พันล้าน (2 เท่าของมูลค่าที่มีอยู่) ที่เข้าสู่ตลาดเป็นกำลังสร้างสรรค์ในระยะเวลา 3-5 ปีถัดไปและสมมติว่ามูลค่านี้ 100% จะใช้สำหรับกรณีใช้งาน AI ทั้งหมด

แม้ว่าเราจะนำการประมาณค่าที่แข็งแรงนี้หารด้วย 3 (ปี) แล้วเปรียบเทียบค่าดอลลาร์ของมันกับเงินสดที่เกิดขึ้นจริงๆ โดยเฉพาะด้าน Hyperscalers ในปี 2024 เท่านั้น ก็ยังชัดเจนว่าการให้สิทธิ์ต่อเหรียญที่ให้กำลังบันทึกในโครงการ “decentralized GPU network” ไม่เพียงพอ

นอกจากนี้ยังต้องมีความต้องการของนักลงทุนมูลค่าหลายพันล้านดอลลาร์เพื่อดูดซับเหรียญเหรียญเหล่านี้ เนื่องจากผู้ดำเนินการของเครือข่ายเช่นนี้ขายเหรียญที่ขุดได้มากๆเพื่อครอบคลุมค่าใช้จ่ายสำคัญของ Cap- และ OpEX และอีกหลายพันล้านเพื่อผลักดันเหรียญเหล่านั้นสูงขึ้นและสร้างสรรค์การเติบโตในการสร้างเพื่อการแข่งขันกับ Hyperscalers

อย่างไรก็ตาม บางคนที่มีความรู้ลึกเกี่ยวกับวิธีการทำงานของเซิร์ฟเวอร์ Web3 ส่วนใหญ่ในปัจจุบันอาจคาดหวังว่าส่วนใหญ่ของ "โครงสร้างพลังงานที่มีลักษณะที่กระจาย" จะเริ่มทำงานจริงๆ บนบริการคลาวด์ของ Hyperscalers เหล่านั้น และแน่นอนว่าการเพิ่มขึ้นของ GPU และอุปกรณ์ฮาร์ดแวร์ที่เชื่อมโยงกับ AI อื่นๆ กำลังขับเคลื่อนการเพิ่มขึ้นของสินค้ามากขึ้น ซึ่งในที่สุดควรจะทำให้เช่าคลาวด์หรือซื้อมันถูกลงมากขึ้น อย่างน้อยก็นั่นคือความคาดหวัง

แต่ก็ควรพิจารณาสิ่งนี้ด้วย: ณ ขณะนี้ NVIDIA ต้องการจัดลำดับลูกค้าสำหรับ GPU รุ่นล่าสุดของตนเองอย่างสำคัญด้วยเริ่มแข่งขันกับผู้ให้บริการคลาวด์ที่ใหญ่ที่สุดบนพื้นที่ของพวกเขาเอง - การเสนอบริการแพลตฟอร์ม AI ให้กับลูกค้าธุรกิจที่อยู่ในฐานะผู้ใช้บริการ Hyperscalers เหล่านั้นอยู่แล้ว ซึ่งในที่สุดจะกระตุ้นให้มันเพิ่มการสร้างศูนย์ข้อมูลของตัวเองไปตามเวลา (โดยกินกำไรของมันไปอย่างมากที่มันได้เพลิดเพลินอยู่ในขณะนี้ ดังนั้นเป็นไปได้น้อยลง) หรือจำกัดการขายฮาร์ดแวร์ AI ของพวกเขาอย่างมีนัยสำคัญเพียงแค่ให้แก่ผู้ให้บริการคลาวด์ในเครือข่ายคู่ค้าของพวกเขา

นอกจากนี้ คู่แข่งของ NVIDIA ที่เข้ามาพร้อมกับฮาร์ดแวร์ที่เชี่ยวชาญด้าน AI เพิ่มเติมส่วนใหญ่ใช้ชิปเดียวกับ NVIDIAผลิตโดย TSMC. ดังนั้นโดยพื้นฐานแล้ว บริษัท ฮาร์ดแวร์ AI ทั้งหมดในปัจจุบัน การแข่งขันสำหรับความสามารถของ TSMCTSMC ต้องมีลำดับความสำคัญในการบริการลูกค้าบางรายกว่ารายอื่น ๆ ซัมซุงและอินเทล (ซึ่งกำลังพยายามกลับมาใช้เทคโนโลยีการผลิตชิประดับระดับสูงสำหรับฮาร์ดแวร์ของตัวเองในเร็ว ๆ นี้) อาจสามารถรับผิดชอบความต้องการเพิ่มเติมได้ แต่ TSMC กำลังผลิตชิปที่เกี่ยวข้องกับ AI ในขณะนี้เป็นส่วนใหญ่และการปรับขนาดและการปรับแต่งเทคโนโลยีการผลิตชิปที่ทันสมัย (3 และ 2 นาโนเมตร) ใช้เวลาหลายปี

นอกจากนี้การผลิตชิปล่าสุดทุกอย่างในขณะนี้ถูกทำข้างต้นอยู่ใกล้ชายฝั่งไต้หวันโดย TSMC ในไต้หวันและ Samsung ในเกาหลีใต้ ที่มีความเสี่ยงจากการเกิดความขัดแย้งทางทหารก่อนที่สถานที่ที่สร้างขึ้นในสหรัฐเพื่อเบี้ยวเบียยนี้ (และไม่คาดหวังว่าจะผลิตชิปรุ่นใหม่สำหรับอีกไม่กี่ปี) อาจถูกเปิดใช้งาน

และในที่สุด จีนที่ถูกตัดออกจากฮาร์ดแวร์ AI รุ่นล่าสุดเนื่องจากข้อจำกัดที่ใช้บังคับ NVIDIA และ TSMC โดยสหรัฐ กำลังแข่งขันสำหรับการคำนวณที่เหลือที่พร้อมใช้งานเหมือนกับเครือข่าย DePIn ของ Web3 เทียบกับ Web3 บริษัทจีนมีแบบจำลองแข่งขันของตนเอง โดยเฉพาะ LLMs จาก เช่น บายดู และ อีกาบาบา ซึ่งต้องการอุปกรณ์รุ่นก่อนหน้าเพื่อให้ทำงาน

ดังนั้นจึงมีความเสี่ยงที่ไม่มีสาระสําคัญเนื่องจากเหตุผลหนึ่งที่ระบุไว้ข้างต้นหรือการบรรจบกันของปัจจัย Hyperscalers เพียงแค่ จํากัด การเข้าถึงฮาร์ดแวร์ AI ของพวกเขาไปยังบุคคลภายนอกเนื่องจากสงครามการครอบงําของ AI ทวีความรุนแรงขึ้นและมีความสําคัญเหนือธุรกิจคลาวด์ โดยพื้นฐานแล้วมันเป็นสถานการณ์ที่พวกเขาใช้ความจุคลาวด์ที่เกี่ยวข้องกับ AI ทั้งหมดสําหรับการใช้งานของตนเองและไม่เสนอให้คนอื่นอีกต่อไปในขณะเดียวกันก็ใช้ฮาร์ดแวร์ใหม่ล่าสุดทั้งหมด สิ่งนี้เกิดขึ้นและอุปทานการประมวลผลที่เหลือจะเข้าสู่ความต้องการที่สูงขึ้นโดยผู้เล่นรายใหญ่อื่น ๆ รวมถึงอธิปไตย ในขณะที่ GPU ระดับผู้บริโภคที่เหลืออยู่มีการแข่งขันน้อยลงเรื่อย ๆ

โดยชัดเจนว่านี่เป็นสถานการณ์สุดสุด แต่รางวัลมีค่ามากเกินไปสำหรับผู้เล่นใหญ่ที่จะยอมตัวลงในกรณีที่ปัญหา bottleneck ของฮาร์ดแวร์ยังคงอยู่ สถานการณ์นี้ทำให้ผู้ดำเนินการที่ไม่มีการcentralize เช่น tier 2 ของศูนย์ข้อมูลและเจ้าของฮาร์ดแวร์ grade ระดับการค้าปลีกที่มีบทบาทสำคัญในการให้บริการ DePIn ของ Web3 มากที่สุด ถูกปล่อยอยู่นอกจากการแข่งขัน

ด้านตรงข้ามของเหรียญ

ขณะที่ผู้ก่อตั้งสกุลเงินดิจิทัลหลับในระบบ ผู้เชี่ยวชาญด้าน AI กำลังสังเกตการณ์สกุลเงินดิจทัลอย่างใกล้ชิดความกดดันจากรัฐบาล และการแข่งขันอาจผลักดันให้พวกเขานํา crypto มาใช้เพื่อหลีกเลี่ยงการปิดตัวลงหรือควบคุมอย่างเข้มงวด

ผู้ก่อตั้ง Stability AI เร็ว ๆ นี้ลาออกเพื่อเริ่มต้นการ "decentralizing" บริษัทของเขาเป็นหนึ่งในคำใบ้แรกในสาธารณะเรื่องนั้น เขาได้ก่อนหน้านี้ไม่ปกปิดแผนการเปิดตัวโทเค็นในที่ปรากฏให้คนรู้ แต่เพียงหลังจากที่ IPO ของ บริษัท สำเร็จ - ซึ่งเป็นการเปิดเผยแรงจูงใจจริงๆ ของการเคลื่อนไหวที่คาดหวัง

ในทำนองเดียวกัน ในขณะที่ Sam Altman ไม่มีส่วนร่วมในด้านการดำเนินการของโครงการด้านคริปโตที่เขาร่วมก่อตั้ง Worldcoin แท็กเคนของมันในความแน่นอนถือว่าเทรดเหมือนหุ้นตัวแทนของ OpenAI ไม่ว่าจะมีหรือไม่เส้นทางเชื่อมต่อ โครงการเงินอินเทอร์เน็ตฟรีกับโครงการ AI R&D เวลาเท่านั้นที่จะบอก แต่ทีม Worldcoin ดูเหมือนว่าจะยัง รับรองว่าตลาดกำลังทดสอบสมมติฐานนี้

มันสมเหตุสมผลมากสําหรับเราที่ยักษ์ใหญ่ AI อาจสํารวจเส้นทางที่แตกต่างกันในการกระจายอํานาจ ปัญหาที่เราเห็นที่นี่อีกครั้งคือ Web3 ไม่ได้สร้างวิธีแก้ปัญหาที่มีความหมาย "โทเค็นการกํากับดูแล" เป็นมีมส่วนใหญ่ในขณะที่มีเพียงโทเค็นที่หลีกเลี่ยงความสัมพันธ์โดยตรงระหว่างผู้ถือสินทรัพย์และการพัฒนาและการดําเนินงานของเครือข่ายอย่างชัดเจน - $ BTC และ $ ETH - เป็นโทเค็นที่กระจายอํานาจอย่างแท้จริงในขณะนี้

สิ่งจูงใจเดียวกัน (dis) ที่ชะลอการพัฒนาเทคโนโลยียังส่งผลต่อการพัฒนาการออกแบบที่แตกต่างกันสําหรับการควบคุมเครือข่าย crypto ทีมสตาร์ทอัพเพียงแค่ตบ "โทเค็นการกํากับดูแล" ที่ด้านบนของผลิตภัณฑ์เพื่อหวังว่าจะคิดออกเมื่อพวกเขารวบรวมโมเมนตัมในขณะที่ในที่สุดก็ติดอยู่ใน "โรงละครการกํากับดูแล" เกี่ยวกับการจัดสรรทรัพยากร

สรุป

การแข่งขัน AI กำลังเริ่มต้น และทุกคนรู้สึกถึงความจริงอย่างจริงจัง พวกเราไม่สามารถระบุข้อบกพร่องในการคิดของบริษัทเทคโนโลยีใหญ่เมื่อเรื่องของการขยายขอบเขตการคำนวณของพวกเขาที่อยู่ในอัตราที่ไม่เคยเคยมีมาก่อน - การคำนวณมากขึ้นหมายความว่า AI ที่ดีขึ้น AI ที่ดีขึ้นหมายความว่าลดต้นทุน การเพิ่มรายได้ใหม่และขยายตลาดการครอบครองแบบนี้หมายความว่าฟองสบู่ถูกอนุรักษ์ แต่ผู้เล่นที่ปลอมจะยังคงถูกล้างออกในการสะเทินที่ไม่อาจหลีกเลี่ยงล่วงหน้า

บริษัท AI ขนาดใหญ่ที่มีจุดเด่นอยู่ในธุรกิจและ สตาร์ทอัพที่ถูกต้องพบว่ามันยากที่จะทำความเข้าใจ พื้นที่ Web3 ได้มาช้าเพื่อเข้าร่วมในการแข่งขัน ตลาดกำลังตอบแทนโครงการ AI ที่เกี่ยวข้องกับสกุลเงินดิจิทัลมากเกินไปเมื่อเทียบกับ สตาร์ทอัพในพื้นที่ Web2 ซึ่งส่งผลให้ความสนใจของผู้ก่อตั้งหันไปที่การขายโทเคนในจุดที่สำคัญเมื่อหน้าต่างของโอกาสในการทำให้ตาจับได้กำลังปิดลงอย่างรวดเร็ว จนถึงตอนนี้ยังไม่มีนวัตกรรมที่ต่างจากกันที่วงเวียนโดยรอบที่ยุบเพิ่มขึ้นไปยังขนาดที่ใหญ่เพื่อที่จะแข่งขัน

มีการเคลื่อนไหวของ open source ที่น่าเชื่อถือตอนนี้ ในระดับโมเดลที่เผชิญหน้ากับผู้บริโภค ซึ่งเริ่มมีการเปิดตัวด้วยผู้เล่นที่มีการกำหนดเองเพียงบางราย ที่เลือกที่จะแข่งขันกับคู่แข่งที่ของเชิญเข้ามามากกว่าสำหรับการแบ่งตลาด (เช่น Meta, Stability AI) แต่ตอนนี้ชุมชนกำลังทำการเรียนรู้และสร้างความกดดันต่อบริษัท AI ชั้นนำ เรื่อนนี้ความกดดันเหล่านี้จะยังคงส่งผลต่อการพัฒนาของผลิตภัณฑ์ AI แบบ closed-source แต่ไม่มีผลอย่างมีนัยสำคัญจนกว่า open source จะเป็นฝั่งที่เรียนรู้ นี่เป็นโอกาสใหญ่อีกอันหนึ่งสำหรับพื้นที่ Web3 แต่ก็ต่อเมื่อมันแก้ไขสำหรับการฝึกอบรมแบบโมเดลและการอ้างอิงที่มีการกระจาย

ดังนั้นในขณะที่บนพื้นผิว "คลาสสิก" เปิดสําหรับ disruptors มีอยู่ความเป็นจริงไม่สามารถเพิ่มเติมจากการสนับสนุนพวกเขา AI ส่วนใหญ่เชื่อมโยงกับการคํานวณและไม่มีอะไรที่สามารถเปลี่ยนแปลงได้เกี่ยวกับมันขาดนวัตกรรมที่ก้าวหน้าในอีก 3-5 ปีข้างหน้าซึ่งเป็นช่วงเวลาสําคัญในการพิจารณาว่าใครเป็นผู้ควบคุมและควบคุมการพัฒนา AI

การคำนวณตลาดเอง แม้ว่าความต้องการจะส่งผลให้มีความพยายามในด้านการผลิตมากขึ้น ก็ไม่สามารถให้“บังคับให้รอดวงหนึ่ง” ได้ด้วยการแข่งขันระหว่างผู้ผลิตที่ถูกจำกัดด้วยปัจจัยโครงสร้างเช่นการผลิตชิปและประสิทธิภาพของมาตราส่วน

เรายังคงมองโลกในแง่ดีเกี่ยวกับความเฉลียวฉลาดของมนุษย์และมั่นใจว่ามีคนฉลาดและมีเกียรติเพียงพอที่จะพยายามถอดรหัสพื้นที่ปัญหา AI ในลักษณะที่เอื้อต่อโลกเสรีเหนือการควบคุมขององค์กรหรือรัฐบาลจากบนลงล่าง แต่อัตราต่อรองนั้นดูบางมากและเป็นการโยนเหรียญที่ดีที่สุด แต่ผู้ก่อตั้ง Web3 กําลังยุ่งอยู่กับการพลิกเหรียญเพื่อการเงินมากกว่าผลกระทบในโลกแห่งความเป็นจริง

หากคุณกำลังสร้างสิ่งที่เจ๊ง ๆ เพื่อช่วยเพิ่มโอกาสของ Web3 และไม่ใช่แค่ขี่คลื่นโฮป ติดต่อเรา

คำปฏิเสธ:

  1. บทความนี้ถูกพิมพ์ซ้ำจาก [Gategagra.vc], All copyrights belong to the original author [gagra.vc]. If there are objections to this reprint, please contact the Gate Learnทีม และพวกเขาจะดำเนินการโดยเร็ว
  2. คำโต้แย้งความรับผิด: มุมมองและความคิดเห็นที่แสดงในบทความนี้เป็นเพียงของผู้เขียนเท่านั้น และไม่เป็นที่สร้างสรรค์ใด ๆ ของคำแนะนำในการลงทุน
  3. การแปลบทความเป็นภาษาอื่นๆ ทำโดยทีม Gate Learn หากไม่ได้กล่าวถึง การคัดลอก การกระจาย หรือการลอกเลียนบทความที่ถูกแปลนั้นถือเป็นการละเมิดทรัพย์สินทางปัญญา

การพลิกเหรียญ AI

มือใหม่5/6/2024, 12:41:32 PM
บทความสำรวจศักยภาพและความท้าทายของการผสม AI กับ Web3 ผู้เขียนชี้แจงว่า ถึงแม้จะมีอารมณ์เชื่อมั่นที่ดีต่อ "AI + Web3" แต่ในความเป็นจริงมีอุปสรรคที่สำคัญในด้านการลงทุนฮาร์ดแวร์และการวิจัย ซึ่งทำให้บริษัทเทคโนโลยีขนาดใหญ่ครองเครื่องเรนเนอร์ในวงการ AI โครงการ Web3 ใช้การระดมทุนและแข่งขันผ่านการเข้ารหัสที่เป็นกำลังดึงดูด ทำให้ยากที่จะแข่งขันกับเงินทุนมากมายที่ลงทุนโดยบริษัทเหล่านี้

TLDR

นี่ไม่ใช่บทความ VC ที่เขียนด้วย "AI + Web3" อย่างสวยงามอีกต่อไป เราเต็มเปี่ยมไปด้วยความสดใสเกี่ยวกับการผสมผสานทั้งสองเทคโนโลยี แต่ข้อความด้านล่างนี้คือคำเรียกร้อง ไม่งั้นความสดใสก็จะไม่สิ้นสุดลง

ทำไม? เพราะการพัฒนาและเรียกใช้โมเดล AI ที่ดีที่สุดต้องใช้ค่าใช้จ่ายในการลงทุนที่สำคัญในฮาร์ดแวร์ที่ทันสมัยและบางครั้งยากต่อการเข้าถึงมากพอ และการวิจัยและพัฒนาที่เฉพาะด้านมากมาย การใช้สิ่งส่งเสริมแบบคริปโตสำหรับการรวบรวมทรัพยากรเหล่านี้ ตามที่โครงการ AI แบบ Web3 ส่วนมากกำลังทำอยู่ ไม่เพียงพอที่จะทำให้เท่ากับเงินทุนที่ถูกเทในอันตรายจากบริษัทใหญ่ที่ควบคุมการพัฒนา AI อย่างมั่นคง เมื่อมีข้อจำกัดในฮาร์ดแวร์ นี่อาจเป็นรูปแบบซอฟต์แวร์ขนาดใหญ่เป็นครั้งแรกที่วิศวกรที่ฉลาดและสร้างสรรค์ที่อยู่นอกองค์กรที่มีอิทธิพลไม่มีทรัพยากรที่เพียงพอที่จะทำลาย

ซอฟต์แวร์กำลัง "กินโลก" อย่างรวดเร็วมากขึ้น กำลังจะเพิ่มขึ้นอย่างเร่งรีบด้วยความเร่งของ AI และ "เค้ก" ทั้งหมดนี้ โดยตอนนี้สิ่งที่ยืนอยู่ จะไปที่บริษัทใหญ่ในเทคโนโลยี - ในขณะที่ผู้ใช้งานสุดท้าย รวมถึงรัฐบาลและธุรกิจใหญ่ ยิ่งกลายเป็นผู้มีอำนาจมากขึ้น

การไม่สอดคล้องกับสิทธิราชการ

ทั้งหมดนี้ไม่สามารถคลี่คลายได้ในเวลาที่ไม่เหมาะสมมากขึ้นโดย 90% ของผู้เข้าร่วมเว็บแบบกระจายอํานาจกําลังยุ่งอยู่กับการไล่ล่าห่านทองคําของกําไรจากคําสั่งที่ง่ายของการพัฒนาที่ขับเคลื่อนด้วยการเล่าเรื่อง ใช่นักพัฒนากําลังติดตามนักลงทุนในอุตสาหกรรมของเราไม่ใช่ในทางกลับกัน มันแตกต่างจากการยอมรับอย่างเปิดเผยไปจนถึงแรงจูงใจที่ลึกซึ้งและจิตใต้สํานึกมากขึ้น แต่การเล่าเรื่องและตลาดที่เกิดขึ้นรอบตัวพวกเขาขับเคลื่อนการตัดสินใจมากมายใน Web3 ผู้เข้าร่วมถูกกลืนเข้าไปในฟองสบู่สะท้อนแบบคลาสสิกมากเกินไปที่จะสังเกตเห็นโลกภายนอกยกเว้นเรื่องเล่าที่ช่วยพัฒนาวงจรนี้ต่อไป และเห็นได้ชัดว่า AI เป็นที่ใหญ่ที่สุดเนื่องจากกําลังอยู่ในช่วงบูมของตัวเอง

เราได้พูดคุยกับทีมหลายทีมในส่วนที่เชื่อมโยงระหว่าง AI และ Crypto และสามารถยืนยันได้ว่าหลายทีมในนั้นมีความสามารถมากมาย มีเป้าหมายและเป็นผู้สร้างที่หลงใหล แต่เนื่องจากเป็นธรรมชาติของมนุษย์ที่เมื่อเผชิญกับสิ่งสลดใจเรามักจะล้มเหลว และจากนั้นจึงพยายามอ้างเหตุผลให้ตรง

เส้นทางสะดวกสู่ Likwid ได้เป็นคำสาปของอุตสาหกรรมคริปโตที่สำคัญ - ทำให้อุตสาหกรรมชะลอการพัฒนาและการนำมาใช้ได้ในระดับนี้มาหลายปี มันเอาเสนอแม้แต่นักสืบความศรัทธาของคริปโตที่ดีที่สุดไปทาง “การขยายโทเค็น” การทรทมว่าด้วยเงินทุนที่มากขึ้นในรูปแบบโทเค็นนั้นสร้างโอกาสที่ดีกว่าสำหรับผู้สร้าง

ความซับซ้อนที่ต่ำของทั้งทุนสถาบันและทุนร้านค้าส่งผลให้ผู้สร้างสามารถทำข้อเรียกร้อยที่แยกตัวจากความเป็นจริงได้ พร้อมกับการได้รับประโยชน์จากการให้ค่าลิขสิทธิ์เช่นเดียวกับข้อเรียกร้อยเหล่านั้นมีอยู่แล้ว ผลลัพธ์ของกระบวนการเหล่านี้คือความเสี่ยงทางจริยธรรมที่ซึ่งหนักและการทำลายทุน โดยมีเพียงเล็กน้อยจากกลยุทธ์เช่นนี้ที่ประสบความสำเร็จในระยะยาว ความจำเป็นคือแม่ของการประดิษฐ์ทั้งหมดและเมื่อมันหายไปแล้ว การประดิษฐ์ก็หายไปด้วย

มันไม่สามารถเกิดขึ้นได้ในช่วงเวลาที่เลวร้ายกว่า ในขณะที่ผู้ประกอบการด้านเทคโนโลยีที่ชาญฉลาดที่สุดนักแสดงของรัฐและรัฐวิสาหกิจทั้งขนาดใหญ่และขนาดเล็กกําลังแข่งขันกันเพื่อให้แน่ใจว่าผลประโยชน์ส่วนหนึ่งของพวกเขามาจากการปฏิวัติ AI ผู้ก่อตั้งและนักลงทุน crypto กําลังเลือกใช้ "10x อย่างรวดเร็ว" แทนที่จะเป็นอายุการใช้งาน 1,000 x ซึ่งเป็นค่าเสียโอกาสที่แท้จริงที่นี่ในมุมมองของเรา

สรุปโดยรวมของทัศนียภาพ Web3 AI ที่เป็นรุ่นร่าง

โดยมีสิ่งส่งเสริมที่กล่าวถึงข้างต้น การจัดหมวดหมู่โครงการ AI ของ Web3 นั้นจริงๆ แล้วมาจาก:

  • ถูกต้อง (แบ่งเป็นคนจริงและคนอุดมคติ)
  • Semi-legitimate, and
  • Fakers

โดยพื้นฐานแล้ว เราคิดว่า ผู้ก่อสร้างทราบอย่างแน่นอนว่ามันต้องใช้เวลานานเท่าใดที่จะเข้าข่ายกับการแข่งขันใน Web2 และแนวทางที่จะแข่งขันได้จริง ๆ และที่เป็นแค่ความฝันเล็ก ๆ ซึ่งโดยไม่แน่ใจก็ยังสามารถผลักดันไปสู่ VCs และสาธารณะทั่วไปที่ไม่มีความชำนาญ

เป้าหมายคือสามารถแข่งขันที่นี่และตอนนี้ มิฉะนั้นความเร็วของการพัฒนา AI อาจทิ้ง Web3 ไว้ข้างหลังในขณะที่โลกก้าวกระโดดไปสู่ Web4 ดิสโทเปียของ Corporate AI ในตะวันตกเทียบกับ State AI ของจีน ผู้ที่ไม่สามารถแข่งขันได้เร็วพอและพึ่งพาเทคโนโลยีแบบกระจายเพื่อให้ทันในช่วงเวลาที่ยาวนานขึ้นนั้นมองโลกในแง่ดีเกินกว่าที่จะดําเนินการอย่างจริงจัง

แน่นอนว่านี่เป็นการยุยงทั่วไปที่มีความโหดร้ายและแม้กระทั่งกลุ่มของผู้ปลอมแท้มีอย่างน้อยก็มีทีมที่จริงจังอย่างน้อย (และบางทีอาจมีมากของคนที่เพ้อฝัน) แต่ข้อความนี้เป็นการเรียกร้องให้ทำการเตรียมพร้อม ดังนั้นเราไม่ได้ตั้งใจที่จะเป็นอ客ทัย แต่เป็นการเรียกร้องสู่ความเร่งด่วนของผู้อ่าน[1].

ถูกต้อง:

  • Middleware for “bringing AI on-chain”. Founders behind such solutions, which aren’t many, understand that decentralized training or inference of models users actually want (the cutting-edge) is unfeasible if not impossible at the moment. So finding a way to connect best centralized models with the on-chain environment to let it benefit from sophisticated automation is a good enough first step for them. Hardware enclaves of TEEs (“air-gapped” processors) ที่สามารถเป็นโฮสต์ของจุดเข้าถึง API, โอราเคิล 2 ด้าน (เพื่อดัชนีข้อมูลออนและออฟเชนไดร์แชนเชนอย่างทวิภาค) และให้สภาพแวดล้อมการคำนวณออฟเชนที่สามารถยืนยันได้สำหรับเอเยนต์ ดูเหมือนจะเป็น sol จากตอนนี้. ยังมีโครเพสเซสเซอร์ที่ใช้สถานะภาพที่เป็นศูนย์ซีโรนออกฤทธิ์ (ZKPs) สำหรับการทำสแนปท็อตสเเตตเปลี่ยน (แทนที่จะตรวจสอบการคำนวณแบบเต็ม) ที่เรายังพบว่าเป็นไปได้ในช่วงกลางรอบ.
    แนวทางที่เป็นอุดมคติมากขึ้นสําหรับปัญหาเดียวกันพยายามตรวจสอบการอนุมานนอกเครือข่ายเพื่อนํามาเทียบเคียงกับการคํานวณแบบ on-chain ในแง่ของสมมติฐานความน่าเชื่อถือ เป้าหมายของสิ่งนี้ควรอนุญาตให้ AI ทํางานทั้งในและนอกเครือข่ายเช่นเดียวกับในสภาพแวดล้อมรันไทม์ที่สอดคล้องกันในมุมมองของเรา อย่างไรก็ตามผู้เสนอการตรวจสอบการอนุมานส่วนใหญ่พูดถึง "การไว้วางใจน้ําหนักแบบจําลอง" และเป้าหมายที่มีขนดกอื่น ๆ ในลักษณะเดียวกันซึ่งมีความเกี่ยวข้องจริงในปีหากเคย เมื่อเร็ว ๆ นี้ผู้ก่อตั้งในค่ายนี้เริ่มสํารวจ วิธีการทดแทนเพื่อการอ้างอิงความเชื่อถือได้ แต่เดิมมันทั้งหมดเป็นที่พึ่ง ZKP-based ขณะที่ทีมงานหลายทีมที่ฉลาดกำลังทำงานกับ ZKML หรือที่เรียกว่ามันเริ่มต้น พวกเขากำลังเริ่มเอาความเสี่ยงที่ใหญ่เกินไปโดยคาดหวังว่าการปรับปรุงความปลอดภัยของ crypto จะเร็วกว่าความซับซ้อนและความต้องการของการคำนวณของ AI models เราจึงถือว่าพวกเขาไม่เหมาะสมสำหรับการแข่งขัน อย่างน้อยในขณะนี้ แต่@ModulusLabs/chapter-14-the-worlds-1st-on-chain-llm-7e389189f85e">some recent progress is interesting and shouldn’t be ignored.

Semi-legitimate:

  • แอปสําหรับผู้บริโภคที่ใช้กระดาษห่อรอบโมเดลแบบปิดและโอเพ่นซอร์ส (เช่น Stable Diffusion หรือ Midjourney สําหรับการสร้างภาพ) ทีมเหล่านี้บางทีมเป็นคนแรกที่ออกสู่ตลาดและมีแรงฉุดของผู้ใช้จริง ดังนั้นจึงไม่ยุติธรรมที่จะเรียกพวกเขาว่าปลอม แต่มีเพียงไม่กี่คนที่คิดอย่างลึกซึ้งเกี่ยวกับวิธีที่ทั้งสองจะพัฒนาโมเดลพื้นฐานของพวกเขาในแฟชั่นแบบกระจายอํานาจและสร้างสรรค์นวัตกรรมในการออกแบบสิ่งจูงใจ มีการหมุนการกํากับดูแล / ความเป็นเจ้าของที่น่าสนใจในองค์ประกอบโทเค็นที่นี่และที่นั่น แต่โครงการส่วนใหญ่ในหมวดหมู่นี้เพียงแค่ตบโทเค็นที่ห่อหุ้มแบบรวมศูนย์นอกเหนือจากเช่น OpenAI API เพื่อรับค่าพรีเมียมการประเมินมูลค่าหรือสภาพคล่องที่เร็วขึ้นสําหรับทีม

สิ่งที่ไม่มีใครในสองค่ายด้านบนกล่าวถึงคือการฝึกอบรมและการอินเฟอเรนซ์สำหรับโมเดลขนาดใหญ่ในการตั้งค่าแบบกระจาย ณ ขณะนี้ยังไม่มีวิธีในการฝึกโมเดลพื้นฐานในเวลาที่เหมาะสมโดยไม่ต้องพึ่งพากลุ่มฮาร์ดแวร์ที่เชื่อมต่ออย่างแน่นหนา “เวลาที่เหมาะสม” โดยดูจากระดับการแข่งขันเป็นปัจจัยสำคัญ

บ้าง การวิจัยที่มีความเป็นมั่น ในหัวข้อได้ออกมาเมื่อเร็ว ๆ นี้และในทางทฤษฎีแนวทางเช่น การไหลข้อมูลทางแตกต่างอาจถูกขยายเป็นเครือข่ายคอมพิวเตอร์แบบกระจายเพื่อเพิ่มประสิทธิภาพในอนาคต (เมื่อความสามารถในการเชื่อมต่อเครือข่ายได้รับการปรับปรุงตามความต้องการของการสตรีมข้อมูล) แต่การฝึกโมเดลแบบแข่งขันยังต้องการการสื่อสารระหว่างกลุ่มที่ตั้งต่างกัน ไม่ใช่อุปกรณ์กระจายเดี่ยว และการคำนวณขั้นสูง (GPU ขายปลีกกำลังเริ่มไม่แข่งขัน)

การวิจัยเพื่อการท้องถิ่น (หนึ่งในวิธีทั้งสองของการกระจาย) ที่ลดขนาดโมเดลในการอ่านความหมาย ก็ได้รับการวิจัยเช่นกันก้าวหน้าเร็ว, แต่ยังไม่มีโปรโตคอลที่มีอยู่ใน Web3 ที่ใช้มัน

ปัญหาที่เกิดขึ้นกับการฝึกอบรมแบบกระจายและการออกข้อมูลตามตรรกะนำเราสู่ค่ายสุดท้ายและสำคัญที่สุด และเพราะฉะนั้นมันเป็นเรื่องที่กระตุ้นอารมณ์ของเรามากที่สุด ;-)

Fakers:

  • แอปพลิเคชันโครงสร้างพื้นฐานส่วนใหญ่อยู่ในพื้นที่เซิร์ฟเวอร์แบบกระจายอํานาจโดยนําเสนอฮาร์ดแวร์เปลือยกระดูกหรือสภาพแวดล้อมการฝึกอบรม / โฮสต์โมเดลแบบกระจายอํานาจ นอกจากนี้ยังมีโครงการโครงสร้างพื้นฐานซอฟต์แวร์ที่ผลักดันโปรโตคอลเช่นการเรียนรู้แบบรวมศูนย์ (การฝึกอบรมโมเดลแบบกระจายอํานาจ) หรือโครงการที่รวมทั้งส่วนประกอบซอฟต์แวร์และฮาร์ดแวร์ไว้ในแพลตฟอร์มเดียวซึ่งสามารถฝึกอบรมและปรับใช้โมเดลแบบกระจายอํานาจได้ตั้งแต่ต้นจนจบ ส่วนใหญ่ขาดความซับซ้อนที่จําเป็นในการแก้ไขปัญหาที่ระบุไว้จริง ๆ และความคิด "โทเค็นจูงใจ + ลมหางตลาด" ที่ไร้เดียงสามีชัยที่นี่ ไม่มีโซลูชันใดที่เราเคยเห็นทั้งในตลาดภาครัฐและเอกชนที่ใกล้เคียงกับการแข่งขันที่มีความหมายที่นี่และตอนนี้ บางคนอาจพัฒนาเป็นข้อเสนอที่ใช้งานได้ (แต่เฉพาะกลุ่ม) แต่เราต้องการสิ่งที่สดใหม่และแข่งขันได้ที่นี่และตอนนี้ และสามารถเกิดขึ้นได้ผ่านการออกแบบที่เป็นนวัตกรรมใหม่ที่จัดการกับปัญหาคอขวดในการประมวลผลแบบกระจาย ในการฝึกอบรมไม่เพียง แต่ความเร็ว แต่ยังตรวจสอบความถูกต้องของงานที่ทําและการประสานงานของปริมาณงานการฝึกอบรมเป็นปัญหาใหญ่ซึ่งเพิ่มคอขวดแบนด์วิดธ์

เราต้องการชุดของแบบจำลองที่แข่งขันและแท้จริงที่มีพื้นฐานและต้องการการฝึกและการอุทิศที่กระจายเพื่อทำงาน การสูญเสีย AI อาจยกเลิกความสำเร็จใด ๆ และทั้งหมด "คอมพิวเตอร์โลกที่กระจาย" ที่ได้รับตั้งแต่การเริ่มต้นของ Ethereum หากคอมพิวเตอร์กลายเป็น AI และ AI ถูกกลายเป็นส่วนกลายจะไม่มีคอมพิวเตอร์โลกที่จะพูดถึงนอกจากเวอร์ชันทวีปอพยพบางแห่ง

การฝึกและการใช้ประโยชน์เป็นหัวใจของนวัตกรรม AI ขณะที่โลก AI อื่น ๆ กำลังเคลื่อนไหวไปสู่สถาปัตยกรรมที่แน่นและเชื่อมต่อมากขึ้น เว็บ 3 ต้องการทางอ้อมซึ่งเป็นคำตอบที่แตกต่างเพื่อแข่งขัน เพราะการแข่งขันหัวหน้ากันกำลังกลายเป็นสิ่งที่ไม่สามารถทำได้เร็วขึ้น

ขนาดของปัญหา

มันเป็นเรื่องของการคำนวณ มีเสถียรภาพมากขึ้นเมื่อคุณใช้คำนวณทั้งการฝึกและการอินเฟอเรนซ์มากขึ้น ใช่ มีการปรับแต่งและการปรับปรุงที่นี่และที่นั่น และการคำนวณเองไม่ได้มีความเหมือนกัน - มีวิธีการใหม่ที่หลากหลายเพื่อเอาอุปกรณ์ประมวลผลแบบ Von Neumann แบบดั้งเดิมมาทำงานได้ดีขึ้น - แต่ก็ยังยากที่จะคำนวณว่าคุณสามารถทำการคูณเมทริกซ์ได้เท่าไหร่บนชิ้นหน่วยความจำขนาดใหญ่และเร็วเท่าใด

นั้นเป็นเหตุผลที่เราเห็นการก่อสร้างที่แข็งแกร่งบนด้านศูนย์ข้อมูลโดย "Hyperscalers" ทั้งหมดที่กำลังมองหาว่าจะสร้าง full stack ด้วยโมเดล AI powerhouse ที่ด้านบนและฮาร์ดแวร์ที่จะขับเคลื่อนด้านล่าง: OpenAI(models)+Microsoft(compute), Anthropic(models)+AWS(compute), Google (ทั้งคู่) และ Meta (เพิ่มขึ้นทั้งคู่ผ่านการเพิ่มเติมในการก่อสร้างศูนย์ข้อมูลของตนเอง)

เราเพียงแค่มองไปที่ระดับการก่อสร้างที่คาดหวังในปีนี้เพียงอย่างเดียวจาก 4 บริษัท:

  • Meta anticipates $30-37bnค่าใช้จ่ายในการลงทุนในปี 2024 ซึ่งเป็นไปได้ว่าจะเน้นไปที่ศูนย์ข้อมูลอย่างมาก
  • Microsoft ใช้เงินประมาณ 11.5 พันล้านดอลลาร์ในปี 2023ใน CapEx และมีข่าวลือว่าจะลงทุนเพิ่มอีก $40-50 พันล้านในปี '24-'25 สิ่งนี้สามารถถือว่าเป็นการคาดการณ์บางส่วนจากการลงทุนในศูนย์ข้อมูลขนาดใหญ่ที่ประกาศในประเทศไม่กี่ประเทศ$3.2bในสหราชอาณาจักร$3.5bnในออสเตรเลีย, $2.1bnในสเปน,€3.2bnในเยอรมนี,$1bnในรัฐอเมริกาของจอร์เจียและ$10bnในวิสคอนซิน ตามลำดับ และนั่นเพียงเพียงบางส่วนของการลงทุนในภูมิภาคจากเครือข่ายของพวกเขาที่มีจำนวนศูนย์ข้อมูล 300 แห่งที่กระจายอยู่ใน 60+ ภูมิภาค นอกจากนี้ยังมีพูดคุยของ supercomputer สำหรับ OpenAI ที่อาจทำให้ Microsoft เสียเงินอีก $100 พันล้าน!
  • คณะผู้บริหาร Amazonคาดหวังคาดว่าค่าใช้จ่ายในการลงทุน (CapEx) ของพวกเขาจะเติบโตอย่างมากในปี 2024 จากการใช้จ่ายทั้งหมด 48 พันล้านดอลลาร์ในปี 2023 โดยมีการขับเคลื่อนโดยส่วนใหญ่โดยการขยายพื้นฐานการสร้างอินเฟราสตรัคเจอร์ของ AWS สำหรับ AI
  • Google ใช้จ่าย $11 พันล้านเพื่อขยายขนาดเซิร์ฟเวอร์และศูนย์ข้อมูลของตนในไตรมาสที่ 4 ของปี 2023 เท่านั้น พวกเขาได้ยอมรับว่าการลงทุนเหล่านั้นถูกทำเพื่อตอบสนองต่อความต้องการของ AI ที่คาดว่าจะเพิ่มขึ้น และคาดว่าอัตราการใช้จ่ายโครงสร้างพื้นฐานและขนาดรวมจะเพิ่มขึ้นอย่างมีนัยสำคัญในปี 2024 เนื่องจาก AI

และนี่คือจำนวนเงินที่ถูกใช้ในฮาร์ดแวร์ AI ของ NVIDIA ไปแล้วในปี 2023:

Jensen Huang, รองประธานบริหารของ NVIDIA, ได้เสนอจำนวนเงินรวม 1 ล้านล้านเหรียญให้เทในการระงับการเร่งความเร็วของ AI ในปีหลายปีข้างหน้า คำทำนายที่เขาทำล่าสุดเพิ่มขึ้นสองเท่า ถึง $2 ล้านล้าน, ซึ่งเชื่อว่าถูกกระตุ้นโดยความสนใจที่เขาเห็นจากผู้เล่นซอเวรันที่เข้ามาเล่นในตลาด นักวิเคราะห์ที่ Altimeter คาดว่าการลงทุนในศูนย์ข้อมูลเชื่อมต่อข้อมูลที่เกี่ยวข้องกับ AI ทั่วโลกจะมีมูลค่าประมาณ $160 พันล้านและมากกว่า $200 พันล้านในปี '24 และ '25 ตามลำดับ

ตอนนี้เพื่อเปรียบเทียบตัวเลขเหล่านี้กับสิ่งที่ Web3 มีเสนอให้ผู้ประกอบการศูนย์ข้อมูลอิสระเพื่อกระตุ้นให้พวกเขาขยาย CapEx บนฮาร์ดแวร์ AI ล่าสุด:

  • มูลค่าทางตลาดรวมของโครงการโครงสร้างพื้นฐานที่ไม่มีกลาง (DePIn) ทั้งหมดอยู่ที่ประมาณ 40 พันล้านเหรียญในตลาดที่ไม่สามารถหมุนเวียนได้และเป็นลำดับแรกในการพิสูจน์. พื้นฐาน, มูลค่าตลาดของเครือข่ายเหล่านี้เท่ากับการประมาณภูมิลักษณ์สูงสุดของ CapEx รวมของผู้มีส่วนได้ส่วนเสีย, เนื่องจากสร้างสร้างนี้ด้วยตัวนั้น. แต่ค่า mcap ปัจจุบันเกือบไม่มีประโยชน์เพราะมันได้รับการออกแล้ว
  • ดังนั้นเราจึงสมมติว่ามีเงินทุน DePIn ของภาครัฐและเอกชนอีก $80 พันล้าน (2 เท่าของมูลค่าที่มีอยู่) ที่เข้าสู่ตลาดเป็นกำลังสร้างสรรค์ในระยะเวลา 3-5 ปีถัดไปและสมมติว่ามูลค่านี้ 100% จะใช้สำหรับกรณีใช้งาน AI ทั้งหมด

แม้ว่าเราจะนำการประมาณค่าที่แข็งแรงนี้หารด้วย 3 (ปี) แล้วเปรียบเทียบค่าดอลลาร์ของมันกับเงินสดที่เกิดขึ้นจริงๆ โดยเฉพาะด้าน Hyperscalers ในปี 2024 เท่านั้น ก็ยังชัดเจนว่าการให้สิทธิ์ต่อเหรียญที่ให้กำลังบันทึกในโครงการ “decentralized GPU network” ไม่เพียงพอ

นอกจากนี้ยังต้องมีความต้องการของนักลงทุนมูลค่าหลายพันล้านดอลลาร์เพื่อดูดซับเหรียญเหรียญเหล่านี้ เนื่องจากผู้ดำเนินการของเครือข่ายเช่นนี้ขายเหรียญที่ขุดได้มากๆเพื่อครอบคลุมค่าใช้จ่ายสำคัญของ Cap- และ OpEX และอีกหลายพันล้านเพื่อผลักดันเหรียญเหล่านั้นสูงขึ้นและสร้างสรรค์การเติบโตในการสร้างเพื่อการแข่งขันกับ Hyperscalers

อย่างไรก็ตาม บางคนที่มีความรู้ลึกเกี่ยวกับวิธีการทำงานของเซิร์ฟเวอร์ Web3 ส่วนใหญ่ในปัจจุบันอาจคาดหวังว่าส่วนใหญ่ของ "โครงสร้างพลังงานที่มีลักษณะที่กระจาย" จะเริ่มทำงานจริงๆ บนบริการคลาวด์ของ Hyperscalers เหล่านั้น และแน่นอนว่าการเพิ่มขึ้นของ GPU และอุปกรณ์ฮาร์ดแวร์ที่เชื่อมโยงกับ AI อื่นๆ กำลังขับเคลื่อนการเพิ่มขึ้นของสินค้ามากขึ้น ซึ่งในที่สุดควรจะทำให้เช่าคลาวด์หรือซื้อมันถูกลงมากขึ้น อย่างน้อยก็นั่นคือความคาดหวัง

แต่ก็ควรพิจารณาสิ่งนี้ด้วย: ณ ขณะนี้ NVIDIA ต้องการจัดลำดับลูกค้าสำหรับ GPU รุ่นล่าสุดของตนเองอย่างสำคัญด้วยเริ่มแข่งขันกับผู้ให้บริการคลาวด์ที่ใหญ่ที่สุดบนพื้นที่ของพวกเขาเอง - การเสนอบริการแพลตฟอร์ม AI ให้กับลูกค้าธุรกิจที่อยู่ในฐานะผู้ใช้บริการ Hyperscalers เหล่านั้นอยู่แล้ว ซึ่งในที่สุดจะกระตุ้นให้มันเพิ่มการสร้างศูนย์ข้อมูลของตัวเองไปตามเวลา (โดยกินกำไรของมันไปอย่างมากที่มันได้เพลิดเพลินอยู่ในขณะนี้ ดังนั้นเป็นไปได้น้อยลง) หรือจำกัดการขายฮาร์ดแวร์ AI ของพวกเขาอย่างมีนัยสำคัญเพียงแค่ให้แก่ผู้ให้บริการคลาวด์ในเครือข่ายคู่ค้าของพวกเขา

นอกจากนี้ คู่แข่งของ NVIDIA ที่เข้ามาพร้อมกับฮาร์ดแวร์ที่เชี่ยวชาญด้าน AI เพิ่มเติมส่วนใหญ่ใช้ชิปเดียวกับ NVIDIAผลิตโดย TSMC. ดังนั้นโดยพื้นฐานแล้ว บริษัท ฮาร์ดแวร์ AI ทั้งหมดในปัจจุบัน การแข่งขันสำหรับความสามารถของ TSMCTSMC ต้องมีลำดับความสำคัญในการบริการลูกค้าบางรายกว่ารายอื่น ๆ ซัมซุงและอินเทล (ซึ่งกำลังพยายามกลับมาใช้เทคโนโลยีการผลิตชิประดับระดับสูงสำหรับฮาร์ดแวร์ของตัวเองในเร็ว ๆ นี้) อาจสามารถรับผิดชอบความต้องการเพิ่มเติมได้ แต่ TSMC กำลังผลิตชิปที่เกี่ยวข้องกับ AI ในขณะนี้เป็นส่วนใหญ่และการปรับขนาดและการปรับแต่งเทคโนโลยีการผลิตชิปที่ทันสมัย (3 และ 2 นาโนเมตร) ใช้เวลาหลายปี

นอกจากนี้การผลิตชิปล่าสุดทุกอย่างในขณะนี้ถูกทำข้างต้นอยู่ใกล้ชายฝั่งไต้หวันโดย TSMC ในไต้หวันและ Samsung ในเกาหลีใต้ ที่มีความเสี่ยงจากการเกิดความขัดแย้งทางทหารก่อนที่สถานที่ที่สร้างขึ้นในสหรัฐเพื่อเบี้ยวเบียยนี้ (และไม่คาดหวังว่าจะผลิตชิปรุ่นใหม่สำหรับอีกไม่กี่ปี) อาจถูกเปิดใช้งาน

และในที่สุด จีนที่ถูกตัดออกจากฮาร์ดแวร์ AI รุ่นล่าสุดเนื่องจากข้อจำกัดที่ใช้บังคับ NVIDIA และ TSMC โดยสหรัฐ กำลังแข่งขันสำหรับการคำนวณที่เหลือที่พร้อมใช้งานเหมือนกับเครือข่าย DePIn ของ Web3 เทียบกับ Web3 บริษัทจีนมีแบบจำลองแข่งขันของตนเอง โดยเฉพาะ LLMs จาก เช่น บายดู และ อีกาบาบา ซึ่งต้องการอุปกรณ์รุ่นก่อนหน้าเพื่อให้ทำงาน

ดังนั้นจึงมีความเสี่ยงที่ไม่มีสาระสําคัญเนื่องจากเหตุผลหนึ่งที่ระบุไว้ข้างต้นหรือการบรรจบกันของปัจจัย Hyperscalers เพียงแค่ จํากัด การเข้าถึงฮาร์ดแวร์ AI ของพวกเขาไปยังบุคคลภายนอกเนื่องจากสงครามการครอบงําของ AI ทวีความรุนแรงขึ้นและมีความสําคัญเหนือธุรกิจคลาวด์ โดยพื้นฐานแล้วมันเป็นสถานการณ์ที่พวกเขาใช้ความจุคลาวด์ที่เกี่ยวข้องกับ AI ทั้งหมดสําหรับการใช้งานของตนเองและไม่เสนอให้คนอื่นอีกต่อไปในขณะเดียวกันก็ใช้ฮาร์ดแวร์ใหม่ล่าสุดทั้งหมด สิ่งนี้เกิดขึ้นและอุปทานการประมวลผลที่เหลือจะเข้าสู่ความต้องการที่สูงขึ้นโดยผู้เล่นรายใหญ่อื่น ๆ รวมถึงอธิปไตย ในขณะที่ GPU ระดับผู้บริโภคที่เหลืออยู่มีการแข่งขันน้อยลงเรื่อย ๆ

โดยชัดเจนว่านี่เป็นสถานการณ์สุดสุด แต่รางวัลมีค่ามากเกินไปสำหรับผู้เล่นใหญ่ที่จะยอมตัวลงในกรณีที่ปัญหา bottleneck ของฮาร์ดแวร์ยังคงอยู่ สถานการณ์นี้ทำให้ผู้ดำเนินการที่ไม่มีการcentralize เช่น tier 2 ของศูนย์ข้อมูลและเจ้าของฮาร์ดแวร์ grade ระดับการค้าปลีกที่มีบทบาทสำคัญในการให้บริการ DePIn ของ Web3 มากที่สุด ถูกปล่อยอยู่นอกจากการแข่งขัน

ด้านตรงข้ามของเหรียญ

ขณะที่ผู้ก่อตั้งสกุลเงินดิจิทัลหลับในระบบ ผู้เชี่ยวชาญด้าน AI กำลังสังเกตการณ์สกุลเงินดิจทัลอย่างใกล้ชิดความกดดันจากรัฐบาล และการแข่งขันอาจผลักดันให้พวกเขานํา crypto มาใช้เพื่อหลีกเลี่ยงการปิดตัวลงหรือควบคุมอย่างเข้มงวด

ผู้ก่อตั้ง Stability AI เร็ว ๆ นี้ลาออกเพื่อเริ่มต้นการ "decentralizing" บริษัทของเขาเป็นหนึ่งในคำใบ้แรกในสาธารณะเรื่องนั้น เขาได้ก่อนหน้านี้ไม่ปกปิดแผนการเปิดตัวโทเค็นในที่ปรากฏให้คนรู้ แต่เพียงหลังจากที่ IPO ของ บริษัท สำเร็จ - ซึ่งเป็นการเปิดเผยแรงจูงใจจริงๆ ของการเคลื่อนไหวที่คาดหวัง

ในทำนองเดียวกัน ในขณะที่ Sam Altman ไม่มีส่วนร่วมในด้านการดำเนินการของโครงการด้านคริปโตที่เขาร่วมก่อตั้ง Worldcoin แท็กเคนของมันในความแน่นอนถือว่าเทรดเหมือนหุ้นตัวแทนของ OpenAI ไม่ว่าจะมีหรือไม่เส้นทางเชื่อมต่อ โครงการเงินอินเทอร์เน็ตฟรีกับโครงการ AI R&D เวลาเท่านั้นที่จะบอก แต่ทีม Worldcoin ดูเหมือนว่าจะยัง รับรองว่าตลาดกำลังทดสอบสมมติฐานนี้

มันสมเหตุสมผลมากสําหรับเราที่ยักษ์ใหญ่ AI อาจสํารวจเส้นทางที่แตกต่างกันในการกระจายอํานาจ ปัญหาที่เราเห็นที่นี่อีกครั้งคือ Web3 ไม่ได้สร้างวิธีแก้ปัญหาที่มีความหมาย "โทเค็นการกํากับดูแล" เป็นมีมส่วนใหญ่ในขณะที่มีเพียงโทเค็นที่หลีกเลี่ยงความสัมพันธ์โดยตรงระหว่างผู้ถือสินทรัพย์และการพัฒนาและการดําเนินงานของเครือข่ายอย่างชัดเจน - $ BTC และ $ ETH - เป็นโทเค็นที่กระจายอํานาจอย่างแท้จริงในขณะนี้

สิ่งจูงใจเดียวกัน (dis) ที่ชะลอการพัฒนาเทคโนโลยียังส่งผลต่อการพัฒนาการออกแบบที่แตกต่างกันสําหรับการควบคุมเครือข่าย crypto ทีมสตาร์ทอัพเพียงแค่ตบ "โทเค็นการกํากับดูแล" ที่ด้านบนของผลิตภัณฑ์เพื่อหวังว่าจะคิดออกเมื่อพวกเขารวบรวมโมเมนตัมในขณะที่ในที่สุดก็ติดอยู่ใน "โรงละครการกํากับดูแล" เกี่ยวกับการจัดสรรทรัพยากร

สรุป

การแข่งขัน AI กำลังเริ่มต้น และทุกคนรู้สึกถึงความจริงอย่างจริงจัง พวกเราไม่สามารถระบุข้อบกพร่องในการคิดของบริษัทเทคโนโลยีใหญ่เมื่อเรื่องของการขยายขอบเขตการคำนวณของพวกเขาที่อยู่ในอัตราที่ไม่เคยเคยมีมาก่อน - การคำนวณมากขึ้นหมายความว่า AI ที่ดีขึ้น AI ที่ดีขึ้นหมายความว่าลดต้นทุน การเพิ่มรายได้ใหม่และขยายตลาดการครอบครองแบบนี้หมายความว่าฟองสบู่ถูกอนุรักษ์ แต่ผู้เล่นที่ปลอมจะยังคงถูกล้างออกในการสะเทินที่ไม่อาจหลีกเลี่ยงล่วงหน้า

บริษัท AI ขนาดใหญ่ที่มีจุดเด่นอยู่ในธุรกิจและ สตาร์ทอัพที่ถูกต้องพบว่ามันยากที่จะทำความเข้าใจ พื้นที่ Web3 ได้มาช้าเพื่อเข้าร่วมในการแข่งขัน ตลาดกำลังตอบแทนโครงการ AI ที่เกี่ยวข้องกับสกุลเงินดิจิทัลมากเกินไปเมื่อเทียบกับ สตาร์ทอัพในพื้นที่ Web2 ซึ่งส่งผลให้ความสนใจของผู้ก่อตั้งหันไปที่การขายโทเคนในจุดที่สำคัญเมื่อหน้าต่างของโอกาสในการทำให้ตาจับได้กำลังปิดลงอย่างรวดเร็ว จนถึงตอนนี้ยังไม่มีนวัตกรรมที่ต่างจากกันที่วงเวียนโดยรอบที่ยุบเพิ่มขึ้นไปยังขนาดที่ใหญ่เพื่อที่จะแข่งขัน

มีการเคลื่อนไหวของ open source ที่น่าเชื่อถือตอนนี้ ในระดับโมเดลที่เผชิญหน้ากับผู้บริโภค ซึ่งเริ่มมีการเปิดตัวด้วยผู้เล่นที่มีการกำหนดเองเพียงบางราย ที่เลือกที่จะแข่งขันกับคู่แข่งที่ของเชิญเข้ามามากกว่าสำหรับการแบ่งตลาด (เช่น Meta, Stability AI) แต่ตอนนี้ชุมชนกำลังทำการเรียนรู้และสร้างความกดดันต่อบริษัท AI ชั้นนำ เรื่อนนี้ความกดดันเหล่านี้จะยังคงส่งผลต่อการพัฒนาของผลิตภัณฑ์ AI แบบ closed-source แต่ไม่มีผลอย่างมีนัยสำคัญจนกว่า open source จะเป็นฝั่งที่เรียนรู้ นี่เป็นโอกาสใหญ่อีกอันหนึ่งสำหรับพื้นที่ Web3 แต่ก็ต่อเมื่อมันแก้ไขสำหรับการฝึกอบรมแบบโมเดลและการอ้างอิงที่มีการกระจาย

ดังนั้นในขณะที่บนพื้นผิว "คลาสสิก" เปิดสําหรับ disruptors มีอยู่ความเป็นจริงไม่สามารถเพิ่มเติมจากการสนับสนุนพวกเขา AI ส่วนใหญ่เชื่อมโยงกับการคํานวณและไม่มีอะไรที่สามารถเปลี่ยนแปลงได้เกี่ยวกับมันขาดนวัตกรรมที่ก้าวหน้าในอีก 3-5 ปีข้างหน้าซึ่งเป็นช่วงเวลาสําคัญในการพิจารณาว่าใครเป็นผู้ควบคุมและควบคุมการพัฒนา AI

การคำนวณตลาดเอง แม้ว่าความต้องการจะส่งผลให้มีความพยายามในด้านการผลิตมากขึ้น ก็ไม่สามารถให้“บังคับให้รอดวงหนึ่ง” ได้ด้วยการแข่งขันระหว่างผู้ผลิตที่ถูกจำกัดด้วยปัจจัยโครงสร้างเช่นการผลิตชิปและประสิทธิภาพของมาตราส่วน

เรายังคงมองโลกในแง่ดีเกี่ยวกับความเฉลียวฉลาดของมนุษย์และมั่นใจว่ามีคนฉลาดและมีเกียรติเพียงพอที่จะพยายามถอดรหัสพื้นที่ปัญหา AI ในลักษณะที่เอื้อต่อโลกเสรีเหนือการควบคุมขององค์กรหรือรัฐบาลจากบนลงล่าง แต่อัตราต่อรองนั้นดูบางมากและเป็นการโยนเหรียญที่ดีที่สุด แต่ผู้ก่อตั้ง Web3 กําลังยุ่งอยู่กับการพลิกเหรียญเพื่อการเงินมากกว่าผลกระทบในโลกแห่งความเป็นจริง

หากคุณกำลังสร้างสิ่งที่เจ๊ง ๆ เพื่อช่วยเพิ่มโอกาสของ Web3 และไม่ใช่แค่ขี่คลื่นโฮป ติดต่อเรา

คำปฏิเสธ:

  1. บทความนี้ถูกพิมพ์ซ้ำจาก [Gategagra.vc], All copyrights belong to the original author [gagra.vc]. If there are objections to this reprint, please contact the Gate Learnทีม และพวกเขาจะดำเนินการโดยเร็ว
  2. คำโต้แย้งความรับผิด: มุมมองและความคิดเห็นที่แสดงในบทความนี้เป็นเพียงของผู้เขียนเท่านั้น และไม่เป็นที่สร้างสรรค์ใด ๆ ของคำแนะนำในการลงทุน
  3. การแปลบทความเป็นภาษาอื่นๆ ทำโดยทีม Gate Learn หากไม่ได้กล่าวถึง การคัดลอก การกระจาย หรือการลอกเลียนบทความที่ถูกแปลนั้นถือเป็นการละเมิดทรัพย์สินทางปัญญา
即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!