Giải thích chi tiết về hạ tầng AI+Web3

Trung cấp3/29/2024, 7:41:47 PM
Các dự án chính tại tầng hạ tầng của ngành công nghiệp AI+Web3 cơ bản đều đưa mạng máy tính phi tập trung làm câu chuyện chính, chi phí thấp là lợi thế chính, khuyến khích token là cách chính để mở rộng mạng lưới, và phục vụ khách hàng AI+Web3 là mục tiêu chính.

Đã chuyển tiêu đề gốc: AI+Web3 Con Đường Phát Triển Tương Lai (2): Chương Về Cơ Sở Hạ Tầng

Cơ sở hạ tầng là hướng phát triển xác định của AI

1. Nhu cầu tính toán AI tăng mạnh

Trong những năm gần đây, nhu cầu về công suất tính toán đã trải qua sự tăng trưởng nhanh chóng, đặc biệt là sau sự xuất hiện của mô hình LLM lớn. Sự bùng nổ này trong nhu cầu về công suất tính toán AI đã ảnh hưởng đáng kể đến thị trường tính toán hiệu suất cao. Dữ liệu từ OpenAI cho thấy một xu hướng đáng chú ý từ năm 2012, với công suất tính toán được sử dụng để huấn luyện các mô hình AI lớn nhất tăng một cách mũi nhọn, tăng gấp đôi mỗi 3-4 tháng trung bình, vượt qua tốc độ tăng trưởng được dự đoán bởi Định luật Moore. Nhu cầu leo thang về ứng dụng AI đã dẫn đến một sự tăng vọt trong nhu cầu về phần cứng tính toán. Dự báo cho thấy vào năm 2025, nhu cầu về phần cứng tính toán được thúc đẩy bởi các ứng dụng AI dự kiến sẽ tăng khoảng 10% đến 15%.

Được thúc đẩy bởi nhu cầu về sức mạnh tính toán AI, nhà sản xuất phần cứng GPU NVIDIA đã chứng kiến sự tăng trưởng liên tục trong doanh thu trung tâm dữ liệu. Trong quý 2 năm 2023, doanh thu trung tâm dữ liệu đạt 10,32 tỷ đô la, đánh dấu sự tăng 141% so với quý 1 năm 2023 và tăng đáng kể 171% so với cùng kỳ năm trước. Đến quý thứ tư của năm tài chính 2024, phân đoạn trung tâm dữ liệu chiếm hơn 83% tổng doanh thu, trải qua sự tăng trưởng đồng thời 409%, với 40% được góp phần bởi các kịch bản suy luận mô hình lớn, cho thấy nhu cầu mạnh mẽ về sức mạnh tính toán cao.

Đồng thời, nhu cầu về lượng dữ liệu lớn đặt ra yêu cầu đáng kể về bộ nhớ lưu trữ và phần cứng. Đặc biệt trong giai đoạn huấn luyện mô hình, việc nhập tham số mở rộng và lưu trữ dữ liệu là không thể thiếu. Các vi mạch nhớ được sử dụng trong máy chủ AI chủ yếu bao gồm bộ nhớ băng thông cao (HBM), DRAM và SSD. Môi trường làm việc cho máy chủ AI phải cung cấp dung lượng tăng cường, hiệu suất nâng cao, giảm độ trễ và thời gian phản hồi nhanh hơn. Theo tính toán của Micron, lượng DRAM trong máy chủ AI vượt xa so với máy chủ truyền thống tới 8 lần, trong khi lượng NAND vượt quá tiêu chuẩn máy chủ truyền thống tới 3 lần.

2. Sự mất cân đối cung-cầu tăng chi phí sức mạnh tính toán

Thường, sức mạnh tính toán được sử dụng chủ yếu trong các giai đoạn huấn luyện, điều chỉnh tinh chỉnh và suy luận của các mô hình AI, đặc biệt là trong các giai đoạn huấn luyện và điều chỉnh tinh chỉnh. Do yêu cầu tham số đầu vào dữ liệu tăng, yêu cầu tính toán và nhu cầu tăng cường kết nối trong tính toán song song, cần có nhiều phần cứng GPU mạnh mẽ và kết nối hơn, thường trong hình thức cụm GPU hiệu suất cao. Khi các mô hình lớn phát triển, độ phức tạp tính toán tăng tuyến tính, đòi hỏi nhiều phần cứng cao cấp hơn để đáp ứng yêu cầu của việc huấn luyện mô hình.

Lấy GPT-3 làm ví dụ, với một tình huống liên quan đến khoảng 13 triệu lượt truy cập người dùng độc lập, nhu cầu chip tương ứng sẽ vượt quá 30.000 A100 GPU. Chi phí đầu tư ban đầu này sẽ đạt con số ấn tượng 800 triệu đô la, với tổng chi phí suy luận mô hình hàng ngày ước lượng khoảng 700.000 đô la.

Đồng thời, các báo cáo trong ngành chỉ ra rằng trong quý IV/2023, nguồn cung GPU của NVIDIA đã bị hạn chế nghiêm trọng trên toàn cầu, dẫn đến sự mất cân bằng đáng chú ý giữa cung và cầu tại các thị trường trên toàn thế giới. Năng lực sản xuất của NVIDIA bị hạn chế bởi các yếu tố như TSMC, HBM, CoWos và "vấn đề thiếu hụt nghiêm trọng" của GPU H100 dự kiến sẽ kéo dài ít nhất đến cuối năm 2024.

Do đó, sự tăng vọt trong nhu cầu về các GPU cao cấp và hạn chế cung đã đẩy giá cả của các thành phần phần cứng hiện tại như GPU lên cao. Đặc biệt đối với các công ty như NVIDIA chiếm vị trí cốt lõi trong chuỗi ngành công nghiệp, giá cao còn được tăng thêm bởi sự thống trị độc quyền của họ, cho phép họ thu được các cổ tức giá trị bổ sung. Ví dụ, chi phí vật liệu của thẻ tăng tốc AI H100 của NVIDIA là khoảng 3.000 đô la, nhưng giá bán của nó đã đạt khoảng 35.000 đô la vào giữa năm 2023 và thậm chí vượt quá 40.000 đô la trên eBay.

3. Cơ sở hạ tầng AI thúc đẩy sự phát triển của chuỗi ngành

Một báo cáo của Grand View Research cho biết kích thước thị trường trí tuệ nhân tạo đám mây toàn cầu được ước lượng là 62,63 tỷ đô la vào năm 2023, dự kiến đạt 647,6 tỷ đô la vào năm 2030, với tỷ lệ tăng trưởng hàng năm kết hợp là 39,6%. Những con số này làm nổi bật tiềm năng tăng trưởng đáng kể của dịch vụ trí tuệ nhân tạo đám mây và đóng góp đáng kể của chúng vào chuỗi ngành công nghiệp trí tuệ nhân tạo tổng thể.

Theo ước lượng của a16z, một phần đáng kể các quỹ trong thị trường AIGC (Trí tuệ nhân tạo và Tính toán Toàn cầu) cuối cùng được dành cho các công ty cơ sở hạ tầng. Trung bình, các công ty ứng dụng chi khoảng 20-40% doanh thu của họ cho suy luận và điều chỉnh tinh chỉnh cho mỗi khách hàng. Chi phí này thường được hướng đến nhà cung cấp đám mây của trường hợp tính toán hoặc nhà cung cấp mô hình bên thứ ba, người sau đó dành khoảng một nửa doanh thu cho cơ sở hạ tầng đám mây. Do đó, hợp lý để giả định rằng 10-20% tổng doanh thu được tạo ra bởi AIGC được hướng đến nhà cung cấp đám mây.

Hơn nữa, một phần đáng kể của nhu cầu về công suất tính toán tập trung vào việc huấn luyện các mô hình AI lớn, bao gồm các mô hình LLM mở rộng khác nhau. Đặc biệt đối với các công ty khởi nghiệp mô hình, 80-90% chi phí được gán cho công suất tính toán AI. Tổng cộng, cơ sở hạ tầng tính toán AI, bao gồm tính toán đám mây và phần cứng, dự kiến sẽ đại diện cho hơn 50% giá trị ban đầu của thị trường.

Tính toán trí tuệ nhân tạo phi tập trung

Như đã thảo luận trước đó, chi phí hiện tại của việc tính toán trí tuệ nhân tạo tập trung vẫn cao, chủ yếu là do nhu cầu ngày càng tăng về cơ sở hạ tầng hiệu suất cao cho việc đào tạo trí tuệ nhân tạo. Tuy nhiên, một lượng lớn sức mạnh tính toán không hoạt động tồn tại trên thị trường, dẫn đến sự không phù hợp giữa cung và cầu. Các yếu tố chính góp phần tạo ra sự mất cân bằng này bao gồm:

  • Bị giới hạn bởi bộ nhớ, độ phức tạp của mô hình không có mối quan hệ tăng trưởng tuyến tính với số lượng GPU cần thiết.: Các GPU hiện tại có lợi thế về sức mạnh tính toán, nhưng đào tạo mô hình đòi hỏi một số lượng lớn các tham số được lưu trữ trong bộ nhớ. Ví dụ, đối với GPT-3, để đào tạo một mô hình với 175 tỷ tham số, hơn 1 terabyte dữ liệu cần được giữ trong bộ nhớ - nhiều hơn bất kỳ GPU nào hiện nay, do đó đòi hỏi nhiều GPU hơn để tính toán và lưu trữ song song. , từ đó sẽ dẫn đến sức mạnh tính toán GPU nhàn rỗi. Ví dụ: từ GPT3 đến GPT4, kích thước tham số mô hình tăng khoảng 10 lần, nhưng số lượng GPU yêu cầu tăng 24 lần (không tính đến việc tăng thời gian đào tạo mô hình). Theo phân tích có liên quan, OpenAI đã sử dụng khoảng 2,15e25 FLOPS trong đào tạo GPT-4 và tiến hành đào tạo trên khoảng 25.000 GPU A100 trong 90 đến 100 ngày, với mức sử dụng sức mạnh tính toán khoảng 32% đến 36%.

Để đáp ứng các thách thức được nêu ở trên, việc thiết kế chip hiệu suất cao hoặc chip ASIC chuyên dụng phù hợp cho các nhiệm vụ trí tuệ nhân tạo đang là một hướng tiếp cận nổi bật được nhiều nhà phát triển và doanh nghiệp lớn khám phá. Một cách tiếp cận khác liên quan đến việc sử dụng toàn diện các tài nguyên máy tính hiện có để xây dựng một mạng tính phân tán, nhằm giảm chi phí sức mạnh tính toán thông qua việc cho thuê, chia sẻ và sắp xếp tài nguyên hiệu quả. Ngoài ra, thị trường hiện nay có dư thừa các GPU và CPU cấp tiêu dùng không hoạt động. Mặc dù từng đơn vị có thể thiếu sức mạnh tính toán mạnh mẽ, chúng có thể đáp ứng hiệu quả các yêu cầu tính toán hiện tại trong các kịch bản cụ thể hoặc khi tích hợp với chip hiệu suất cao. Quan trọng nhất, đảm bảo cung cấp đầy đủ là điều cần thiết, vì chi phí có thể được giảm bớt hơn nữa thông qua lịch trình mạng phân tán.

Do đó, việc chuyển đổi sang lực lượng tính toán phân tán đã trở thành một hướng đi quan trọng trong việc tiến bộ cơ sở hạ tầng AI. Đồng thời, với sự phù hợp khái niệm giữa Web3 và hệ thống phân tán, các mạng lực lượng tính toán phi tập trung đã trở thành một trọng tâm chính trong cảnh quan cơ sở hạ tầng Web3+AI. Hiện nay, các nền tảng lực lượng tính toán phi tập trung trong thị trường Web3 nói chung cung cấp giá cả thấp hơn khoảng 80%-90% so với dịch vụ lưu trữ đám mây tập trung.

Trong khi lưu trữ đóng vai trò quan trọng trong cơ sở hạ tầng AI, lưu trữ tập trung mang lại những lợi ích đặc biệt về quy mô, khả năng sử dụng và độ trễ thấp. Tuy nhiên, do tính hiệu quả về chi phí đáng kể mà họ cung cấp, các mạng tính toán phân tán mang lại tiềm năng thị trường đáng kể và có thể thu được những lợi ích đáng kể từ sự mở rộng thị trường AI đang nảy nở.

  • Việc suy luận mô hình và việc huấn luyện mô hình nhỏ đại diện cho các tình huống cơ bản cho sức mạnh tính toán phân tán hiện tại. Sự phân tán của tài nguyên tính toán trong các hệ thống phân tán không thể tránh khỏi việc đưa ra thách thức về giao tiếp giữa các GPU, có thể dẫn đến hiệu suất tính toán giảm đi. Do đó, sức mạnh tính toán phân tán phù hợp nhất cho các tình huống đòi hỏi giao tiếp tối thiểu và có thể hỗ trợ hiệu quả các nhiệm vụ song song. Các tình huống này bao gồm giai đoạn suy luận của các mô hình AI phức tạp và các mô hình nhỏ với số lượng tham số tương đối ít, giảm thiểu tác động đến hiệu suất. Nhìn vào tương lai, khi các ứng dụng AI phát triển, lý do trí tuệ trở thành yêu cầu quan trọng ở tầng ứng dụng. Xét đến việc hầu hết các công ty thiếu khả năng tự huấn luyện các mô hình lớn, sức mạnh tính toán phân tán vẫn giữ lại tiềm năng thị trường lớn trong dài hạn.
  • Có sự gia tăng của các framework đào tạo phân tán hiệu suất cao dành cho tính toán song song quy mô lớn. Các framework tính toán phân tán mã nguồn mở sáng tạo như PyTorch, Ray và DeepSpeed đang cung cấp cho các nhà phát triển sự hỗ trợ cơ bản mạnh mẽ để tận dụng sức mạnh tính toán phân tán trong việc đào tạo mô hình. Sự tiến bộ này nâng cao tính ứng dụng của sức mạnh tính toán phân tán trên thị trường AI trong tương lai, tạo điều kiện cho việc tích hợp nó vào các ứng dụng AI khác nhau.

Cấu trúc logic truyện của các dự án cơ sở hạ tầng AI+Web3

Ngành cơ sở hạ tầng trí tuệ nhân tạo phân tán thể hiện nhu cầu mạnh mẽ và triển vọng tăng trưởng dài hạn đáng kể, khiến nó trở thành một lĩnh vực hấp dẫn đối với vốn đầu tư. Hiện tại, các dự án chính trong lớp cơ sở hạ tầng ngành công nghiệp AI+Web3 chủ yếu tập trung vào mạng máy tính phân tán. Các dự án này nhấn mạnh chi phí thấp là một ưu điểm chính, sử dụng động lực token để mở rộng mạng lưới của họ và ưu tiên phục vụ khách hàng AI+Web3 là mục tiêu chính của họ. Ngành này chủ yếu bao gồm hai cấp độ chính:

  1. Một nền tảng chia sẻ và cho thuê tài nguyên máy chủ đám mây phi tập trung tương đối thuần túy: Các dự án AI sớm như Render Network, Akash Network, và những dự án khác, thuộc vào danh mục này.
  • Ưu thế cạnh tranh chính trong ngành này nằm ở nguồn lực công nghệ thông tin, cho phép truy cập vào một loạt các nhà cung cấp đa dạng, thiết lập mạng lưới nhanh chóng, và các sản phẩm thân thiện với người dùng. Các nhà tham gia thị trường sớm như các công ty dịch vụ máy chủ điện toán đám mây và người đào đều có vị thế tốt để tận dụng cơ hội này.
  • Với ngưỡng sản phẩm thấp và khả năng ra mắt nhanh chóng, các nền tảng đã được xác định như Mạng Render và Mạng Akash đã thể hiện sự phát triển đáng chú ý và giữ được lợi thế cạnh tranh.
  • Tuy nhiên, những người mới gia nhập thị trường đối mặt với thách thức về sự đồng nhất của sản phẩm. Xu hướng hiện tại và mức ngưỡng thấp đã dẫn đến sự tràn vào của các dự án tập trung vào sức mạnh tính toán chia sẻ và cho thuê. Mặc dù những ưu đãi này thiếu sự phân biệt, nhưng có một nhu cầu ngày càng tăng về lợi thế cạnh tranh độc đáo.
  • Các nhà cung cấp thường nhắm đến khách hàng có nhu cầu tính toán cơ bản. Ví dụ, Render Network chuyên về dịch vụ kết xuất, trong khi Akash Network cung cấp tài nguyên CPU nâng cao. Mặc dù việc cho thuê tài nguyên tính toán đơn giản đủ cho các nhiệm vụ trí tuệ nhân tạo cơ bản, nhưng nó không đáp ứng đầy đủ nhu cầu toàn diện của các quy trình trí tuệ nhân tạo phức tạp như huấn luyện, điều chỉnh và suy luận.
  1. Với dịch vụ luồng công nghiệp hóa tính toán phi tập trung và học máy, nhiều dự án mới nổi gần đây đã đảm bảo được nguồn vốn đáng kể, bao gồm Gensyn, io.net, Ritual, và những dự án khác.
  • Tính toán phi tập trung nâng cao cơ sở định giá trong ngành công nghiệp. Khi sức mạnh tính toán đứng như câu chuyện quyết định trong phát triển trí tuệ nhân tạo, các dự án có căn cứ trên sức mạnh tính toán thường tự hào về mô hình kinh doanh mạnh mẽ và tiềm năng cao hơn, dẫn đến định giá cao hơn so với các dự án trung gian thuần túy.
  • Các dịch vụ tầng trung thiết lập những lợi thế đặc sắc. Các dịch vụ được cung cấp bởi tầng trung tạo ra những lợi thế cạnh tranh cho cơ sở hạ tầng tính toán này, bao gồm các chức năng như nguồn thông tin và xác minh viên hỗ trợ đồng bộ hóa tính toán trên và ngoài chuỗi trên chuỗi trên chuỗi trí tuệ nhân tạo, các công cụ triển khai và quản lý hỗ trợ quy trình làm việc trí tuệ nhân tạo tổng thể, và nhiều hơn nữa. Quy trình làm việc trí tuệ nhân tạo được đặc trưng bởi sự hợp tác, phản hồi liên tục và độ phức tạp cao, đòi hỏi sức mạnh tính toán ở các giai đoạn khác nhau. Do đó, một tầng middleware thân thiện với người dùng, có tính hợp tác cao và có khả năng đáp ứng những nhu cầu phức tạp của các nhà phát triển trí tuệ nhân tạo nổi lên như một tài sản cạnh tranh, đặc biệt là trong lĩnh vực Web3, phục vụ các yêu cầu của các nhà phát triển Web3 cho trí tuệ nhân tạo. Những dịch vụ này phù hợp hơn cho các thị trường ứng dụng trí tuệ nhân tạo tiềm năng, vượt ra ngoài hỗ trợ tính toán cơ bản.
  • Các nhóm dự án có chuyên môn vận hành và bảo trì trường máy học thường là điều cần thiết. Các nhóm cung cấp dịch vụ trung bình phải sở hữu hiểu biết toàn diện về toàn bộ quy trình làm việc trường máy học để hiệu quả đáp ứng yêu cầu vòng đời đầy đủ của các nhà phát triển. Trong khi các dịch vụ như vậy thường tận dụng các khung công cộng và công cụ nguồn mở hiện có mà không đòi hỏi sự đổi mới kỹ thuật đáng kể, chúng đòi hỏi một nhóm có kinh nghiệm rộng rãi và khả năng kỹ thuật mạnh mẽ, đóng vai trò là một lợi thế cạnh tranh cho dự án.

Cung cấp dịch vụ với giá cả cạnh tranh hơn so với các dịch vụ máy chủ trung tâm, đồng thời duy trì các cơ sở hỗ trợ và trải nghiệm người dùng tương đương, dự án này đã nhận được sự công nhận từ các nhà đầu tư nổi tiếng. Tuy nhiên, sự phức tạp kỹ thuật tăng cao đặt ra một thách thức đáng kể. Hiện tại, dự án đang trong giai đoạn tường thuật và phát triển, chưa có sản phẩm hoàn chỉnh nào được ra mắt.

Dự án đại diện

1. Mạng Render

Render Network là một nền tảng kết xuất toàn cầu dựa trên blockchain sử dụng GPU phân phối để cung cấp dịch vụ kết xuất 3D hiệu quả chi phí cho các nhà sáng tạo. Sau khi nhà sáng tạo xác nhận kết quả kết xuất, mạng blockchain sẽ gửi phần thưởng token cho các node. Nền tảng này có tính năng lịch trình phân phối GPU phân tán và phân bổ, giao nhiệm vụ dựa trên việc sử dụng node, uy tín và các yếu tố khác để tối ưu hiệu suất tính toán, giảm thiểu tài nguyên không hoạt động và giảm chi phí.

Token native của nền tảng, RNDR, đóng vai trò là đơn vị thanh toán trong hệ sinh thái. Người dùng có thể sử dụng RNDR để thanh toán phí dịch vụ kỹ thuật dựng, trong khi các nhà cung cấp dịch vụ nhận phần thưởng RNDR bằng cách đóng góp sức mạnh tính toán để hoàn thành các nhiệm vụ dựng. Giá cả của dịch vụ dựng được điều chỉnh động trong phản ứng với việc sử dụng mạng hiện tại và các chỉ số liên quan khác.

Rendering chứng minh là một trường hợp sử dụng phân phối quyền lực tính toán được thiết lập và phù hợp. Tính chất của các nhiệm vụ vẽ cho phép chia thành nhiều nhiệm vụ con được thực hiện song song, giảm thiểu giao tiếp và tương tác giữa các nhiệm vụ. Phương pháp này giảm thiểu nhược điểm của kiến trúc tính toán phân phối trong khi tận dụng mạng nút GPU rộng lớn để tăng cường hiệu quả chi phí.

Nhu cầu cho Mạng Render rất lớn, với người dùng đã render hơn 16 triệu khung hình và gần 500.000 cảnh trên nền tảng từ khi thành lập vào năm 2017. Số lượng công việc render và nút hoạt động tiếp tục tăng. Hơn nữa, vào Q1 năm 2023, Mạng Render giới thiệu bộ công cụ AI ổn định tích hợp một cách tự nhiên, cho phép người dùng tích hợp các hoạt động Diffusion Ổn định. Sự mở rộng này vượt ra khỏi các hoạt động render chỉ ra một động thái chiến lược vào lĩnh vực ứng dụng trí tuệ nhân tạo.

2.Gensyn.ai

Gensyn hoạt động như một mạng lưới siêu máy tính toàn cầu chuyên về tính toán học sâu, sử dụng giao thức L1 của Polkadot. Vào năm 2023, nền tảng này đã đảm bảo được 43 triệu đô la trong vòng gọi vốn chuỗi A, do a16z đứng đầu. Khung kiến trúc của Gensyn mở rộng ra ngoài cụm công suất tính toán phân tán của cơ sở hạ tầng để bao gồm một hệ thống xác minh tầng trên. Hệ thống này đảm bảo rằng các tính toán ngoại chuỗi phong phú phù hợp với yêu cầu trên chuỗi thông qua xác minh blockchain, thiết lập một mạng lưới học máy không tin cậy.

Về sức mạnh tính toán phân tán, Gensyn chứa đựng một loạt các thiết bị, từ trung tâm dữ liệu có khả năng cung cấp dư thừa đến máy tính xách tay cá nhân với GPU tiềm năng. Nó kết hợp các thiết bị này thành một cụm ảo thống nhất mà các nhà phát triển có thể truy cập theo yêu cầu đồng đẳng ngang hàng. Gensyn nhắm đến việc xây dựng một thị trường nơi giá cả được quyết định bởi các lực lượng thị trường, thúc đẩy tính bao gồm và cho phép chi phí tính toán ML đạt được mức độ công bằng.

Hệ thống xác minh đứng như một khái niệm then chốt cho Gensyn, nhằm xác thực độ chính xác của các nhiệm vụ học máy theo yêu cầu. Nó giới thiệu một phương pháp xác minh sáng tạo bao gồm chứng minh học xác suất, giao thức vị trí chính xác dựa trên đồ thị, và Truebit. Các tính năng kỹ thuật cốt lõi này của trò chơi động lực cung cấp hiệu suất tối ưu hơn so với các phương pháp xác minh chuỗi khối truyền thống. Các thành viên mạng bao gồm người gửi, người giải quyết, người xác minh, và người tố giác, cùng nhau thúc đẩy quá trình xác minh.

Dựa trên dữ liệu thử nghiệm mở rộng được chi tiết trong sách trắng của giao thức Gensyn, các lợi ích đáng chú ý của nền tảng bao gồm:

  • Giảm Chi Phí Trong Việc Huấn Luyện Mô Hình AI: Giao thức Gensyn cung cấp công nghệ tương đương NVIDIA V100 với chi phí ước lượng khoảng $0.40 mỗi giờ, tạo ra một tiết kiệm chi phí 80% so với công nghệ tính toán theo yêu cầu của AWS.
  • Hiệu suất cải thiện trong mạng xác minh không tin cậy: Kết quả kiểm tra được đề cập trong sách trắng cho thấy một sự cải thiện đáng kể trong thời gian huấn luyện mô hình bằng cách sử dụng giao thức Gensyn. Thời gian phụ cực kỳ được cải thiện lên đến 1.350% so với sao chép Truebit và cải thiện đáng kinh ngạc lên đến 2.522.477% so với Ethereum.

Tuy nhiên, đồng thời, sức mạnh tính toán phân tán đồng thời đem lại một sự tăng không thể tránh khỏi trong thời gian đào tạo so với đào tạo cục bộ, do các thách thức về giao tiếp và mạng. Dựa trên dữ liệu thử nghiệm, giao thức Gensyn gây ra khoảng 46% thời gian thêm vào trong quá trình đào tạo mô hình.

3. Mạng Akash

Akash Network hoạt động như một nền tảng máy chủ đám mây phân tán tích hợp các yếu tố kỹ thuật khác nhau để cho phép người dùng triển khai và quản lý ứng dụng một cách hiệu quả trong môi trường đám mây phi tập trung. Đơn giản, nó cung cấp cho người dùng khả năng thuê tài nguyên máy tính phân tán.

Cốt lõi của Akash là một mạng lưới các nhà cung cấp dịch vụ cơ sở hạ tầng phân tán trên toàn cầu, cung cấp tài nguyên CPU, GPU, bộ nhớ và lưu trữ. Các nhà cung cấp này cung cấp tài nguyên cho người dùng thuê thông qua cụm Kubernetes phía trên. Người dùng có thể triển khai các ứng dụng dưới dạng bộ chứa Docker để tận dụng các dịch vụ cơ sở hạ tầng hiệu quả về chi phí. Ngoài ra, Akash thực hiện cách tiếp cận "đấu giá ngược" để tiếp tục giảm giá tài nguyên. Theo ước tính trên trang web chính thức của Akash, chi phí dịch vụ của nền tảng thấp hơn khoảng 80% so với các máy chủ tập trung.

4.io.net

io.net tồn tại như một mạng tính toán phi tập trung kết nối toàn cầu các GPU phân tán để cung cấp hỗ trợ tính toán cho việc huấn luyện và suy luận mô hình AI. Vừa kết thúc vòng gọi vốn Series A trị giá 30 triệu đô la, nền tảng hiện đang có một giá trị vốn hóa 1 tỷ đô la.

Khác biệt so với các nền tảng như Render và Akash, io.net nổi lên như một mạng máy tính phân cấp mạnh mẽ và có khả năng mở rộng, liên kết một cách tinh tế với nhiều lớp công cụ phát triển. Các tính năng chính của nó bao gồm:

  • Tập hợp các Nguồn Tài Nguyên Máy Tính Đa Dạng: Truy cập vào các GPU từ các trung tâm dữ liệu độc lập, các thợ đào tiền điện tử, và các dự án như Filecoin và Render.
  • Hỗ trợ cốt lõi cho Yêu cầu Trí tuệ Nhân tạo: Các khả năng dịch vụ cần thiết bao gồm suy luận theo lô và phục vụ mô hình, đào tạo song song, điều chỉnh siêu tham số và học tăng cường.
  • Công nghệ tiên tiến cho Quy trình Môi trường Đám mây Nâng cao: Bao gồm một loạt các công cụ điều phối, khung ML cho phân bổ tài nguyên tính toán, thực thi thuật toán, huấn luyện mô hình, hoạt động suy luận, giải pháp lưu trữ dữ liệu, theo dõi GPU và các công cụ quản lý.
  • Khả năng Tính toán Song song: Tích hợp Ray, một framework tính toán phân tán mã nguồn mở, tận dụng tính song song bẩm sinh của Ray để dễ dàng song song hóa các hàm Python cho việc thực thi nhiệm vụ động. Bộ nhớ trong của nó giúp chia sẻ dữ liệu nhanh chóng giữa các nhiệm vụ, loại bỏ độ trễ serialization. Hơn nữa, io.net mở rộng ra ngoài Python bằng cách tích hợp các framework ML nổi bật khác như PyTorch và TensorFlow, tăng cường tính mở rộng.

Về giá cả, trang web chính thức của io.net ước lượng rằng giá của họ sẽ khoảng 90% thấp hơn so với các dịch vụ máy chủ đám mây tập trung.

Hơn nữa, token bản địa của io.net, IO coin, sẽ chủ yếu phục vụ như cơ chế thanh toán và thưởng trong hệ sinh thái. Theo cách khác, người yêu cầu có thể áp dụng một mô hình tương tự như Helium bằng cách chuyển đổi IO coin thành đơn vị tiền tệ ổn định “IOSD points” cho các giao dịch.

Tuyên bố miễn trừ trách nhiệm:

  1. Bài viết này được in lại từ [Wanxiang Blockchain], tiêu đề gốc là “AI+Web3 Tương lai Phát triển Đường (2) ): Cơ sở hạ tầng”, bản quyền thuộc về tác giả gốc [Wanxiang Blockchain]. Nếu có ý kiến ​​phản đối về việc tái in này, vui lòng liên hệ với Đội ngũ Gate Learn, và họ sẽ xử lý nhanh chóng.

  2. Bảo Đảm Trách Nhiệm: Các quan điểm và ý kiến được thể hiện trong bài viết này chỉ là của tác giả và không cung cấp bất kỳ lời khuyên đầu tư nào.

  3. Các bản dịch của bài viết sang các ngôn ngữ khác được thực hiện bởi đội ngũ Gate Learn. Mà không đề cập Gate.io, bài viết dịch có thể không được sao chép, phân phối hoặc đạo văn.

Giải thích chi tiết về hạ tầng AI+Web3

Trung cấp3/29/2024, 7:41:47 PM
Các dự án chính tại tầng hạ tầng của ngành công nghiệp AI+Web3 cơ bản đều đưa mạng máy tính phi tập trung làm câu chuyện chính, chi phí thấp là lợi thế chính, khuyến khích token là cách chính để mở rộng mạng lưới, và phục vụ khách hàng AI+Web3 là mục tiêu chính.

Đã chuyển tiêu đề gốc: AI+Web3 Con Đường Phát Triển Tương Lai (2): Chương Về Cơ Sở Hạ Tầng

Cơ sở hạ tầng là hướng phát triển xác định của AI

1. Nhu cầu tính toán AI tăng mạnh

Trong những năm gần đây, nhu cầu về công suất tính toán đã trải qua sự tăng trưởng nhanh chóng, đặc biệt là sau sự xuất hiện của mô hình LLM lớn. Sự bùng nổ này trong nhu cầu về công suất tính toán AI đã ảnh hưởng đáng kể đến thị trường tính toán hiệu suất cao. Dữ liệu từ OpenAI cho thấy một xu hướng đáng chú ý từ năm 2012, với công suất tính toán được sử dụng để huấn luyện các mô hình AI lớn nhất tăng một cách mũi nhọn, tăng gấp đôi mỗi 3-4 tháng trung bình, vượt qua tốc độ tăng trưởng được dự đoán bởi Định luật Moore. Nhu cầu leo thang về ứng dụng AI đã dẫn đến một sự tăng vọt trong nhu cầu về phần cứng tính toán. Dự báo cho thấy vào năm 2025, nhu cầu về phần cứng tính toán được thúc đẩy bởi các ứng dụng AI dự kiến sẽ tăng khoảng 10% đến 15%.

Được thúc đẩy bởi nhu cầu về sức mạnh tính toán AI, nhà sản xuất phần cứng GPU NVIDIA đã chứng kiến sự tăng trưởng liên tục trong doanh thu trung tâm dữ liệu. Trong quý 2 năm 2023, doanh thu trung tâm dữ liệu đạt 10,32 tỷ đô la, đánh dấu sự tăng 141% so với quý 1 năm 2023 và tăng đáng kể 171% so với cùng kỳ năm trước. Đến quý thứ tư của năm tài chính 2024, phân đoạn trung tâm dữ liệu chiếm hơn 83% tổng doanh thu, trải qua sự tăng trưởng đồng thời 409%, với 40% được góp phần bởi các kịch bản suy luận mô hình lớn, cho thấy nhu cầu mạnh mẽ về sức mạnh tính toán cao.

Đồng thời, nhu cầu về lượng dữ liệu lớn đặt ra yêu cầu đáng kể về bộ nhớ lưu trữ và phần cứng. Đặc biệt trong giai đoạn huấn luyện mô hình, việc nhập tham số mở rộng và lưu trữ dữ liệu là không thể thiếu. Các vi mạch nhớ được sử dụng trong máy chủ AI chủ yếu bao gồm bộ nhớ băng thông cao (HBM), DRAM và SSD. Môi trường làm việc cho máy chủ AI phải cung cấp dung lượng tăng cường, hiệu suất nâng cao, giảm độ trễ và thời gian phản hồi nhanh hơn. Theo tính toán của Micron, lượng DRAM trong máy chủ AI vượt xa so với máy chủ truyền thống tới 8 lần, trong khi lượng NAND vượt quá tiêu chuẩn máy chủ truyền thống tới 3 lần.

2. Sự mất cân đối cung-cầu tăng chi phí sức mạnh tính toán

Thường, sức mạnh tính toán được sử dụng chủ yếu trong các giai đoạn huấn luyện, điều chỉnh tinh chỉnh và suy luận của các mô hình AI, đặc biệt là trong các giai đoạn huấn luyện và điều chỉnh tinh chỉnh. Do yêu cầu tham số đầu vào dữ liệu tăng, yêu cầu tính toán và nhu cầu tăng cường kết nối trong tính toán song song, cần có nhiều phần cứng GPU mạnh mẽ và kết nối hơn, thường trong hình thức cụm GPU hiệu suất cao. Khi các mô hình lớn phát triển, độ phức tạp tính toán tăng tuyến tính, đòi hỏi nhiều phần cứng cao cấp hơn để đáp ứng yêu cầu của việc huấn luyện mô hình.

Lấy GPT-3 làm ví dụ, với một tình huống liên quan đến khoảng 13 triệu lượt truy cập người dùng độc lập, nhu cầu chip tương ứng sẽ vượt quá 30.000 A100 GPU. Chi phí đầu tư ban đầu này sẽ đạt con số ấn tượng 800 triệu đô la, với tổng chi phí suy luận mô hình hàng ngày ước lượng khoảng 700.000 đô la.

Đồng thời, các báo cáo trong ngành chỉ ra rằng trong quý IV/2023, nguồn cung GPU của NVIDIA đã bị hạn chế nghiêm trọng trên toàn cầu, dẫn đến sự mất cân bằng đáng chú ý giữa cung và cầu tại các thị trường trên toàn thế giới. Năng lực sản xuất của NVIDIA bị hạn chế bởi các yếu tố như TSMC, HBM, CoWos và "vấn đề thiếu hụt nghiêm trọng" của GPU H100 dự kiến sẽ kéo dài ít nhất đến cuối năm 2024.

Do đó, sự tăng vọt trong nhu cầu về các GPU cao cấp và hạn chế cung đã đẩy giá cả của các thành phần phần cứng hiện tại như GPU lên cao. Đặc biệt đối với các công ty như NVIDIA chiếm vị trí cốt lõi trong chuỗi ngành công nghiệp, giá cao còn được tăng thêm bởi sự thống trị độc quyền của họ, cho phép họ thu được các cổ tức giá trị bổ sung. Ví dụ, chi phí vật liệu của thẻ tăng tốc AI H100 của NVIDIA là khoảng 3.000 đô la, nhưng giá bán của nó đã đạt khoảng 35.000 đô la vào giữa năm 2023 và thậm chí vượt quá 40.000 đô la trên eBay.

3. Cơ sở hạ tầng AI thúc đẩy sự phát triển của chuỗi ngành

Một báo cáo của Grand View Research cho biết kích thước thị trường trí tuệ nhân tạo đám mây toàn cầu được ước lượng là 62,63 tỷ đô la vào năm 2023, dự kiến đạt 647,6 tỷ đô la vào năm 2030, với tỷ lệ tăng trưởng hàng năm kết hợp là 39,6%. Những con số này làm nổi bật tiềm năng tăng trưởng đáng kể của dịch vụ trí tuệ nhân tạo đám mây và đóng góp đáng kể của chúng vào chuỗi ngành công nghiệp trí tuệ nhân tạo tổng thể.

Theo ước lượng của a16z, một phần đáng kể các quỹ trong thị trường AIGC (Trí tuệ nhân tạo và Tính toán Toàn cầu) cuối cùng được dành cho các công ty cơ sở hạ tầng. Trung bình, các công ty ứng dụng chi khoảng 20-40% doanh thu của họ cho suy luận và điều chỉnh tinh chỉnh cho mỗi khách hàng. Chi phí này thường được hướng đến nhà cung cấp đám mây của trường hợp tính toán hoặc nhà cung cấp mô hình bên thứ ba, người sau đó dành khoảng một nửa doanh thu cho cơ sở hạ tầng đám mây. Do đó, hợp lý để giả định rằng 10-20% tổng doanh thu được tạo ra bởi AIGC được hướng đến nhà cung cấp đám mây.

Hơn nữa, một phần đáng kể của nhu cầu về công suất tính toán tập trung vào việc huấn luyện các mô hình AI lớn, bao gồm các mô hình LLM mở rộng khác nhau. Đặc biệt đối với các công ty khởi nghiệp mô hình, 80-90% chi phí được gán cho công suất tính toán AI. Tổng cộng, cơ sở hạ tầng tính toán AI, bao gồm tính toán đám mây và phần cứng, dự kiến sẽ đại diện cho hơn 50% giá trị ban đầu của thị trường.

Tính toán trí tuệ nhân tạo phi tập trung

Như đã thảo luận trước đó, chi phí hiện tại của việc tính toán trí tuệ nhân tạo tập trung vẫn cao, chủ yếu là do nhu cầu ngày càng tăng về cơ sở hạ tầng hiệu suất cao cho việc đào tạo trí tuệ nhân tạo. Tuy nhiên, một lượng lớn sức mạnh tính toán không hoạt động tồn tại trên thị trường, dẫn đến sự không phù hợp giữa cung và cầu. Các yếu tố chính góp phần tạo ra sự mất cân bằng này bao gồm:

  • Bị giới hạn bởi bộ nhớ, độ phức tạp của mô hình không có mối quan hệ tăng trưởng tuyến tính với số lượng GPU cần thiết.: Các GPU hiện tại có lợi thế về sức mạnh tính toán, nhưng đào tạo mô hình đòi hỏi một số lượng lớn các tham số được lưu trữ trong bộ nhớ. Ví dụ, đối với GPT-3, để đào tạo một mô hình với 175 tỷ tham số, hơn 1 terabyte dữ liệu cần được giữ trong bộ nhớ - nhiều hơn bất kỳ GPU nào hiện nay, do đó đòi hỏi nhiều GPU hơn để tính toán và lưu trữ song song. , từ đó sẽ dẫn đến sức mạnh tính toán GPU nhàn rỗi. Ví dụ: từ GPT3 đến GPT4, kích thước tham số mô hình tăng khoảng 10 lần, nhưng số lượng GPU yêu cầu tăng 24 lần (không tính đến việc tăng thời gian đào tạo mô hình). Theo phân tích có liên quan, OpenAI đã sử dụng khoảng 2,15e25 FLOPS trong đào tạo GPT-4 và tiến hành đào tạo trên khoảng 25.000 GPU A100 trong 90 đến 100 ngày, với mức sử dụng sức mạnh tính toán khoảng 32% đến 36%.

Để đáp ứng các thách thức được nêu ở trên, việc thiết kế chip hiệu suất cao hoặc chip ASIC chuyên dụng phù hợp cho các nhiệm vụ trí tuệ nhân tạo đang là một hướng tiếp cận nổi bật được nhiều nhà phát triển và doanh nghiệp lớn khám phá. Một cách tiếp cận khác liên quan đến việc sử dụng toàn diện các tài nguyên máy tính hiện có để xây dựng một mạng tính phân tán, nhằm giảm chi phí sức mạnh tính toán thông qua việc cho thuê, chia sẻ và sắp xếp tài nguyên hiệu quả. Ngoài ra, thị trường hiện nay có dư thừa các GPU và CPU cấp tiêu dùng không hoạt động. Mặc dù từng đơn vị có thể thiếu sức mạnh tính toán mạnh mẽ, chúng có thể đáp ứng hiệu quả các yêu cầu tính toán hiện tại trong các kịch bản cụ thể hoặc khi tích hợp với chip hiệu suất cao. Quan trọng nhất, đảm bảo cung cấp đầy đủ là điều cần thiết, vì chi phí có thể được giảm bớt hơn nữa thông qua lịch trình mạng phân tán.

Do đó, việc chuyển đổi sang lực lượng tính toán phân tán đã trở thành một hướng đi quan trọng trong việc tiến bộ cơ sở hạ tầng AI. Đồng thời, với sự phù hợp khái niệm giữa Web3 và hệ thống phân tán, các mạng lực lượng tính toán phi tập trung đã trở thành một trọng tâm chính trong cảnh quan cơ sở hạ tầng Web3+AI. Hiện nay, các nền tảng lực lượng tính toán phi tập trung trong thị trường Web3 nói chung cung cấp giá cả thấp hơn khoảng 80%-90% so với dịch vụ lưu trữ đám mây tập trung.

Trong khi lưu trữ đóng vai trò quan trọng trong cơ sở hạ tầng AI, lưu trữ tập trung mang lại những lợi ích đặc biệt về quy mô, khả năng sử dụng và độ trễ thấp. Tuy nhiên, do tính hiệu quả về chi phí đáng kể mà họ cung cấp, các mạng tính toán phân tán mang lại tiềm năng thị trường đáng kể và có thể thu được những lợi ích đáng kể từ sự mở rộng thị trường AI đang nảy nở.

  • Việc suy luận mô hình và việc huấn luyện mô hình nhỏ đại diện cho các tình huống cơ bản cho sức mạnh tính toán phân tán hiện tại. Sự phân tán của tài nguyên tính toán trong các hệ thống phân tán không thể tránh khỏi việc đưa ra thách thức về giao tiếp giữa các GPU, có thể dẫn đến hiệu suất tính toán giảm đi. Do đó, sức mạnh tính toán phân tán phù hợp nhất cho các tình huống đòi hỏi giao tiếp tối thiểu và có thể hỗ trợ hiệu quả các nhiệm vụ song song. Các tình huống này bao gồm giai đoạn suy luận của các mô hình AI phức tạp và các mô hình nhỏ với số lượng tham số tương đối ít, giảm thiểu tác động đến hiệu suất. Nhìn vào tương lai, khi các ứng dụng AI phát triển, lý do trí tuệ trở thành yêu cầu quan trọng ở tầng ứng dụng. Xét đến việc hầu hết các công ty thiếu khả năng tự huấn luyện các mô hình lớn, sức mạnh tính toán phân tán vẫn giữ lại tiềm năng thị trường lớn trong dài hạn.
  • Có sự gia tăng của các framework đào tạo phân tán hiệu suất cao dành cho tính toán song song quy mô lớn. Các framework tính toán phân tán mã nguồn mở sáng tạo như PyTorch, Ray và DeepSpeed đang cung cấp cho các nhà phát triển sự hỗ trợ cơ bản mạnh mẽ để tận dụng sức mạnh tính toán phân tán trong việc đào tạo mô hình. Sự tiến bộ này nâng cao tính ứng dụng của sức mạnh tính toán phân tán trên thị trường AI trong tương lai, tạo điều kiện cho việc tích hợp nó vào các ứng dụng AI khác nhau.

Cấu trúc logic truyện của các dự án cơ sở hạ tầng AI+Web3

Ngành cơ sở hạ tầng trí tuệ nhân tạo phân tán thể hiện nhu cầu mạnh mẽ và triển vọng tăng trưởng dài hạn đáng kể, khiến nó trở thành một lĩnh vực hấp dẫn đối với vốn đầu tư. Hiện tại, các dự án chính trong lớp cơ sở hạ tầng ngành công nghiệp AI+Web3 chủ yếu tập trung vào mạng máy tính phân tán. Các dự án này nhấn mạnh chi phí thấp là một ưu điểm chính, sử dụng động lực token để mở rộng mạng lưới của họ và ưu tiên phục vụ khách hàng AI+Web3 là mục tiêu chính của họ. Ngành này chủ yếu bao gồm hai cấp độ chính:

  1. Một nền tảng chia sẻ và cho thuê tài nguyên máy chủ đám mây phi tập trung tương đối thuần túy: Các dự án AI sớm như Render Network, Akash Network, và những dự án khác, thuộc vào danh mục này.
  • Ưu thế cạnh tranh chính trong ngành này nằm ở nguồn lực công nghệ thông tin, cho phép truy cập vào một loạt các nhà cung cấp đa dạng, thiết lập mạng lưới nhanh chóng, và các sản phẩm thân thiện với người dùng. Các nhà tham gia thị trường sớm như các công ty dịch vụ máy chủ điện toán đám mây và người đào đều có vị thế tốt để tận dụng cơ hội này.
  • Với ngưỡng sản phẩm thấp và khả năng ra mắt nhanh chóng, các nền tảng đã được xác định như Mạng Render và Mạng Akash đã thể hiện sự phát triển đáng chú ý và giữ được lợi thế cạnh tranh.
  • Tuy nhiên, những người mới gia nhập thị trường đối mặt với thách thức về sự đồng nhất của sản phẩm. Xu hướng hiện tại và mức ngưỡng thấp đã dẫn đến sự tràn vào của các dự án tập trung vào sức mạnh tính toán chia sẻ và cho thuê. Mặc dù những ưu đãi này thiếu sự phân biệt, nhưng có một nhu cầu ngày càng tăng về lợi thế cạnh tranh độc đáo.
  • Các nhà cung cấp thường nhắm đến khách hàng có nhu cầu tính toán cơ bản. Ví dụ, Render Network chuyên về dịch vụ kết xuất, trong khi Akash Network cung cấp tài nguyên CPU nâng cao. Mặc dù việc cho thuê tài nguyên tính toán đơn giản đủ cho các nhiệm vụ trí tuệ nhân tạo cơ bản, nhưng nó không đáp ứng đầy đủ nhu cầu toàn diện của các quy trình trí tuệ nhân tạo phức tạp như huấn luyện, điều chỉnh và suy luận.
  1. Với dịch vụ luồng công nghiệp hóa tính toán phi tập trung và học máy, nhiều dự án mới nổi gần đây đã đảm bảo được nguồn vốn đáng kể, bao gồm Gensyn, io.net, Ritual, và những dự án khác.
  • Tính toán phi tập trung nâng cao cơ sở định giá trong ngành công nghiệp. Khi sức mạnh tính toán đứng như câu chuyện quyết định trong phát triển trí tuệ nhân tạo, các dự án có căn cứ trên sức mạnh tính toán thường tự hào về mô hình kinh doanh mạnh mẽ và tiềm năng cao hơn, dẫn đến định giá cao hơn so với các dự án trung gian thuần túy.
  • Các dịch vụ tầng trung thiết lập những lợi thế đặc sắc. Các dịch vụ được cung cấp bởi tầng trung tạo ra những lợi thế cạnh tranh cho cơ sở hạ tầng tính toán này, bao gồm các chức năng như nguồn thông tin và xác minh viên hỗ trợ đồng bộ hóa tính toán trên và ngoài chuỗi trên chuỗi trên chuỗi trí tuệ nhân tạo, các công cụ triển khai và quản lý hỗ trợ quy trình làm việc trí tuệ nhân tạo tổng thể, và nhiều hơn nữa. Quy trình làm việc trí tuệ nhân tạo được đặc trưng bởi sự hợp tác, phản hồi liên tục và độ phức tạp cao, đòi hỏi sức mạnh tính toán ở các giai đoạn khác nhau. Do đó, một tầng middleware thân thiện với người dùng, có tính hợp tác cao và có khả năng đáp ứng những nhu cầu phức tạp của các nhà phát triển trí tuệ nhân tạo nổi lên như một tài sản cạnh tranh, đặc biệt là trong lĩnh vực Web3, phục vụ các yêu cầu của các nhà phát triển Web3 cho trí tuệ nhân tạo. Những dịch vụ này phù hợp hơn cho các thị trường ứng dụng trí tuệ nhân tạo tiềm năng, vượt ra ngoài hỗ trợ tính toán cơ bản.
  • Các nhóm dự án có chuyên môn vận hành và bảo trì trường máy học thường là điều cần thiết. Các nhóm cung cấp dịch vụ trung bình phải sở hữu hiểu biết toàn diện về toàn bộ quy trình làm việc trường máy học để hiệu quả đáp ứng yêu cầu vòng đời đầy đủ của các nhà phát triển. Trong khi các dịch vụ như vậy thường tận dụng các khung công cộng và công cụ nguồn mở hiện có mà không đòi hỏi sự đổi mới kỹ thuật đáng kể, chúng đòi hỏi một nhóm có kinh nghiệm rộng rãi và khả năng kỹ thuật mạnh mẽ, đóng vai trò là một lợi thế cạnh tranh cho dự án.

Cung cấp dịch vụ với giá cả cạnh tranh hơn so với các dịch vụ máy chủ trung tâm, đồng thời duy trì các cơ sở hỗ trợ và trải nghiệm người dùng tương đương, dự án này đã nhận được sự công nhận từ các nhà đầu tư nổi tiếng. Tuy nhiên, sự phức tạp kỹ thuật tăng cao đặt ra một thách thức đáng kể. Hiện tại, dự án đang trong giai đoạn tường thuật và phát triển, chưa có sản phẩm hoàn chỉnh nào được ra mắt.

Dự án đại diện

1. Mạng Render

Render Network là một nền tảng kết xuất toàn cầu dựa trên blockchain sử dụng GPU phân phối để cung cấp dịch vụ kết xuất 3D hiệu quả chi phí cho các nhà sáng tạo. Sau khi nhà sáng tạo xác nhận kết quả kết xuất, mạng blockchain sẽ gửi phần thưởng token cho các node. Nền tảng này có tính năng lịch trình phân phối GPU phân tán và phân bổ, giao nhiệm vụ dựa trên việc sử dụng node, uy tín và các yếu tố khác để tối ưu hiệu suất tính toán, giảm thiểu tài nguyên không hoạt động và giảm chi phí.

Token native của nền tảng, RNDR, đóng vai trò là đơn vị thanh toán trong hệ sinh thái. Người dùng có thể sử dụng RNDR để thanh toán phí dịch vụ kỹ thuật dựng, trong khi các nhà cung cấp dịch vụ nhận phần thưởng RNDR bằng cách đóng góp sức mạnh tính toán để hoàn thành các nhiệm vụ dựng. Giá cả của dịch vụ dựng được điều chỉnh động trong phản ứng với việc sử dụng mạng hiện tại và các chỉ số liên quan khác.

Rendering chứng minh là một trường hợp sử dụng phân phối quyền lực tính toán được thiết lập và phù hợp. Tính chất của các nhiệm vụ vẽ cho phép chia thành nhiều nhiệm vụ con được thực hiện song song, giảm thiểu giao tiếp và tương tác giữa các nhiệm vụ. Phương pháp này giảm thiểu nhược điểm của kiến trúc tính toán phân phối trong khi tận dụng mạng nút GPU rộng lớn để tăng cường hiệu quả chi phí.

Nhu cầu cho Mạng Render rất lớn, với người dùng đã render hơn 16 triệu khung hình và gần 500.000 cảnh trên nền tảng từ khi thành lập vào năm 2017. Số lượng công việc render và nút hoạt động tiếp tục tăng. Hơn nữa, vào Q1 năm 2023, Mạng Render giới thiệu bộ công cụ AI ổn định tích hợp một cách tự nhiên, cho phép người dùng tích hợp các hoạt động Diffusion Ổn định. Sự mở rộng này vượt ra khỏi các hoạt động render chỉ ra một động thái chiến lược vào lĩnh vực ứng dụng trí tuệ nhân tạo.

2.Gensyn.ai

Gensyn hoạt động như một mạng lưới siêu máy tính toàn cầu chuyên về tính toán học sâu, sử dụng giao thức L1 của Polkadot. Vào năm 2023, nền tảng này đã đảm bảo được 43 triệu đô la trong vòng gọi vốn chuỗi A, do a16z đứng đầu. Khung kiến trúc của Gensyn mở rộng ra ngoài cụm công suất tính toán phân tán của cơ sở hạ tầng để bao gồm một hệ thống xác minh tầng trên. Hệ thống này đảm bảo rằng các tính toán ngoại chuỗi phong phú phù hợp với yêu cầu trên chuỗi thông qua xác minh blockchain, thiết lập một mạng lưới học máy không tin cậy.

Về sức mạnh tính toán phân tán, Gensyn chứa đựng một loạt các thiết bị, từ trung tâm dữ liệu có khả năng cung cấp dư thừa đến máy tính xách tay cá nhân với GPU tiềm năng. Nó kết hợp các thiết bị này thành một cụm ảo thống nhất mà các nhà phát triển có thể truy cập theo yêu cầu đồng đẳng ngang hàng. Gensyn nhắm đến việc xây dựng một thị trường nơi giá cả được quyết định bởi các lực lượng thị trường, thúc đẩy tính bao gồm và cho phép chi phí tính toán ML đạt được mức độ công bằng.

Hệ thống xác minh đứng như một khái niệm then chốt cho Gensyn, nhằm xác thực độ chính xác của các nhiệm vụ học máy theo yêu cầu. Nó giới thiệu một phương pháp xác minh sáng tạo bao gồm chứng minh học xác suất, giao thức vị trí chính xác dựa trên đồ thị, và Truebit. Các tính năng kỹ thuật cốt lõi này của trò chơi động lực cung cấp hiệu suất tối ưu hơn so với các phương pháp xác minh chuỗi khối truyền thống. Các thành viên mạng bao gồm người gửi, người giải quyết, người xác minh, và người tố giác, cùng nhau thúc đẩy quá trình xác minh.

Dựa trên dữ liệu thử nghiệm mở rộng được chi tiết trong sách trắng của giao thức Gensyn, các lợi ích đáng chú ý của nền tảng bao gồm:

  • Giảm Chi Phí Trong Việc Huấn Luyện Mô Hình AI: Giao thức Gensyn cung cấp công nghệ tương đương NVIDIA V100 với chi phí ước lượng khoảng $0.40 mỗi giờ, tạo ra một tiết kiệm chi phí 80% so với công nghệ tính toán theo yêu cầu của AWS.
  • Hiệu suất cải thiện trong mạng xác minh không tin cậy: Kết quả kiểm tra được đề cập trong sách trắng cho thấy một sự cải thiện đáng kể trong thời gian huấn luyện mô hình bằng cách sử dụng giao thức Gensyn. Thời gian phụ cực kỳ được cải thiện lên đến 1.350% so với sao chép Truebit và cải thiện đáng kinh ngạc lên đến 2.522.477% so với Ethereum.

Tuy nhiên, đồng thời, sức mạnh tính toán phân tán đồng thời đem lại một sự tăng không thể tránh khỏi trong thời gian đào tạo so với đào tạo cục bộ, do các thách thức về giao tiếp và mạng. Dựa trên dữ liệu thử nghiệm, giao thức Gensyn gây ra khoảng 46% thời gian thêm vào trong quá trình đào tạo mô hình.

3. Mạng Akash

Akash Network hoạt động như một nền tảng máy chủ đám mây phân tán tích hợp các yếu tố kỹ thuật khác nhau để cho phép người dùng triển khai và quản lý ứng dụng một cách hiệu quả trong môi trường đám mây phi tập trung. Đơn giản, nó cung cấp cho người dùng khả năng thuê tài nguyên máy tính phân tán.

Cốt lõi của Akash là một mạng lưới các nhà cung cấp dịch vụ cơ sở hạ tầng phân tán trên toàn cầu, cung cấp tài nguyên CPU, GPU, bộ nhớ và lưu trữ. Các nhà cung cấp này cung cấp tài nguyên cho người dùng thuê thông qua cụm Kubernetes phía trên. Người dùng có thể triển khai các ứng dụng dưới dạng bộ chứa Docker để tận dụng các dịch vụ cơ sở hạ tầng hiệu quả về chi phí. Ngoài ra, Akash thực hiện cách tiếp cận "đấu giá ngược" để tiếp tục giảm giá tài nguyên. Theo ước tính trên trang web chính thức của Akash, chi phí dịch vụ của nền tảng thấp hơn khoảng 80% so với các máy chủ tập trung.

4.io.net

io.net tồn tại như một mạng tính toán phi tập trung kết nối toàn cầu các GPU phân tán để cung cấp hỗ trợ tính toán cho việc huấn luyện và suy luận mô hình AI. Vừa kết thúc vòng gọi vốn Series A trị giá 30 triệu đô la, nền tảng hiện đang có một giá trị vốn hóa 1 tỷ đô la.

Khác biệt so với các nền tảng như Render và Akash, io.net nổi lên như một mạng máy tính phân cấp mạnh mẽ và có khả năng mở rộng, liên kết một cách tinh tế với nhiều lớp công cụ phát triển. Các tính năng chính của nó bao gồm:

  • Tập hợp các Nguồn Tài Nguyên Máy Tính Đa Dạng: Truy cập vào các GPU từ các trung tâm dữ liệu độc lập, các thợ đào tiền điện tử, và các dự án như Filecoin và Render.
  • Hỗ trợ cốt lõi cho Yêu cầu Trí tuệ Nhân tạo: Các khả năng dịch vụ cần thiết bao gồm suy luận theo lô và phục vụ mô hình, đào tạo song song, điều chỉnh siêu tham số và học tăng cường.
  • Công nghệ tiên tiến cho Quy trình Môi trường Đám mây Nâng cao: Bao gồm một loạt các công cụ điều phối, khung ML cho phân bổ tài nguyên tính toán, thực thi thuật toán, huấn luyện mô hình, hoạt động suy luận, giải pháp lưu trữ dữ liệu, theo dõi GPU và các công cụ quản lý.
  • Khả năng Tính toán Song song: Tích hợp Ray, một framework tính toán phân tán mã nguồn mở, tận dụng tính song song bẩm sinh của Ray để dễ dàng song song hóa các hàm Python cho việc thực thi nhiệm vụ động. Bộ nhớ trong của nó giúp chia sẻ dữ liệu nhanh chóng giữa các nhiệm vụ, loại bỏ độ trễ serialization. Hơn nữa, io.net mở rộng ra ngoài Python bằng cách tích hợp các framework ML nổi bật khác như PyTorch và TensorFlow, tăng cường tính mở rộng.

Về giá cả, trang web chính thức của io.net ước lượng rằng giá của họ sẽ khoảng 90% thấp hơn so với các dịch vụ máy chủ đám mây tập trung.

Hơn nữa, token bản địa của io.net, IO coin, sẽ chủ yếu phục vụ như cơ chế thanh toán và thưởng trong hệ sinh thái. Theo cách khác, người yêu cầu có thể áp dụng một mô hình tương tự như Helium bằng cách chuyển đổi IO coin thành đơn vị tiền tệ ổn định “IOSD points” cho các giao dịch.

Tuyên bố miễn trừ trách nhiệm:

  1. Bài viết này được in lại từ [Wanxiang Blockchain], tiêu đề gốc là “AI+Web3 Tương lai Phát triển Đường (2) ): Cơ sở hạ tầng”, bản quyền thuộc về tác giả gốc [Wanxiang Blockchain]. Nếu có ý kiến ​​phản đối về việc tái in này, vui lòng liên hệ với Đội ngũ Gate Learn, và họ sẽ xử lý nhanh chóng.

  2. Bảo Đảm Trách Nhiệm: Các quan điểm và ý kiến được thể hiện trong bài viết này chỉ là của tác giả và không cung cấp bất kỳ lời khuyên đầu tư nào.

  3. Các bản dịch của bài viết sang các ngôn ngữ khác được thực hiện bởi đội ngũ Gate Learn. Mà không đề cập Gate.io, bài viết dịch có thể không được sao chép, phân phối hoặc đạo văn.

Start Now
Sign up and get a
$100
Voucher!