Đã chuyển tiêu đề gốc: AI+Web3 Con Đường Phát Triển Tương Lai (2): Chương Về Cơ Sở Hạ Tầng
Trong những năm gần đây, nhu cầu về công suất tính toán đã trải qua sự tăng trưởng nhanh chóng, đặc biệt là sau sự xuất hiện của mô hình LLM lớn. Sự bùng nổ này trong nhu cầu về công suất tính toán AI đã ảnh hưởng đáng kể đến thị trường tính toán hiệu suất cao. Dữ liệu từ OpenAI cho thấy một xu hướng đáng chú ý từ năm 2012, với công suất tính toán được sử dụng để huấn luyện các mô hình AI lớn nhất tăng một cách mũi nhọn, tăng gấp đôi mỗi 3-4 tháng trung bình, vượt qua tốc độ tăng trưởng được dự đoán bởi Định luật Moore. Nhu cầu leo thang về ứng dụng AI đã dẫn đến một sự tăng vọt trong nhu cầu về phần cứng tính toán. Dự báo cho thấy vào năm 2025, nhu cầu về phần cứng tính toán được thúc đẩy bởi các ứng dụng AI dự kiến sẽ tăng khoảng 10% đến 15%.
Được thúc đẩy bởi nhu cầu về sức mạnh tính toán AI, nhà sản xuất phần cứng GPU NVIDIA đã chứng kiến sự tăng trưởng liên tục trong doanh thu trung tâm dữ liệu. Trong quý 2 năm 2023, doanh thu trung tâm dữ liệu đạt 10,32 tỷ đô la, đánh dấu sự tăng 141% so với quý 1 năm 2023 và tăng đáng kể 171% so với cùng kỳ năm trước. Đến quý thứ tư của năm tài chính 2024, phân đoạn trung tâm dữ liệu chiếm hơn 83% tổng doanh thu, trải qua sự tăng trưởng đồng thời 409%, với 40% được góp phần bởi các kịch bản suy luận mô hình lớn, cho thấy nhu cầu mạnh mẽ về sức mạnh tính toán cao.
Đồng thời, nhu cầu về lượng dữ liệu lớn đặt ra yêu cầu đáng kể về bộ nhớ lưu trữ và phần cứng. Đặc biệt trong giai đoạn huấn luyện mô hình, việc nhập tham số mở rộng và lưu trữ dữ liệu là không thể thiếu. Các vi mạch nhớ được sử dụng trong máy chủ AI chủ yếu bao gồm bộ nhớ băng thông cao (HBM), DRAM và SSD. Môi trường làm việc cho máy chủ AI phải cung cấp dung lượng tăng cường, hiệu suất nâng cao, giảm độ trễ và thời gian phản hồi nhanh hơn. Theo tính toán của Micron, lượng DRAM trong máy chủ AI vượt xa so với máy chủ truyền thống tới 8 lần, trong khi lượng NAND vượt quá tiêu chuẩn máy chủ truyền thống tới 3 lần.
Thường, sức mạnh tính toán được sử dụng chủ yếu trong các giai đoạn huấn luyện, điều chỉnh tinh chỉnh và suy luận của các mô hình AI, đặc biệt là trong các giai đoạn huấn luyện và điều chỉnh tinh chỉnh. Do yêu cầu tham số đầu vào dữ liệu tăng, yêu cầu tính toán và nhu cầu tăng cường kết nối trong tính toán song song, cần có nhiều phần cứng GPU mạnh mẽ và kết nối hơn, thường trong hình thức cụm GPU hiệu suất cao. Khi các mô hình lớn phát triển, độ phức tạp tính toán tăng tuyến tính, đòi hỏi nhiều phần cứng cao cấp hơn để đáp ứng yêu cầu của việc huấn luyện mô hình.
Lấy GPT-3 làm ví dụ, với một tình huống liên quan đến khoảng 13 triệu lượt truy cập người dùng độc lập, nhu cầu chip tương ứng sẽ vượt quá 30.000 A100 GPU. Chi phí đầu tư ban đầu này sẽ đạt con số ấn tượng 800 triệu đô la, với tổng chi phí suy luận mô hình hàng ngày ước lượng khoảng 700.000 đô la.
Đồng thời, các báo cáo trong ngành chỉ ra rằng trong quý IV/2023, nguồn cung GPU của NVIDIA đã bị hạn chế nghiêm trọng trên toàn cầu, dẫn đến sự mất cân bằng đáng chú ý giữa cung và cầu tại các thị trường trên toàn thế giới. Năng lực sản xuất của NVIDIA bị hạn chế bởi các yếu tố như TSMC, HBM, CoWos và "vấn đề thiếu hụt nghiêm trọng" của GPU H100 dự kiến sẽ kéo dài ít nhất đến cuối năm 2024.
Do đó, sự tăng vọt trong nhu cầu về các GPU cao cấp và hạn chế cung đã đẩy giá cả của các thành phần phần cứng hiện tại như GPU lên cao. Đặc biệt đối với các công ty như NVIDIA chiếm vị trí cốt lõi trong chuỗi ngành công nghiệp, giá cao còn được tăng thêm bởi sự thống trị độc quyền của họ, cho phép họ thu được các cổ tức giá trị bổ sung. Ví dụ, chi phí vật liệu của thẻ tăng tốc AI H100 của NVIDIA là khoảng 3.000 đô la, nhưng giá bán của nó đã đạt khoảng 35.000 đô la vào giữa năm 2023 và thậm chí vượt quá 40.000 đô la trên eBay.
Một báo cáo của Grand View Research cho biết kích thước thị trường trí tuệ nhân tạo đám mây toàn cầu được ước lượng là 62,63 tỷ đô la vào năm 2023, dự kiến đạt 647,6 tỷ đô la vào năm 2030, với tỷ lệ tăng trưởng hàng năm kết hợp là 39,6%. Những con số này làm nổi bật tiềm năng tăng trưởng đáng kể của dịch vụ trí tuệ nhân tạo đám mây và đóng góp đáng kể của chúng vào chuỗi ngành công nghiệp trí tuệ nhân tạo tổng thể.
Theo ước lượng của a16z, một phần đáng kể các quỹ trong thị trường AIGC (Trí tuệ nhân tạo và Tính toán Toàn cầu) cuối cùng được dành cho các công ty cơ sở hạ tầng. Trung bình, các công ty ứng dụng chi khoảng 20-40% doanh thu của họ cho suy luận và điều chỉnh tinh chỉnh cho mỗi khách hàng. Chi phí này thường được hướng đến nhà cung cấp đám mây của trường hợp tính toán hoặc nhà cung cấp mô hình bên thứ ba, người sau đó dành khoảng một nửa doanh thu cho cơ sở hạ tầng đám mây. Do đó, hợp lý để giả định rằng 10-20% tổng doanh thu được tạo ra bởi AIGC được hướng đến nhà cung cấp đám mây.
Hơn nữa, một phần đáng kể của nhu cầu về công suất tính toán tập trung vào việc huấn luyện các mô hình AI lớn, bao gồm các mô hình LLM mở rộng khác nhau. Đặc biệt đối với các công ty khởi nghiệp mô hình, 80-90% chi phí được gán cho công suất tính toán AI. Tổng cộng, cơ sở hạ tầng tính toán AI, bao gồm tính toán đám mây và phần cứng, dự kiến sẽ đại diện cho hơn 50% giá trị ban đầu của thị trường.
Như đã thảo luận trước đó, chi phí hiện tại của việc tính toán trí tuệ nhân tạo tập trung vẫn cao, chủ yếu là do nhu cầu ngày càng tăng về cơ sở hạ tầng hiệu suất cao cho việc đào tạo trí tuệ nhân tạo. Tuy nhiên, một lượng lớn sức mạnh tính toán không hoạt động tồn tại trên thị trường, dẫn đến sự không phù hợp giữa cung và cầu. Các yếu tố chính góp phần tạo ra sự mất cân bằng này bao gồm:
Để đáp ứng các thách thức được nêu ở trên, việc thiết kế chip hiệu suất cao hoặc chip ASIC chuyên dụng phù hợp cho các nhiệm vụ trí tuệ nhân tạo đang là một hướng tiếp cận nổi bật được nhiều nhà phát triển và doanh nghiệp lớn khám phá. Một cách tiếp cận khác liên quan đến việc sử dụng toàn diện các tài nguyên máy tính hiện có để xây dựng một mạng tính phân tán, nhằm giảm chi phí sức mạnh tính toán thông qua việc cho thuê, chia sẻ và sắp xếp tài nguyên hiệu quả. Ngoài ra, thị trường hiện nay có dư thừa các GPU và CPU cấp tiêu dùng không hoạt động. Mặc dù từng đơn vị có thể thiếu sức mạnh tính toán mạnh mẽ, chúng có thể đáp ứng hiệu quả các yêu cầu tính toán hiện tại trong các kịch bản cụ thể hoặc khi tích hợp với chip hiệu suất cao. Quan trọng nhất, đảm bảo cung cấp đầy đủ là điều cần thiết, vì chi phí có thể được giảm bớt hơn nữa thông qua lịch trình mạng phân tán.
Do đó, việc chuyển đổi sang lực lượng tính toán phân tán đã trở thành một hướng đi quan trọng trong việc tiến bộ cơ sở hạ tầng AI. Đồng thời, với sự phù hợp khái niệm giữa Web3 và hệ thống phân tán, các mạng lực lượng tính toán phi tập trung đã trở thành một trọng tâm chính trong cảnh quan cơ sở hạ tầng Web3+AI. Hiện nay, các nền tảng lực lượng tính toán phi tập trung trong thị trường Web3 nói chung cung cấp giá cả thấp hơn khoảng 80%-90% so với dịch vụ lưu trữ đám mây tập trung.
Trong khi lưu trữ đóng vai trò quan trọng trong cơ sở hạ tầng AI, lưu trữ tập trung mang lại những lợi ích đặc biệt về quy mô, khả năng sử dụng và độ trễ thấp. Tuy nhiên, do tính hiệu quả về chi phí đáng kể mà họ cung cấp, các mạng tính toán phân tán mang lại tiềm năng thị trường đáng kể và có thể thu được những lợi ích đáng kể từ sự mở rộng thị trường AI đang nảy nở.
Ngành cơ sở hạ tầng trí tuệ nhân tạo phân tán thể hiện nhu cầu mạnh mẽ và triển vọng tăng trưởng dài hạn đáng kể, khiến nó trở thành một lĩnh vực hấp dẫn đối với vốn đầu tư. Hiện tại, các dự án chính trong lớp cơ sở hạ tầng ngành công nghiệp AI+Web3 chủ yếu tập trung vào mạng máy tính phân tán. Các dự án này nhấn mạnh chi phí thấp là một ưu điểm chính, sử dụng động lực token để mở rộng mạng lưới của họ và ưu tiên phục vụ khách hàng AI+Web3 là mục tiêu chính của họ. Ngành này chủ yếu bao gồm hai cấp độ chính:
Cung cấp dịch vụ với giá cả cạnh tranh hơn so với các dịch vụ máy chủ trung tâm, đồng thời duy trì các cơ sở hỗ trợ và trải nghiệm người dùng tương đương, dự án này đã nhận được sự công nhận từ các nhà đầu tư nổi tiếng. Tuy nhiên, sự phức tạp kỹ thuật tăng cao đặt ra một thách thức đáng kể. Hiện tại, dự án đang trong giai đoạn tường thuật và phát triển, chưa có sản phẩm hoàn chỉnh nào được ra mắt.
Render Network là một nền tảng kết xuất toàn cầu dựa trên blockchain sử dụng GPU phân phối để cung cấp dịch vụ kết xuất 3D hiệu quả chi phí cho các nhà sáng tạo. Sau khi nhà sáng tạo xác nhận kết quả kết xuất, mạng blockchain sẽ gửi phần thưởng token cho các node. Nền tảng này có tính năng lịch trình phân phối GPU phân tán và phân bổ, giao nhiệm vụ dựa trên việc sử dụng node, uy tín và các yếu tố khác để tối ưu hiệu suất tính toán, giảm thiểu tài nguyên không hoạt động và giảm chi phí.
Token native của nền tảng, RNDR, đóng vai trò là đơn vị thanh toán trong hệ sinh thái. Người dùng có thể sử dụng RNDR để thanh toán phí dịch vụ kỹ thuật dựng, trong khi các nhà cung cấp dịch vụ nhận phần thưởng RNDR bằng cách đóng góp sức mạnh tính toán để hoàn thành các nhiệm vụ dựng. Giá cả của dịch vụ dựng được điều chỉnh động trong phản ứng với việc sử dụng mạng hiện tại và các chỉ số liên quan khác.
Rendering chứng minh là một trường hợp sử dụng phân phối quyền lực tính toán được thiết lập và phù hợp. Tính chất của các nhiệm vụ vẽ cho phép chia thành nhiều nhiệm vụ con được thực hiện song song, giảm thiểu giao tiếp và tương tác giữa các nhiệm vụ. Phương pháp này giảm thiểu nhược điểm của kiến trúc tính toán phân phối trong khi tận dụng mạng nút GPU rộng lớn để tăng cường hiệu quả chi phí.
Nhu cầu cho Mạng Render rất lớn, với người dùng đã render hơn 16 triệu khung hình và gần 500.000 cảnh trên nền tảng từ khi thành lập vào năm 2017. Số lượng công việc render và nút hoạt động tiếp tục tăng. Hơn nữa, vào Q1 năm 2023, Mạng Render giới thiệu bộ công cụ AI ổn định tích hợp một cách tự nhiên, cho phép người dùng tích hợp các hoạt động Diffusion Ổn định. Sự mở rộng này vượt ra khỏi các hoạt động render chỉ ra một động thái chiến lược vào lĩnh vực ứng dụng trí tuệ nhân tạo.
Gensyn hoạt động như một mạng lưới siêu máy tính toàn cầu chuyên về tính toán học sâu, sử dụng giao thức L1 của Polkadot. Vào năm 2023, nền tảng này đã đảm bảo được 43 triệu đô la trong vòng gọi vốn chuỗi A, do a16z đứng đầu. Khung kiến trúc của Gensyn mở rộng ra ngoài cụm công suất tính toán phân tán của cơ sở hạ tầng để bao gồm một hệ thống xác minh tầng trên. Hệ thống này đảm bảo rằng các tính toán ngoại chuỗi phong phú phù hợp với yêu cầu trên chuỗi thông qua xác minh blockchain, thiết lập một mạng lưới học máy không tin cậy.
Về sức mạnh tính toán phân tán, Gensyn chứa đựng một loạt các thiết bị, từ trung tâm dữ liệu có khả năng cung cấp dư thừa đến máy tính xách tay cá nhân với GPU tiềm năng. Nó kết hợp các thiết bị này thành một cụm ảo thống nhất mà các nhà phát triển có thể truy cập theo yêu cầu đồng đẳng ngang hàng. Gensyn nhắm đến việc xây dựng một thị trường nơi giá cả được quyết định bởi các lực lượng thị trường, thúc đẩy tính bao gồm và cho phép chi phí tính toán ML đạt được mức độ công bằng.
Hệ thống xác minh đứng như một khái niệm then chốt cho Gensyn, nhằm xác thực độ chính xác của các nhiệm vụ học máy theo yêu cầu. Nó giới thiệu một phương pháp xác minh sáng tạo bao gồm chứng minh học xác suất, giao thức vị trí chính xác dựa trên đồ thị, và Truebit. Các tính năng kỹ thuật cốt lõi này của trò chơi động lực cung cấp hiệu suất tối ưu hơn so với các phương pháp xác minh chuỗi khối truyền thống. Các thành viên mạng bao gồm người gửi, người giải quyết, người xác minh, và người tố giác, cùng nhau thúc đẩy quá trình xác minh.
Dựa trên dữ liệu thử nghiệm mở rộng được chi tiết trong sách trắng của giao thức Gensyn, các lợi ích đáng chú ý của nền tảng bao gồm:
Tuy nhiên, đồng thời, sức mạnh tính toán phân tán đồng thời đem lại một sự tăng không thể tránh khỏi trong thời gian đào tạo so với đào tạo cục bộ, do các thách thức về giao tiếp và mạng. Dựa trên dữ liệu thử nghiệm, giao thức Gensyn gây ra khoảng 46% thời gian thêm vào trong quá trình đào tạo mô hình.
Akash Network hoạt động như một nền tảng máy chủ đám mây phân tán tích hợp các yếu tố kỹ thuật khác nhau để cho phép người dùng triển khai và quản lý ứng dụng một cách hiệu quả trong môi trường đám mây phi tập trung. Đơn giản, nó cung cấp cho người dùng khả năng thuê tài nguyên máy tính phân tán.
Cốt lõi của Akash là một mạng lưới các nhà cung cấp dịch vụ cơ sở hạ tầng phân tán trên toàn cầu, cung cấp tài nguyên CPU, GPU, bộ nhớ và lưu trữ. Các nhà cung cấp này cung cấp tài nguyên cho người dùng thuê thông qua cụm Kubernetes phía trên. Người dùng có thể triển khai các ứng dụng dưới dạng bộ chứa Docker để tận dụng các dịch vụ cơ sở hạ tầng hiệu quả về chi phí. Ngoài ra, Akash thực hiện cách tiếp cận "đấu giá ngược" để tiếp tục giảm giá tài nguyên. Theo ước tính trên trang web chính thức của Akash, chi phí dịch vụ của nền tảng thấp hơn khoảng 80% so với các máy chủ tập trung.
io.net tồn tại như một mạng tính toán phi tập trung kết nối toàn cầu các GPU phân tán để cung cấp hỗ trợ tính toán cho việc huấn luyện và suy luận mô hình AI. Vừa kết thúc vòng gọi vốn Series A trị giá 30 triệu đô la, nền tảng hiện đang có một giá trị vốn hóa 1 tỷ đô la.
Khác biệt so với các nền tảng như Render và Akash, io.net nổi lên như một mạng máy tính phân cấp mạnh mẽ và có khả năng mở rộng, liên kết một cách tinh tế với nhiều lớp công cụ phát triển. Các tính năng chính của nó bao gồm:
Về giá cả, trang web chính thức của io.net ước lượng rằng giá của họ sẽ khoảng 90% thấp hơn so với các dịch vụ máy chủ đám mây tập trung.
Hơn nữa, token bản địa của io.net, IO coin, sẽ chủ yếu phục vụ như cơ chế thanh toán và thưởng trong hệ sinh thái. Theo cách khác, người yêu cầu có thể áp dụng một mô hình tương tự như Helium bằng cách chuyển đổi IO coin thành đơn vị tiền tệ ổn định “IOSD points” cho các giao dịch.
Bài viết này được in lại từ [Wanxiang Blockchain], tiêu đề gốc là “AI+Web3 Tương lai Phát triển Đường (2) ): Cơ sở hạ tầng”, bản quyền thuộc về tác giả gốc [Wanxiang Blockchain]. Nếu có ý kiến phản đối về việc tái in này, vui lòng liên hệ với Đội ngũ Gate Learn, và họ sẽ xử lý nhanh chóng.
Bảo Đảm Trách Nhiệm: Các quan điểm và ý kiến được thể hiện trong bài viết này chỉ là của tác giả và không cung cấp bất kỳ lời khuyên đầu tư nào.
Các bản dịch của bài viết sang các ngôn ngữ khác được thực hiện bởi đội ngũ Gate Learn. Mà không đề cập Gate.io, bài viết dịch có thể không được sao chép, phân phối hoặc đạo văn.
Đã chuyển tiêu đề gốc: AI+Web3 Con Đường Phát Triển Tương Lai (2): Chương Về Cơ Sở Hạ Tầng
Trong những năm gần đây, nhu cầu về công suất tính toán đã trải qua sự tăng trưởng nhanh chóng, đặc biệt là sau sự xuất hiện của mô hình LLM lớn. Sự bùng nổ này trong nhu cầu về công suất tính toán AI đã ảnh hưởng đáng kể đến thị trường tính toán hiệu suất cao. Dữ liệu từ OpenAI cho thấy một xu hướng đáng chú ý từ năm 2012, với công suất tính toán được sử dụng để huấn luyện các mô hình AI lớn nhất tăng một cách mũi nhọn, tăng gấp đôi mỗi 3-4 tháng trung bình, vượt qua tốc độ tăng trưởng được dự đoán bởi Định luật Moore. Nhu cầu leo thang về ứng dụng AI đã dẫn đến một sự tăng vọt trong nhu cầu về phần cứng tính toán. Dự báo cho thấy vào năm 2025, nhu cầu về phần cứng tính toán được thúc đẩy bởi các ứng dụng AI dự kiến sẽ tăng khoảng 10% đến 15%.
Được thúc đẩy bởi nhu cầu về sức mạnh tính toán AI, nhà sản xuất phần cứng GPU NVIDIA đã chứng kiến sự tăng trưởng liên tục trong doanh thu trung tâm dữ liệu. Trong quý 2 năm 2023, doanh thu trung tâm dữ liệu đạt 10,32 tỷ đô la, đánh dấu sự tăng 141% so với quý 1 năm 2023 và tăng đáng kể 171% so với cùng kỳ năm trước. Đến quý thứ tư của năm tài chính 2024, phân đoạn trung tâm dữ liệu chiếm hơn 83% tổng doanh thu, trải qua sự tăng trưởng đồng thời 409%, với 40% được góp phần bởi các kịch bản suy luận mô hình lớn, cho thấy nhu cầu mạnh mẽ về sức mạnh tính toán cao.
Đồng thời, nhu cầu về lượng dữ liệu lớn đặt ra yêu cầu đáng kể về bộ nhớ lưu trữ và phần cứng. Đặc biệt trong giai đoạn huấn luyện mô hình, việc nhập tham số mở rộng và lưu trữ dữ liệu là không thể thiếu. Các vi mạch nhớ được sử dụng trong máy chủ AI chủ yếu bao gồm bộ nhớ băng thông cao (HBM), DRAM và SSD. Môi trường làm việc cho máy chủ AI phải cung cấp dung lượng tăng cường, hiệu suất nâng cao, giảm độ trễ và thời gian phản hồi nhanh hơn. Theo tính toán của Micron, lượng DRAM trong máy chủ AI vượt xa so với máy chủ truyền thống tới 8 lần, trong khi lượng NAND vượt quá tiêu chuẩn máy chủ truyền thống tới 3 lần.
Thường, sức mạnh tính toán được sử dụng chủ yếu trong các giai đoạn huấn luyện, điều chỉnh tinh chỉnh và suy luận của các mô hình AI, đặc biệt là trong các giai đoạn huấn luyện và điều chỉnh tinh chỉnh. Do yêu cầu tham số đầu vào dữ liệu tăng, yêu cầu tính toán và nhu cầu tăng cường kết nối trong tính toán song song, cần có nhiều phần cứng GPU mạnh mẽ và kết nối hơn, thường trong hình thức cụm GPU hiệu suất cao. Khi các mô hình lớn phát triển, độ phức tạp tính toán tăng tuyến tính, đòi hỏi nhiều phần cứng cao cấp hơn để đáp ứng yêu cầu của việc huấn luyện mô hình.
Lấy GPT-3 làm ví dụ, với một tình huống liên quan đến khoảng 13 triệu lượt truy cập người dùng độc lập, nhu cầu chip tương ứng sẽ vượt quá 30.000 A100 GPU. Chi phí đầu tư ban đầu này sẽ đạt con số ấn tượng 800 triệu đô la, với tổng chi phí suy luận mô hình hàng ngày ước lượng khoảng 700.000 đô la.
Đồng thời, các báo cáo trong ngành chỉ ra rằng trong quý IV/2023, nguồn cung GPU của NVIDIA đã bị hạn chế nghiêm trọng trên toàn cầu, dẫn đến sự mất cân bằng đáng chú ý giữa cung và cầu tại các thị trường trên toàn thế giới. Năng lực sản xuất của NVIDIA bị hạn chế bởi các yếu tố như TSMC, HBM, CoWos và "vấn đề thiếu hụt nghiêm trọng" của GPU H100 dự kiến sẽ kéo dài ít nhất đến cuối năm 2024.
Do đó, sự tăng vọt trong nhu cầu về các GPU cao cấp và hạn chế cung đã đẩy giá cả của các thành phần phần cứng hiện tại như GPU lên cao. Đặc biệt đối với các công ty như NVIDIA chiếm vị trí cốt lõi trong chuỗi ngành công nghiệp, giá cao còn được tăng thêm bởi sự thống trị độc quyền của họ, cho phép họ thu được các cổ tức giá trị bổ sung. Ví dụ, chi phí vật liệu của thẻ tăng tốc AI H100 của NVIDIA là khoảng 3.000 đô la, nhưng giá bán của nó đã đạt khoảng 35.000 đô la vào giữa năm 2023 và thậm chí vượt quá 40.000 đô la trên eBay.
Một báo cáo của Grand View Research cho biết kích thước thị trường trí tuệ nhân tạo đám mây toàn cầu được ước lượng là 62,63 tỷ đô la vào năm 2023, dự kiến đạt 647,6 tỷ đô la vào năm 2030, với tỷ lệ tăng trưởng hàng năm kết hợp là 39,6%. Những con số này làm nổi bật tiềm năng tăng trưởng đáng kể của dịch vụ trí tuệ nhân tạo đám mây và đóng góp đáng kể của chúng vào chuỗi ngành công nghiệp trí tuệ nhân tạo tổng thể.
Theo ước lượng của a16z, một phần đáng kể các quỹ trong thị trường AIGC (Trí tuệ nhân tạo và Tính toán Toàn cầu) cuối cùng được dành cho các công ty cơ sở hạ tầng. Trung bình, các công ty ứng dụng chi khoảng 20-40% doanh thu của họ cho suy luận và điều chỉnh tinh chỉnh cho mỗi khách hàng. Chi phí này thường được hướng đến nhà cung cấp đám mây của trường hợp tính toán hoặc nhà cung cấp mô hình bên thứ ba, người sau đó dành khoảng một nửa doanh thu cho cơ sở hạ tầng đám mây. Do đó, hợp lý để giả định rằng 10-20% tổng doanh thu được tạo ra bởi AIGC được hướng đến nhà cung cấp đám mây.
Hơn nữa, một phần đáng kể của nhu cầu về công suất tính toán tập trung vào việc huấn luyện các mô hình AI lớn, bao gồm các mô hình LLM mở rộng khác nhau. Đặc biệt đối với các công ty khởi nghiệp mô hình, 80-90% chi phí được gán cho công suất tính toán AI. Tổng cộng, cơ sở hạ tầng tính toán AI, bao gồm tính toán đám mây và phần cứng, dự kiến sẽ đại diện cho hơn 50% giá trị ban đầu của thị trường.
Như đã thảo luận trước đó, chi phí hiện tại của việc tính toán trí tuệ nhân tạo tập trung vẫn cao, chủ yếu là do nhu cầu ngày càng tăng về cơ sở hạ tầng hiệu suất cao cho việc đào tạo trí tuệ nhân tạo. Tuy nhiên, một lượng lớn sức mạnh tính toán không hoạt động tồn tại trên thị trường, dẫn đến sự không phù hợp giữa cung và cầu. Các yếu tố chính góp phần tạo ra sự mất cân bằng này bao gồm:
Để đáp ứng các thách thức được nêu ở trên, việc thiết kế chip hiệu suất cao hoặc chip ASIC chuyên dụng phù hợp cho các nhiệm vụ trí tuệ nhân tạo đang là một hướng tiếp cận nổi bật được nhiều nhà phát triển và doanh nghiệp lớn khám phá. Một cách tiếp cận khác liên quan đến việc sử dụng toàn diện các tài nguyên máy tính hiện có để xây dựng một mạng tính phân tán, nhằm giảm chi phí sức mạnh tính toán thông qua việc cho thuê, chia sẻ và sắp xếp tài nguyên hiệu quả. Ngoài ra, thị trường hiện nay có dư thừa các GPU và CPU cấp tiêu dùng không hoạt động. Mặc dù từng đơn vị có thể thiếu sức mạnh tính toán mạnh mẽ, chúng có thể đáp ứng hiệu quả các yêu cầu tính toán hiện tại trong các kịch bản cụ thể hoặc khi tích hợp với chip hiệu suất cao. Quan trọng nhất, đảm bảo cung cấp đầy đủ là điều cần thiết, vì chi phí có thể được giảm bớt hơn nữa thông qua lịch trình mạng phân tán.
Do đó, việc chuyển đổi sang lực lượng tính toán phân tán đã trở thành một hướng đi quan trọng trong việc tiến bộ cơ sở hạ tầng AI. Đồng thời, với sự phù hợp khái niệm giữa Web3 và hệ thống phân tán, các mạng lực lượng tính toán phi tập trung đã trở thành một trọng tâm chính trong cảnh quan cơ sở hạ tầng Web3+AI. Hiện nay, các nền tảng lực lượng tính toán phi tập trung trong thị trường Web3 nói chung cung cấp giá cả thấp hơn khoảng 80%-90% so với dịch vụ lưu trữ đám mây tập trung.
Trong khi lưu trữ đóng vai trò quan trọng trong cơ sở hạ tầng AI, lưu trữ tập trung mang lại những lợi ích đặc biệt về quy mô, khả năng sử dụng và độ trễ thấp. Tuy nhiên, do tính hiệu quả về chi phí đáng kể mà họ cung cấp, các mạng tính toán phân tán mang lại tiềm năng thị trường đáng kể và có thể thu được những lợi ích đáng kể từ sự mở rộng thị trường AI đang nảy nở.
Ngành cơ sở hạ tầng trí tuệ nhân tạo phân tán thể hiện nhu cầu mạnh mẽ và triển vọng tăng trưởng dài hạn đáng kể, khiến nó trở thành một lĩnh vực hấp dẫn đối với vốn đầu tư. Hiện tại, các dự án chính trong lớp cơ sở hạ tầng ngành công nghiệp AI+Web3 chủ yếu tập trung vào mạng máy tính phân tán. Các dự án này nhấn mạnh chi phí thấp là một ưu điểm chính, sử dụng động lực token để mở rộng mạng lưới của họ và ưu tiên phục vụ khách hàng AI+Web3 là mục tiêu chính của họ. Ngành này chủ yếu bao gồm hai cấp độ chính:
Cung cấp dịch vụ với giá cả cạnh tranh hơn so với các dịch vụ máy chủ trung tâm, đồng thời duy trì các cơ sở hỗ trợ và trải nghiệm người dùng tương đương, dự án này đã nhận được sự công nhận từ các nhà đầu tư nổi tiếng. Tuy nhiên, sự phức tạp kỹ thuật tăng cao đặt ra một thách thức đáng kể. Hiện tại, dự án đang trong giai đoạn tường thuật và phát triển, chưa có sản phẩm hoàn chỉnh nào được ra mắt.
Render Network là một nền tảng kết xuất toàn cầu dựa trên blockchain sử dụng GPU phân phối để cung cấp dịch vụ kết xuất 3D hiệu quả chi phí cho các nhà sáng tạo. Sau khi nhà sáng tạo xác nhận kết quả kết xuất, mạng blockchain sẽ gửi phần thưởng token cho các node. Nền tảng này có tính năng lịch trình phân phối GPU phân tán và phân bổ, giao nhiệm vụ dựa trên việc sử dụng node, uy tín và các yếu tố khác để tối ưu hiệu suất tính toán, giảm thiểu tài nguyên không hoạt động và giảm chi phí.
Token native của nền tảng, RNDR, đóng vai trò là đơn vị thanh toán trong hệ sinh thái. Người dùng có thể sử dụng RNDR để thanh toán phí dịch vụ kỹ thuật dựng, trong khi các nhà cung cấp dịch vụ nhận phần thưởng RNDR bằng cách đóng góp sức mạnh tính toán để hoàn thành các nhiệm vụ dựng. Giá cả của dịch vụ dựng được điều chỉnh động trong phản ứng với việc sử dụng mạng hiện tại và các chỉ số liên quan khác.
Rendering chứng minh là một trường hợp sử dụng phân phối quyền lực tính toán được thiết lập và phù hợp. Tính chất của các nhiệm vụ vẽ cho phép chia thành nhiều nhiệm vụ con được thực hiện song song, giảm thiểu giao tiếp và tương tác giữa các nhiệm vụ. Phương pháp này giảm thiểu nhược điểm của kiến trúc tính toán phân phối trong khi tận dụng mạng nút GPU rộng lớn để tăng cường hiệu quả chi phí.
Nhu cầu cho Mạng Render rất lớn, với người dùng đã render hơn 16 triệu khung hình và gần 500.000 cảnh trên nền tảng từ khi thành lập vào năm 2017. Số lượng công việc render và nút hoạt động tiếp tục tăng. Hơn nữa, vào Q1 năm 2023, Mạng Render giới thiệu bộ công cụ AI ổn định tích hợp một cách tự nhiên, cho phép người dùng tích hợp các hoạt động Diffusion Ổn định. Sự mở rộng này vượt ra khỏi các hoạt động render chỉ ra một động thái chiến lược vào lĩnh vực ứng dụng trí tuệ nhân tạo.
Gensyn hoạt động như một mạng lưới siêu máy tính toàn cầu chuyên về tính toán học sâu, sử dụng giao thức L1 của Polkadot. Vào năm 2023, nền tảng này đã đảm bảo được 43 triệu đô la trong vòng gọi vốn chuỗi A, do a16z đứng đầu. Khung kiến trúc của Gensyn mở rộng ra ngoài cụm công suất tính toán phân tán của cơ sở hạ tầng để bao gồm một hệ thống xác minh tầng trên. Hệ thống này đảm bảo rằng các tính toán ngoại chuỗi phong phú phù hợp với yêu cầu trên chuỗi thông qua xác minh blockchain, thiết lập một mạng lưới học máy không tin cậy.
Về sức mạnh tính toán phân tán, Gensyn chứa đựng một loạt các thiết bị, từ trung tâm dữ liệu có khả năng cung cấp dư thừa đến máy tính xách tay cá nhân với GPU tiềm năng. Nó kết hợp các thiết bị này thành một cụm ảo thống nhất mà các nhà phát triển có thể truy cập theo yêu cầu đồng đẳng ngang hàng. Gensyn nhắm đến việc xây dựng một thị trường nơi giá cả được quyết định bởi các lực lượng thị trường, thúc đẩy tính bao gồm và cho phép chi phí tính toán ML đạt được mức độ công bằng.
Hệ thống xác minh đứng như một khái niệm then chốt cho Gensyn, nhằm xác thực độ chính xác của các nhiệm vụ học máy theo yêu cầu. Nó giới thiệu một phương pháp xác minh sáng tạo bao gồm chứng minh học xác suất, giao thức vị trí chính xác dựa trên đồ thị, và Truebit. Các tính năng kỹ thuật cốt lõi này của trò chơi động lực cung cấp hiệu suất tối ưu hơn so với các phương pháp xác minh chuỗi khối truyền thống. Các thành viên mạng bao gồm người gửi, người giải quyết, người xác minh, và người tố giác, cùng nhau thúc đẩy quá trình xác minh.
Dựa trên dữ liệu thử nghiệm mở rộng được chi tiết trong sách trắng của giao thức Gensyn, các lợi ích đáng chú ý của nền tảng bao gồm:
Tuy nhiên, đồng thời, sức mạnh tính toán phân tán đồng thời đem lại một sự tăng không thể tránh khỏi trong thời gian đào tạo so với đào tạo cục bộ, do các thách thức về giao tiếp và mạng. Dựa trên dữ liệu thử nghiệm, giao thức Gensyn gây ra khoảng 46% thời gian thêm vào trong quá trình đào tạo mô hình.
Akash Network hoạt động như một nền tảng máy chủ đám mây phân tán tích hợp các yếu tố kỹ thuật khác nhau để cho phép người dùng triển khai và quản lý ứng dụng một cách hiệu quả trong môi trường đám mây phi tập trung. Đơn giản, nó cung cấp cho người dùng khả năng thuê tài nguyên máy tính phân tán.
Cốt lõi của Akash là một mạng lưới các nhà cung cấp dịch vụ cơ sở hạ tầng phân tán trên toàn cầu, cung cấp tài nguyên CPU, GPU, bộ nhớ và lưu trữ. Các nhà cung cấp này cung cấp tài nguyên cho người dùng thuê thông qua cụm Kubernetes phía trên. Người dùng có thể triển khai các ứng dụng dưới dạng bộ chứa Docker để tận dụng các dịch vụ cơ sở hạ tầng hiệu quả về chi phí. Ngoài ra, Akash thực hiện cách tiếp cận "đấu giá ngược" để tiếp tục giảm giá tài nguyên. Theo ước tính trên trang web chính thức của Akash, chi phí dịch vụ của nền tảng thấp hơn khoảng 80% so với các máy chủ tập trung.
io.net tồn tại như một mạng tính toán phi tập trung kết nối toàn cầu các GPU phân tán để cung cấp hỗ trợ tính toán cho việc huấn luyện và suy luận mô hình AI. Vừa kết thúc vòng gọi vốn Series A trị giá 30 triệu đô la, nền tảng hiện đang có một giá trị vốn hóa 1 tỷ đô la.
Khác biệt so với các nền tảng như Render và Akash, io.net nổi lên như một mạng máy tính phân cấp mạnh mẽ và có khả năng mở rộng, liên kết một cách tinh tế với nhiều lớp công cụ phát triển. Các tính năng chính của nó bao gồm:
Về giá cả, trang web chính thức của io.net ước lượng rằng giá của họ sẽ khoảng 90% thấp hơn so với các dịch vụ máy chủ đám mây tập trung.
Hơn nữa, token bản địa của io.net, IO coin, sẽ chủ yếu phục vụ như cơ chế thanh toán và thưởng trong hệ sinh thái. Theo cách khác, người yêu cầu có thể áp dụng một mô hình tương tự như Helium bằng cách chuyển đổi IO coin thành đơn vị tiền tệ ổn định “IOSD points” cho các giao dịch.
Bài viết này được in lại từ [Wanxiang Blockchain], tiêu đề gốc là “AI+Web3 Tương lai Phát triển Đường (2) ): Cơ sở hạ tầng”, bản quyền thuộc về tác giả gốc [Wanxiang Blockchain]. Nếu có ý kiến phản đối về việc tái in này, vui lòng liên hệ với Đội ngũ Gate Learn, và họ sẽ xử lý nhanh chóng.
Bảo Đảm Trách Nhiệm: Các quan điểm và ý kiến được thể hiện trong bài viết này chỉ là của tác giả và không cung cấp bất kỳ lời khuyên đầu tư nào.
Các bản dịch của bài viết sang các ngôn ngữ khác được thực hiện bởi đội ngũ Gate Learn. Mà không đề cập Gate.io, bài viết dịch có thể không được sao chép, phân phối hoặc đạo văn.