Sự xuất hiện của các chuỗi khối công cộng đánh dấu một bước tiến sâu sắc trong lịch sử khoa học máy tính, trong khi việc phát triển trí tuệ nhân tạo đang có một tác động đáng kể đối với thế giới của chúng ta. Công nghệ Blockchain cung cấp các mẫu mới cho việc thanh toán giao dịch, lưu trữ dữ liệu và thiết kế hệ thống, trong khi trí tuệ nhân tạo đại diện cho một cuộc cách mạng trong tính toán, phân tích và cung cấp nội dung. Các đổi mới trong các ngành này đang mở ra các trường hợp sử dụng mới có thể tăng tốc việc áp dụng của cả hai lĩnh vực trong những năm tới. Báo cáo này xem xét sự tích hợp liên tục giữa tiền điện tử và trí tuệ nhân tạo, tập trung vào các trường hợp sử dụng mới mà mục tiêu là nối kết khoảng cách giữa hai lĩnh vực này và tận dụng những điểm mạnh của chúng. Đặc biệt, nó tập trung vào các dự án phát triển giao thức tính toán phi tập trung, cơ sở hạ tầng học máy zero-knowledge (zkML) và các đại lý trí tuệ nhân tạo.
Tiền điện tử cung cấp một lớp thanh toán không cần phép, không tin cậy và có thể ghép lớp cho trí tuệ nhân tạo, mở khóa các trường hợp sử dụng như việc truy cập dễ dàng hơn đến phần cứng thông qua hệ thống tính toán phi tập trung, xây dựng các đại lý trí tuệ nhân tạo có khả năng thực hiện các nhiệm vụ phức tạp đòi hỏi trao đổi giá trị, và phát triển các giải pháp danh tính và xuất xứ để chống lại các cuộc tấn công Sybil và deepfakes. Trí tuệ nhân tạo mang đến cho tiền điện tử nhiều lợi ích tương tự như những gì thấy trong Web 2.0, bao gồm trải nghiệm người dùng và nhà phát triển được nâng cao thông qua các mô hình ngôn ngữ lớn như ChatGPT và Copilot, và khả năng cải thiện đáng kể chức năng và tiềm năng tự động hóa cho các hợp đồng thông minh. Blockchain cung cấp môi trường minh bạch, dữ liệu phong phú cần thiết cho trí tuệ nhân tạo, mặc dù sức mạnh tính toán hạn chế của blockchain là một rào cản lớn đối với tích hợp trực tiếp của các mô hình trí tuệ nhân tạo.
Các thử nghiệm và việc áp dụng cuối cùng trong sự giao thoa của tiền điện tử và Trí tuệ nhân tạo được thúc đẩy bởi những lực lượng tương tự những lực lượng thúc đẩy các trường hợp sử dụng tiềm năng nhất cho tiền điện tử: truy cập vào một tầng phối hợp không cần phép và không tin cậy, tạo điều kiện cho việc chuyển giá trị tốt hơn. Với tiềm năng rộng lớn, các bên liên quan trong lĩnh vực này cần hiểu rõ các cách cơ bản mà những công nghệ này giao nhau.
Trí tuệ nhân tạo là việc sử dụng tính toán và máy móc để mô phỏng khả năng suy luận và giải quyết vấn đề của con người.
Mạng thần kinh là một phương pháp huấn luyện các mô hình trí tuệ nhân tạo. Chúng chạy các đầu vào qua các lớp thuật toán rời rạc, tinh luyện chúng cho đến khi đầu ra mong muốn được tạo ra. Mạng thần kinh bao gồm các phương trình với trọng số có thể được điều chỉnh để thay đổi đầu ra. Chúng có thể yêu cầu dữ liệu và tính toán một cách toàn diện để đảm bảo đầu ra chính xác. Điều này là một trong những cách phổ biến nhất để phát triển các mô hình trí tuệ nhân tạo (ví dụ, ChatGPT dựa vào một quy trình mạng thần kinh dựa trên Transformers).
Đào tạo là quá trình phát triển mạng nơ-ron và các mô hình AI khác. Đòi hỏi một lượng dữ liệu đáng kể để huấn luyện mô hình để đọc đúng thông tin đầu vào và tạo ra kết quả chính xác. Trong quá trình đào tạo, trọng số phương trình của mô hình được liên tục điều chỉnh cho đến khi có kết quả hài lòng. Việc đào tạo có thể rất tốn kém. Ví dụ, ChatGPT sử dụng hàng chục nghìn GPU của riêng mình để xử lý dữ liệu. Các nhóm có ít tài nguyên thường phải dựa vào các nhà cung cấp máy tính chuyên biệt, chẳng hạn như Amazon Web Services, Azure và các nhà cung cấp dịch vụ Đám mây của Google.
Suy luận là việc sử dụng thực tế của các mô hình AI để có được đầu ra hoặc kết quả (ví dụ, sử dụng ChatGPT để tạo một đề cương cho một bài báo về sự giao thoa giữa tiền điện tử và AI). Suy luận được sử dụng trong suốt quá trình đào tạo và trong sản phẩm cuối cùng. Do chi phí tính toán, ngay cả sau khi đào tạo hoàn tất, chi phí vận hành của họ có thể cao, mặc dù độ tập trung tính toán của họ thấp hơn so với quá trình đào tạo.
Zero-Knowledge Proofs (ZKP) cho phép xác minh các tuyên bố mà không tiết lộ thông tin cơ bản. Điều này hữu ích trong tiền điện tử vì hai lý do chính: 1) Sự riêng tư và 2) Mở rộng. Đối với sự riêng tư, nó cho phép người dùng thực hiện giao dịch mà không tiết lộ thông tin nhạy cảm (ví dụ, có bao nhiêu ETH trong ví). Đối với việc mở rộng, nó cho phép tính toán ngoại bảng được chứng minh trên chuỗi nhanh hơn so với việc thực hiện lại các tính toán. Điều này cho phép các chuỗi khối và ứng dụng chạy tính toán một cách rẻ hơn ngoại bảng và sau đó xác minh chúng trên chuỗi. Để biết thêm thông tin về zero-knowledge và vai trò của nó trong Máy Ảo Ethereum, xem báo cáo của Christine Kim về zkEVMs: Tương lai của Khả năng Mở rộng Ethereum.
Các dự án tích hợp trí tuệ nhân tạo và tiền điện tử vẫn đang xây dựng cơ sở hạ tầng cần thiết để hỗ trợ tương tác trí tuệ nhân tạo trên chuỗi quy mô lớn.
Các thị trường máy tính phân cấp đang nổi lên để cung cấp phần cứng vật lý rộng lớn cần thiết để huấn luyện và suy luận mô hình AI, chủ yếu dưới dạng Đơn vị Xử lý Đồ họa (GPU). Các thị trường hai phía này kết nối những người cho thuê và những người muốn thuê máy tính, tạo điều kiện cho việc chuyển giá trị và xác minh các tính toán. Trong máy tính phân cấp, một số tiểu mục cung cấp các chức năng bổ sung đang nổi lên. Ngoài thị trường song phương, bản báo cáo này cũng xem xét các nhà cung cấp đào tạo máy học cung cấp việc đào tạo có thể xác minh và điều chỉnh các đầu ra, cũng như các dự án dành riêng cho việc liên kết tính toán và tạo mô hình để kích hoạt AI, thường được gọi là các mạng khuyến khích thông minh.
zkML là một lĩnh vực tập trung mới nổi cho các dự án nhằm cung cấp đầu ra mô hình có thể xác minh trên chuỗi một cách kinh tế và kịp thời. Các dự án này chủ yếu cho phép ứng dụng xử lý yêu cầu tính toán nặng nề ngoại chuỗi, sau đó đăng đầu ra có thể xác minh trên chuỗi, chứng minh rằng công việc ngoại chuỗi đã hoàn thành và chính xác. zkML hiện đang đắt đỏ và tốn thời gian nhưng ngày càng được sử dụng nhiều hơn như một giải pháp. Điều này rõ ràng qua sự tăng số lượng tích hợp giữa các nhà cung cấp zkML và các ứng dụng DeFi/gaming muốn tận dụng mô hình AI.
Việc cung cấp tính toán đầy đủ và khả năng xác minh tính toán trên chuỗi mở cánh cửa cho các đại lý Trí tuệ nhân tạo trên chuỗi. Các đại lý là các mô hình được đào tạo có khả năng thực hiện yêu cầu thay mặt cho người dùng. Các đại lý mang lại cơ hội tăng cường trải nghiệm trên chuỗi đáng kể, cho phép người dùng thực hiện các giao dịch phức tạp chỉ bằng cách trò chuyện với một trợ lý ảo. Tuy nhiên, đến nay, các dự án đại lý vẫn tập trung vào việc phát triển cơ sở hạ tầng và công cụ để triển khai dễ dàng và nhanh chóng.
Trí tuệ nhân tạo đòi hỏi tính toán mở rộng để đào tạo các mô hình và chạy suy luận. Trong thập kỷ qua, khi các mô hình ngày càng trở nên phức tạp, nhu cầu tính toán đã tăng theo cấp số nhân. Chẳng hạn, OpenAI quan sát thấy rằng từ năm 2012 đến 2018, nhu cầu tính toán của các mô hình của nó tăng gấp đôi sau mỗi hai năm, chuyển sang tăng gấp đôi sau mỗi ba tháng rưỡi. Điều này dẫn đến sự gia tăng nhu cầu về GPU, với một số thợ đào tiền điện tử thậm chí còn tái sử dụng GPU của họ để cung cấp dịch vụ điện toán đám mây. Khi sự cạnh tranh về truy cập tính toán tăng cường và chi phí tăng lên, một số dự án đang tận dụng công nghệ mật mã để cung cấp các giải pháp điện toán phi tập trung. Họ cung cấp máy tính theo yêu cầu với giá cả cạnh tranh, cho phép các nhóm đào tạo và chạy các mô hình với giá cả phải chăng. Trong một số trường hợp, sự đánh đổi có thể liên quan đến hiệu suất và bảo mật.
Nhu cầu về các GPU tiên tiến (ví dụ như những sản phẩm của Nvidia) là rất lớn. Vào tháng 9, Tether đã mua cổ phần tại công ty đào bitcoin Đức Northern Data, được cho là đã chi khoảng $420 triệu để mua 10,000 H100 GPUs (một trong những loại GPU tiên tiến nhất cho việc đào tạo trí tuệ nhân tạo). Thời gian chờ để sở hữu phần cứng hàng đầu có thể kéo dài ít nhất là sáu tháng, nếu không phải hơn trong nhiều trường hợp. Xấu hơn nữa, các công ty thường phải ký các hợp đồng dài hạn để đảm bảo khối lượng tính toán mà họ có thể không sử dụng. Điều này có thể dẫn đến tình huống nơi tài nguyên tính toán có sẵn nhưng không thể truy cập trên thị trường. Hệ thống tính toán phi tập trung giúp giải quyết những không hiệu quả trên thị trường này bằng cách tạo ra một thị trường phụ nơi chủ sở hữu tính toán có thể ngay lập tức cho thuê lại năng lực dư thừa của họ khi nhận thông báo, qua đó tạo ra nguồn cung mới.
Ngoài giá cả cạnh tranh và tính khả dễ tiếp cận, một đề xuất giá trị chính của máy tính phi tập trung là sự chống đối với việc kiểm duyệt. Việc phát triển trí tuệ nhân tạo tiên tiến ngày càng bị các công ty công nghệ lớn với khả năng truy cập dữ liệu và tính toán vượt trội chiếm ưu thế. Chủ đề chính đầu tiên được đề cập trong Báo cáo hàng năm 2023 về Chỉ số Trí tuệ Nhân tạo là sự vượt qua ngày càng tăng của ngành công nghiệp so với giáo dục đại học trong việc phát triển các mô hình Trí tuệ Nhân tạo, tập trung quyền lực vào tay một số lãnh đạo công nghệ. Điều này đặt ra lo ngại về khả năng của họ trong việc ảnh hưởng đáng kể trong việc thiết lập các quy chuẩn và giá trị cơ bản dưới lõi các mô hình Trí tuệ Nhân tạo, đặc biệt sau khi các công ty công nghệ này đẩy mạnh việc quy định để hạn chế việc phát triển Trí tuệ Nhân tạo không kiểm soát được.
Một số mô hình điện toán phi tập trung đã xuất hiện trong những năm gần đây, mỗi mô hình đều có trọng tâm và sự đánh đổi riêng.
Nói chung, các dự án như Akash, io.net, iEx và Cudos là các ứng dụng của điện toán phi tập trung, cung cấp ngoài dữ liệu và các giải pháp tính toán chung, truy cập vào tính toán chuyên biệt để đào tạo và suy luận AI. Akash nổi bật là nền tảng "siêu đám mây" mã nguồn mở hoàn toàn duy nhất, sử dụng Cosmos SDK cho mạng bằng chứng cổ phần của nó. AKT, token gốc của Akash, đóng vai trò là phương thức thanh toán để bảo mật mạng và khuyến khích sự tham gia. Ra mắt vào năm 2020, mainnet của Akash ban đầu tập trung vào thị trường điện toán đám mây không cần cấp phép, có các dịch vụ lưu trữ và cho thuê CPU. Vào tháng 6/2023, Akash đã giới thiệu mạng thử nghiệm tập trung vào GPU, tiếp theo là ra mắt mạng chính GPU vào tháng 9, cho phép đào tạo AI và cho thuê GPU suy luận.
Hệ sinh thái Akash bao gồm hai người tham gia chính: người thuê, người tìm kiếm tài nguyên máy tính và nhà cung cấp, nhà cung cấp điện toán. Quy trình đấu giá ngược tạo điều kiện thuận lợi cho việc kết hợp người thuê và nhà cung cấp, trong đó người thuê đăng các yêu cầu tính toán của họ, bao gồm vị trí máy chủ hoặc loại phần cứng ưa thích và ngân sách của họ. Các nhà cung cấp sau đó đấu thầu, với người trả giá thấp nhất được trao nhiệm vụ. Trình xác thực duy trì tính toàn vẹn của mạng, với giới hạn hiện tại là 100 trình xác thực, được lên kế hoạch tăng theo thời gian. Việc tham gia với tư cách là trình xác thực được mở cho những người đặt cược nhiều AKT hơn trình xác thực hiện tại ít được đặt cược nhất. Chủ sở hữu AKT có thể ủy quyền mã thông báo của họ cho người xác thực, với phí giao dịch và phần thưởng khối được phân phối trong AKT. Hơn nữa, đối với mỗi hợp đồng thuê, mạng lưới Akash kiếm được một "tỷ lệ lấy", do cộng đồng quyết định, được phân phối cho chủ sở hữu AKT.
Thị trường phụ cho tính toán phi tập trung nhằm giải quyết sự không hiệu quả trong thị trường tính toán hiện tại, nơi hạn chế cung cấp dẫn đến việc các công ty tích trữ tài nguyên vượt quá nhu cầu và hợp đồng dài hạn với các nhà cung cấp đám mây hạn chế cung cấp thêm. Các nền tảng tính toán phi tập trung mở khóa nguồn cung mới, cho phép bất kỳ ai có nhu cầu về tính toán trở thành một nhà cung cấp.
Cho dù sự tăng vọt trong nhu cầu về GPU cho việc đào tạo AI dẫn đến việc sử dụng mạng bền vững trên Akash hay không vẫn còn chưa rõ. Lịch sử cho thấy, Akash đã cung cấp dịch vụ thị trường dựa trên CPU với mức giảm giá 70-80% so với các lựa chọn tập trung, tuy nhiên chiến lược giá này chưa đẩy mạnh việc áp dụng. Hoạt động mạng, được đo bằng số lượng thuê, đã ổn định, với mức sử dụng trung bình là 33% tính toán, 16% bộ nhớ và 13% lưu trữ vào quý II năm 2023, ấn tượng cho sự áp dụng trên chuỗi nhưng biểu hiện rằng cung vẫn vượt quá nhu cầu. Nửa năm kể từ khi mạng GPU được ra mắt, vẫn còn quá sớm để đưa ra một đánh giá chắc chắn về sự áp dụng lâu dài, tuy nhiên dấu hiệu ban đầu cho thấy mức sử dụng GPU trung bình là 44%, chủ yếu do nhu cầu về GPU chất lượng cao như A100, hơn 90% đã được cho thuê.
Chi phí hàng ngày của Akash gần như tăng gấp đôi kể từ khi có sự ra đời của GPU, một phần được cho là do việc sử dụng tăng lên của các dịch vụ khác, đặc biệt là CPU, nhưng chủ yếu là do việc sử dụng GPU mới.
Giá cả cạnh tranh hơn hoặc trong một số trường hợp đắt hơn so với các đối tác tập trung như Lambda Cloud và Vast.ai. Nhu cầu cao về GPU cao cấp, như H100 và A100, có nghĩa là hầu hết chủ sở hữu của thiết bị như vậy không quan tâm đến việc niêm yết chúng trên thị trường có giá cạnh tranh.
Mặc dù lợi nhuận ban đầu, nhưng vẫn còn tồn tại rào cản về sự chấp nhận. Các mạng máy tính phi tập trung phải tiến thêm bước nữa để tạo ra cung cầu, với các nhóm nghiên cứu cách tốt nhất để thu hút người dùng mới. Ví dụ, vào đầu năm 2024, Akash đã thông qua Đề xuất 240, tăng lượng phát hành AKT cho các nhà cung cấp GPU để khích lệ thêm cung cầu, đặc biệt là đối với GPU cao cấp. Các nhóm cũng đang làm việc trên các mô hình chứng minh khái niệm để thể hiện khả năng thực tế của mạng lưới của họ đối với người dùng tiềm năng. Akash đang huấn luyện các mô hình cơ bản của mình và đã ra mắt các sản phẩm chatbot và tạo hình ảnh sử dụng GPU của Akash. Tương tự, io.net đã phát triển một mô hình khuếch tán ổn định và đang tung ra các chức năng mạng mới để mô phỏng tốt hơn hiệu suất và quy mô mạng lưới.
Ngoài các nền tảng máy tính chung có thể đáp ứng nhu cầu của trí tuệ nhân tạo, một nhóm các nhà cung cấp GPU AI chuyên nghiệp tập trung vào việc huấn luyện mô hình học máy cũng đang nổi lên. Ví dụ, Gensyn đang “phối hợp sức mạnh và phần cứng để xây dựng trí tuệ tập thể,” với triết lý rằng “nếu ai đó muốn huấn luyện cái gì đó và có người sẵn lòng huấn luyện nó, thì huấn luyện này nên được phép diễn ra.”
Giao thức này liên quan đến bốn đối tác chính: người gửi, người giải quyết, người xác thực và người tố cáo. Người gửi gửi nhiệm vụ với yêu cầu đào tạo vào mạng lưới. Các nhiệm vụ này bao gồm các mục tiêu đào tạo, các mô hình cần được đào tạo và dữ liệu đào tạo. Như một phần của quá trình nộp, người gửi cần trả trước chi phí tính toán ước lượng cần thiết bởi người giải quyết.
Sau khi nộp, các nhiệm vụ được giao cho những người giải quyết thực sự thực hiện việc đào tạo mô hình. Sau đó, những người giải quyết nộp các nhiệm vụ đã hoàn thành cho những người xác nhận, người có trách nhiệm kiểm tra việc đào tạo để đảm bảo rằng nó đã được hoàn thành đúng cách. Người tiết lộ thông tin được giao nhiệm vụ đảm bảo rằng người xác nhận hành động một cách trung thực. Để khuyến khích người tiết lộ thông tin tham gia vào mạng lưới, Gensyn dự định thường xuyên cung cấp bằng chứng sai lầm cố ý, thưởng cho những người tiết lộ thông tin bắt được chúng.
Ngoài việc cung cấp tính toán cho các khối công việc liên quan đến trí tuệ nhân tạo, một điểm chào bán chính của Gensyn là hệ thống xác minh của nó, hiện đang trong quá trình phát triển. Việc xác minh là cần thiết để đảm bảo rằng tính toán bên ngoài do các nhà cung cấp GPU thực hiện một cách chính xác (tức là đảm bảo rằng các mô hình của người dùng được huấn luyện theo cách họ mong muốn). Gensyn giải quyết vấn đề này bằng cách tiếp cận độc đáo, sử dụng các phương pháp xác minh mới gọi là “chứng minh học lập thể, giao thức chính xác dựa trên đồ thị, và trò chơi khuyến khích kiểu Truebit.” Đây là một mô hình giải quyết lạc quan cho phép các validator xác nhận rằng các solver đã chạy mô hình đúng cách mà không cần phải chạy lại toàn bộ mô hình một cách đầy đủ, một quy trình mà tốn kém và không hiệu quả.
Ngoài phương pháp xác minh sáng tạo của mình, Gensyn cũng tuyên bố rằng nó tiết kiệm chi phí hơn so với các lựa chọn tập trung và đối thủ tiền điện tử - cung cấp giá đào tạo ML giảm đến 80% so với AWS, trong khi vượt trội so với các dự án tương tự như Truebit trong các bài kiểm tra.
Dù kết quả ban đầu này có thể được tái tạo trên quy mô lớn trong các mạng phi tập trung vẫn còn phải xem xét. Gensyn hy vọng sử dụng khả năng tính toán dư thừa của các nhà cung cấp như trung tâm dữ liệu nhỏ, người dùng bán lẻ và cuối cùng là các thiết bị di động nhỏ như điện thoại thông minh. Tuy nhiên, như đội ngũ Gensyn thừa nhận, việc phụ thuộc vào các nhà cung cấp tính toán không đồng nhất đưa ra một số thách thức mới.
Đối với các nhà cung cấp tập trung như Google Cloud và Coreweave, chi phí tính toán rất đắt đỏ, nhưng giao tiếp giữa các tính toán (băng thông và độ trễ) lại rất rẻ. Các hệ thống này được thiết kế để tạo điều kiện cho việc giao tiếp giữa phần cứng càng nhanh càng tốt. Gensyn phá vỡ cấu trúc này bằng cách giảm chi phí tính toán thông qua việc cho phép bất kỳ ai trên thế giới cung cấp GPU, nhưng đồng thời tăng chi phí giao tiếp, vì mạng bây giờ phải phối hợp các công việc tính toán trên phần cứng không đồng nhất ở xa. Gensyn vẫn chưa ra mắt, nhưng nó đại diện cho một bằng chứng về khái niệm có thể thực hiện khi xây dựng một giao thức đào tạo học máy phi tập trung.
Các nền tảng tính toán phi tập trung cũng cung cấp khả năng thiết kế phương pháp tạo ra trí tuệ nhân tạo. Bittensor là một giao thức tính toán phi tập trung được xây dựng trên Substrate, cố gắng trả lời câu hỏi "Làm thế nào chúng ta biến trí tuệ nhân tạo thành một phương pháp cộng tác?" Bittensor nhắm mục tiêu đạt được sự phi tập trung và thương mại hóa việc tạo ra trí tuệ nhân tạo. Ra mắt vào năm 2021, hy vọng sử dụng sức mạnh của các mô hình học máy cộng tác để liên tục lặp lại và tạo ra trí tuệ nhân tạo tốt hơn.
Bittensor lấy cảm hứng từ Bitcoin, với đồng tiền cố định của nó, TAO, có giới hạn cung 21 triệu và chu kỳ halving mỗi bốn năm (halving đầu tiên được đặt vào năm 2025). Không giống như việc sử dụng Proof of Work để tạo ra các số ngẫu nhiên chính xác và kiếm phần thưởng khối, Bittensor dựa vào “Proof of Intelligence,” yêu cầu các máy đào chạy các mô hình để tạo ra kết quả đáp ứng yêu cầu suy luận.
Khuyến khích Trí tuệ
Ban đầu, Bittensor dựa vào mô hình Hỗn hợp các chuyên gia (MoE) để tạo ra đầu ra. Khi một yêu cầu suy luận được gửi, mô hình MoE không dựa vào một mô hình tổng quát mà chuyển tiếp yêu cầu đến mô hình chính xác nhất cho loại đầu vào nhất định. Hãy tưởng tượng xây dựng một ngôi nhà, nơi bạn thuê nhiều chuyên gia khác nhau cho các khía cạnh khác nhau của quá trình xây dựng (ví dụ: kiến trúc sư, kỹ sư, họa sĩ, công nhân xây dựng, v.v.). MoE áp dụng điều này cho các mô hình học máy, cố gắng tận dụng đầu ra của các mô hình khác nhau dựa trên đầu vào. Theo giải thích của người sáng lập Bittensor, Ala Shaabana, điều này giống như "nói chuyện với một căn phòng đầy những người thông minh để có được câu trả lời tốt nhất, thay vì nói chuyện với một người." Do những thách thức trong việc đảm bảo định tuyến chính xác, đồng bộ hóa thông điệp với mô hình chính xác và các ưu đãi, phương pháp này đã bị gác lại cho đến khi dự án phát triển hơn nữa.
Trong mạng lưới Bittensor, có hai người tham gia chính: người xác minh và người đào. Người xác minh gửi yêu cầu suy luận đến người đào, xem xét kết quả của họ và xếp hạng dựa trên chất lượng của phản hồi của họ. Để đảm bảo xếp hạng của họ đáng tin cậy, người xác minh được cấp điểm “vtrust” dựa trên mức độ nhất quán của xếp hạng của họ so với người xác minh khác. Điểm vtrust cao hơn của một người xác minh, họ sẽ nhận được nhiều phát thải TAO hơn. Điều này nhằm khuyến khích người xác minh đạt được một sự đồng thuận về xếp hạng mô hình theo thời gian, vì càng nhiều người xác minh đồng ý về xếp hạng, điểm vtrust cá nhân của họ càng cao.
Người đào, còn được biết đến với tên gọi máy chủ, là các thành viên mạng tham gia chạy các mô hình học máy thực tế. Họ cạnh tranh để cung cấp các đầu ra chính xác nhất cho các truy vấn của các nhà xác thực, và càng chính xác các đầu ra, họ kiếm được càng nhiều phát thải TAO. Người đào có tự do tạo ra các đầu ra này theo ý muốn của họ. Ví dụ, trong tương lai, hoàn toàn có khả năng cho các nhà đào Bittensor đã huấn luyện trước các mô hình trên Gensyn và sử dụng chúng để kiếm phát thải TAO.
Ngày nay, hầu hết các tương tác xảy ra trực tiếp giữa trình xác thực và thợ đào. Người xác thực gửi đầu vào cho thợ đào và yêu cầu đầu ra (tức là đào tạo mô hình). Khi người xác thực truy vấn các thợ đào trên mạng và nhận được phản hồi của họ, họ xếp hạng các thợ đào và gửi thứ hạng của họ lên mạng.
Sự tương tác giữa các validator (phụ thuộc vào PoS) và các thợ đào (phụ thuộc vào Mô hình Proof, một dạng PoW) được gọi là sự đồng thuận Yuma. Nó nhằm mục đích khuyến khích các thợ đào tạo ra các đầu ra tốt nhất để kiếm các phát thải TAO và khuyến khích các validator xếp hạng đầu ra của thợ đào một cách chính xác, kiếm điểm vtrust cao hơn và tăng thưởng TAO của họ, từ đó hình thành một cơ chế đồng thuận cho mạng lưới.
Mạng con và ứng dụng
Các tương tác trên Bittensor chủ yếu liên quan đến các nhà xác minh gửi yêu cầu đến các máy đào và đánh giá đầu ra của họ. Tuy nhiên, khi chất lượng của các máy đào đóng góp cải thiện và thông minh tổng thể của mạng tăng lên, Bittensor đang tạo ra một lớp ứng dụng trên cùng của ngăn xếp hiện có của mình để các nhà phát triển có thể xây dựng các ứng dụng truy vấn mạng Bittensor.
Vào tháng 10 năm 2023, Bittensor đã giới thiệu các mạng con thông qua nâng cấp Revolution, thực hiện một bước quan trọng để đạt được mục tiêu này. Mạng con là các mạng riêng biệt trên Bittensor khuyến khích các hành vi cụ thể. Cuộc cách mạng đã mở mạng cho bất cứ ai quan tâm đến việc tạo ra các mạng con. Trong vòng vài tháng kể từ khi ra mắt, hơn 32 mạng con đã được đưa ra, bao gồm các mạng con cho lời nhắc văn bản, thu thập dữ liệu, tạo hình ảnh và lưu trữ. Khi các mạng con trưởng thành và sẵn sàng cho sản phẩm, người tạo mạng con cũng sẽ tạo tích hợp ứng dụng, cho phép các nhóm xây dựng các ứng dụng truy vấn các mạng con cụ thể. Một số ứng dụng, chẳng hạn như chatbot, trình tạo hình ảnh, bot trả lời Twitter và thị trường dự đoán, có tồn tại nhưng không có ưu đãi chính thức nào ngoài tài trợ từ Bittensor Foundation để người xác thực chấp nhận và chuyển tiếp các truy vấn này.
Để có một giải thích rõ ràng hơn, dưới đây là một ví dụ về cách Bittensor có thể hoạt động khi các ứng dụng được tích hợp vào mạng.
Các mạng con kiếm TAO dựa trên hiệu suất được đánh giá bởi mạng gốc. Mạng gốc, đặt ở phía trên tất cả các mạng con, về cơ bản hoạt động như một mạng con đặc biệt và được quản lý bởi 64 nhà xác minh mạng con lớn nhất theo cổ phần. Các nhà xác minh mạng gốc xếp hạng các mạng con dựa trên hiệu suất của họ và định kỳ phân bổ TAO cho các mạng con. Điều này giúp các mạng con cá nhân hoạt động như các thợ đào cho mạng gốc.
Tầm nhìn của Bittensor
Bittensor vẫn đang trải qua những khó khăn khi mở rộng chức năng của giao thức để khuyến khích việc tạo ra thông minh trên nhiều mạng con. Các nhà đào liên tục nghĩ ra những cách mới để tấn công mạng lưới để có thêm phần thưởng TAO, chẳng hạn như bằng cách thay đổi một chút kết quả của những suy luận được đánh giá cao chạy bởi mô hình của họ và sau đó gửi nhiều biến thể. Các đề xuất quản trị ảnh hưởng đến toàn bộ mạng lưới chỉ có thể được đệ trình và triển khai bởi Tam Hoàng, hoàn toàn bao gồm các bên liên quan từ Quỹ Opentensor (đáng chú ý, các đề xuất yêu cầu sự chấp thuận từ Thượng nghị viện Bittensor, gồm các bộ xác minh Bittensor, trước khi triển khai). Tokenomics của dự án đang được sửa đổi để tăng cường động lực cho việc sử dụng TAO qua các mạng con. Dự án cũng nhanh chóng trở nên nổi tiếng với cách tiếp cận độc đáo của mình, khi Giám đốc điều hành của một trong những trang web trí tuệ nhân tạo phổ biến nhất, HuggingFace, tuyên bố rằng Bittensor nên thêm tài nguyên của mình vào trang web.
Trong một bài viết gần đây mang tựa đề “Bittensor Paradigm” được đăng bởi các nhà phát triển chính, nhóm đã nêu ra tầm nhìn của Bittensor khi cuối cùng trở thành “agnostic to what is measured.” Về lý thuyết, điều này có thể cho phép Bittensor phát triển các mạng con khuyến khích bất kỳ loại hành vi nào được hỗ trợ bởi TAO. Tuy nhiên, vẫn tồn tại những hạn chế thực tế đáng kể — đặc biệt là chứng minh rằng những mạng này có thể mở rộng để xử lý một loạt quá trình đa dạng như vậy và rằng tiến cấp tiềm năng có thể thúc đẩy tiến triển vượt xa các sản phẩm tập trung.
Phần trên cung cấp một cái nhìn sâu rộng về các loại giao thức tính toán trí tuệ nhân tạo phi tập trung đang được phát triển. Trong giai đoạn phát triển và áp dụng sớm của họ, họ đặt nền móng cho một hệ sinh thái có thể cuối cùng tạo điều kiện cho việc tạo ra "các khối xây dựng AI," tương tự như khái niệm "tiền Legos" trong DeFi. Khả năng hòa nhập của các chuỗi khối không cần sự cho phép cho phép mỗi giao thức có thể được xây dựng trên cơ sở của giao thức khác, tạo ra một hệ sinh thái trí tuệ nhân tạo phi tập trung toàn diện hơn.
Ví dụ, đây là cách mà Akash, Gensyn và Bittensor có thể tương tác để đáp ứng yêu cầu suy luận.
Quan trọng là hiểu rằng điều này chỉ là một ví dụ về những gì có thể xảy ra trong tương lai, không phải là biểu hiện của hệ sinh thái hiện tại, các đối tác hiện có hoặc kết quả tiềm năng. Các hạn chế về khả năng tương tác và các yếu tố khác mô tả dưới đây hạn chế đáng kể các khả năng tích hợp ngày nay. Hơn nữa, sự phân mảnh của thanh khoản và cần phải sử dụng nhiều mã thông báo có thể làm tổn thương trải nghiệm người dùng, một điểm được nhắc đến bởi các nhà sáng lập Akash và Bittensor.
Ngoài lĩnh vực máy tính, đã có một số dịch vụ cơ sở hạ tầng phi tập trung khác được giới thiệu để hỗ trợ hệ sinh thái AI mới nổi trong không gian tiền điện tử. Liệt kê tất cả những dịch vụ này vượt quá phạm vi của báo cáo này, nhưng một số ví dụ thú vị và mạch lạc bao gồm:
Nhìn chung, những ví dụ này chỉ ra cho sự vô hạn gần như trong việc khám phá các mô hình thị trường phi tập trung hỗ trợ các mô hình trí tuệ nhân tạo hoặc cơ sở hạ tầng bên ngoài cần thiết để phát triển chúng. Hiện nay, hầu hết những dự án này đều đang ở giai đoạn chứng minh khái niệm và cần thêm nghiên cứu và phát triển để chứng minh rằng chúng có thể hoạt động ở quy mô cần thiết để cung cấp dịch vụ trí tuệ nhân tạo toàn diện.
Các sản phẩm máy tính phi tập trung vẫn đang ở giai đoạn đầu của sự phát triển. Chúng vừa mới bắt đầu triển khai khả năng tính toán tiên tiến, có khả năng huấn luyện các mô hình trí tuệ nhân tạo mạnh mẽ nhất trong quá trình sản xuất. Để có được một phần thị trường ý nghĩa, họ cần phải chứng minh được những điểm mạnh thực tế so với các lựa chọn tập trung. Những yếu tố tiềm năng để mở rộng sự áp dụng rộng rãi có thể bao gồm:
Hợp đồng thông minh là nền tảng của bất kỳ hệ sinh thái blockchain nào. Chúng tự động thực thi trong một tập hợp các điều kiện cụ thể, giảm hoặc loại bỏ sự cần thiết của các bên thứ ba đáng tin cậy, do đó cho phép tạo ra các ứng dụng phi tập trung phức tạp, chẳng hạn như các ứng dụng trong DeFi. Tuy nhiên, chức năng của hợp đồng thông minh vẫn còn hạn chế vì chúng hoạt động dựa trên các thông số đặt trước phải được cập nhật.
Ví dụ, một hợp đồng thông minh được triển khai cho một giao thức cho vay / vay, trong đó có các thông số kỹ thuật về thời điểm các vị trí nên được thanh lý dựa trên tỷ lệ cho vay trên giá trị cụ thể. Mặc dù hữu ích trong môi trường tĩnh, các hợp đồng thông minh này cần cập nhật liên tục để thích ứng với những thay đổi về khả năng chấp nhận rủi ro trong các tình huống động, đưa ra những thách thức cho các hợp đồng không được quản lý thông qua các quy trình tập trung. Ví dụ, DAO dựa vào các quy trình quản trị phi tập trung có thể không phản ứng đủ nhanh với các rủi ro hệ thống.
Việc tích hợp trí tuệ nhân tạo (tức là các mô hình học máy) vào các hợp đồng thông minh là một cách tiềm năng để tăng cường tính năng, bảo mật và hiệu quả trong khi cải thiện trải nghiệm người dùng. Tuy nhiên, những tích hợp này cũng mang lại các rủi ro bổ sung, vì không thể đảm bảo rằng các mô hình cơ sở của những hợp đồng thông minh này sẽ không bị lợi dụng hoặc không thể diễn giải được các tình huống long-tail (với sự khan hiếm của dữ liệu đầu vào, các tình huống long-tail khó để mô hình huấn luyện).
Học máy đòi hỏi mức tính toán đáng kể để chạy các mô hình phức tạp, làm cho việc chạy các mô hình AI trực tiếp trong các hợp đồng thông minh trở nên không thực tế do chi phí cao. Ví dụ, một giao thức DeFi cung cấp các mô hình tối ưu hóa lợi suất sẽ gặp khó khăn khi chạy các mô hình này trên chuỗi mà không gây ra phí Gas cấm kỵ. Một giải pháp là tăng khả năng tính toán của chuỗi khối cơ bản. Tuy nhiên, điều này cũng nâng cao yêu cầu cho các người xác thực của chuỗi, tiềm ẩn việc làm mất tính phân cấp. Thay vào đó, một số dự án đang khám phá việc sử dụng zkML để xác minh đầu ra một cách không cần thiết tính toán trên chuỗi.
Một ví dụ phổ biến minh họa tính hữu ích của zkML là khi người dùng cần người khác chạy dữ liệu qua các mô hình và xác minh rằng đối tác của họ đã thực sự chạy đúng mô hình. Các nhà phát triển sử dụng các nhà cung cấp tính toán phi tập trung để huấn luyện mô hình của họ có thể lo lắng về việc những nhà cung cấp này cắt giảm chi phí bằng cách sử dụng các mô hình rẻ tiền tạo ra các đầu ra với sự khác biệt gần như không thể nhận thức được. zkML cho phép các nhà cung cấp tính toán chạy dữ liệu qua các mô hình của họ và sau đó tạo ra các bằng chứng có thể được xác minh trên chuỗi khối, chứng minh rằng các đầu ra của mô hình cho các đầu vào cụ thể là chính xác. Trong kịch bản này, nhà cung cấp mô hình có lợi thế bổ sung khi có thể cung cấp mô hình của họ mà không cần tiết lộ trọng số cơ bản đã tạo ra các đầu ra.
Điều ngược lại cũng là có thể. Nếu người dùng muốn chạy các mô hình trên dữ liệu của mình nhưng không muốn cho các dự án mô hình truy cập vào dữ liệu của họ do lo ngại về quyền riêng tư (ví dụ, trong các kiểm tra y tế hoặc thông tin kinh doanh độc quyền), họ có thể chạy mô hình trên dữ liệu của mình mà không cần chia sẻ dữ liệu, sau đó xác minh thông qua bằng chứng rằng họ đã chạy mô hình chính xác. Những khả năng này mở rộng không gian thiết kế đáng kể cho việc tích hợp AI và các chức năng hợp đồng thông minh bằng cách giải quyết các ràng buộc tính toán khó khăn.
Với tình trạng sớm của lĩnh vực zkML, việc phát triển chủ yếu tập trung vào xây dựng cơ sở hạ tầng và công cụ mà các nhóm cần để chuyển đổi mô hình và kết quả của họ thành bằng chứng có thể xác minh trên chuỗi. Các sản phẩm này trừu tượng hóa các khía cạnh không thông báo một cách tối đa.
EZKL và Giza là hai dự án xây dựng các công cụ như vậy bằng cách cung cấp bằng chứng có thể kiểm chứng về việc thực thi mô hình học máy. Cả hai đều giúp các nhóm xây dựng các mô hình học máy để đảm bảo các mô hình này có thể thực hiện theo cách cho phép kết quả được xác minh trên chuỗi một cách đáng tin cậy. Cả hai dự án đều sử dụng Open Neural Network Exchange (ONNX) để chuyển đổi các mô hình học máy được viết bằng các ngôn ngữ phổ biến như TensorFlow và Pytorch thành định dạng chuẩn. Sau đó, họ xuất ra các phiên bản của các mô hình này cũng tạo ra các bằng chứng zk khi thực hiện. EZKL là mã nguồn mở, sản xuất zk-SNARK, trong khi Giza là mã nguồn đóng, sản xuất zk-STARKs. Cả hai dự án hiện chỉ tương thích với EVM.
Trong những tháng gần đây, EZKL đã đạt được tiến bộ đáng kể trong việc tăng cường các giải pháp zkML, tập trung chủ yếu vào việc giảm chi phí, cải thiện bảo mật và tăng tốc quá trình tạo chứng minh. Ví dụ, vào tháng 11 năm 2023, EZKL tích hợp một thư viện GPU mã nguồn mở mới giảm thời gian chứng minh tổng hợp điều này lên đến 35%; vào tháng 1, EZKL phát hành Lilith, một giải pháp phần mềm để tích hợp các cụm máy tính hiệu suất cao và điều phối hệ thống công việc đồng thời khi sử dụng chứng minh EZKL. Điểm độc đáo của Giza nằm ở việc cung cấp các công cụ để tạo ra các mô hình học máy có thể xác minh và kế hoạch triển khai một phiên bản web3 tương đương của Hugging Face, mở một thị trường người dùng cho sự hợp tác và chia sẻ mô hình zkML, và cuối cùng là tích hợp các sản phẩm máy tính phi tập trung. Vào tháng 1, EZKL đã công bố một đánh giá mức đo so sánh về hiệu suất của EZKL, Giza và RiscZero (như mô tả dưới đây), giới thiệu thời gian chứng minh nhanh hơn và sử dụng bộ nhớ ít hơn.
Modulus Labs hiện đang phát triển một công nghệ chứng minh không có kiến thức (zk) mới được thiết kế riêng cho các mô hình AI. Modulus đã phát hành một bài báo có tiêu đề "Chi phí thông minh", ngụ ý rằng việc chạy các mô hình AI trên chuỗi phải chịu chi phí cực kỳ cao. Bài báo này, được xuất bản vào tháng 1 năm 2023, đánh giá các hệ thống chứng minh zk hiện có để xác định những cải tiến về khả năng và tắc nghẽn của bằng chứng zk trong các mô hình AI. Nó tiết lộ rằng các sản phẩm hiện tại quá đắt và không hiệu quả cho các ứng dụng AI quy mô lớn. Dựa trên nghiên cứu ban đầu, Modulus đã ra mắt Remainder vào tháng 11, một prover zk chuyên biệt nhằm giảm chi phí và thời gian chứng minh cho các mô hình AI, làm cho các dự án khả thi về mặt kinh tế để tích hợp quy mô lớn vào các hợp đồng thông minh. Công việc của họ là độc quyền, khiến nó không thể so sánh với các giải pháp được đề cập, nhưng gần đây nó đã được trích dẫn trong bài đăng trên blog của Vitalik về mật mã và trí tuệ nhân tạo.
Sự phát triển của các công cụ và cơ sở hạ tầng là rất quan trọng đối với sự phát triển trong tương lai của không gian zkML, vì nó có thể giảm ma sát đáng kể trong việc triển khai tính toán off-chain có thể xác minh và nhu cầu cho các nhóm zk. Việc tạo ra giao diện an toàn cho các chuyên gia machine learning không phải là người dân tiền điện tử để đưa mô hình của họ lên chuỗi sẽ cho phép các ứng dụng thử nghiệm với các trường hợp sử dụng thực sự mới lạ. Ngoài ra, các công cụ này giải quyết một rào cản lớn đối với việc áp dụng rộng rãi zkML: sự thiếu hiểu biết của các nhà phát triển quan tâm đến làm việc tại sự giao điểm của zero-knowledge, machine learning và mật mã.
Các giải pháp khác đang được phát triển, được gọi là "bộ xử lý phụ" (bao gồm RiscZero, Axiom và Ritual), phục vụ các vai trò khác nhau, bao gồm xác minh tính toán ngoại chuỗi trên chuỗi. Giống như EZKL, Giza và Modulus, mục tiêu của họ là trừu tượng hóa quy trình tạo chứng minh zk hoàn toàn, tạo ra máy ảo không biết để thực thi chương trình ngoại chuỗi và tạo ra chứng minh có thể xác minh trên chuỗi. RiscZero và Axiom phục vụ cho các mô hình trí tuệ nhân tạo đơn giản hơn như các bộ xử lý phụ đa dụng hơn, trong khi Ritual được xây dựng đặc biệt để sử dụng với các mô hình trí tuệ nhân tạo.
Lần đầu tiên của Ritual, Infernet, bao gồm một Infernet SDK cho phép các nhà phát triển gửi yêu cầu suy luận đến mạng và nhận kết quả và bằng chứng tùy chọn như phản hồi. Các nút Infernet xử lý những tính toán ngoại chuỗi này trước khi trả lại kết quả. Ví dụ, một DAO có thể thiết lập một quy trình đảm bảo tất cả các đề xuất quản trị mới đáp ứng một số tiền đề cần thiết trước khi nộp. Mỗi khi đề xuất mới được nộp, hợp đồng quản trị kích hoạt một yêu cầu suy luận thông qua Infernet, triệu hồi một mô hình AI được đào tạo đặc biệt cho quản trị DAO. Mô hình này xem xét đề xuất để đảm bảo tất cả các tiêu chuẩn cần thiết được đáp ứng và trả lại kết quả và bằng chứng để chấp nhận hoặc từ chối việc nộp đề xuất.
Trong năm tiếp theo, nhóm Ritual dự định giới thiệu thêm nhiều tính năng, hình thành một lớp hạ tầng được biết đến với tên gọi là siêu chuỗi Ritual. Nhiều dự án được thảo luận có thể được tích hợp như các nhà cung cấp dịch vụ vào Ritual. Nhóm Ritual đã tích hợp với EZKL để tạo ra bằng chứng và sớm có thể thêm tính năng từ các nhà cung cấp hàng đầu khác. Các nút Infernet trên Ritual cũng có thể sử dụng Akash hoặc GPU io.net và truy vấn các mô hình được huấn luyện trên mạng lưới Bittensor. Mục tiêu cuối cùng của họ là trở thành nhà cung cấp ưu tiên về hạ tầng AI mở, cung cấp dịch vụ cho việc học máy và các nhiệm vụ liên quan đến trí tuệ nhân tạo cho bất kỳ mạng và tải công việc nào.
zkML đang giúp hòa giải sự đối lập giữa blockchain, một hệ thống có hạn chế về tài nguyên theo bản chất, và trí tuệ nhân tạo, đòi hỏi tài nguyên tính toán và dữ liệu đáng kể. Như một người sáng lập của Giza đã nói, "các trường hợp sử dụng vô cùng phong phú... Điều đó giống như việc hỏi trường hợp sử dụng cho hợp đồng thông minh trong những ngày đầu của Ethereum... Điều chúng tôi đang làm chỉ là mở rộng các trường hợp sử dụng cho hợp đồng thông minh." Tuy nhiên, như đã chú ý, sự phát triển hiện tại chủ yếu diễn ra ở mức độ công cụ và cơ sở hạ tầng. Các ứng dụng vẫn đang ở giai đoạn thám hiểm, với các nhóm đối mặt với thách thức chứng minh rằng giá trị tạo ra bằng cách triển khai các mô hình với zkML vượt qua sự phức tạp và chi phí của nó.
Các ứng dụng hiện tại bao gồm:
zkML vẫn đang trong quá trình thử nghiệm, với hầu hết các dự án tập trung vào việc xây dựng cơ sở hạ tầng cơ bản và bằng chứng của khái niệm. Những thách thức hiện tại bao gồm chi phí tính toán, hạn chế bộ nhớ, độ phức tạp của mô hình, công cụ và cơ sở hạ tầng hạn chế, và tài năng của các nhà phát triển. Nói một cách ngắn gọn, còn rất nhiều công việc cần phải được thực hiện trước khi zkML có thể được triển khai trên quy mô cần thiết cho các sản phẩm tiêu dùng.
Tuy nhiên, khi lĩnh vực này trưởng thành và những hạn chế này được giải quyết, zkML sẽ trở thành một thành phần quan trọng của việc tích hợp trí tuệ nhân tạo với mật mã. Theo cách nói khác, zkML hứa hẹn mang lại bất kỳ quy mô tính toán off-chain nào trên chuỗi, trong khi vẫn duy trì các đảm bảo an ninh tương tự như hoặc giống như việc chạy on-chain. Tuy nhiên, trước khi tầm nhìn này được thực hiện, những người sớm áp dụng công nghệ sẽ tiếp tục phải cân nhắc sự riêng tư và an ninh của zkML so với hiệu quả của các phương án thay thế.
Các Đại lý Trí tuệ Nhân tạo
Một trong những sự kết hợp hứa hẹn nhất của trí tuệ nhân tạo và tiền điện tử là thí nghiệm liên tục với các đại lý trí tuệ nhân tạo. Các đại lý là những robot tự động có khả năng nhận, hiểu và thực thi các nhiệm vụ bằng cách sử dụng các mô hình trí tuệ nhân tạo. Điều này có thể từ việc có một trợ lý cá nhân luôn sẵn sàng, được điều chỉnh tỉ mỉ theo sở thích của bạn, đến việc thuê một đại lý tài chính để quản lý và điều chỉnh danh mục đầu tư dựa trên sở thích rủi ro của bạn.
Với việc tiền điện tử cung cấp cơ sở hạ tầng thanh toán không cần phép và không tin cậy, các đại lý và tiền điện tử có thể được tích hợp tốt. Một khi được đào tạo, các đại lý sẽ có một ví tiền, cho phép họ thực hiện giao dịch một cách tự do bằng cách sử dụng hợp đồng thông minh. Ví dụ, ngày nay, các đại lý có thể thu thập thông tin trên internet và sau đó giao dịch trên thị trường dự đoán dựa trên các mô hình.
Morpheus là một trong những dự án đặc vụ mã nguồn mở mới nhất được ra mắt vào năm 2024 trên Ethereum và Arbitrum. Bài báo trắng của nó được xuất bản một cách ẩn danh vào tháng 9 năm 2023, cung cấp một nền tảng cho việc hình thành cộng đồng và xây dựng, bao gồm các nhân vật nổi bật như Erik Vorhees. Bài báo trắng bao gồm một giao thức đặc vụ thông minh có thể tải xuống, một LLM mã nguồn mở có thể chạy địa phương, được quản lý bởi ví của người dùng và tương tác với các hợp đồng thông minh. Nó sử dụng bảng xếp hạng hợp đồng thông minh để giúp các đặc vụ xác định hợp đồng thông minh nào có thể tương tác an toàn dựa trên các tiêu chí như số giao dịch được xử lý.
Bản sách trắng cũng cung cấp một khung cho việc xây dựng mạng lưới Morpheus, bao gồm cấu trúc khuyến khích và cơ sở hạ tầng cần thiết để chạy giao thức đại lý thông minh. Điều này bao gồm các khuyến khích cho người đóng góp xây dựng giao diện trước để tương tác với các đại lý, API cho các nhà phát triển xây dựng các đại lý cắm cho tương tác tương hỗ, và các giải pháp đám mây cho người dùng truy cập tính toán và lưu trữ cần thiết để chạy các đại lý trên thiết bị cạnh. Quỹ ban đầu của dự án đã được ra mắt vào đầu tháng Hai, dự kiến giao thức đầy đủ sẽ ra mắt vào quý hai năm 2024.
Mạng cơ sở hạ tầng tự trị phi tập trung (DAIN) là một giao thức cơ sở hạ tầng đại lý mới xây dựng nền kinh tế giữa đại lý với đại lý trên Solana. Mục tiêu của DAIN là cho phép các đại lý từ các doanh nghiệp khác nhau tương tác liền mạch với nhau thông qua một API chung, mở ra đáng kể không gian thiết kế cho các tác nhân AI, tập trung vào các tác nhân có thể tương tác với cả sản phẩm web2 và web3. Vào tháng Giêng, DAIN đã công bố quan hệ đối tác đầu tiên với Asset Shield, cho phép người dùng thêm "người ký đại lý" vào multisig của họ, có khả năng diễn giải các giao dịch và phê duyệt / từ chối dựa trên các quy tắc do người dùng đặt ra.
Fetch.AI là một trong những giao thức đại lý AI triển khai sớm nhất và đã phát triển một hệ sinh thái để xây dựng, triển khai và sử dụng các đại lý trên chuỗi sử dụng token FET và ví Fetch.AI. Giao thức cung cấp một bộ công cụ và ứng dụng toàn diện để sử dụng các đại lý, bao gồm các chức năng ví trong để tương tác và đặt hàng với các đại lý.
Autonolas, được thành lập bởi các cựu thành viên của nhóm Fetch, là một thị trường mở để tạo ra và sử dụng các đại lý AI phi tập trung. Autonolas cũng cung cấp một bộ công cụ cho các nhà phát triển để xây dựng các đại lý AI được lưu trữ ngoại chuỗi có thể kết nối với nhiều chuỗi khối khác nhau, bao gồm Polygon, Ethereum, Gnosis Chain và Solana. Hiện họ đang có một số sản phẩm mẫu chứng minh đang hoạt động, bao gồm thị trường dự đoán và quản trị DAO.
SingularityNet đang xây dựng một thị trường phi tập trung cho các đại lý trí tuệ nhân tạo, nơi các đại lý trí tuệ chuyên biệt có thể được triển khai, có thể được thuê bởi người khác hoặc các đại lý để thực hiện các nhiệm vụ phức tạp. Các công ty khác như AlteredStateMachine đang xây dựng tích hợp của các đại lý trí tuệ với NFTs. Người dùng tạo ra NFTs với các thuộc tính ngẫu nhiên, giúp họ có lợi thế và bất lợi trong các nhiệm vụ khác nhau. Các đại lý này sau đó có thể được đào tạo để cải thiện một số thuộc tính cụ thể để sử dụng trong trò chơi, DeFi, hoặc như trợ lý ảo và được giao dịch với người dùng khác.
Nhìn chung, các dự án này hình dung ra một hệ sinh thái tương lai của các tác nhân có khả năng hợp tác làm việc không chỉ để thực hiện các nhiệm vụ mà còn giúp xây dựng trí tuệ nhân tạo nói chung. Các tác nhân thực sự phức tạp sẽ có khả năng tự động hoàn thành bất kỳ tác vụ nào của người dùng. Ví dụ: các đại lý hoàn toàn tự trị sẽ có thể tìm ra cách thuê một đại lý khác để tích hợp API, sau đó thực hiện một tác vụ mà không cần phải đảm bảo đại lý đã tích hợp với các API bên ngoài (như trang web đặt vé du lịch) trước khi sử dụng. Từ quan điểm của người dùng, không cần phải kiểm tra xem một tổng đài viên có thể hoàn thành một nhiệm vụ hay không, vì tổng đài viên có thể tự xác định điều này.
Vào tháng 7 năm 2023, Lightning Labs đã đưa ra một triển khai bằng chứng khái niệm để sử dụng các tác nhân trên Lightning Network, được LangChain đặt tên là bộ Bitcoin. Sản phẩm này đặc biệt hấp dẫn vì nó nhằm mục đích giải quyết một vấn đề đang ngày càng trở nên nghiêm trọng trong thế giới Web 2 — các khóa API được kiểm soát và tốn kém của các ứng dụng web.
LangChain giải quyết vấn đề này bằng cách cung cấp cho các nhà phát triển một bộ công cụ cho phép các đại lý mua, bán và nắm giữ Bitcoin, cũng như truy vấn khóa API và gửi thanh toán siêu nhỏ. Trên hệ thống thanh toán truyền thống, thanh toán siêu nhỏ rất đắt đỏ do phí, nhưng trên Lightning Network, các đại lý có thể gửi một số lượng không giới hạn thanh toán siêu nhỏ hàng ngày với chi phí tối thiểu. Khi sử dụng kết hợp với khung API đo lường thanh toán L402 của LangChain, các công ty có thể điều chỉnh chi phí truy cập vào các API của họ dựa trên sự tăng giảm trong việc sử dụng, thay vì đặt một tiêu chuẩn đắt đỏ duy nhất.
Trong tương lai, hoạt động chuỗi sẽ chủ yếu được thúc đẩy bởi sự tương tác giữa các đại lý và đại lý, đòi hỏi cơ chế để đảm bảo các đại lý có thể tương tác với nhau mà không tốn kém. Ví dụ sớm này đã cho thấy tiềm năng của việc sử dụng các đại lý trên các đường ray thanh toán không cần phép và hiệu quả về mặt kinh tế, mở ra cơ hội cho các thị trường mới và các tương tác kinh tế.
Lĩnh vực của các đại lý vẫn còn non trẻ. Các dự án chỉ mới bắt đầu triển khai các đại lý hoạt động có khả năng xử lý các nhiệm vụ đơn giản—truy cập thường chỉ dành cho các nhà phát triển và người dùng có kinh nghiệm. Tuy nhiên, theo thời gian, một trong những ảnh hưởng quan trọng nhất của các đại lý trí tuệ nhân tạo đối với tiền điện tử sẽ là cải thiện trải nghiệm người dùng trên tất cả các phân ngành. Các giao dịch sẽ bắt đầu chuyển từ dựa vào cú nhấp sang dựa vào văn bản, cho phép người dùng tương tác với các đại lý trên chuỗi thông qua giao diện trò chuyện. Các nhóm như Dawn Wallet đã phát hành ví chatbot, cho phép người dùng tương tác trên chuỗi.
Ngoài ra, vẫn chưa rõ làm cách nào các đại lý sẽ hoạt động trong Web 2, khi các đường ray tài chính phụ thuộc vào các tổ chức ngân hàng được quy định không thể hoạt động 24/7 hoặc tạo điều kiện thuận lợi cho giao dịch xuyên biên giới. Như Lyn Alden đã nhấn mạnh, việc thiếu hoàn lại và khả năng xử lý các giao dịch nhỏ khiến các đường ray tiền điện tử trở nên đặc biệt hấp dẫn so với thẻ tín dụng. Tuy nhiên, nếu các đại lý trở thành phương tiện giao dịch phổ biến hơn, các nhà cung cấp thanh toán và ứng dụng hiện có có khả năng sẽ nhanh chóng thích nghi, triển khai cơ sở hạ tầng cần thiết để hoạt động trên các đường ray tài chính hiện có, từ đó làm giảm một số lợi ích của việc sử dụng tiền điện tử.
Hiện tại, các đại lý có thể bị hạn chế trong các giao dịch tiền điện tử xác định, nơi một đầu vào cụ thể đảm bảo một đầu ra cụ thể. Cả hai mô hình đã chỉ ra khả năng của những đại lý này để tìm ra cách thực hiện các nhiệm vụ phức tạp, và các công cụ đang mở rộng phạm vi các nhiệm vụ mà chúng có thể hoàn thành, cả hai đều đòi hỏi sự phát triển tiếp theo. Để các đại lý tiền điện tử trở nên hữu ích hơn ngoài các trường hợp sử dụng tiền điện tử trên chuỗi mới lạ, cần có sự tích hợp và chấp nhận rộng rãi hơn của tiền điện tử như một hình thức thanh toán, cùng với sự rõ ràng về quy định. Tuy nhiên, khi những yếu tố này phát triển, các đại lý sẵn sàng trở thành một trong những người tiêu dùng lớn nhất của các giải pháp tính toán phi tập trung và zkML, tự động nhận và giải quyết bất kỳ nhiệm vụ nào theo cách không xác định.
Trí tuệ nhân tạo đưa ra những đổi mới tương tự cho tiền điện tử mà chúng ta đã thấy trong web2, nâng cao mọi thứ từ phát triển cơ sở hạ tầng đến trải nghiệm người dùng và tính sẵn có. Tuy nhiên, các dự án vẫn đang ở giai đoạn đầu của quá trình phát triển, và việc tích hợp tiền điện tử và trí tuệ nhân tạo trong tương lai gần chủ yếu sẽ do tích hợp ngoại chuỗi thúc đẩy.
Các sản phẩm như Copilot được thiết lập để “tăng hiệu suất phát triển lên 10 lần,” và các ứng dụng Layer 1 và DeFi đã ra mắt nền tảng phát triển hỗ trợ AI phối hợp với các công ty lớn như Microsoft. Các công ty như Cub3.ai và Test Machine đang phát triển tích hợp AI cho việc kiểm tra hợp đồng thông minh và giám sát đe dọa theo thời gian thực để tăng cường an ninh trên chuỗi. Các chatbot LLM đang được huấn luyện với dữ liệu trên chuỗi, tài liệu giao thức và ứng dụng để cung cấp trải nghiệm và khả năng tiếp cận tốt hơn cho người dùng.
Thách thức đối với các tích hợp tiên tiến hơn thực sự tận dụng công nghệ cơ bản của tiền điện tử vẫn là chứng minh rằng triển khai các giải pháp AI trên chuỗi là kỹ thuật và kinh tế khả thi. Việc phát triển tính toán phi tập trung, zkML và các đại lý AI chỉ ra các lĩnh vực hứa hẹn mà đặt nền móng cho một tương lai sâu kết nối của tiền điện tử và AI.
Sự xuất hiện của các chuỗi khối công cộng đánh dấu một bước tiến sâu sắc trong lịch sử khoa học máy tính, trong khi việc phát triển trí tuệ nhân tạo đang có một tác động đáng kể đối với thế giới của chúng ta. Công nghệ Blockchain cung cấp các mẫu mới cho việc thanh toán giao dịch, lưu trữ dữ liệu và thiết kế hệ thống, trong khi trí tuệ nhân tạo đại diện cho một cuộc cách mạng trong tính toán, phân tích và cung cấp nội dung. Các đổi mới trong các ngành này đang mở ra các trường hợp sử dụng mới có thể tăng tốc việc áp dụng của cả hai lĩnh vực trong những năm tới. Báo cáo này xem xét sự tích hợp liên tục giữa tiền điện tử và trí tuệ nhân tạo, tập trung vào các trường hợp sử dụng mới mà mục tiêu là nối kết khoảng cách giữa hai lĩnh vực này và tận dụng những điểm mạnh của chúng. Đặc biệt, nó tập trung vào các dự án phát triển giao thức tính toán phi tập trung, cơ sở hạ tầng học máy zero-knowledge (zkML) và các đại lý trí tuệ nhân tạo.
Tiền điện tử cung cấp một lớp thanh toán không cần phép, không tin cậy và có thể ghép lớp cho trí tuệ nhân tạo, mở khóa các trường hợp sử dụng như việc truy cập dễ dàng hơn đến phần cứng thông qua hệ thống tính toán phi tập trung, xây dựng các đại lý trí tuệ nhân tạo có khả năng thực hiện các nhiệm vụ phức tạp đòi hỏi trao đổi giá trị, và phát triển các giải pháp danh tính và xuất xứ để chống lại các cuộc tấn công Sybil và deepfakes. Trí tuệ nhân tạo mang đến cho tiền điện tử nhiều lợi ích tương tự như những gì thấy trong Web 2.0, bao gồm trải nghiệm người dùng và nhà phát triển được nâng cao thông qua các mô hình ngôn ngữ lớn như ChatGPT và Copilot, và khả năng cải thiện đáng kể chức năng và tiềm năng tự động hóa cho các hợp đồng thông minh. Blockchain cung cấp môi trường minh bạch, dữ liệu phong phú cần thiết cho trí tuệ nhân tạo, mặc dù sức mạnh tính toán hạn chế của blockchain là một rào cản lớn đối với tích hợp trực tiếp của các mô hình trí tuệ nhân tạo.
Các thử nghiệm và việc áp dụng cuối cùng trong sự giao thoa của tiền điện tử và Trí tuệ nhân tạo được thúc đẩy bởi những lực lượng tương tự những lực lượng thúc đẩy các trường hợp sử dụng tiềm năng nhất cho tiền điện tử: truy cập vào một tầng phối hợp không cần phép và không tin cậy, tạo điều kiện cho việc chuyển giá trị tốt hơn. Với tiềm năng rộng lớn, các bên liên quan trong lĩnh vực này cần hiểu rõ các cách cơ bản mà những công nghệ này giao nhau.
Trí tuệ nhân tạo là việc sử dụng tính toán và máy móc để mô phỏng khả năng suy luận và giải quyết vấn đề của con người.
Mạng thần kinh là một phương pháp huấn luyện các mô hình trí tuệ nhân tạo. Chúng chạy các đầu vào qua các lớp thuật toán rời rạc, tinh luyện chúng cho đến khi đầu ra mong muốn được tạo ra. Mạng thần kinh bao gồm các phương trình với trọng số có thể được điều chỉnh để thay đổi đầu ra. Chúng có thể yêu cầu dữ liệu và tính toán một cách toàn diện để đảm bảo đầu ra chính xác. Điều này là một trong những cách phổ biến nhất để phát triển các mô hình trí tuệ nhân tạo (ví dụ, ChatGPT dựa vào một quy trình mạng thần kinh dựa trên Transformers).
Đào tạo là quá trình phát triển mạng nơ-ron và các mô hình AI khác. Đòi hỏi một lượng dữ liệu đáng kể để huấn luyện mô hình để đọc đúng thông tin đầu vào và tạo ra kết quả chính xác. Trong quá trình đào tạo, trọng số phương trình của mô hình được liên tục điều chỉnh cho đến khi có kết quả hài lòng. Việc đào tạo có thể rất tốn kém. Ví dụ, ChatGPT sử dụng hàng chục nghìn GPU của riêng mình để xử lý dữ liệu. Các nhóm có ít tài nguyên thường phải dựa vào các nhà cung cấp máy tính chuyên biệt, chẳng hạn như Amazon Web Services, Azure và các nhà cung cấp dịch vụ Đám mây của Google.
Suy luận là việc sử dụng thực tế của các mô hình AI để có được đầu ra hoặc kết quả (ví dụ, sử dụng ChatGPT để tạo một đề cương cho một bài báo về sự giao thoa giữa tiền điện tử và AI). Suy luận được sử dụng trong suốt quá trình đào tạo và trong sản phẩm cuối cùng. Do chi phí tính toán, ngay cả sau khi đào tạo hoàn tất, chi phí vận hành của họ có thể cao, mặc dù độ tập trung tính toán của họ thấp hơn so với quá trình đào tạo.
Zero-Knowledge Proofs (ZKP) cho phép xác minh các tuyên bố mà không tiết lộ thông tin cơ bản. Điều này hữu ích trong tiền điện tử vì hai lý do chính: 1) Sự riêng tư và 2) Mở rộng. Đối với sự riêng tư, nó cho phép người dùng thực hiện giao dịch mà không tiết lộ thông tin nhạy cảm (ví dụ, có bao nhiêu ETH trong ví). Đối với việc mở rộng, nó cho phép tính toán ngoại bảng được chứng minh trên chuỗi nhanh hơn so với việc thực hiện lại các tính toán. Điều này cho phép các chuỗi khối và ứng dụng chạy tính toán một cách rẻ hơn ngoại bảng và sau đó xác minh chúng trên chuỗi. Để biết thêm thông tin về zero-knowledge và vai trò của nó trong Máy Ảo Ethereum, xem báo cáo của Christine Kim về zkEVMs: Tương lai của Khả năng Mở rộng Ethereum.
Các dự án tích hợp trí tuệ nhân tạo và tiền điện tử vẫn đang xây dựng cơ sở hạ tầng cần thiết để hỗ trợ tương tác trí tuệ nhân tạo trên chuỗi quy mô lớn.
Các thị trường máy tính phân cấp đang nổi lên để cung cấp phần cứng vật lý rộng lớn cần thiết để huấn luyện và suy luận mô hình AI, chủ yếu dưới dạng Đơn vị Xử lý Đồ họa (GPU). Các thị trường hai phía này kết nối những người cho thuê và những người muốn thuê máy tính, tạo điều kiện cho việc chuyển giá trị và xác minh các tính toán. Trong máy tính phân cấp, một số tiểu mục cung cấp các chức năng bổ sung đang nổi lên. Ngoài thị trường song phương, bản báo cáo này cũng xem xét các nhà cung cấp đào tạo máy học cung cấp việc đào tạo có thể xác minh và điều chỉnh các đầu ra, cũng như các dự án dành riêng cho việc liên kết tính toán và tạo mô hình để kích hoạt AI, thường được gọi là các mạng khuyến khích thông minh.
zkML là một lĩnh vực tập trung mới nổi cho các dự án nhằm cung cấp đầu ra mô hình có thể xác minh trên chuỗi một cách kinh tế và kịp thời. Các dự án này chủ yếu cho phép ứng dụng xử lý yêu cầu tính toán nặng nề ngoại chuỗi, sau đó đăng đầu ra có thể xác minh trên chuỗi, chứng minh rằng công việc ngoại chuỗi đã hoàn thành và chính xác. zkML hiện đang đắt đỏ và tốn thời gian nhưng ngày càng được sử dụng nhiều hơn như một giải pháp. Điều này rõ ràng qua sự tăng số lượng tích hợp giữa các nhà cung cấp zkML và các ứng dụng DeFi/gaming muốn tận dụng mô hình AI.
Việc cung cấp tính toán đầy đủ và khả năng xác minh tính toán trên chuỗi mở cánh cửa cho các đại lý Trí tuệ nhân tạo trên chuỗi. Các đại lý là các mô hình được đào tạo có khả năng thực hiện yêu cầu thay mặt cho người dùng. Các đại lý mang lại cơ hội tăng cường trải nghiệm trên chuỗi đáng kể, cho phép người dùng thực hiện các giao dịch phức tạp chỉ bằng cách trò chuyện với một trợ lý ảo. Tuy nhiên, đến nay, các dự án đại lý vẫn tập trung vào việc phát triển cơ sở hạ tầng và công cụ để triển khai dễ dàng và nhanh chóng.
Trí tuệ nhân tạo đòi hỏi tính toán mở rộng để đào tạo các mô hình và chạy suy luận. Trong thập kỷ qua, khi các mô hình ngày càng trở nên phức tạp, nhu cầu tính toán đã tăng theo cấp số nhân. Chẳng hạn, OpenAI quan sát thấy rằng từ năm 2012 đến 2018, nhu cầu tính toán của các mô hình của nó tăng gấp đôi sau mỗi hai năm, chuyển sang tăng gấp đôi sau mỗi ba tháng rưỡi. Điều này dẫn đến sự gia tăng nhu cầu về GPU, với một số thợ đào tiền điện tử thậm chí còn tái sử dụng GPU của họ để cung cấp dịch vụ điện toán đám mây. Khi sự cạnh tranh về truy cập tính toán tăng cường và chi phí tăng lên, một số dự án đang tận dụng công nghệ mật mã để cung cấp các giải pháp điện toán phi tập trung. Họ cung cấp máy tính theo yêu cầu với giá cả cạnh tranh, cho phép các nhóm đào tạo và chạy các mô hình với giá cả phải chăng. Trong một số trường hợp, sự đánh đổi có thể liên quan đến hiệu suất và bảo mật.
Nhu cầu về các GPU tiên tiến (ví dụ như những sản phẩm của Nvidia) là rất lớn. Vào tháng 9, Tether đã mua cổ phần tại công ty đào bitcoin Đức Northern Data, được cho là đã chi khoảng $420 triệu để mua 10,000 H100 GPUs (một trong những loại GPU tiên tiến nhất cho việc đào tạo trí tuệ nhân tạo). Thời gian chờ để sở hữu phần cứng hàng đầu có thể kéo dài ít nhất là sáu tháng, nếu không phải hơn trong nhiều trường hợp. Xấu hơn nữa, các công ty thường phải ký các hợp đồng dài hạn để đảm bảo khối lượng tính toán mà họ có thể không sử dụng. Điều này có thể dẫn đến tình huống nơi tài nguyên tính toán có sẵn nhưng không thể truy cập trên thị trường. Hệ thống tính toán phi tập trung giúp giải quyết những không hiệu quả trên thị trường này bằng cách tạo ra một thị trường phụ nơi chủ sở hữu tính toán có thể ngay lập tức cho thuê lại năng lực dư thừa của họ khi nhận thông báo, qua đó tạo ra nguồn cung mới.
Ngoài giá cả cạnh tranh và tính khả dễ tiếp cận, một đề xuất giá trị chính của máy tính phi tập trung là sự chống đối với việc kiểm duyệt. Việc phát triển trí tuệ nhân tạo tiên tiến ngày càng bị các công ty công nghệ lớn với khả năng truy cập dữ liệu và tính toán vượt trội chiếm ưu thế. Chủ đề chính đầu tiên được đề cập trong Báo cáo hàng năm 2023 về Chỉ số Trí tuệ Nhân tạo là sự vượt qua ngày càng tăng của ngành công nghiệp so với giáo dục đại học trong việc phát triển các mô hình Trí tuệ Nhân tạo, tập trung quyền lực vào tay một số lãnh đạo công nghệ. Điều này đặt ra lo ngại về khả năng của họ trong việc ảnh hưởng đáng kể trong việc thiết lập các quy chuẩn và giá trị cơ bản dưới lõi các mô hình Trí tuệ Nhân tạo, đặc biệt sau khi các công ty công nghệ này đẩy mạnh việc quy định để hạn chế việc phát triển Trí tuệ Nhân tạo không kiểm soát được.
Một số mô hình điện toán phi tập trung đã xuất hiện trong những năm gần đây, mỗi mô hình đều có trọng tâm và sự đánh đổi riêng.
Nói chung, các dự án như Akash, io.net, iEx và Cudos là các ứng dụng của điện toán phi tập trung, cung cấp ngoài dữ liệu và các giải pháp tính toán chung, truy cập vào tính toán chuyên biệt để đào tạo và suy luận AI. Akash nổi bật là nền tảng "siêu đám mây" mã nguồn mở hoàn toàn duy nhất, sử dụng Cosmos SDK cho mạng bằng chứng cổ phần của nó. AKT, token gốc của Akash, đóng vai trò là phương thức thanh toán để bảo mật mạng và khuyến khích sự tham gia. Ra mắt vào năm 2020, mainnet của Akash ban đầu tập trung vào thị trường điện toán đám mây không cần cấp phép, có các dịch vụ lưu trữ và cho thuê CPU. Vào tháng 6/2023, Akash đã giới thiệu mạng thử nghiệm tập trung vào GPU, tiếp theo là ra mắt mạng chính GPU vào tháng 9, cho phép đào tạo AI và cho thuê GPU suy luận.
Hệ sinh thái Akash bao gồm hai người tham gia chính: người thuê, người tìm kiếm tài nguyên máy tính và nhà cung cấp, nhà cung cấp điện toán. Quy trình đấu giá ngược tạo điều kiện thuận lợi cho việc kết hợp người thuê và nhà cung cấp, trong đó người thuê đăng các yêu cầu tính toán của họ, bao gồm vị trí máy chủ hoặc loại phần cứng ưa thích và ngân sách của họ. Các nhà cung cấp sau đó đấu thầu, với người trả giá thấp nhất được trao nhiệm vụ. Trình xác thực duy trì tính toàn vẹn của mạng, với giới hạn hiện tại là 100 trình xác thực, được lên kế hoạch tăng theo thời gian. Việc tham gia với tư cách là trình xác thực được mở cho những người đặt cược nhiều AKT hơn trình xác thực hiện tại ít được đặt cược nhất. Chủ sở hữu AKT có thể ủy quyền mã thông báo của họ cho người xác thực, với phí giao dịch và phần thưởng khối được phân phối trong AKT. Hơn nữa, đối với mỗi hợp đồng thuê, mạng lưới Akash kiếm được một "tỷ lệ lấy", do cộng đồng quyết định, được phân phối cho chủ sở hữu AKT.
Thị trường phụ cho tính toán phi tập trung nhằm giải quyết sự không hiệu quả trong thị trường tính toán hiện tại, nơi hạn chế cung cấp dẫn đến việc các công ty tích trữ tài nguyên vượt quá nhu cầu và hợp đồng dài hạn với các nhà cung cấp đám mây hạn chế cung cấp thêm. Các nền tảng tính toán phi tập trung mở khóa nguồn cung mới, cho phép bất kỳ ai có nhu cầu về tính toán trở thành một nhà cung cấp.
Cho dù sự tăng vọt trong nhu cầu về GPU cho việc đào tạo AI dẫn đến việc sử dụng mạng bền vững trên Akash hay không vẫn còn chưa rõ. Lịch sử cho thấy, Akash đã cung cấp dịch vụ thị trường dựa trên CPU với mức giảm giá 70-80% so với các lựa chọn tập trung, tuy nhiên chiến lược giá này chưa đẩy mạnh việc áp dụng. Hoạt động mạng, được đo bằng số lượng thuê, đã ổn định, với mức sử dụng trung bình là 33% tính toán, 16% bộ nhớ và 13% lưu trữ vào quý II năm 2023, ấn tượng cho sự áp dụng trên chuỗi nhưng biểu hiện rằng cung vẫn vượt quá nhu cầu. Nửa năm kể từ khi mạng GPU được ra mắt, vẫn còn quá sớm để đưa ra một đánh giá chắc chắn về sự áp dụng lâu dài, tuy nhiên dấu hiệu ban đầu cho thấy mức sử dụng GPU trung bình là 44%, chủ yếu do nhu cầu về GPU chất lượng cao như A100, hơn 90% đã được cho thuê.
Chi phí hàng ngày của Akash gần như tăng gấp đôi kể từ khi có sự ra đời của GPU, một phần được cho là do việc sử dụng tăng lên của các dịch vụ khác, đặc biệt là CPU, nhưng chủ yếu là do việc sử dụng GPU mới.
Giá cả cạnh tranh hơn hoặc trong một số trường hợp đắt hơn so với các đối tác tập trung như Lambda Cloud và Vast.ai. Nhu cầu cao về GPU cao cấp, như H100 và A100, có nghĩa là hầu hết chủ sở hữu của thiết bị như vậy không quan tâm đến việc niêm yết chúng trên thị trường có giá cạnh tranh.
Mặc dù lợi nhuận ban đầu, nhưng vẫn còn tồn tại rào cản về sự chấp nhận. Các mạng máy tính phi tập trung phải tiến thêm bước nữa để tạo ra cung cầu, với các nhóm nghiên cứu cách tốt nhất để thu hút người dùng mới. Ví dụ, vào đầu năm 2024, Akash đã thông qua Đề xuất 240, tăng lượng phát hành AKT cho các nhà cung cấp GPU để khích lệ thêm cung cầu, đặc biệt là đối với GPU cao cấp. Các nhóm cũng đang làm việc trên các mô hình chứng minh khái niệm để thể hiện khả năng thực tế của mạng lưới của họ đối với người dùng tiềm năng. Akash đang huấn luyện các mô hình cơ bản của mình và đã ra mắt các sản phẩm chatbot và tạo hình ảnh sử dụng GPU của Akash. Tương tự, io.net đã phát triển một mô hình khuếch tán ổn định và đang tung ra các chức năng mạng mới để mô phỏng tốt hơn hiệu suất và quy mô mạng lưới.
Ngoài các nền tảng máy tính chung có thể đáp ứng nhu cầu của trí tuệ nhân tạo, một nhóm các nhà cung cấp GPU AI chuyên nghiệp tập trung vào việc huấn luyện mô hình học máy cũng đang nổi lên. Ví dụ, Gensyn đang “phối hợp sức mạnh và phần cứng để xây dựng trí tuệ tập thể,” với triết lý rằng “nếu ai đó muốn huấn luyện cái gì đó và có người sẵn lòng huấn luyện nó, thì huấn luyện này nên được phép diễn ra.”
Giao thức này liên quan đến bốn đối tác chính: người gửi, người giải quyết, người xác thực và người tố cáo. Người gửi gửi nhiệm vụ với yêu cầu đào tạo vào mạng lưới. Các nhiệm vụ này bao gồm các mục tiêu đào tạo, các mô hình cần được đào tạo và dữ liệu đào tạo. Như một phần của quá trình nộp, người gửi cần trả trước chi phí tính toán ước lượng cần thiết bởi người giải quyết.
Sau khi nộp, các nhiệm vụ được giao cho những người giải quyết thực sự thực hiện việc đào tạo mô hình. Sau đó, những người giải quyết nộp các nhiệm vụ đã hoàn thành cho những người xác nhận, người có trách nhiệm kiểm tra việc đào tạo để đảm bảo rằng nó đã được hoàn thành đúng cách. Người tiết lộ thông tin được giao nhiệm vụ đảm bảo rằng người xác nhận hành động một cách trung thực. Để khuyến khích người tiết lộ thông tin tham gia vào mạng lưới, Gensyn dự định thường xuyên cung cấp bằng chứng sai lầm cố ý, thưởng cho những người tiết lộ thông tin bắt được chúng.
Ngoài việc cung cấp tính toán cho các khối công việc liên quan đến trí tuệ nhân tạo, một điểm chào bán chính của Gensyn là hệ thống xác minh của nó, hiện đang trong quá trình phát triển. Việc xác minh là cần thiết để đảm bảo rằng tính toán bên ngoài do các nhà cung cấp GPU thực hiện một cách chính xác (tức là đảm bảo rằng các mô hình của người dùng được huấn luyện theo cách họ mong muốn). Gensyn giải quyết vấn đề này bằng cách tiếp cận độc đáo, sử dụng các phương pháp xác minh mới gọi là “chứng minh học lập thể, giao thức chính xác dựa trên đồ thị, và trò chơi khuyến khích kiểu Truebit.” Đây là một mô hình giải quyết lạc quan cho phép các validator xác nhận rằng các solver đã chạy mô hình đúng cách mà không cần phải chạy lại toàn bộ mô hình một cách đầy đủ, một quy trình mà tốn kém và không hiệu quả.
Ngoài phương pháp xác minh sáng tạo của mình, Gensyn cũng tuyên bố rằng nó tiết kiệm chi phí hơn so với các lựa chọn tập trung và đối thủ tiền điện tử - cung cấp giá đào tạo ML giảm đến 80% so với AWS, trong khi vượt trội so với các dự án tương tự như Truebit trong các bài kiểm tra.
Dù kết quả ban đầu này có thể được tái tạo trên quy mô lớn trong các mạng phi tập trung vẫn còn phải xem xét. Gensyn hy vọng sử dụng khả năng tính toán dư thừa của các nhà cung cấp như trung tâm dữ liệu nhỏ, người dùng bán lẻ và cuối cùng là các thiết bị di động nhỏ như điện thoại thông minh. Tuy nhiên, như đội ngũ Gensyn thừa nhận, việc phụ thuộc vào các nhà cung cấp tính toán không đồng nhất đưa ra một số thách thức mới.
Đối với các nhà cung cấp tập trung như Google Cloud và Coreweave, chi phí tính toán rất đắt đỏ, nhưng giao tiếp giữa các tính toán (băng thông và độ trễ) lại rất rẻ. Các hệ thống này được thiết kế để tạo điều kiện cho việc giao tiếp giữa phần cứng càng nhanh càng tốt. Gensyn phá vỡ cấu trúc này bằng cách giảm chi phí tính toán thông qua việc cho phép bất kỳ ai trên thế giới cung cấp GPU, nhưng đồng thời tăng chi phí giao tiếp, vì mạng bây giờ phải phối hợp các công việc tính toán trên phần cứng không đồng nhất ở xa. Gensyn vẫn chưa ra mắt, nhưng nó đại diện cho một bằng chứng về khái niệm có thể thực hiện khi xây dựng một giao thức đào tạo học máy phi tập trung.
Các nền tảng tính toán phi tập trung cũng cung cấp khả năng thiết kế phương pháp tạo ra trí tuệ nhân tạo. Bittensor là một giao thức tính toán phi tập trung được xây dựng trên Substrate, cố gắng trả lời câu hỏi "Làm thế nào chúng ta biến trí tuệ nhân tạo thành một phương pháp cộng tác?" Bittensor nhắm mục tiêu đạt được sự phi tập trung và thương mại hóa việc tạo ra trí tuệ nhân tạo. Ra mắt vào năm 2021, hy vọng sử dụng sức mạnh của các mô hình học máy cộng tác để liên tục lặp lại và tạo ra trí tuệ nhân tạo tốt hơn.
Bittensor lấy cảm hứng từ Bitcoin, với đồng tiền cố định của nó, TAO, có giới hạn cung 21 triệu và chu kỳ halving mỗi bốn năm (halving đầu tiên được đặt vào năm 2025). Không giống như việc sử dụng Proof of Work để tạo ra các số ngẫu nhiên chính xác và kiếm phần thưởng khối, Bittensor dựa vào “Proof of Intelligence,” yêu cầu các máy đào chạy các mô hình để tạo ra kết quả đáp ứng yêu cầu suy luận.
Khuyến khích Trí tuệ
Ban đầu, Bittensor dựa vào mô hình Hỗn hợp các chuyên gia (MoE) để tạo ra đầu ra. Khi một yêu cầu suy luận được gửi, mô hình MoE không dựa vào một mô hình tổng quát mà chuyển tiếp yêu cầu đến mô hình chính xác nhất cho loại đầu vào nhất định. Hãy tưởng tượng xây dựng một ngôi nhà, nơi bạn thuê nhiều chuyên gia khác nhau cho các khía cạnh khác nhau của quá trình xây dựng (ví dụ: kiến trúc sư, kỹ sư, họa sĩ, công nhân xây dựng, v.v.). MoE áp dụng điều này cho các mô hình học máy, cố gắng tận dụng đầu ra của các mô hình khác nhau dựa trên đầu vào. Theo giải thích của người sáng lập Bittensor, Ala Shaabana, điều này giống như "nói chuyện với một căn phòng đầy những người thông minh để có được câu trả lời tốt nhất, thay vì nói chuyện với một người." Do những thách thức trong việc đảm bảo định tuyến chính xác, đồng bộ hóa thông điệp với mô hình chính xác và các ưu đãi, phương pháp này đã bị gác lại cho đến khi dự án phát triển hơn nữa.
Trong mạng lưới Bittensor, có hai người tham gia chính: người xác minh và người đào. Người xác minh gửi yêu cầu suy luận đến người đào, xem xét kết quả của họ và xếp hạng dựa trên chất lượng của phản hồi của họ. Để đảm bảo xếp hạng của họ đáng tin cậy, người xác minh được cấp điểm “vtrust” dựa trên mức độ nhất quán của xếp hạng của họ so với người xác minh khác. Điểm vtrust cao hơn của một người xác minh, họ sẽ nhận được nhiều phát thải TAO hơn. Điều này nhằm khuyến khích người xác minh đạt được một sự đồng thuận về xếp hạng mô hình theo thời gian, vì càng nhiều người xác minh đồng ý về xếp hạng, điểm vtrust cá nhân của họ càng cao.
Người đào, còn được biết đến với tên gọi máy chủ, là các thành viên mạng tham gia chạy các mô hình học máy thực tế. Họ cạnh tranh để cung cấp các đầu ra chính xác nhất cho các truy vấn của các nhà xác thực, và càng chính xác các đầu ra, họ kiếm được càng nhiều phát thải TAO. Người đào có tự do tạo ra các đầu ra này theo ý muốn của họ. Ví dụ, trong tương lai, hoàn toàn có khả năng cho các nhà đào Bittensor đã huấn luyện trước các mô hình trên Gensyn và sử dụng chúng để kiếm phát thải TAO.
Ngày nay, hầu hết các tương tác xảy ra trực tiếp giữa trình xác thực và thợ đào. Người xác thực gửi đầu vào cho thợ đào và yêu cầu đầu ra (tức là đào tạo mô hình). Khi người xác thực truy vấn các thợ đào trên mạng và nhận được phản hồi của họ, họ xếp hạng các thợ đào và gửi thứ hạng của họ lên mạng.
Sự tương tác giữa các validator (phụ thuộc vào PoS) và các thợ đào (phụ thuộc vào Mô hình Proof, một dạng PoW) được gọi là sự đồng thuận Yuma. Nó nhằm mục đích khuyến khích các thợ đào tạo ra các đầu ra tốt nhất để kiếm các phát thải TAO và khuyến khích các validator xếp hạng đầu ra của thợ đào một cách chính xác, kiếm điểm vtrust cao hơn và tăng thưởng TAO của họ, từ đó hình thành một cơ chế đồng thuận cho mạng lưới.
Mạng con và ứng dụng
Các tương tác trên Bittensor chủ yếu liên quan đến các nhà xác minh gửi yêu cầu đến các máy đào và đánh giá đầu ra của họ. Tuy nhiên, khi chất lượng của các máy đào đóng góp cải thiện và thông minh tổng thể của mạng tăng lên, Bittensor đang tạo ra một lớp ứng dụng trên cùng của ngăn xếp hiện có của mình để các nhà phát triển có thể xây dựng các ứng dụng truy vấn mạng Bittensor.
Vào tháng 10 năm 2023, Bittensor đã giới thiệu các mạng con thông qua nâng cấp Revolution, thực hiện một bước quan trọng để đạt được mục tiêu này. Mạng con là các mạng riêng biệt trên Bittensor khuyến khích các hành vi cụ thể. Cuộc cách mạng đã mở mạng cho bất cứ ai quan tâm đến việc tạo ra các mạng con. Trong vòng vài tháng kể từ khi ra mắt, hơn 32 mạng con đã được đưa ra, bao gồm các mạng con cho lời nhắc văn bản, thu thập dữ liệu, tạo hình ảnh và lưu trữ. Khi các mạng con trưởng thành và sẵn sàng cho sản phẩm, người tạo mạng con cũng sẽ tạo tích hợp ứng dụng, cho phép các nhóm xây dựng các ứng dụng truy vấn các mạng con cụ thể. Một số ứng dụng, chẳng hạn như chatbot, trình tạo hình ảnh, bot trả lời Twitter và thị trường dự đoán, có tồn tại nhưng không có ưu đãi chính thức nào ngoài tài trợ từ Bittensor Foundation để người xác thực chấp nhận và chuyển tiếp các truy vấn này.
Để có một giải thích rõ ràng hơn, dưới đây là một ví dụ về cách Bittensor có thể hoạt động khi các ứng dụng được tích hợp vào mạng.
Các mạng con kiếm TAO dựa trên hiệu suất được đánh giá bởi mạng gốc. Mạng gốc, đặt ở phía trên tất cả các mạng con, về cơ bản hoạt động như một mạng con đặc biệt và được quản lý bởi 64 nhà xác minh mạng con lớn nhất theo cổ phần. Các nhà xác minh mạng gốc xếp hạng các mạng con dựa trên hiệu suất của họ và định kỳ phân bổ TAO cho các mạng con. Điều này giúp các mạng con cá nhân hoạt động như các thợ đào cho mạng gốc.
Tầm nhìn của Bittensor
Bittensor vẫn đang trải qua những khó khăn khi mở rộng chức năng của giao thức để khuyến khích việc tạo ra thông minh trên nhiều mạng con. Các nhà đào liên tục nghĩ ra những cách mới để tấn công mạng lưới để có thêm phần thưởng TAO, chẳng hạn như bằng cách thay đổi một chút kết quả của những suy luận được đánh giá cao chạy bởi mô hình của họ và sau đó gửi nhiều biến thể. Các đề xuất quản trị ảnh hưởng đến toàn bộ mạng lưới chỉ có thể được đệ trình và triển khai bởi Tam Hoàng, hoàn toàn bao gồm các bên liên quan từ Quỹ Opentensor (đáng chú ý, các đề xuất yêu cầu sự chấp thuận từ Thượng nghị viện Bittensor, gồm các bộ xác minh Bittensor, trước khi triển khai). Tokenomics của dự án đang được sửa đổi để tăng cường động lực cho việc sử dụng TAO qua các mạng con. Dự án cũng nhanh chóng trở nên nổi tiếng với cách tiếp cận độc đáo của mình, khi Giám đốc điều hành của một trong những trang web trí tuệ nhân tạo phổ biến nhất, HuggingFace, tuyên bố rằng Bittensor nên thêm tài nguyên của mình vào trang web.
Trong một bài viết gần đây mang tựa đề “Bittensor Paradigm” được đăng bởi các nhà phát triển chính, nhóm đã nêu ra tầm nhìn của Bittensor khi cuối cùng trở thành “agnostic to what is measured.” Về lý thuyết, điều này có thể cho phép Bittensor phát triển các mạng con khuyến khích bất kỳ loại hành vi nào được hỗ trợ bởi TAO. Tuy nhiên, vẫn tồn tại những hạn chế thực tế đáng kể — đặc biệt là chứng minh rằng những mạng này có thể mở rộng để xử lý một loạt quá trình đa dạng như vậy và rằng tiến cấp tiềm năng có thể thúc đẩy tiến triển vượt xa các sản phẩm tập trung.
Phần trên cung cấp một cái nhìn sâu rộng về các loại giao thức tính toán trí tuệ nhân tạo phi tập trung đang được phát triển. Trong giai đoạn phát triển và áp dụng sớm của họ, họ đặt nền móng cho một hệ sinh thái có thể cuối cùng tạo điều kiện cho việc tạo ra "các khối xây dựng AI," tương tự như khái niệm "tiền Legos" trong DeFi. Khả năng hòa nhập của các chuỗi khối không cần sự cho phép cho phép mỗi giao thức có thể được xây dựng trên cơ sở của giao thức khác, tạo ra một hệ sinh thái trí tuệ nhân tạo phi tập trung toàn diện hơn.
Ví dụ, đây là cách mà Akash, Gensyn và Bittensor có thể tương tác để đáp ứng yêu cầu suy luận.
Quan trọng là hiểu rằng điều này chỉ là một ví dụ về những gì có thể xảy ra trong tương lai, không phải là biểu hiện của hệ sinh thái hiện tại, các đối tác hiện có hoặc kết quả tiềm năng. Các hạn chế về khả năng tương tác và các yếu tố khác mô tả dưới đây hạn chế đáng kể các khả năng tích hợp ngày nay. Hơn nữa, sự phân mảnh của thanh khoản và cần phải sử dụng nhiều mã thông báo có thể làm tổn thương trải nghiệm người dùng, một điểm được nhắc đến bởi các nhà sáng lập Akash và Bittensor.
Ngoài lĩnh vực máy tính, đã có một số dịch vụ cơ sở hạ tầng phi tập trung khác được giới thiệu để hỗ trợ hệ sinh thái AI mới nổi trong không gian tiền điện tử. Liệt kê tất cả những dịch vụ này vượt quá phạm vi của báo cáo này, nhưng một số ví dụ thú vị và mạch lạc bao gồm:
Nhìn chung, những ví dụ này chỉ ra cho sự vô hạn gần như trong việc khám phá các mô hình thị trường phi tập trung hỗ trợ các mô hình trí tuệ nhân tạo hoặc cơ sở hạ tầng bên ngoài cần thiết để phát triển chúng. Hiện nay, hầu hết những dự án này đều đang ở giai đoạn chứng minh khái niệm và cần thêm nghiên cứu và phát triển để chứng minh rằng chúng có thể hoạt động ở quy mô cần thiết để cung cấp dịch vụ trí tuệ nhân tạo toàn diện.
Các sản phẩm máy tính phi tập trung vẫn đang ở giai đoạn đầu của sự phát triển. Chúng vừa mới bắt đầu triển khai khả năng tính toán tiên tiến, có khả năng huấn luyện các mô hình trí tuệ nhân tạo mạnh mẽ nhất trong quá trình sản xuất. Để có được một phần thị trường ý nghĩa, họ cần phải chứng minh được những điểm mạnh thực tế so với các lựa chọn tập trung. Những yếu tố tiềm năng để mở rộng sự áp dụng rộng rãi có thể bao gồm:
Hợp đồng thông minh là nền tảng của bất kỳ hệ sinh thái blockchain nào. Chúng tự động thực thi trong một tập hợp các điều kiện cụ thể, giảm hoặc loại bỏ sự cần thiết của các bên thứ ba đáng tin cậy, do đó cho phép tạo ra các ứng dụng phi tập trung phức tạp, chẳng hạn như các ứng dụng trong DeFi. Tuy nhiên, chức năng của hợp đồng thông minh vẫn còn hạn chế vì chúng hoạt động dựa trên các thông số đặt trước phải được cập nhật.
Ví dụ, một hợp đồng thông minh được triển khai cho một giao thức cho vay / vay, trong đó có các thông số kỹ thuật về thời điểm các vị trí nên được thanh lý dựa trên tỷ lệ cho vay trên giá trị cụ thể. Mặc dù hữu ích trong môi trường tĩnh, các hợp đồng thông minh này cần cập nhật liên tục để thích ứng với những thay đổi về khả năng chấp nhận rủi ro trong các tình huống động, đưa ra những thách thức cho các hợp đồng không được quản lý thông qua các quy trình tập trung. Ví dụ, DAO dựa vào các quy trình quản trị phi tập trung có thể không phản ứng đủ nhanh với các rủi ro hệ thống.
Việc tích hợp trí tuệ nhân tạo (tức là các mô hình học máy) vào các hợp đồng thông minh là một cách tiềm năng để tăng cường tính năng, bảo mật và hiệu quả trong khi cải thiện trải nghiệm người dùng. Tuy nhiên, những tích hợp này cũng mang lại các rủi ro bổ sung, vì không thể đảm bảo rằng các mô hình cơ sở của những hợp đồng thông minh này sẽ không bị lợi dụng hoặc không thể diễn giải được các tình huống long-tail (với sự khan hiếm của dữ liệu đầu vào, các tình huống long-tail khó để mô hình huấn luyện).
Học máy đòi hỏi mức tính toán đáng kể để chạy các mô hình phức tạp, làm cho việc chạy các mô hình AI trực tiếp trong các hợp đồng thông minh trở nên không thực tế do chi phí cao. Ví dụ, một giao thức DeFi cung cấp các mô hình tối ưu hóa lợi suất sẽ gặp khó khăn khi chạy các mô hình này trên chuỗi mà không gây ra phí Gas cấm kỵ. Một giải pháp là tăng khả năng tính toán của chuỗi khối cơ bản. Tuy nhiên, điều này cũng nâng cao yêu cầu cho các người xác thực của chuỗi, tiềm ẩn việc làm mất tính phân cấp. Thay vào đó, một số dự án đang khám phá việc sử dụng zkML để xác minh đầu ra một cách không cần thiết tính toán trên chuỗi.
Một ví dụ phổ biến minh họa tính hữu ích của zkML là khi người dùng cần người khác chạy dữ liệu qua các mô hình và xác minh rằng đối tác của họ đã thực sự chạy đúng mô hình. Các nhà phát triển sử dụng các nhà cung cấp tính toán phi tập trung để huấn luyện mô hình của họ có thể lo lắng về việc những nhà cung cấp này cắt giảm chi phí bằng cách sử dụng các mô hình rẻ tiền tạo ra các đầu ra với sự khác biệt gần như không thể nhận thức được. zkML cho phép các nhà cung cấp tính toán chạy dữ liệu qua các mô hình của họ và sau đó tạo ra các bằng chứng có thể được xác minh trên chuỗi khối, chứng minh rằng các đầu ra của mô hình cho các đầu vào cụ thể là chính xác. Trong kịch bản này, nhà cung cấp mô hình có lợi thế bổ sung khi có thể cung cấp mô hình của họ mà không cần tiết lộ trọng số cơ bản đã tạo ra các đầu ra.
Điều ngược lại cũng là có thể. Nếu người dùng muốn chạy các mô hình trên dữ liệu của mình nhưng không muốn cho các dự án mô hình truy cập vào dữ liệu của họ do lo ngại về quyền riêng tư (ví dụ, trong các kiểm tra y tế hoặc thông tin kinh doanh độc quyền), họ có thể chạy mô hình trên dữ liệu của mình mà không cần chia sẻ dữ liệu, sau đó xác minh thông qua bằng chứng rằng họ đã chạy mô hình chính xác. Những khả năng này mở rộng không gian thiết kế đáng kể cho việc tích hợp AI và các chức năng hợp đồng thông minh bằng cách giải quyết các ràng buộc tính toán khó khăn.
Với tình trạng sớm của lĩnh vực zkML, việc phát triển chủ yếu tập trung vào xây dựng cơ sở hạ tầng và công cụ mà các nhóm cần để chuyển đổi mô hình và kết quả của họ thành bằng chứng có thể xác minh trên chuỗi. Các sản phẩm này trừu tượng hóa các khía cạnh không thông báo một cách tối đa.
EZKL và Giza là hai dự án xây dựng các công cụ như vậy bằng cách cung cấp bằng chứng có thể kiểm chứng về việc thực thi mô hình học máy. Cả hai đều giúp các nhóm xây dựng các mô hình học máy để đảm bảo các mô hình này có thể thực hiện theo cách cho phép kết quả được xác minh trên chuỗi một cách đáng tin cậy. Cả hai dự án đều sử dụng Open Neural Network Exchange (ONNX) để chuyển đổi các mô hình học máy được viết bằng các ngôn ngữ phổ biến như TensorFlow và Pytorch thành định dạng chuẩn. Sau đó, họ xuất ra các phiên bản của các mô hình này cũng tạo ra các bằng chứng zk khi thực hiện. EZKL là mã nguồn mở, sản xuất zk-SNARK, trong khi Giza là mã nguồn đóng, sản xuất zk-STARKs. Cả hai dự án hiện chỉ tương thích với EVM.
Trong những tháng gần đây, EZKL đã đạt được tiến bộ đáng kể trong việc tăng cường các giải pháp zkML, tập trung chủ yếu vào việc giảm chi phí, cải thiện bảo mật và tăng tốc quá trình tạo chứng minh. Ví dụ, vào tháng 11 năm 2023, EZKL tích hợp một thư viện GPU mã nguồn mở mới giảm thời gian chứng minh tổng hợp điều này lên đến 35%; vào tháng 1, EZKL phát hành Lilith, một giải pháp phần mềm để tích hợp các cụm máy tính hiệu suất cao và điều phối hệ thống công việc đồng thời khi sử dụng chứng minh EZKL. Điểm độc đáo của Giza nằm ở việc cung cấp các công cụ để tạo ra các mô hình học máy có thể xác minh và kế hoạch triển khai một phiên bản web3 tương đương của Hugging Face, mở một thị trường người dùng cho sự hợp tác và chia sẻ mô hình zkML, và cuối cùng là tích hợp các sản phẩm máy tính phi tập trung. Vào tháng 1, EZKL đã công bố một đánh giá mức đo so sánh về hiệu suất của EZKL, Giza và RiscZero (như mô tả dưới đây), giới thiệu thời gian chứng minh nhanh hơn và sử dụng bộ nhớ ít hơn.
Modulus Labs hiện đang phát triển một công nghệ chứng minh không có kiến thức (zk) mới được thiết kế riêng cho các mô hình AI. Modulus đã phát hành một bài báo có tiêu đề "Chi phí thông minh", ngụ ý rằng việc chạy các mô hình AI trên chuỗi phải chịu chi phí cực kỳ cao. Bài báo này, được xuất bản vào tháng 1 năm 2023, đánh giá các hệ thống chứng minh zk hiện có để xác định những cải tiến về khả năng và tắc nghẽn của bằng chứng zk trong các mô hình AI. Nó tiết lộ rằng các sản phẩm hiện tại quá đắt và không hiệu quả cho các ứng dụng AI quy mô lớn. Dựa trên nghiên cứu ban đầu, Modulus đã ra mắt Remainder vào tháng 11, một prover zk chuyên biệt nhằm giảm chi phí và thời gian chứng minh cho các mô hình AI, làm cho các dự án khả thi về mặt kinh tế để tích hợp quy mô lớn vào các hợp đồng thông minh. Công việc của họ là độc quyền, khiến nó không thể so sánh với các giải pháp được đề cập, nhưng gần đây nó đã được trích dẫn trong bài đăng trên blog của Vitalik về mật mã và trí tuệ nhân tạo.
Sự phát triển của các công cụ và cơ sở hạ tầng là rất quan trọng đối với sự phát triển trong tương lai của không gian zkML, vì nó có thể giảm ma sát đáng kể trong việc triển khai tính toán off-chain có thể xác minh và nhu cầu cho các nhóm zk. Việc tạo ra giao diện an toàn cho các chuyên gia machine learning không phải là người dân tiền điện tử để đưa mô hình của họ lên chuỗi sẽ cho phép các ứng dụng thử nghiệm với các trường hợp sử dụng thực sự mới lạ. Ngoài ra, các công cụ này giải quyết một rào cản lớn đối với việc áp dụng rộng rãi zkML: sự thiếu hiểu biết của các nhà phát triển quan tâm đến làm việc tại sự giao điểm của zero-knowledge, machine learning và mật mã.
Các giải pháp khác đang được phát triển, được gọi là "bộ xử lý phụ" (bao gồm RiscZero, Axiom và Ritual), phục vụ các vai trò khác nhau, bao gồm xác minh tính toán ngoại chuỗi trên chuỗi. Giống như EZKL, Giza và Modulus, mục tiêu của họ là trừu tượng hóa quy trình tạo chứng minh zk hoàn toàn, tạo ra máy ảo không biết để thực thi chương trình ngoại chuỗi và tạo ra chứng minh có thể xác minh trên chuỗi. RiscZero và Axiom phục vụ cho các mô hình trí tuệ nhân tạo đơn giản hơn như các bộ xử lý phụ đa dụng hơn, trong khi Ritual được xây dựng đặc biệt để sử dụng với các mô hình trí tuệ nhân tạo.
Lần đầu tiên của Ritual, Infernet, bao gồm một Infernet SDK cho phép các nhà phát triển gửi yêu cầu suy luận đến mạng và nhận kết quả và bằng chứng tùy chọn như phản hồi. Các nút Infernet xử lý những tính toán ngoại chuỗi này trước khi trả lại kết quả. Ví dụ, một DAO có thể thiết lập một quy trình đảm bảo tất cả các đề xuất quản trị mới đáp ứng một số tiền đề cần thiết trước khi nộp. Mỗi khi đề xuất mới được nộp, hợp đồng quản trị kích hoạt một yêu cầu suy luận thông qua Infernet, triệu hồi một mô hình AI được đào tạo đặc biệt cho quản trị DAO. Mô hình này xem xét đề xuất để đảm bảo tất cả các tiêu chuẩn cần thiết được đáp ứng và trả lại kết quả và bằng chứng để chấp nhận hoặc từ chối việc nộp đề xuất.
Trong năm tiếp theo, nhóm Ritual dự định giới thiệu thêm nhiều tính năng, hình thành một lớp hạ tầng được biết đến với tên gọi là siêu chuỗi Ritual. Nhiều dự án được thảo luận có thể được tích hợp như các nhà cung cấp dịch vụ vào Ritual. Nhóm Ritual đã tích hợp với EZKL để tạo ra bằng chứng và sớm có thể thêm tính năng từ các nhà cung cấp hàng đầu khác. Các nút Infernet trên Ritual cũng có thể sử dụng Akash hoặc GPU io.net và truy vấn các mô hình được huấn luyện trên mạng lưới Bittensor. Mục tiêu cuối cùng của họ là trở thành nhà cung cấp ưu tiên về hạ tầng AI mở, cung cấp dịch vụ cho việc học máy và các nhiệm vụ liên quan đến trí tuệ nhân tạo cho bất kỳ mạng và tải công việc nào.
zkML đang giúp hòa giải sự đối lập giữa blockchain, một hệ thống có hạn chế về tài nguyên theo bản chất, và trí tuệ nhân tạo, đòi hỏi tài nguyên tính toán và dữ liệu đáng kể. Như một người sáng lập của Giza đã nói, "các trường hợp sử dụng vô cùng phong phú... Điều đó giống như việc hỏi trường hợp sử dụng cho hợp đồng thông minh trong những ngày đầu của Ethereum... Điều chúng tôi đang làm chỉ là mở rộng các trường hợp sử dụng cho hợp đồng thông minh." Tuy nhiên, như đã chú ý, sự phát triển hiện tại chủ yếu diễn ra ở mức độ công cụ và cơ sở hạ tầng. Các ứng dụng vẫn đang ở giai đoạn thám hiểm, với các nhóm đối mặt với thách thức chứng minh rằng giá trị tạo ra bằng cách triển khai các mô hình với zkML vượt qua sự phức tạp và chi phí của nó.
Các ứng dụng hiện tại bao gồm:
zkML vẫn đang trong quá trình thử nghiệm, với hầu hết các dự án tập trung vào việc xây dựng cơ sở hạ tầng cơ bản và bằng chứng của khái niệm. Những thách thức hiện tại bao gồm chi phí tính toán, hạn chế bộ nhớ, độ phức tạp của mô hình, công cụ và cơ sở hạ tầng hạn chế, và tài năng của các nhà phát triển. Nói một cách ngắn gọn, còn rất nhiều công việc cần phải được thực hiện trước khi zkML có thể được triển khai trên quy mô cần thiết cho các sản phẩm tiêu dùng.
Tuy nhiên, khi lĩnh vực này trưởng thành và những hạn chế này được giải quyết, zkML sẽ trở thành một thành phần quan trọng của việc tích hợp trí tuệ nhân tạo với mật mã. Theo cách nói khác, zkML hứa hẹn mang lại bất kỳ quy mô tính toán off-chain nào trên chuỗi, trong khi vẫn duy trì các đảm bảo an ninh tương tự như hoặc giống như việc chạy on-chain. Tuy nhiên, trước khi tầm nhìn này được thực hiện, những người sớm áp dụng công nghệ sẽ tiếp tục phải cân nhắc sự riêng tư và an ninh của zkML so với hiệu quả của các phương án thay thế.
Các Đại lý Trí tuệ Nhân tạo
Một trong những sự kết hợp hứa hẹn nhất của trí tuệ nhân tạo và tiền điện tử là thí nghiệm liên tục với các đại lý trí tuệ nhân tạo. Các đại lý là những robot tự động có khả năng nhận, hiểu và thực thi các nhiệm vụ bằng cách sử dụng các mô hình trí tuệ nhân tạo. Điều này có thể từ việc có một trợ lý cá nhân luôn sẵn sàng, được điều chỉnh tỉ mỉ theo sở thích của bạn, đến việc thuê một đại lý tài chính để quản lý và điều chỉnh danh mục đầu tư dựa trên sở thích rủi ro của bạn.
Với việc tiền điện tử cung cấp cơ sở hạ tầng thanh toán không cần phép và không tin cậy, các đại lý và tiền điện tử có thể được tích hợp tốt. Một khi được đào tạo, các đại lý sẽ có một ví tiền, cho phép họ thực hiện giao dịch một cách tự do bằng cách sử dụng hợp đồng thông minh. Ví dụ, ngày nay, các đại lý có thể thu thập thông tin trên internet và sau đó giao dịch trên thị trường dự đoán dựa trên các mô hình.
Morpheus là một trong những dự án đặc vụ mã nguồn mở mới nhất được ra mắt vào năm 2024 trên Ethereum và Arbitrum. Bài báo trắng của nó được xuất bản một cách ẩn danh vào tháng 9 năm 2023, cung cấp một nền tảng cho việc hình thành cộng đồng và xây dựng, bao gồm các nhân vật nổi bật như Erik Vorhees. Bài báo trắng bao gồm một giao thức đặc vụ thông minh có thể tải xuống, một LLM mã nguồn mở có thể chạy địa phương, được quản lý bởi ví của người dùng và tương tác với các hợp đồng thông minh. Nó sử dụng bảng xếp hạng hợp đồng thông minh để giúp các đặc vụ xác định hợp đồng thông minh nào có thể tương tác an toàn dựa trên các tiêu chí như số giao dịch được xử lý.
Bản sách trắng cũng cung cấp một khung cho việc xây dựng mạng lưới Morpheus, bao gồm cấu trúc khuyến khích và cơ sở hạ tầng cần thiết để chạy giao thức đại lý thông minh. Điều này bao gồm các khuyến khích cho người đóng góp xây dựng giao diện trước để tương tác với các đại lý, API cho các nhà phát triển xây dựng các đại lý cắm cho tương tác tương hỗ, và các giải pháp đám mây cho người dùng truy cập tính toán và lưu trữ cần thiết để chạy các đại lý trên thiết bị cạnh. Quỹ ban đầu của dự án đã được ra mắt vào đầu tháng Hai, dự kiến giao thức đầy đủ sẽ ra mắt vào quý hai năm 2024.
Mạng cơ sở hạ tầng tự trị phi tập trung (DAIN) là một giao thức cơ sở hạ tầng đại lý mới xây dựng nền kinh tế giữa đại lý với đại lý trên Solana. Mục tiêu của DAIN là cho phép các đại lý từ các doanh nghiệp khác nhau tương tác liền mạch với nhau thông qua một API chung, mở ra đáng kể không gian thiết kế cho các tác nhân AI, tập trung vào các tác nhân có thể tương tác với cả sản phẩm web2 và web3. Vào tháng Giêng, DAIN đã công bố quan hệ đối tác đầu tiên với Asset Shield, cho phép người dùng thêm "người ký đại lý" vào multisig của họ, có khả năng diễn giải các giao dịch và phê duyệt / từ chối dựa trên các quy tắc do người dùng đặt ra.
Fetch.AI là một trong những giao thức đại lý AI triển khai sớm nhất và đã phát triển một hệ sinh thái để xây dựng, triển khai và sử dụng các đại lý trên chuỗi sử dụng token FET và ví Fetch.AI. Giao thức cung cấp một bộ công cụ và ứng dụng toàn diện để sử dụng các đại lý, bao gồm các chức năng ví trong để tương tác và đặt hàng với các đại lý.
Autonolas, được thành lập bởi các cựu thành viên của nhóm Fetch, là một thị trường mở để tạo ra và sử dụng các đại lý AI phi tập trung. Autonolas cũng cung cấp một bộ công cụ cho các nhà phát triển để xây dựng các đại lý AI được lưu trữ ngoại chuỗi có thể kết nối với nhiều chuỗi khối khác nhau, bao gồm Polygon, Ethereum, Gnosis Chain và Solana. Hiện họ đang có một số sản phẩm mẫu chứng minh đang hoạt động, bao gồm thị trường dự đoán và quản trị DAO.
SingularityNet đang xây dựng một thị trường phi tập trung cho các đại lý trí tuệ nhân tạo, nơi các đại lý trí tuệ chuyên biệt có thể được triển khai, có thể được thuê bởi người khác hoặc các đại lý để thực hiện các nhiệm vụ phức tạp. Các công ty khác như AlteredStateMachine đang xây dựng tích hợp của các đại lý trí tuệ với NFTs. Người dùng tạo ra NFTs với các thuộc tính ngẫu nhiên, giúp họ có lợi thế và bất lợi trong các nhiệm vụ khác nhau. Các đại lý này sau đó có thể được đào tạo để cải thiện một số thuộc tính cụ thể để sử dụng trong trò chơi, DeFi, hoặc như trợ lý ảo và được giao dịch với người dùng khác.
Nhìn chung, các dự án này hình dung ra một hệ sinh thái tương lai của các tác nhân có khả năng hợp tác làm việc không chỉ để thực hiện các nhiệm vụ mà còn giúp xây dựng trí tuệ nhân tạo nói chung. Các tác nhân thực sự phức tạp sẽ có khả năng tự động hoàn thành bất kỳ tác vụ nào của người dùng. Ví dụ: các đại lý hoàn toàn tự trị sẽ có thể tìm ra cách thuê một đại lý khác để tích hợp API, sau đó thực hiện một tác vụ mà không cần phải đảm bảo đại lý đã tích hợp với các API bên ngoài (như trang web đặt vé du lịch) trước khi sử dụng. Từ quan điểm của người dùng, không cần phải kiểm tra xem một tổng đài viên có thể hoàn thành một nhiệm vụ hay không, vì tổng đài viên có thể tự xác định điều này.
Vào tháng 7 năm 2023, Lightning Labs đã đưa ra một triển khai bằng chứng khái niệm để sử dụng các tác nhân trên Lightning Network, được LangChain đặt tên là bộ Bitcoin. Sản phẩm này đặc biệt hấp dẫn vì nó nhằm mục đích giải quyết một vấn đề đang ngày càng trở nên nghiêm trọng trong thế giới Web 2 — các khóa API được kiểm soát và tốn kém của các ứng dụng web.
LangChain giải quyết vấn đề này bằng cách cung cấp cho các nhà phát triển một bộ công cụ cho phép các đại lý mua, bán và nắm giữ Bitcoin, cũng như truy vấn khóa API và gửi thanh toán siêu nhỏ. Trên hệ thống thanh toán truyền thống, thanh toán siêu nhỏ rất đắt đỏ do phí, nhưng trên Lightning Network, các đại lý có thể gửi một số lượng không giới hạn thanh toán siêu nhỏ hàng ngày với chi phí tối thiểu. Khi sử dụng kết hợp với khung API đo lường thanh toán L402 của LangChain, các công ty có thể điều chỉnh chi phí truy cập vào các API của họ dựa trên sự tăng giảm trong việc sử dụng, thay vì đặt một tiêu chuẩn đắt đỏ duy nhất.
Trong tương lai, hoạt động chuỗi sẽ chủ yếu được thúc đẩy bởi sự tương tác giữa các đại lý và đại lý, đòi hỏi cơ chế để đảm bảo các đại lý có thể tương tác với nhau mà không tốn kém. Ví dụ sớm này đã cho thấy tiềm năng của việc sử dụng các đại lý trên các đường ray thanh toán không cần phép và hiệu quả về mặt kinh tế, mở ra cơ hội cho các thị trường mới và các tương tác kinh tế.
Lĩnh vực của các đại lý vẫn còn non trẻ. Các dự án chỉ mới bắt đầu triển khai các đại lý hoạt động có khả năng xử lý các nhiệm vụ đơn giản—truy cập thường chỉ dành cho các nhà phát triển và người dùng có kinh nghiệm. Tuy nhiên, theo thời gian, một trong những ảnh hưởng quan trọng nhất của các đại lý trí tuệ nhân tạo đối với tiền điện tử sẽ là cải thiện trải nghiệm người dùng trên tất cả các phân ngành. Các giao dịch sẽ bắt đầu chuyển từ dựa vào cú nhấp sang dựa vào văn bản, cho phép người dùng tương tác với các đại lý trên chuỗi thông qua giao diện trò chuyện. Các nhóm như Dawn Wallet đã phát hành ví chatbot, cho phép người dùng tương tác trên chuỗi.
Ngoài ra, vẫn chưa rõ làm cách nào các đại lý sẽ hoạt động trong Web 2, khi các đường ray tài chính phụ thuộc vào các tổ chức ngân hàng được quy định không thể hoạt động 24/7 hoặc tạo điều kiện thuận lợi cho giao dịch xuyên biên giới. Như Lyn Alden đã nhấn mạnh, việc thiếu hoàn lại và khả năng xử lý các giao dịch nhỏ khiến các đường ray tiền điện tử trở nên đặc biệt hấp dẫn so với thẻ tín dụng. Tuy nhiên, nếu các đại lý trở thành phương tiện giao dịch phổ biến hơn, các nhà cung cấp thanh toán và ứng dụng hiện có có khả năng sẽ nhanh chóng thích nghi, triển khai cơ sở hạ tầng cần thiết để hoạt động trên các đường ray tài chính hiện có, từ đó làm giảm một số lợi ích của việc sử dụng tiền điện tử.
Hiện tại, các đại lý có thể bị hạn chế trong các giao dịch tiền điện tử xác định, nơi một đầu vào cụ thể đảm bảo một đầu ra cụ thể. Cả hai mô hình đã chỉ ra khả năng của những đại lý này để tìm ra cách thực hiện các nhiệm vụ phức tạp, và các công cụ đang mở rộng phạm vi các nhiệm vụ mà chúng có thể hoàn thành, cả hai đều đòi hỏi sự phát triển tiếp theo. Để các đại lý tiền điện tử trở nên hữu ích hơn ngoài các trường hợp sử dụng tiền điện tử trên chuỗi mới lạ, cần có sự tích hợp và chấp nhận rộng rãi hơn của tiền điện tử như một hình thức thanh toán, cùng với sự rõ ràng về quy định. Tuy nhiên, khi những yếu tố này phát triển, các đại lý sẵn sàng trở thành một trong những người tiêu dùng lớn nhất của các giải pháp tính toán phi tập trung và zkML, tự động nhận và giải quyết bất kỳ nhiệm vụ nào theo cách không xác định.
Trí tuệ nhân tạo đưa ra những đổi mới tương tự cho tiền điện tử mà chúng ta đã thấy trong web2, nâng cao mọi thứ từ phát triển cơ sở hạ tầng đến trải nghiệm người dùng và tính sẵn có. Tuy nhiên, các dự án vẫn đang ở giai đoạn đầu của quá trình phát triển, và việc tích hợp tiền điện tử và trí tuệ nhân tạo trong tương lai gần chủ yếu sẽ do tích hợp ngoại chuỗi thúc đẩy.
Các sản phẩm như Copilot được thiết lập để “tăng hiệu suất phát triển lên 10 lần,” và các ứng dụng Layer 1 và DeFi đã ra mắt nền tảng phát triển hỗ trợ AI phối hợp với các công ty lớn như Microsoft. Các công ty như Cub3.ai và Test Machine đang phát triển tích hợp AI cho việc kiểm tra hợp đồng thông minh và giám sát đe dọa theo thời gian thực để tăng cường an ninh trên chuỗi. Các chatbot LLM đang được huấn luyện với dữ liệu trên chuỗi, tài liệu giao thức và ứng dụng để cung cấp trải nghiệm và khả năng tiếp cận tốt hơn cho người dùng.
Thách thức đối với các tích hợp tiên tiến hơn thực sự tận dụng công nghệ cơ bản của tiền điện tử vẫn là chứng minh rằng triển khai các giải pháp AI trên chuỗi là kỹ thuật và kinh tế khả thi. Việc phát triển tính toán phi tập trung, zkML và các đại lý AI chỉ ra các lĩnh vực hứa hẹn mà đặt nền móng cho một tương lai sâu kết nối của tiền điện tử và AI.