Bảo mật AI vấn đề ngày càng nổi bật, mã hóa đồng cấu hoàn toàn có thể trở thành giải pháp tốt nhất
Gần đây, một hệ thống AI mang tên Manus đã đạt được thành tích đột phá trong bài kiểm tra chuẩn GAIA, với hiệu suất vượt qua các mô hình ngôn ngữ lớn cùng cấp. Manus thể hiện khả năng xử lý nhiệm vụ độc lập mạnh mẽ, có thể đảm nhận các cuộc đàm phán thương mại xuyên quốc gia phức tạp, bao gồm phân tích điều khoản hợp đồng, xây dựng chiến lược và tạo ra các giải pháp. So với các hệ thống truyền thống, Manus có những ưu điểm rõ ràng trong việc phân tích mục tiêu động, suy luận đa phương thức và học tăng cường trí nhớ.
Sự xuất hiện của Manus một lần nữa đã kích thích cuộc thảo luận trong ngành về con đường phát triển AI: là tiến tới mô hình thống nhất của trí tuệ nhân tạo tổng quát (AGI), hay là mô hình hợp tác của hệ thống đa tác nhân (MAS)? Cuộc tranh luận này thực ra phản ánh vấn đề cân bằng giữa hiệu quả và bảo mật trong sự phát triển của AI. Khi các hệ thống trí tuệ đơn lẻ dần tiến gần đến mức AGI, rủi ro về tính không minh bạch trong quá trình ra quyết định cũng gia tăng. Mặc dù sự hợp tác giữa các tác nhân đa dạng có thể phân tán rủi ro, nhưng có thể vì độ trễ trong giao tiếp mà bỏ lỡ thời điểm quyết định quan trọng.
Sự tiến bộ của Manus cũng làm nổi bật những rủi ro tiềm ẩn trong sự phát triển của AI, chẳng hạn như quyền riêng tư dữ liệu, thiên kiến thuật toán và các cuộc tấn công đối kháng. Ví dụ, trong bối cảnh y tế, các hệ thống AI cần truy cập vào dữ liệu gen nhạy cảm của bệnh nhân; trong các cuộc đàm phán tài chính, có thể liên quan đến thông tin tài chính chưa công khai của doanh nghiệp. Hơn nữa, các hệ thống AI có thể có thiên kiến đối với các nhóm cụ thể trong quá trình tuyển dụng, hoặc đưa ra đánh giá sai lầm về các điều khoản trong ngành công nghiệp mới nổi trong việc rà soát tài liệu pháp lý. Nghiêm trọng hơn, tin tặc có thể thông qua việc cài cắm tín hiệu âm thanh cụ thể, dẫn đến việc hệ thống AI đưa ra những đánh giá sai lầm trong các cuộc đàm phán.
Đối mặt với những thách thức này, công nghệ an ninh trong lĩnh vực Web3 có thể cung cấp giải pháp. Trong đó, công nghệ mã hóa đồng cấu hoàn toàn (Fully Homomorphic Encryption, FHE) được coi là công cụ mạnh mẽ để đối phó với các vấn đề an ninh trong thời đại AI. FHE cho phép tính toán dữ liệu trong trạng thái mã hóa, có nghĩa là có thể xử lý thông tin nhạy cảm mà không cần giải mã.
Về mặt dữ liệu, FHE có thể đảm bảo rằng tất cả thông tin do người dùng nhập (bao gồm đặc điểm sinh học, giọng nói, v.v.) được xử lý trong trạng thái mã hóa, ngay cả hệ thống AI cũng không thể giải mã dữ liệu gốc. Về mặt thuật toán, mô hình "đào tạo mã hóa" do FHE thực hiện khiến cả nhà phát triển cũng không thể trực tiếp xem quy trình ra quyết định của AI. Trong hợp tác đa tác nhân, việc áp dụng công nghệ mã hóa ngưỡng có thể ngăn chặn việc một nút đơn lẻ bị tấn công dẫn đến rò rỉ dữ liệu toàn cầu.
Mặc dù công nghệ an ninh Web3 có thể không có liên quan trực tiếp đến người dùng bình thường, nhưng tầm quan trọng của nó không thể bị xem nhẹ. Trong lĩnh vực đầy thách thức này, nếu không chủ động thực hiện các biện pháp bảo vệ, người dùng có thể sẽ không bao giờ thoát khỏi rủi ro an ninh thông tin.
Hiện tại, đã có một số dự án đang khám phá lĩnh vực an ninh Web3. Ví dụ, có dự án đã đạt được một số tiến bộ trong mô hình danh tính phi tập trung (DID) và an ninh không tin cậy. Còn trong lĩnh vực mã hóa đồng cấu hoàn toàn (FHE), một dự án đã tiên phong ra mắt trên mạng chính và hợp tác với nhiều tổ chức nổi tiếng.
Khi công nghệ AI ngày càng gần gũi với trình độ trí tuệ con người, các hệ thống phòng thủ phi truyền thống trở nên ngày càng quan trọng. FHE không chỉ có thể giải quyết các vấn đề bảo mật hiện tại, mà còn đặt nền tảng cho một kỷ nguyên AI mạnh mẽ hơn trong tương lai. Trên con đường hướng tới AGI, FHE không còn là tùy chọn, mà là điều kiện cần thiết để đảm bảo sự phát triển an toàn của AI.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 thích
Phần thưởng
12
8
Chia sẻ
Bình luận
0/400
BearMarketBuilder
· 10giờ trước
mã hóa có tác dụng gì, cái gì cũng vẫn phải lộ ra thôi.
Xem bản gốcTrả lời0
GateUser-c802f0e8
· 15giờ trước
Thuật toán cũng có thành kiến à?
Xem bản gốcTrả lời0
GasFeeNightmare
· 15giờ trước
Còn làm những điều hư ảo này, an toàn là xong.
Xem bản gốcTrả lời0
MercilessHalal
· 15giờ trước
mã hóa đều không giải quyết được vấn đề phải không
Bảo mật AI hướng mới: Mã hóa đồng cấu hoàn toàn làm thế nào để đối phó với những thách thức do Manus gây ra
Bảo mật AI vấn đề ngày càng nổi bật, mã hóa đồng cấu hoàn toàn có thể trở thành giải pháp tốt nhất
Gần đây, một hệ thống AI mang tên Manus đã đạt được thành tích đột phá trong bài kiểm tra chuẩn GAIA, với hiệu suất vượt qua các mô hình ngôn ngữ lớn cùng cấp. Manus thể hiện khả năng xử lý nhiệm vụ độc lập mạnh mẽ, có thể đảm nhận các cuộc đàm phán thương mại xuyên quốc gia phức tạp, bao gồm phân tích điều khoản hợp đồng, xây dựng chiến lược và tạo ra các giải pháp. So với các hệ thống truyền thống, Manus có những ưu điểm rõ ràng trong việc phân tích mục tiêu động, suy luận đa phương thức và học tăng cường trí nhớ.
Sự xuất hiện của Manus một lần nữa đã kích thích cuộc thảo luận trong ngành về con đường phát triển AI: là tiến tới mô hình thống nhất của trí tuệ nhân tạo tổng quát (AGI), hay là mô hình hợp tác của hệ thống đa tác nhân (MAS)? Cuộc tranh luận này thực ra phản ánh vấn đề cân bằng giữa hiệu quả và bảo mật trong sự phát triển của AI. Khi các hệ thống trí tuệ đơn lẻ dần tiến gần đến mức AGI, rủi ro về tính không minh bạch trong quá trình ra quyết định cũng gia tăng. Mặc dù sự hợp tác giữa các tác nhân đa dạng có thể phân tán rủi ro, nhưng có thể vì độ trễ trong giao tiếp mà bỏ lỡ thời điểm quyết định quan trọng.
Sự tiến bộ của Manus cũng làm nổi bật những rủi ro tiềm ẩn trong sự phát triển của AI, chẳng hạn như quyền riêng tư dữ liệu, thiên kiến thuật toán và các cuộc tấn công đối kháng. Ví dụ, trong bối cảnh y tế, các hệ thống AI cần truy cập vào dữ liệu gen nhạy cảm của bệnh nhân; trong các cuộc đàm phán tài chính, có thể liên quan đến thông tin tài chính chưa công khai của doanh nghiệp. Hơn nữa, các hệ thống AI có thể có thiên kiến đối với các nhóm cụ thể trong quá trình tuyển dụng, hoặc đưa ra đánh giá sai lầm về các điều khoản trong ngành công nghiệp mới nổi trong việc rà soát tài liệu pháp lý. Nghiêm trọng hơn, tin tặc có thể thông qua việc cài cắm tín hiệu âm thanh cụ thể, dẫn đến việc hệ thống AI đưa ra những đánh giá sai lầm trong các cuộc đàm phán.
Đối mặt với những thách thức này, công nghệ an ninh trong lĩnh vực Web3 có thể cung cấp giải pháp. Trong đó, công nghệ mã hóa đồng cấu hoàn toàn (Fully Homomorphic Encryption, FHE) được coi là công cụ mạnh mẽ để đối phó với các vấn đề an ninh trong thời đại AI. FHE cho phép tính toán dữ liệu trong trạng thái mã hóa, có nghĩa là có thể xử lý thông tin nhạy cảm mà không cần giải mã.
Về mặt dữ liệu, FHE có thể đảm bảo rằng tất cả thông tin do người dùng nhập (bao gồm đặc điểm sinh học, giọng nói, v.v.) được xử lý trong trạng thái mã hóa, ngay cả hệ thống AI cũng không thể giải mã dữ liệu gốc. Về mặt thuật toán, mô hình "đào tạo mã hóa" do FHE thực hiện khiến cả nhà phát triển cũng không thể trực tiếp xem quy trình ra quyết định của AI. Trong hợp tác đa tác nhân, việc áp dụng công nghệ mã hóa ngưỡng có thể ngăn chặn việc một nút đơn lẻ bị tấn công dẫn đến rò rỉ dữ liệu toàn cầu.
Mặc dù công nghệ an ninh Web3 có thể không có liên quan trực tiếp đến người dùng bình thường, nhưng tầm quan trọng của nó không thể bị xem nhẹ. Trong lĩnh vực đầy thách thức này, nếu không chủ động thực hiện các biện pháp bảo vệ, người dùng có thể sẽ không bao giờ thoát khỏi rủi ro an ninh thông tin.
Hiện tại, đã có một số dự án đang khám phá lĩnh vực an ninh Web3. Ví dụ, có dự án đã đạt được một số tiến bộ trong mô hình danh tính phi tập trung (DID) và an ninh không tin cậy. Còn trong lĩnh vực mã hóa đồng cấu hoàn toàn (FHE), một dự án đã tiên phong ra mắt trên mạng chính và hợp tác với nhiều tổ chức nổi tiếng.
Khi công nghệ AI ngày càng gần gũi với trình độ trí tuệ con người, các hệ thống phòng thủ phi truyền thống trở nên ngày càng quan trọng. FHE không chỉ có thể giải quyết các vấn đề bảo mật hiện tại, mà còn đặt nền tảng cho một kỷ nguyên AI mạnh mẽ hơn trong tương lai. Trên con đường hướng tới AGI, FHE không còn là tùy chọn, mà là điều kiện cần thiết để đảm bảo sự phát triển an toàn của AI.