Fireworks AI ra mắt nền tảng huấn luyện, hỗ trợ huấn luyện đầy đủ các tham số lên tới hàng tỷ tham số.

MarketWhisper

Fireworks AI nền tảng huấn luyện

Fireworks AI ra mắt bản xem trước Fireworks Training, mở rộng định vị của công ty từ nhà cung cấp hạ tầng suy luận thuần túy thành nền tảng tích hợp “Huấn luyện + Triển khai”. Công ty do các kỹ sư cũ của Meta sáng lập, Lin Qiao (Lin Qiao) – người từng tham gia xây dựng PyTorch – hiện có định giá 4 tỷ USD, và lượng token xử lý hằng ngày đã đạt 15 nghìn tỷ.

Kiến trúc huấn luyện 3 lớp: bao phủ toàn diện từ thao tác không cần mã đến tùy chỉnh cấp độ nghiên cứu

Kiến trúc 3 lớp của Fireworks Training được thiết kế cho người dùng với các nền tảng kỹ thuật khác nhau, giúp đội ngũ sản phẩm, kỹ sư ML và nhà nghiên cứu đều có thể hoàn tất toàn bộ quy trình từ huấn luyện đến triển khai trên cùng một nền tảng:

Định vị chức năng của 3 cấp độ dịch vụ

Training Agent (lớp không cần mã): Dành cho đội ngũ sản phẩm không có hạ tầng ML, mô tả tác vụ, tải dữ liệu lên là có thể hoàn tất quy trình end-to-end; hiện hỗ trợ fine-tuning LoRA

Managed Training (lớp dành cho kỹ sư): Dành cho kỹ sư ML, hỗ trợ SFT, DPO và fine-tuning học tăng cường, bao gồm năng lực huấn luyện toàn bộ tham số

Training API (lớp dành cho nghiên cứu): Dành cho đội ngũ nghiên cứu, có thể tự định nghĩa hàm loss và vòng lặp huấn luyện, hỗ trợ các thuật toán học tăng cường như GRPO, DAPO

Quy mô huấn luyện toàn bộ tham số rất chênh lệch—từ mô hình Kimi K2.5 hàng nghìn tỷ tham số trên 64 GPU Nvidia B200 của một nút đơn Qwen3 8B, bao quát phạm vi quy mô đầy đủ của các mô hình mã nguồn mở phổ biến hiện nay.

3 kịch bản khách hàng: dữ liệu hiệu năng định lượng trong môi trường sản xuất

Trong số các khách hàng suy luận hiện có của Fireworks AI, đã có 3 ứng dụng AI hàng đầu hoàn tất huấn luyện tăng cường tiên tiến và công bố dữ liệu hiệu năng cụ thể.

Vercel: Đã huấn luyện mô hình tự sửa lỗi cho sản phẩm tạo mã v0. Tỷ lệ tạo mã không có lỗi đạt 93%; trong điều kiện tương đương, Claude Sonnet 3.5 chỉ đạt 62%; độ trễ end-to-end được cải thiện gấp 40 lần so với mô hình đóng trước đó.

Genspark: Thực hiện fine-tuning học tăng cường trên mô hình mã nguồn mở hàng nghìn tỷ tham số Kimi K2 để xây dựng tác nhân nghiên cứu sâu. Lượng gọi công cụ tăng 33%, chi phí suy luận giảm 50%.

Cursor: Hoàn tất huấn luyện tăng cường của Composer 2 theo cách phân tán trên 3 đến 4 cụm toàn cầu; hiện đang xếp hạng số 1 trên CursorBench, đồng thời triển khai chia sẻ cùng một pool tài nguyên GPU cho huấn luyện và suy luận trong sản xuất.

Khác biệt công nghệ cốt lõi: tính nhất quán số giữa huấn luyện và suy luận

Điểm khác biệt công nghệ mang tính cốt lõi mà Fireworks AI nhấn mạnh nằm ở “tính nhất quán số” giữa huấn luyện và suy luận. Với mô hình MoE (Mixture of Experts - Hỗn hợp chuyên gia), những sai lệch nhỏ về giá trị của trạng thái ẩn có thể tạo ra hiệu ứng khuếch đại theo chuỗi trong quyết định định tuyến chuyên gia, khiến hành vi mô hình đã học trong môi trường huấn luyện không thể tái tạo đầy đủ khi suy luận.

Fireworks công bố các giá trị KL divergence giữa huấn luyện và suy luận cho tất cả các mô hình được hỗ trợ; tất cả mô hình đều dưới 0.01, cung cấp một chuẩn mực nhất quán có thể định lượng để các nhà phát triển có thể đánh giá mức độ ổn định hành vi của mô hình khi chuyển từ huấn luyện sang triển khai sản xuất.

Câu hỏi thường gặp

Fireworks AI là công ty gì?

Fireworks AI là một công ty hạ tầng suy luận AI, được thành lập bởi Lin Qiao – kỹ sư cũ của Meta – người từng tham gia xây dựng PyTorch. Hiện công ty có định giá 4 tỷ USD, lượng token xử lý hằng ngày là 15 nghìn tỷ, và các khách hàng chính bao gồm những ứng dụng AI phổ biến như Cursor, Vercel, Genspark.

Kiến trúc 3 lớp của Fireworks Training phù hợp với những nhóm người dùng nào?

Training Agent dành cho đội ngũ sản phẩm không có hạ tầng ML (không cần thao tác bằng mã); Managed Training dành cho kỹ sư ML (hỗ trợ SFT, DPO và huấn luyện toàn bộ tham số bằng học tăng cường); Training API dành cho đội ngũ nghiên cứu (có thể tự định nghĩa hàm loss và vòng lặp huấn luyện, hỗ trợ các thuật toán như GRPO, DAPO).

Vì sao Fireworks AI nhấn mạnh KL divergence thấp hơn 0.01?

KL divergence đo mức sai lệch số giữa môi trường huấn luyện và suy luận; sai lệch càng lớn thì hành vi của mô hình sau triển khai càng kém ổn định. Điều này đặc biệt quan trọng với mô hình MoE—những sai lệch nhỏ có thể được khuếch đại thành sự khác biệt trong quyết định định tuyến. Fireworks AI, thông qua việc công bố các chỉ số có thể định lượng, giúp các nhà phát triển đánh giá một cách khách quan chất lượng tính nhất quán của mô hình từ huấn luyện đến triển khai.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận