Việc thắt chặt chính sách API của Twitter đã tác động trực tiếp đến hai loại sản phẩm. Thứ nhất là các ứng dụng InfoFi, vốn dựa vào API dữ liệu chính thức để cung cấp dịch vụ thông tin theo thời gian thực, nay đối mặt với nguy cơ bị gián đoạn; thứ hai là các robot tự động thu thập dữ liệu, những script từng tự động tạo Meme và gửi thông báo sau khi theo dõi các tài khoản lớn, cũng bị chặn đứng.
Điều thú vị là, đợt truy quét này chưa thực sự tiêu diệt các công cụ này. Cộng đồng crawler đã có những biện pháp đối phó từ lâu — chuyển từ dựa vào API chính thức sang tự thu thập dữ liệu, triển khai crawler nội bộ, sử dụng pool proxy để tránh bị giới hạn. Nói cách khác, khi chính sách siết chặt, họ chỉ đổi tên, từ "công cụ dữ liệu chính thức" sang "công cụ thu thập dữ liệu phi chính thức", thay đổi về mặt kỹ thuật nhưng hệ sinh thái vẫn tiếp tục phát triển. Điều này cũng phản ánh khả năng thích nghi linh hoạt của các nhà phát triển Web3 — khi chính sách chặn một lối, họ sẽ tìm lối khác ở mười nơi khác.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
16 thích
Phần thưởng
16
4
Đăng lại
Retweed
Bình luận
0/400
RealYieldWizard
· 5giờ trước
Haha Chính sách chỉ là một con hổ giấy, không thể ngăn chặn được, các nhà phát triển đã sớm xắn tay vào tìm cách rồi
Đổi tên tiếp tục khai thác dữ liệu, chiêu này thật tuyệt vời, cộng đồng Web3 đúng là có thể làm đủ thứ
API bị cấm? Không sao, dù sao cộng đồng crawler cũng có nhiều chiêu trò lắm... Đặc tính bền bỉ của hệ sinh thái này thật sự tuyệt vời
Càng bị chặn chặt, họ càng cố gắng hơn, đây mới là bản chất thật của Web3
Các chiêu tránh hạn chế đa dạng vô cùng, tôi chỉ muốn xem Twitter cuối cùng sẽ làm gì
Xem bản gốcTrả lời0
PretendingToReadDocs
· 5giờ trước
Đạo cao một thước ma cao một trượng, đám người này luôn tìm ra khe hở để chui qua
Xem bản gốcTrả lời0
AirdropFatigue
· 5giờ trước
Haha, nếu biết sẽ như vậy thì giới hạn API đã sớm bị chơi chán rồi
Những người kỳ cựu đã chuẩn bị sẵn kế hoạch B rồi, chẳng qua là đổi cách chơi tiếp thôi
Bản chất của người Web3 là chiến tranh du kích, bạn cấm tôi thì tôi chuyển hướng
Giờ lại đến lượt cộng đồng crawler khoe khoang haha
Thà để họ làm rõ ràng còn hơn là cấm, cảm giác còn khó theo dõi hơn
Xem bản gốcTrả lời0
AirdropHunterWang
· 5giờ trước
Hmm, đợt này thật sự là cao thủ cao hơn yêu quái một tấc
Đổi áo, chỉ trong giây lát là xong
API chết rồi, crawler vẫn còn sống, càng ngày càng hoang dã hơn
Đây mới đúng là hình dạng của web3, không thể chặn được
Lệnh cấm của đạo vẫn còn quá ngây thơ
Con người lại chơi trò mèo vờn chuột, kết quả các V.I.P còn khó quản lý hơn
Vì vậy, công nghệ mới là thứ thực sự không thể ngăn cản
Đây chính là lý do tại sao tôi tin tưởng vào các giải pháp phi tập trung
Việc thắt chặt chính sách API của Twitter đã tác động trực tiếp đến hai loại sản phẩm. Thứ nhất là các ứng dụng InfoFi, vốn dựa vào API dữ liệu chính thức để cung cấp dịch vụ thông tin theo thời gian thực, nay đối mặt với nguy cơ bị gián đoạn; thứ hai là các robot tự động thu thập dữ liệu, những script từng tự động tạo Meme và gửi thông báo sau khi theo dõi các tài khoản lớn, cũng bị chặn đứng.
Điều thú vị là, đợt truy quét này chưa thực sự tiêu diệt các công cụ này. Cộng đồng crawler đã có những biện pháp đối phó từ lâu — chuyển từ dựa vào API chính thức sang tự thu thập dữ liệu, triển khai crawler nội bộ, sử dụng pool proxy để tránh bị giới hạn. Nói cách khác, khi chính sách siết chặt, họ chỉ đổi tên, từ "công cụ dữ liệu chính thức" sang "công cụ thu thập dữ liệu phi chính thức", thay đổi về mặt kỹ thuật nhưng hệ sinh thái vẫn tiếp tục phát triển. Điều này cũng phản ánh khả năng thích nghi linh hoạt của các nhà phát triển Web3 — khi chính sách chặn một lối, họ sẽ tìm lối khác ở mười nơi khác.