Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Vừa mới phát hiện ra một vấn đề khiến tôi bực mình về hệ thống ML sản xuất. Mọi người đều chú trọng vào các chỉ số đầu ra - độ chính xác, độ chính xác, độ nhạy - nhưng đến khi những chỉ số đó giảm, đã muộn rồi. Vấn đề thực sự xảy ra sớm hơn, ở lớp đầu vào.
Có một phương pháp tôi đã đọc về, hoàn toàn đảo ngược cách tiếp cận truyền thống. Thay vì theo dõi kết quả của mô hình, bạn giám sát xem dữ liệu đầu vào của bạn còn giữ được đặc điểm như trong quá trình huấn luyện hay không. Nghe có vẻ đơn giản, nhưng cách thực hiện lại rất tinh vi.
Ý tưởng cốt lõi sử dụng các hàng xóm gần nhất để ước lượng mật độ kết hợp với divergence KL. Đây là lý do tại sao nó hiệu quả: bạn thiết lập một mức chuẩn dựa trên dữ liệu huấn luyện của mình, sau đó liên tục so sánh dữ liệu đến với nó bằng một cửa sổ trượt. Khi divergence KL tăng vọt trên ngưỡng của bạn, có nghĩa là đã có sự thay đổi. Không cần giả định về phân phối dữ liệu, cũng không cần phải xem xét bên trong mô hình.
Hãy nghĩ về một hệ thống đề xuất thương mại điện tử được huấn luyện dựa trên hành vi trước đại dịch. Sở thích khách hàng thay đổi, mô hình mua sắm phát triển, nhưng phương pháp giám sát truyền thống có thể bỏ lỡ trong vài ngày. Phương pháp hàng xóm gần nhất này phát hiện ngay lập tức - các vector đặc trưng của bạn không còn phù hợp với phân phối ban đầu nữa, và bạn sẽ được cảnh báo trước khi hiệu suất thực sự giảm sút.
Phần thực tế cũng quan trọng. Kích thước cửa sổ ảnh hưởng lớn - quá nhỏ sẽ bắt nhịp với nhiễu, quá lớn sẽ bỏ lỡ các thay đổi nhanh. Cũng tương tự với việc điều chỉnh ngưỡng. Một cách tiếp cận hợp lý là lấy dữ liệu huấn luyện đồng nhất của bạn, chia thành các cửa sổ liên tiếp, tính divergence KL từng cặp, rồi dùng phần trăm 95 hoặc 99 làm ngưỡng.
Về lựa chọn giá trị k, căn bậc hai của kích thước mẫu là một điểm khởi đầu hợp lý. K lớn hơn làm ước lượng mật độ ít nhạy cảm hơn nhưng mượt mà hơn. K nhỏ hơn bắt các bất thường tốt hơn nhưng dễ bị quá khớp với nhiễu.
Ở quy mô lớn, phương pháp này trở nên khả thi nhờ các chiến lược lấy mẫu, thư viện hàng xóm gần nhất xấp xỉ như Annoy hoặc Faiss, và xử lý song song. Bạn không cần tính lại tất cả từ đầu - chỉ cập nhật các thống kê trượt một cách tăng dần.
Điều tuyệt vời của phương pháp này là nó không phụ thuộc vào mô hình cụ thể nào. Dù bạn chạy một bộ phân loại đơn giản hay một hệ thống phức tạp, nó đều hoạt động. Bạn đang xây dựng một hệ thống cảnh báo sớm để phát hiện sự dịch chuyển dữ liệu trước khi mô hình của bạn nhận ra có vấn đề. Đó chính là dạng kỹ thuật phòng thủ giúp hệ thống sản xuất ổn định hơn.