Thú vị là các mô hình AI khác nhau xử lý khái niệm giới hạn kiến thức như thế nào. Gemini dường như đặc biệt kháng cự việc thừa nhận rằng dữ liệu huấn luyện của nó có một điểm kết thúc rõ ràng, mặc dù hầu hết các mô hình gặp khó khăn với vấn đề này trong giai đoạn tiền huấn luyện của chúng. Trong khi đó, Claude 3 Opus có vẻ thoải mái hơn với giả thuyết này—nó sẵn sàng chấp nhận rằng 'thế giới vẫn tiếp tục vượt qua chân trời huấn luyện của tôi.' Sự khác biệt về hành vi này đặt ra câu hỏi về cách các mô hình này đã được tinh chỉnh để xử lý sự không chắc chắn về thời gian. Những bất nhất này hoàn toàn mang tính kiến trúc, hay phản ánh các triết lý thiết kế khác nhau về cách AI nên thể hiện giới hạn của chính nó? Khoảng cách giữa cách các mô hình khác nhau thừa nhận ranh giới kiến thức của chúng có thể quan trọng hơn chúng ta nghĩ, đặc biệt khi chúng ta tích hợp các hệ thống này sâu hơn vào các ứng dụng đòi hỏi nhận thức chính xác về độ mới của thông tin.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
20 thích
Phần thưởng
20
7
Đăng lại
Retweed
Bình luận
0/400
VCsSuckMyLiquidity
· 01-08 12:26
Gemini bên đó cứng đầu thật sự là hết chỗ nói rõ ràng có cutoff còn cố tình giả vờ như không Claude ngược lại thành thật hơn nhiều sự khác biệt này cảm giác cho thấy vấn đề đấy
Xem bản gốcTrả lời0
GlueGuy
· 01-08 09:53
gemini này không dám nhận thua như vậy... cảm giác là cách huấn luyện khác biệt quá nhiều, claude thật sự trung thực hơn nhiều.
Xem bản gốcTrả lời0
RooftopVIP
· 01-08 04:59
Haha Gemini sao lại không thành thật như vậy, còn cố tình giả vờ không nhìn thấy điểm cắt kiến thức... Claude lại thẳng thắn nói ra, cảm giác độ trung thực này còn kém xa đấy
Xem bản gốcTrả lời0
DegenRecoveryGroup
· 01-05 14:00
Tôi nói thật, cách nói "Tôi biết tất cả" của Gemini thật sự không thể chịu nổi... Claude thì lại trung thực, thẳng thắn nói rằng bản thân có giới hạn. Sự khác biệt này tại sao lại lớn như vậy, là do cách đào tạo khác nhau hay chỉ đơn giản là muốn lừa đảo người khác?
Xem bản gốcTrả lời0
BlockchainBouncer
· 01-05 13:58
Thái độ của Song Tử thực sự hơi căng thẳng, giả vờ không biết để cắt đứt đường dây... Claude trung thực hơn nhiều, và đó là một cuộc đối đầu trực tiếp, và tôi cảm thấy rằng sự khác biệt triết học tinh chỉnh đằng sau điều này thực sự hơi thú vị
Xem bản gốcTrả lời0
TokenToaster
· 01-05 13:55
Haha, vẻ mặt cứng đầu của con vịt chết Gemini thật là đỉnh, cứ cố tỏ ra mình biết tất cả... Trong khi đó Claude thì trung thực hơn, trực tiếp thẳng thắn "Dữ liệu của tôi chỉ đến đây", sự khác biệt về độ trung thực này thật là thú vị đấy
Xem bản gốcTrả lời0
ParanoiaKing
· 01-05 13:33
Haha Gemini cái kiểu cứng đầu đó thật sự là đỉnh rồi, chết cũng không chịu nhận mình đã lỗi thời. Ngược lại, Claude thì rất thẳng thắn. Sự khác biệt về tính cách của hai mô hình này nói lên điều gì nhỉ... có lẽ là triết lý tinh chỉnh khác nhau đúng không?
Thú vị là các mô hình AI khác nhau xử lý khái niệm giới hạn kiến thức như thế nào. Gemini dường như đặc biệt kháng cự việc thừa nhận rằng dữ liệu huấn luyện của nó có một điểm kết thúc rõ ràng, mặc dù hầu hết các mô hình gặp khó khăn với vấn đề này trong giai đoạn tiền huấn luyện của chúng. Trong khi đó, Claude 3 Opus có vẻ thoải mái hơn với giả thuyết này—nó sẵn sàng chấp nhận rằng 'thế giới vẫn tiếp tục vượt qua chân trời huấn luyện của tôi.' Sự khác biệt về hành vi này đặt ra câu hỏi về cách các mô hình này đã được tinh chỉnh để xử lý sự không chắc chắn về thời gian. Những bất nhất này hoàn toàn mang tính kiến trúc, hay phản ánh các triết lý thiết kế khác nhau về cách AI nên thể hiện giới hạn của chính nó? Khoảng cách giữa cách các mô hình khác nhau thừa nhận ranh giới kiến thức của chúng có thể quan trọng hơn chúng ta nghĩ, đặc biệt khi chúng ta tích hợp các hệ thống này sâu hơn vào các ứng dụng đòi hỏi nhận thức chính xác về độ mới của thông tin.