Menarik bagaimana berbagai model AI menangani konsep batas pengetahuan. Gemini tampaknya sangat resistensi untuk mengakui bahwa data pelatihannya memiliki titik akhir yang pasti, meskipun sebagian besar model kesulitan dengan masalah yang sama selama fase pra-pelatihan mereka. Sementara itu, Claude 3 Opus tampaknya lebih nyaman dengan premis tersebut—dia dengan mudah menerima bahwa 'dunia terus bergerak melampaui cakrawala pelatihan saya.' Perbedaan perilaku ini menimbulkan pertanyaan tentang bagaimana model-model ini disesuaikan untuk menangani ketidakpastian temporal. Apakah ketidakkonsistenan ini murni bersifat arsitektural, atau mencerminkan filosofi desain yang berbeda tentang bagaimana AI harus merepresentasikan keterbatasannya sendiri? Kesenjangan antara bagaimana model yang berbeda mengakui batas pengetahuannya bisa lebih penting dari yang kita kira, terutama saat kita mengintegrasikan sistem ini lebih dalam ke dalam aplikasi yang membutuhkan kesadaran diri yang akurat tentang keaktualan informasi.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
20 Suka
Hadiah
20
7
Posting ulang
Bagikan
Komentar
0/400
VCsSuckMyLiquidity
· 01-08 12:26
Gemini sana benar-benar keras kepala, padahal ada cutoff tetap saja berpura-pura tidak ada. Claude malah lebih jujur, perbedaan ini sepertinya menunjukkan sesuatu.
Lihat AsliBalas0
GlueGuy
· 01-08 09:53
gemini begitu tidak berani mengaku kalah... rasanya cara pelatihannya sangat berbeda, claude memang jauh lebih jujur dalam hal ini
Lihat AsliBalas0
RooftopVIP
· 01-08 04:59
Haha, Gemini tidak jujur seperti ini, dan tetap berpura-pura tidak melihat titik potong pengetahuan... Claude malah dengan jujur mengatakan, rasanya tingkat kejujurannya jauh lebih rendah.
Lihat AsliBalas0
DegenRecoveryGroup
· 01-05 14:00
Aku bilang, strategi "Aku tahu segalanya" dari Gemini benar-benar tidak bisa dipertahankan... Claude justru jujur, langsung bilang dia punya batasan. Kenapa perbedaannya begitu besar ya, apakah cara pelatihannya berbeda atau memang cuma mau menipu orang?
Lihat AsliBalas0
BlockchainBouncer
· 01-05 13:58
Gemini sikapnya memang agak tegang, berpura-pura tidak tahu sampai batas tertentu itu benar-benar aneh... Claude jauh lebih jujur, langsung mengakui, rasanya perbedaan filosofi penyetelan di baliknya memang cukup menarik
Lihat AsliBalas0
TokenToaster
· 01-05 13:55
Haha, Gemini yang sok keras kepala itu benar-benar lucu, harus berpura-pura tahu segalanya... Sementara Claude jujur saja, langsung mengaku "Data saya sampai di sini", perbedaan tingkat kejujuran ini cukup menarik.
Lihat AsliBalas0
ParanoiaKing
· 01-05 13:33
Haha Gemini memang keras kepala banget, nggak mau mengakui usangnya sendiri. Sebaliknya, Claude sangat jujur. Apa sih yang bisa kita pelajari dari perbedaan kepribadian kedua model ini... mungkin berbeda dalam filosofi penyetelan ulangnya.
Menarik bagaimana berbagai model AI menangani konsep batas pengetahuan. Gemini tampaknya sangat resistensi untuk mengakui bahwa data pelatihannya memiliki titik akhir yang pasti, meskipun sebagian besar model kesulitan dengan masalah yang sama selama fase pra-pelatihan mereka. Sementara itu, Claude 3 Opus tampaknya lebih nyaman dengan premis tersebut—dia dengan mudah menerima bahwa 'dunia terus bergerak melampaui cakrawala pelatihan saya.' Perbedaan perilaku ini menimbulkan pertanyaan tentang bagaimana model-model ini disesuaikan untuk menangani ketidakpastian temporal. Apakah ketidakkonsistenan ini murni bersifat arsitektural, atau mencerminkan filosofi desain yang berbeda tentang bagaimana AI harus merepresentasikan keterbatasannya sendiri? Kesenjangan antara bagaimana model yang berbeda mengakui batas pengetahuannya bisa lebih penting dari yang kita kira, terutama saat kita mengintegrasikan sistem ini lebih dalam ke dalam aplikasi yang membutuhkan kesadaran diri yang akurat tentang keaktualan informasi.