Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Gemma milik Google Sudah Bertindak Seperti Gemini—Seseorang Membuatnya Berpikir Seperti Claude Opus Juga
Jika Anda mengikuti scene AI lokal, Anda mungkin sudah tahu Qwopus—model sumber terbuka yang mencoba menyaring penalaran Claude Opus 4.6 ke dalam Qwen dari Alibaba, sehingga Anda bisa menjalankan sesuatu yang mirip Opus di perangkat keras Anda sendiri secara gratis. Itu bekerja cukup mengesankan. Tantangan yang jelas: Qwen adalah model dari China, dan tidak semua orang nyaman dengan itu. Jackrong, pengembang dengan nama samaran yang sama di balik proyek tersebut, mendengar umpan baliknya. Jawabannya adalah Gemopus—keluarga baru fine-tune Claude Opus yang dibangun sepenuhnya di atas Gemma 4 dari Google yang sumber terbukanya. DNA Amerika, ide yang sama: penalaran tingkat frontier, berjalan secara lokal di perangkat keras yang sudah Anda miliki. Keluarga ini hadir dalam dua varian. Gemopus-4-26B-A4B adalah opsi yang lebih berat—model Campuran Ahli yang memiliki total 26 miliar parameter tetapi hanya mengaktifkan sekitar 4 miliar selama inferensi, yang berarti mampu bersaing jauh di atas bobotnya pada perangkat keras yang terbatas.
Parameter adalah apa yang menentukan kapasitas AI untuk belajar, bernalar, dan menyimpan informasi. Memiliki 26 miliar parameter total memberi model pengetahuan yang sangat luas. Tetapi dengan hanya “mengaktifkan” 4 miliar parameter yang relevan dengan prompt spesifik Anda, model ini memberikan hasil berkualitas tinggi dari AI besar sambil tetap ringan cukup untuk berjalan lancar di perangkat keras sehari-hari. Yang lainnya adalah Gemopus-4-E4B, model tepi dengan 4 miliar parameter yang dirancang agar berjalan nyaman di iPhone modern atau MacBook tipis dan ringan—tanpa GPU diperlukan. Pilihan model dasar di sini sangat penting. Gemma 4 dari Google, dirilis pada 2 April, dibangun langsung dari riset dan teknologi yang sama dengan Gemini 3—kata perusahaan secara eksplisit saat peluncuran. Itu berarti Gemopus membawa sesuatu yang tidak bisa diklaim oleh fine-tune berbasis Qwen: DNA dari model tertutup canggih milik Google sendiri di baliknya, dibungkus dalam gaya berpikir Anthropic di atasnya. Lebih dari itu, ini adalah kombinasi terbaik dari kedua dunia, lebih kurang.
Apa yang membedakan Gemopus dari gelombang fine-tune Gemma lain yang sedang membanjiri Hugging Face saat ini adalah filosofi di baliknya. Jackrong secara sengaja memilih untuk tidak memaksakan jejak penalaran berantai Claude ke dalam bobot Gemma—sebuah jalan pintas yang diambil oleh sebagian besar rilis pesaing. Argumennya, didukung oleh riset terbaru, adalah bahwa memasukkan teks penalaran permukaan dari model pelajar ke dalam model pengajar tidak benar-benar mentransfer kemampuan bernalar yang nyata. Itu mengajarkan imitasi, bukan logika. “Tidak perlu imajinasi berlebihan atau replikasi takhayul dari rantai pemikiran gaya Claude,” bunyi catatan model tersebut. Sebaliknya, dia fokus pada kualitas jawaban, kejelasan struktural, dan kealamian percakapan—memperbaiki nada Wikipedia Gemma yang kaku dan kecenderungannya memberi ceramah tentang hal-hal yang tidak Anda tanyakan. Insinyur infrastruktur AI Kyle Hessling melakukan benchmark independen dan mempublikasikan hasilnya langsung di catatan model. Putusannya tentang varian 26B cukup positif. “Senang bisa melakukan pengujian cukup keras dan ini adalah fine-tune yang sangat baik dari model yang sudah luar biasa,” tulisnya di X. “Ini sangat bagus untuk permintaan satu kali di konteks panjang, dan berjalan sangat cepat berkat arsitektur MOE (campuran ahli).”
Varian E4B yang lebih kecil melewati semua 14 tes kompetensi inti—mengikuti instruksi, pengkodean, matematika, penalaran multi-langkah, terjemahan, keamanan, caching—dan melewati semua 12 tes konteks panjang di 30K dan 60K token. Dalam pengujian pencarian jarum dalam tumpukan jerami, model ini melewati 13 dari 13 probe termasuk tes rentang di satu juta token dengan skala YaRN 8× RoPE.
26B secara native mendukung konteks hingga 131K dan hingga 524K dengan YaRN, yang juga diuji ketahanan oleh Hessling: “Ini juga menghancurkan semua tes pencarian jarum dalam tumpukan jerami saya hingga konteks yang diperluas 524k!” Di perangkat keras tepi, E4B benar-benar cepat. Jackrong melaporkan 45–60 token per detik di iPhone 17 Pro Max, dan 90–120 token per detik di MacBook Air M3/M4 melalui MLX. Arsitektur MoE 26B berarti model ini dapat dialihkan secara mulus pada sistem memori terpadu atau GPU dengan VRAM di bawah 10GB. Hessling menyebutnya sebagai rekomendasi utama untuk setup yang kekurangan VRAM.
Kedua model tersedia dalam format GGUF, yang berarti Anda bisa langsung memasukkannya ke dalam LM Studio atau llama.cpp tanpa konfigurasi. Kode pelatihan lengkap dan panduan fine-tuning langkah demi langkah ada di GitHub Jackrong—menggunakan pipeline yang sama seperti yang dia pakai untuk Qwopus, setup Unsloth dan LoRA yang sama, dapat direproduksi di Colab. Gemopus tidak tanpa kekurangannya. Pemanggilan alat tetap bermasalah di seluruh seri Gemma 4 di llama.cpp dan LM Studio—gagal panggilan, ketidakcocokan format, loop—jadi jika workflow Anda bergantung pada agen yang menggunakan alat eksternal, ini belum model yang cocok. Jackrong sendiri menyebutnya “referensi eksplorasi rekayasa daripada solusi siap produksi penuh,” dan menyarankan seri Qwopus 3.5 miliknya untuk siapa saja yang membutuhkan sesuatu yang lebih stabil untuk beban kerja nyata. Dan karena Jackrong secara sengaja menghindari distilasi rantai pemikiran gaya Claude yang agresif, jangan harap model ini akan terasa seberat Opus seperti Qwopus—itu adalah kompromi sadar demi stabilitas, bukan kelalaian.
Bagi yang ingin mendalami fine-tuning Gemma khusus untuk penalaran, ada juga proyek komunitas terpisah yang patut diperhatikan: Ornstein oleh pengembang anonim DJLougen, yang mengambil basis Gemma 4 26B yang sama dan fokus secara khusus pada peningkatan rantai penalarannya tanpa bergantung pada logika atau gaya dari model pihak ketiga tertentu. Satu catatan jujur: dinamika pelatihan Gemma lebih berantakan daripada Qwen untuk fine-tuner—fluktuasi loss yang lebih luas, sensitivitas hyperparameter yang lebih tinggi. Jackrong sendiri mengatakannya. Jika Anda membutuhkan model lokal yang lebih teruji untuk workflow produksi, seri Qwopus 3.5-nya tetap lebih kokoh dan terverifikasi. Tapi jika Anda menginginkan model Amerika dengan sentuhan Opus, Gemopus saat ini adalah opsi terbaik yang tersedia. Varian Gemopus 31B yang lebih padat juga sedang dalam pipeline, dengan Hessling menggoda bahwa itu adalah “banger pasti.” Jika Anda ingin mencoba menjalankan model lokal di perangkat keras sendiri, lihat panduan kami tentang cara memulai dengan AI lokal.