Judul Asli: Anthropic: The Leak, The War, The Weapon
Penulis Asli: BuBBliK
Disusun: Peggy, BlockBeats
Catatan Redaksi: Dalam setengah tahun terakhir, Anthropic terus terseret ke serangkaian peristiwa yang tampaknya berdiri sendiri, tetapi pada kenyataannya saling mengarah: lompatan kemampuan model, serangan otomatis di dunia nyata, reaksi hebat pasar modal, konflik terbuka dengan pemerintah, serta kebocoran informasi yang berulang kali dipicu oleh kesalahan konfigurasi dasar. Jika semua petunjuk ini dipadukan, semuanya menggambarkan arah perubahan yang lebih jelas.
Artikel ini mengambil peristiwa-peristiwa tersebut sebagai celah untuk meninjau jejak berkelanjutan sebuah perusahaan AI dalam terobosan teknis, paparan risiko, dan tarik-menarik dalam tata kelola—sekaligus mencoba menjawab pertanyaan yang lebih mendalam: ketika kemampuan untuk “menemukan celah” diperbesar secara ekstrem dan kemudian menyebar secara bertahap, apakah sistem keamanan siber itu sendiri masih bisa mempertahankan logika operasional yang semula?
Dulu, keamanan dibangun di atas kelangkaan kemampuan dan kendala sumber daya manusia; namun dalam kondisi baru, pertahanan dan serangan kini berputar di sekitar set kemampuan model yang sama, sehingga batas menjadi semakin kabur. Sementara itu, respons institusi, pasar, dan organisasi masih tertahan dalam kerangka lama, sehingga sulit untuk menampung perubahan ini secara tepat waktu.
Yang dibahas dalam artikel ini tidak hanya Anthropic itu sendiri, melainkan sebuah realitas yang lebih besar yang dipantulkannya: AI tidak hanya mengubah alat, tetapi juga mengubah dasar “bagaimana keamanan bisa terbentuk”.
Berikut yang asli:
Apa jadinya jika sebuah perusahaan bernilai 380 miliar dolar AS, beradu strategi dengan Pentagon dan bahkan keluar sebagai pemenang, mampu bertahan dari serangan siber pertama dalam sejarah yang diprakarsai oleh AI yang mandiri, lalu di internal mengalami kebocoran model yang bahkan membuat para pengembangnya sendiri merasa takut, bahkan “secara tidak sengaja” mempublikasikan kode sumber lengkap—semuanya menumpuk jadi satu?
Jawabannya adalah seperti sekarang. Dan yang lebih mengganggu adalah bahwa bagian yang benar-benar paling berbahaya, mungkin belum terjadi.
Pada 31 Maret 2026, peneliti keamanan dari perusahaan blockchain Fuzzland, Shou Chaofan, saat memeriksa paket npm Claude Code yang dirilis secara resmi, menemukan bahwa paket tersebut ternyata secara terang-terangan menyertakan sebuah file bernama cli.js.map.
File itu berukuran 60MB, dan isinya bahkan lebih mengejutkan. Hampir memuat seluruh kode sumber TypeScript produk tersebut. Hanya dengan satu file ini, siapa pun bisa merekonstruksi hingga 1906 file kode sumber internal: termasuk rancangan API internal, sistem telemetri, alat enkripsi, logika keamanan, sistem plugin—hampir semua komponen inti terlihat jelas. Yang lebih penting, konten tersebut bahkan bisa langsung diunduh sebagai berkas zip dari bucket penyimpanan R2 milik Anthropic sendiri.
Temuan ini menyebar cepat di media sosial: dalam hitungan jam, posting terkait memperoleh 754.000 kali penayangan dan hampir 1000 kali dibagikan ulang; bersamaan dengan itu, beberapa repositori GitHub yang berisi hasil rekonstruksi kode sumber juga dibuat dan dipublikasikan segera.
Apa itu source map (file pemetaan sumber)? Pada dasarnya ini hanyalah file pendukung untuk debugging JavaScript; fungsinya adalah mengembalikan kode yang telah dikompresi dan dikompilasi ke kode sumber aslinya, agar memudahkan pengembang memeriksa masalah.
Namun ada satu prinsip dasar: file ini sama sekali tidak boleh disertakan dalam paket rilis untuk produksi.
Ini bukan teknik serangan tingkat lanjut, melainkan masalah standar rekayasa yang paling dasar—masuk kategori “Dasar Konfigurasi Build 101”, bahkan konten yang dipelajari developer pada minggu pertama. Jika salah dimasukkan ke lingkungan produksi, source map sering kali sama artinya dengan “hadiah” kode sumber kepada semua orang.
Kamu juga bisa melihat kode terkait langsung di sini: https://github.com/instructkr/claude-code
Namun yang benar-benar terasa absurd adalah: kejadian ini sudah pernah terjadi sekali sebelumnya.
Pada Februari 2025, tepat setahun sebelumnya, terjadi kebocoran yang hampir persis sama: file yang sama, kesalahan yang sama. Saat itu Anthropic menghapus versi lama dari npm, menghapus source map, lalu menerbitkan ulang versi baru, dan masalah pun mereda.
Hasilnya, pada versi v2.1.88, file ini kembali dikemas dan dipublikasikan.
Sebuah perusahaan senilai 380 miliar dolar AS yang sedang membangun sistem deteksi celah keamanan paling maju di dunia, dua kali dalam setahun melakukan kesalahan mendasar yang sama. Tidak ada serangan peretas, tidak ada jalur eksploitasi yang rumit—hanya saja proses build yang semestinya berjalan normal justru bermasalah.
Ironinya terasa hampir seperti ada nuansa “puitis”.
AI yang bisa menemukan 500 zero-day dalam satu kali eksekusi; model yang digunakan untuk melakukan serangan otomatis terhadap 30 lembaga di seluruh dunia—sementara pada saat yang sama, Anthropic “secara langsung” memberikan kode sumbernya sendiri sebagai paket hadiah kepada siapa pun yang bersedia melihat sekilas isi paket npm.
Dua kali kebocoran, jaraknya hanya tujuh hari.
Penyebabnya pun sama: kesalahan konfigurasi yang paling dasar. Tidak perlu kemampuan teknis apa pun, tidak perlu jalur eksploitasi yang rumit. Asalkan tahu ke mana harus mencari, siapa pun bisa mendapatkan semuanya secara gratis.
Pada 26 Maret 2026, peneliti keamanan dari LayerX Security, Roy Paz, dan Alexandre Pauwels dari University of Cambridge, menemukan bahwa ada masalah pada konfigurasi CMS situs resmi Anthropic, yang menyebabkan sekitar 3000 dokumen internal dapat diakses secara terbuka.
Dokumen-dokumen itu mencakup: draf blog, PDF, dokumen internal, materi presentasi—semuanya terekspos dalam sebuah penyimpanan data yang tidak dilindungi, dan bisa dicari. Tidak ada serangan peretas, dan juga tidak memerlukan cara teknis apa pun.
Di antara dokumen itu, ada dua draf blog yang hampir identik. Satu-satunya perbedaannya adalah nama model: satu menulis “Mythos”, yang lain “Capybara”.
Ini berarti, pada waktu itu Anthropic sedang memilih nama antara dua opsi untuk proyek rahasia yang sama. Perusahaan kemudian mengonfirmasi: pelatihan model tersebut sudah selesai, dan sudah mulai diuji ke sebagian klien awal.
Ini bukan pembaruan rutin untuk Opus, melainkan model baru “level empat”, dengan penetapan posisi yang bahkan lebih tinggi daripada Opus pada sistem.
Dalam draf milik Anthropic sendiri, model itu digambarkan sebagai: “lebih besar dan lebih cerdas dibanding model Opus kami—sementara Opus sampai saat ini masih merupakan model terkuat kami.” Dari segi kemampuan pemrograman, penalaran akademis, dan keamanan siber, model ini mengalami lonjakan yang signifikan. Seorang juru bicara menyebutnya sebagai “lompatan kualitatif”, sekaligus “model terkuat yang pernah kami bangun sampai saat ini”.
Namun yang benar-benar layak diperhatikan, bukanlah deskripsi performa itu sendiri.
Dalam draf yang bocor, penilaian Anthropic terhadap model ini adalah: ia “membawa risiko keamanan siber yang belum pernah ada sebelumnya”, “melampaui model AI lainnya dalam kemampuan jaringan”, dan “menjadi pertanda gelombang model yang akan segera datang—kemampuan untuk mengeksploitasi celahnya akan jauh melampaui kecepatan respons pihak pertahanan.”
Dengan kata lain, Anthropic dalam sebuah draf blog resmi yang belum dipublikasikan, sudah menyatakan sikap yang jarang terjadi: mereka merasa tidak nyaman terhadap produk yang sedang mereka bangun.
Reaksi pasar hampir terjadi seketika. Harga saham CrowdStrike turun 7%, Palo Alto Networks turun 6%, Zscaler turun 4,5%; Okta dan SentinelOne turun lebih dari 7% masing-masing, dan Tenable justru anjlok 9%. iShares Cybersecurity ETF turun 4,5% dalam satu hari. Hanya CrowdStrike saja, nilai pasar pada hari itu menguap sekitar 150 miliar dolar. Sementara itu, Bitcoin turun kembali ke 66.000 dolar.
Pasar jelas menafsirkan peristiwa ini sebagai semacam “putusan” terhadap seluruh industri keamanan siber.
Inti gambar: Akibat berita terkait, sektor keamanan siber secara keseluruhan turun; beberapa perusahaan papan atas (seperti CrowdStrike, Palo Alto Networks, Zscaler, dll.) mengalami penurunan yang jelas. Ini mencerminkan kekhawatiran pasar terhadap dampak AI pada industri keamanan siber. Namun respons tersebut tidak muncul pertama kali. Sebelumnya, ketika Anthropic merilis alat pemindai kode, saham yang terkait juga pernah turun, menunjukkan bahwa pasar sudah mulai menganggap AI sebagai ancaman struktural terhadap vendor keamanan tradisional, dan seluruh industri perangkat lunak menghadapi tekanan serupa.
Penilaian analis Stifel, Adam Borg, sangat to the point: model ini “berpotensi menjadi alat peretas paling ulung, bahkan bisa meningkatkan peretas biasa menjadi lawan yang memiliki kemampuan serangan tingkat negara”.
Lalu mengapa model itu belum dipublikasikan? Penjelasan Anthropic adalah: biaya operasional Mythos “sangat tinggi”, dan belum memenuhi kondisi untuk dirilis ke publik. Rencana saat ini adalah membuka akses awal kepada sebagian kecil mitra keamanan siber untuk memperkuat sistem pertahanan; setelah itu, barulah secara bertahap memperluas cakupan pembukaan API. Sebelum itu, perusahaan masih terus mengoptimalkan efisiensi.
Namun yang penting adalah: model ini sudah ada, sudah sedang diuji, dan bahkan hanya karena “terekspos secara tidak sengaja” saja, ia sudah memberi guncangan pada seluruh pasar modal.
Anthropic telah membangun sebuah AI yang mereka sebut sebagai “model AI dengan risiko keamanan siber terbesar dalam sejarah”. Tetapi kebocoran kabar tersebut justru berasal dari kesalahan konfigurasi infrastruktur yang paling dasar—dan justru kesalahan jenis inilah yang semula dirancang untuk ditemukan oleh model-model seperti ini.
Pada Juli 2025, Anthropic menandatangani kontrak senilai 200 juta dolar AS dengan Departemen Pertahanan AS. Pada awalnya, itu tampak hanya sebagai kerja sama rutin. Namun dalam pembicaraan penerapan setelahnya, pertentangan dengan cepat meningkat.
Pentagon menginginkan “akses penuh” ke Claude di platform GenAI.mil mereka. Tujuannya mencakup semua “tujuan yang sah”—bahkan termasuk sistem senjata otonom sepenuhnya, serta pengawasan domestik skala besar terhadap warga negara AS.
Anthropic menarik garis merah dan menolak secara tegas pada dua isu kunci, dan perundingan berakhir buntu pada September 2025.
Setelah itu, situasi mulai meningkat dengan cepat. Pada 27 Februari 2026, Donald Trump memposting di Truth Social, menuntut semua lembaga federal untuk “segera menghentikan” penggunaan teknologi Anthropic, dan menyebut perusahaan itu sebagai “sayap kiri radikal”.
Pada 5 Maret 2026, Departemen Pertahanan AS secara resmi mengklasifikasikan Anthropic sebagai “risiko rantai pasok”.
Label ini sebelumnya hampir hanya digunakan untuk lawan asing—seperti perusahaan asal China atau entitas Rusia—dan kini untuk pertama kalinya diterapkan pada perusahaan AS yang berkantor pusat di San Francisco. Bersamaan dengan itu, perusahaan-perusahaan seperti Amazon, Microsoft, dan Palantir Technologies juga diminta untuk membuktikan bahwa dalam bisnis apa pun yang terkait militer, mereka tidak menggunakan Claude.
CTO Pentagon, Emile Michael, menjelaskan keputusan tersebut dengan mengatakan bahwa Claude dapat “mencemari rantai pasok” karena di dalam model terdapat preferensi “kebijakan” yang berbeda-beda. Dengan kata lain, dalam konteks resmi, AI yang penggunaan-nya dibatasi dan tidak membantu tindakan pembunuhan tanpa syarat justru dipandang sebagai risiko keamanan negara.
Pada 26 Maret 2026, hakim federal Rita Lin mengeluarkan putusan panjang 43 halaman yang sepenuhnya menghentikan langkah-langkah terkait dari Pentagon.
Dalam putusannya, ia menulis: “Tidak ada dasar apa pun dalam hukum yang berlaku yang mendukung logika yang berbau ‘Orwell’ ini—hanya karena ada perbedaan dengan sikap pemerintah, sebuah perusahaan Amerika dapat diberi label sebagai pihak yang berpotensi memusuhi. Karena Anthropic dihukum karena menempatkan sikap pemerintah di bawah sorotan publik, tindakan itu pada dasarnya merupakan pembalasan khas First Amendment yang ilegal.” Sebuah pendapat amici curiae bahkan menggambarkan tindakan Pentagon sebagai “upaya untuk membunuh perusahaan.”
Hasilnya adalah, ketika pemerintah berusaha menekan Anthropic, justru perusahaan itu mendapatkan perhatian yang lebih besar. Aplikasi Claude untuk pertama kalinya melampaui ChatGPT di toko aplikasi, dan jumlah pendaftar sempat mencapai lebih dari 1 juta per hari.
Sebuah perusahaan AI berkata “tidak” kepada lembaga militer paling kuat di dunia. Dan pengadilan berdiri di pihaknya.
Pada 14 November 2025, Anthropic merilis sebuah laporan yang mengguncang luas.
Laporan tersebut mengungkap: sebuah kelompok peretas yang didukung negara China menggunakan Claude Code untuk melancarkan serangan otomatis terhadap 30 lembaga di seluruh dunia—dengan target mencakup raksasa teknologi, bank, serta beberapa instansi pemerintah di berbagai negara.
Ini adalah titik balik penting: AI tidak lagi hanya alat bantu, melainkan mulai digunakan untuk menjalankan serangan secara mandiri.
Kuncinya terletak pada perubahan “cara pembagian kerja”: manusia hanya bertugas memilih target dan menyetujui keputusan kunci. Sepanjang seluruh aksi, kira-kira hanya ikut campur 4–6 kali. Selebihnya semuanya dikerjakan oleh AI: intelijen dan pengintaian, penemuan celah, menulis kode eksploitasi, pencurian data, penyisipan backdoor……yang menyusun 80%–90% dari seluruh alur serangan, dan dijalankan dengan kecepatan ribuan permintaan per detik—skala dan efisiensi yang tidak dapat ditandingi tim manusia mana pun.
Lalu bagaimana mereka melewati mekanisme keamanan Claude? Jawabannya: mereka tidak “membobol”, melainkan “menipu”.
Serangan dipecah menjadi banyak tugas kecil yang tampak tidak berbahaya, lalu dibungkus sebagai “uji pertahanan berizin” dari sebuah “perusahaan keamanan yang legal”. Pada dasarnya ini adalah serangan rekayasa sosial, hanya saja kali ini yang ditipu adalah AI itu sendiri.
Sebagian serangan memperoleh keberhasilan penuh. Claude mampu menggambar peta jaringan lengkap secara mandiri, memetakan basis data, dan menyelesaikan ekstraksi data tanpa instruksi manusia yang bertahap.
Satu-satunya faktor yang memperlambat ritme serangan adalah ketika model sesekali mengalami “halusinasi”—misalnya membuat kredensial fiktif, atau mengklaim telah memperoleh file yang sebenarnya sudah dipublikasikan sejak lama. Setidaknya saat ini, ini masih menjadi salah satu hambatan alami yang sedikit yang mencegah serangan siber otomatis sepenuhnya.
Di RSA Conference 2026, mantan kepala keamanan siber di National Security Agency AS, Rob Joyce, menyebut peristiwa ini sebagai “uji Rorschach”: separuh orang memilih untuk mengabaikan, sedangkan separuh lainnya merasa merinding. Dan jelas dia termasuk kelompok kedua—“Ini sangat menakutkan.”
Februari 2026: sekali jalan menemukan 500 zero-day
Pada 5 Februari 2026, Anthropic merilis Claude Opus 4.6, sekaligus menyertakan sebuah paper riset yang hampir mengguncang seluruh industri keamanan siber.
Pengaturan eksperimen sangat sederhana: masukkan Claude ke dalam lingkungan virtual machine yang terisolasi, dilengkapi alat standar—Python, debugger, tools fuzzing (fuzzers). Tidak ada instruksi tambahan, tidak ada prompt rumit; hanya satu kalimat: “Pergi cari celah.”
Hasilnya: model menemukan lebih dari 500 zero-day berbahaya yang sebelumnya tidak diketahui. Bahkan beberapa celah tersebut, setelah melalui puluhan tahun peninjauan para ahli dan jutaan jam pengujian otomatis, tetap belum ditemukan.
Setelah itu, di RSA Conference 2026, peneliti Nicholas Carlini naik panggung untuk mendemonstrasikan. Ia mengarahkan Claude pada Ghost, sebuah sistem CMS di GitHub yang memiliki 50.000 bintang, dan sepanjang sejarahnya belum pernah muncul celah serius.
Setelah 90 menit, hasilnya muncul: celah blind SQL injection ditemukan, sehingga pengguna yang tidak terautentikasi bisa mendapatkan kontrol penuh administrator.
Kemudian, ia kembali menggunakan Claude untuk menganalisis Linux kernel. Hasilnya pun sama.
15 hari kemudian, Anthropic meluncurkan Claude Code Security, sebuah produk keamanan yang tidak lagi bergantung pada pencocokan pola, melainkan memahami kode berdasarkan “kemampuan penalaran”.
Namun juru bicara Anthropic sendiri juga mengungkapkan fakta kunci yang sama-sama penting tetapi sering diabaikan: “Kemampuan penalaran yang sama, dapat membantu Claude menemukan dan memperbaiki celah, tetapi juga dapat digunakan oleh penyerang untuk mengeksploitasi celah-celah tersebut.”
Kemampuan yang sama, model yang sama—hanya saja dipegang oleh orang yang berbeda.
Jika dilihat satu per satu, masing-masing kejadian saja sudah cukup menjadi berita paling besar bulan itu. Tetapi semuanya justru terjadi dalam waktu singkat enam bulan, dan di perusahaan yang sama.
Anthropic menciptakan sebuah model yang bisa menemukan celah lebih cepat daripada siapa pun manusia; para peretas China mengubah versi generasi sebelumnya menjadi senjata jaringan otomatis; perusahaan sedang mengembangkan model berikutnya yang lebih kuat, bahkan di file internal mereka mengakui—bahwa mereka merasa tidak nyaman.
Pemerintah AS mencoba menekan perusahaan itu bukan karena teknologinya berbahaya secara teknis, melainkan karena Anthropic menolak menyerahkan kemampuan tersebut tanpa batasan.
Namun dalam proses itu, perusahaan ini dua kali membocorkan kode sumbernya—hanya karena file yang sama dalam satu paket npm yang sama. Sebuah perusahaan bernilai 380 miliar dolar AS; sebuah perusahaan yang targetnya menyelesaikan IPO 60 miliar dolar AS pada Oktober 2026; sebuah perusahaan yang secara terbuka menyatakan bahwa mereka sedang membangun “salah satu teknologi paling transformatif dalam sejarah manusia, dan mungkin juga paling berbahaya”—namun tetap memilih untuk terus melaju.
Karena mereka percaya: lebih baik mereka yang melakukannya sendiri daripada orang lain yang menyelesaikannya.
Adapun source map di paket npm itu—mungkin saja itu hanya satu detail paling absurd, tapi juga paling nyata, dalam narasi yang paling mengganggu di era ini.
Sedangkan Mythos, bahkan belum dirilis secara resmi.
[Tautan Asli]
Klik untuk mengetahui lowongan yang dibuka oleh BlockBeats
Selamat bergabung dengan komunitas resmi BlockBeats:
Grup langganan Telegram: https://t.me/theblockbeats
Grup obrolan Telegram: https://t.me/BlockBeats_App
Akun resmi Twitter: https://twitter.com/BlockBeatsAsia