Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Ark Invest: Kondisi dan Masa Depan Infrastruktur AI
Sumber: Frank Downing, Ark Invest; Diterjemahkan: Gold Finance Claw
Pengeluaran Infrastruktur AI Melonjak Secara Eksponensial
Sejak peluncuran ChatGPT, selama tiga tahun terakhir, permintaan untuk komputasi percepatan meningkat secara pesat. Pendapatan tahunan Nvidia melambung hampir 8 kali lipat, dari 27 miliar dolar AS pada 2022 menjadi 216 miliar dolar AS pada 2025, dan pasar secara konsisten memperkirakan akan tumbuh lagi sebesar 62% pada 2026, mencapai 350 miliar dolar AS. Investasi sistem pusat data global (termasuk perangkat keras komputasi, jaringan, dan penyimpanan) telah meningkat dari rata-rata tahunan 5% selama dekade hingga 2022 menjadi 30% dalam tiga tahun terakhir, dan diperkirakan akan tumbuh lagi lebih dari 30% pada 2026, mencapai 653 miliar dolar AS.
Studi ARK menunjukkan bahwa komputasi percepatan yang didorong oleh GPU dan Integrated Circuit Khusus AI (ASIC) kini mendominasi investasi server, menyumbang 86% dari penjualan server komputasi.
Penurunan Biaya Mendorong Adopsi Percepatan
Daya dorong utama di balik peningkatan pengeluaran untuk infrastruktur komputasi percepatan yang diperlukan untuk menjalankan model AI berasal dari perluasan penggunaan generative AI di konsumen dan perusahaan, serta kebutuhan melatih model dasar yang lebih cerdas dalam proses mengejar “superintelligence”.
Penurunan biaya yang cepat semakin mempercepat pertumbuhan permintaan. Menurut riset kami, biaya pelatihan AI menurun sebesar 75% setiap tahun. Biaya inferensi bahkan menurun lebih cepat—dalam pengujian benchmark yang dilacak oleh Artificial Analysis, lebih dari 50% model mendapatkan penurunan biaya tahunan hingga 95%.
Dua kekuatan utama mendorong penurunan biaya yang besar ini: pertama, peluncuran produk baru tahunan dari pemimpin industri seperti Nvidia yang meningkatkan performa hardware generasi demi generasi; kedua, peningkatan algoritma di tingkat perangkat lunak yang terus meningkatkan efisiensi pelatihan dan inferensi pada hardware yang sama.
Sinyal Permintaan Kuat dari Konsumen dan Perusahaan
Adopsi AI oleh konsumen jauh lebih cepat dibandingkan saat mereka mengadopsi internet. Tingkat adopsi AI dalam tiga tahun mencapai sekitar 20%, lebih dari dua kali lipat kecepatan transisi ke internet.
Permintaan dari perusahaan juga meningkat dengan kecepatan yang mengagumkan. Sebagai contoh, data dari OpenRouter menunjukkan bahwa sejak Desember 2024, permintaan token meningkat 28 kali lipat.
Dalam dua tahun terakhir, laboratorium AI yang paling diminati oleh klien perusahaan, Anthropic, mencatat pertumbuhan pendapatan yang luar biasa sekitar 100 kali lipat—dari pendapatan operasional tahunan sekitar 100 juta dolar AS pada akhir 2023 menjadi perkiraan 8-10 miliar dolar AS pada akhir 2025. Tren ini berlanjut di 2026, dengan pengumuman pendapatan tahunan mencapai 14 miliar dolar AS dan putaran pendanaan sebesar 30 miliar dolar AS, dengan valuasi mencapai 380 miliar dolar AS.
Di garis depan persaingan antara konsumen dan perusahaan, OpenAI juga menunjukkan pertumbuhan yang kuat di kalangan pengguna perusahaan, dengan lebih dari 1 juta pelanggan perusahaan per November 2025. CFO Sarah Friar menyatakan bahwa pendapatan perusahaan dari bisnis perusahaan tumbuh lebih cepat daripada dari konsumen, dan diperkirakan akan menyumbang 50% dari total pendapatan perusahaan pada 2026. Dalam sebuah blog pada Januari 2026, Friar juga menjelaskan alasan untuk investasi lebih lanjut dalam infrastruktur: selama tiga tahun terakhir, pendapatan OpenAI berbanding lurus dengan kapasitas komputasinya.
Pasar Swasta Menyediakan Dana untuk Pengembangan AI
Untuk memenuhi sinyal permintaan yang kuat ini, investasi infrastruktur skala besar menjadi keharusan. Menurut data Crunchbase, pada 2025, pendanaan laboratorium AI swasta melebihi 200 miliar dolar AS, dengan sekitar 80 miliar dolar mengalir ke pengembang model dasar seperti OpenAI, Anthropic, dan xAI. Di pasar publik, perusahaan cloud besar sedang mengerahkan cadangan kas mereka dan mencari sumber pendanaan lain untuk mendukung rencana pengeluaran modal AI—yang diperkirakan mencapai 700 miliar dolar AS pada 2026.
Dilaporkan bahwa transaksi sebesar 30 miliar dolar AS antara Meta dan Blue Owl adalah transaksi swasta terbesar sepanjang masa. Transaksi ini dilakukan dalam bentuk perusahaan patungan, sebagian besar melalui pembiayaan utang, dengan struktur Special Purpose Vehicle (SPV) yang memungkinkan utang proyek tidak tercatat di neraca Meta, yang menimbulkan kontroversi besar.
AMD dan Pesaing Kuat Nvidia
Di luar pusat data fisik, chip komputasi tetap menjadi inti pengeluaran modal AI. Nvidia tetap berada di garis depan era komputasi percepatan, tetapi kini pembeli utama chip AI berusaha meningkatkan jumlah AI yang diperoleh per dolar investasi. Sejak mengakuisisi ATI Technologies pada 2006, AMD telah bersaing di pasar GPU konsumen bersama Nvidia, dan kini juga menjadi pesaing baru di pasar perusahaan. Sejak peluncuran seri prosesor EPYC pada 2017, pangsa pasar CPU server AMD meningkat dari hampir nol pada 2017 menjadi 40% pada 2025.
Untuk inferensi model kecil, GPU AMD sudah sebanding dengan Nvidia dalam hal Total Cost of Ownership (TCO) dan performa. TCO mempertimbangkan biaya pembelian awal chip (pengeluaran modal) dan biaya operasional selama masa pakai chip (pengeluaran operasional). Pengukuran performa menggunakan indikator InferenceMax dari SemiAnalysis, yang mengukur jumlah token yang diproses per GPU per detik saat dioptimalkan untuk throughput, sementara pengukuran biaya memperhitungkan estimasi pengeluaran modal dan operasional per jam.
Meski AMD telah “mengejar ketertinggalan” dalam performa model kecil, Nvidia tetap unggul secara signifikan dalam performa model besar, seperti terlihat pada gambar berikut.
Solusi rack-level Nvidia Grace Blackwell menghubungkan 72 GPU Grace Blackwell (GB200) sehingga berfungsi seperti satu GPU super besar dengan memori bersama. Interkoneksi yang erat antar chip ini memperkuat kemampuan inferensi model besar—yang membutuhkan distribusi bobot model di beberapa GPU dan bandwidth komunikasi yang lebih besar. Untuk mengejar ketertinggalan dari peluncuran Vera Rubin Nvidia, AMD berencana meluncurkan solusi rack-level pada paruh kedua 2026. Hingga saat ini, AMD telah mendapatkan pesanan dari pelanggan seperti Microsoft, Meta, OpenAI, xAI, dan Oracle.
Rintisan Chip Kustom oleh Perusahaan Besar
Selain pemasok GPU komersial, perusahaan cloud besar dan laboratorium AI juga berupaya mengendalikan pengaruh Nvidia melalui pengembangan chip sendiri, serta menurunkan biaya komputasi AI. Selama lebih dari satu dekade, Google telah merancang Integrated Circuit AI khusus—Tensor Processing Unit (TPU)—untuk menjalankan model rekomendasi dalam layanan pencariannya, dan pada generasi TPU v7 terbaru, telah dioptimalkan untuk generative AI. SemiAnalysis memperkirakan bahwa Google dapat mengurangi biaya per kalkulasi sebesar 62% dengan mengembangkan TPU internal untuk beban kerja internal. Anthropic dan Meta menggunakan TPU Google untuk memperluas kapasitas komputasi mereka, yang mungkin membenarkan estimasi pengurangan biaya sebesar 62%.
Chip Trainium milik Amazon tampaknya merupakan solusi yang sedikit lebih maju. Setelah mengakuisisi Annapurna Labs pada 2015, Amazon mengembangkan chip kustom untuk layanan cloud mereka, memperluas CPU berbasis ARM Graviton dan Data Processing Unit (DPU) Nitro, mendukung kekuatan komputasi penting AWS. Baru-baru ini, Amazon mengumumkan bahwa pada 2025, Graviton telah menyediakan lebih dari setengah kapasitas CPU baru AWS selama tiga tahun berturut-turut. Selain menggunakan TPU, Anthropic juga menjadikan AWS dan Trainium sebagai platform pelatihan utama mereka.
Microsoft baru masuk ke bidang chip kustom pada 2023 dengan merilis AI accelerator Maia 100, tetapi saat itu belum fokus pada generative AI. Produk generasi kedua mereka saat ini sedang diluncurkan, dengan fokus pada inferensi AI.
Perusahaan Chip Kustom Memimpin Pasar
Google dan Amazon fokus pada desain chip front-end (arsitektur dan fungsi), sementara mitra desain back-end bertanggung jawab mengubah logika menjadi chip silikon, mengelola kemasan canggih, dan berkoordinasi dengan TSMC untuk produksi. Di tengah tantangan yang dihadapi oleh Intel dalam bisnis foundry, TSMC telah menjadi mitra utama untuk sebagian besar proyek chip AI besar, sementara Broadcom menjadi mitra utama dalam desain back-end untuk TPU Google, Meta MTIA, dan chip kustom yang akan diluncurkan OpenAI pada 2026. Apple biasanya mengelola seluruh proses desain chip ponsel dan PC mereka sendiri, tetapi dilaporkan juga sedang bekerja sama dengan Broadcom untuk mengembangkan chip AI. Citibank memperkirakan bahwa pendapatan Broadcom dari AI bisa meningkat lima kali lipat dalam dua tahun ke depan, dari 20 miliar dolar AS pada 2025 menjadi 100 miliar dolar AS pada 2027.
R&D Chip Startup Menghangat
Studi kami menunjukkan bahwa sekelompok startup yang mencoba paradigma arsitektur baru dapat menjadi kekuatan ekor yang akan semakin menantang posisi pasar dari produsen chip besar. Cerebras terkenal dengan “wafer-scale engine”—chip raksasa berbentuk seperti pizza yang dibuat dari satu wafer silikon, menawarkan kecepatan pemrosesan token tercepat di pasar, dan berencana meluncurkan produk tahun ini. Perusahaan ini baru saja mengumumkan kolaborasi dengan OpenAI untuk meluncurkan model pemrograman cepat Codex Spark, setelah sebelumnya bekerja sama sejak Januari tahun ini. Groq juga menunjukkan performa luar biasa dalam kecepatan token per detik dan baru-baru ini menandatangani perjanjian lisensi kekayaan intelektual senilai 20 miliar dolar AS dengan Nvidia, yang mencakup 90% karyawannya dan CEO sekaligus co-founder TPU, Jonathan Ross. Ini sebenarnya merupakan akuisisi tidak langsung terhadap tim dan teknologi Groq, sebuah tren yang semakin umum dalam pasar merger dan akuisisi karena perusahaan teknologi besar ingin menghindari hambatan regulasi. Dalam dinamika akuisisi lainnya, Intel dilaporkan gagal dalam negosiasi akuisisi dan beralih menjalin kemitraan dengan SambaNova. Sejak 2014, Intel telah melakukan empat akuisisi di bidang AI, tetapi belum mampu meluncurkan produk AI yang benar-benar diterima pasar, yang menjadi catatan yang menyedihkan.
Pandangan Masa Depan: Skala 1,4 Triliun Dolar Pada 2030
Berdasarkan riset kami, pertumbuhan permintaan yang berkelanjutan dan peningkatan performa selama lima tahun ke depan akan mendorong perkembangan perangkat lunak dan layanan cloud AI, dengan pengeluaran infrastruktur AI meningkat tiga kali lipat—dari 500 miliar dolar AS pada 2025 menjadi hampir 1,5 triliun dolar AS pada 2030.
Prediksi ini didasarkan pada pengamatan historis investasi sistem pusat data terhadap pendapatan perangkat lunak. Pada awal 2010-an, seiring munculnya cloud computing, investasi sistem sekitar 50% dari pengeluaran perangkat lunak global. Pada 2021, setelah pandemi COVID-19, over-investment dan optimalisasi pelanggan menurunkan rasio ini menjadi sedikit di atas 20%. Prediksi 1,5 triliun dolar ini mengasumsikan bahwa pada 2030, investasi akan mencapai 20% dari skenario proyeksi netral pengeluaran perangkat lunak global (sekitar 70 triliun dolar). Kami telah menjelaskan secara rinci dalam blog tahun lalu bahwa rasio ini sudah memperhitungkan risiko over-investment potensial sebelum 2030 dan kemungkinan pertumbuhan pendapatan perangkat lunak yang lebih lambat dari skenario netral—dalam skenario kedua, kami memperkirakan investasi infrastruktur akan tetap tinggi, seperti pada awal 2010-an.
Seiring meningkatnya permintaan komputasi yang didorong AI, kami memperkirakan pangsa chip kustom dalam pengeluaran komputasi akan terus meningkat—karena waktu dan biaya desain chip untuk beban kerja tertentu akan menunjukkan keunggulan performa per dolar yang semakin penting saat skala meningkat. Kami memperkirakan bahwa pada 2030, ASIC kustom mungkin menguasai lebih dari sepertiga pasar komputasi.
Secara keseluruhan, studi kami menunjukkan bahwa pembangunan infrastruktur saat ini bukanlah gelembung yang akan pecah, melainkan fondasi dari sebuah revolusi platform yang langka. Ark memperkirakan pengeluaran tahunan untuk infrastruktur AI akan mendekati 1,5 triliun dolar pada 2030, didorong oleh permintaan nyata dan terus meningkat dari konsumen dan perusahaan, sementara biaya yang terus menurun terus memvalidasi dan membuka potensi penggunaan baru. Kami percaya bahwa perusahaan yang akan menonjol dalam lima tahun ke depan adalah mereka yang mampu merancang chip paling efisien, membangun model terbesar, dan mengimplementasikan keduanya secara massal.
Seperti yang dijelaskan CEO Nvidia Jensen Huang dalam panggilan laporan keuangan kuartal keempat tahun fiskal 2026, agen AI yang benar-benar praktis baru mulai diadopsi secara besar-besaran dalam beberapa bulan terakhir. Mereka mengkonsumsi token dalam jumlah besar, tetapi kemampuannya jauh melampaui produk AI yang biasa digunakan pengguna sebelumnya. Mengembangkan agen-agen ini ke jutaan perusahaan akan menjadi pekerjaan yang sangat intensif secara komputasi, dan menurut kami, peningkatan produktivitas yang dihasilkan akan sangat sepadan dengan investasi tersebut.