Amazon(AMZN.US) memulai revolusi biaya AI! Pengembangan ASIC AI sendiri langsung menuju pelatihan model besar kekuatan komputasi Nvidia menghadapi tantangan terkuat

robot
Pembuatan abstrak sedang berlangsung

Aplikasi Caijing Zhitong memperoleh informasi bahwa raksasa e-commerce dan komputasi awan Amerika Serikat, Amazon (AMZN.US), akan secara besar-besaran mencoba menggunakan chip AI buatan sendiri—yaitu infrastruktur cluster ASIC AI bernama Trainium dan Inferentia—untuk mengembangkan dan memperbarui model besar kecerdasan buatan mereka, guna secara signifikan menurunkan biaya. Melihat prospek ekspansi sistem GPU AI yang didominasi oleh Nvidia dan AMD, langkah Amazon ini berpotensi membawa “tekanan marginal jangka menengah-panjang + pengurangan premi monopoli,” dan di tengah gelombang besar inferensi AI serta tren “pelatihan mikro” yang memfokuskan embedding model AI ke dalam operasi perusahaan, jalur teknologi ASIC AI yang lebih hemat biaya mungkin akan memberikan serangan paling kuat sejauh ini terhadap posisi monopoli Nvidia yang menguasai hampir 90% pasar chip AI.

Dari sudut pandang rantai industri daya komputasi AI dan rekayasa chip, penggunaan chip AI buatan sendiri dari platform cloud Amazon Web Services (AWS) untuk melatih model besar AI, bukan lagi fokus utama pada inferensi AI seperti sebelumnya, merupakan tonggak penting dalam jalur ASIC AI buatan Amazon. Namun, ini bukan tonggak awal dalam pengembangan ASIC AI—seperti yang telah dibuktikan oleh TPU Google (yang termasuk dalam jalur teknologi ASIC AI). Sekarang, AWS secara penuh meningkatkan peran “infrastruktur cluster ASIC AI buatan sendiri yang terlibat dalam AI” menjadi “sistem daya utama langsung yang menangani pelatihan model besar AI terdepan mereka sendiri,” yang memiliki makna besar bagi rantai industri chip AI dari perusahaan-perusahaan hyperscaler seperti Amazon, Google, dan Microsoft.

Kekhawatiran pasar terhadap prospek Nvidia adalah benar

Peter DeSantis, kepala infrastruktur kecerdasan buatan baru Amazon, menyatakan dalam wawancara media Jumat pagi: “Jika kami mampu membangun model di chip AI buatan sendiri, kami dapat membangun model tersebut dengan biaya yang hanya sebagian kecil dari biaya penyedia model besar AI murni.”

DeSantis juga menambahkan: “Membangun pusat data AI berskala sangat besar memang memiliki tantangan biaya tertentu. Jika kita ingin AI mengubah segalanya, biaya tersebut harus berbeda.”

Secara umum, pasar percaya bahwa “penguasa chip AI” Nvidia (NVDA.US) saat ini masih menguasai sebagian besar pangsa pasar di bidang inti infrastruktur daya komputasi AI—yaitu pasar chip AI. Raksasa chip yang dipimpin Jensen Huang ini baru saja mengumumkan hasil kuartal keempat tahun fiskal 2026 dan panduan pendapatan kuartal berikutnya yang jauh melampaui ekspektasi, namun harga sahamnya turun tajam sebesar 5% pada hari Kamis, karena kekhawatiran yang semakin meningkat terhadap langkah hyperscaler yang baru-baru ini mengumumkan peluncuran chip ASIC AI berbasis jalur pengembangan sendiri yang lebih hemat biaya, menunjukkan tanda-tanda risiko terhadap posisi dominan Nvidia di bidang infrastruktur AI global—terutama di bidang inti chip AI.

Tak diragukan lagi, dengan pengumuman Amazon bahwa mereka akan mencoba menggunakan Trainium dan Inferentia untuk mengembangkan model besar AI, kekhawatiran pasar adalah benar.

Lebih awal bulan ini, manajemen Amazon menyatakan bahwa pengeluaran modal mereka pada tahun 2026 akan mencapai sekitar 200 miliar dolar AS, jauh di atas ekspektasi Wall Street. CEO Amazon Andy Jassy menyebut bahwa sebagian dari pengeluaran ini akan digunakan untuk mengembangkan dan meningkatkan infrastruktur daya ASIC AI buatan sendiri.

Jassy mengatakan: “Mengingat permintaan layanan e-commerce, layanan cloud tradisional, dan daya komputasi AI yang sangat kuat dari bisnis kami saat ini, serta peluang pertumbuhan besar yang inovatif seperti model besar AI, robot humanoid, dan satelit orbit rendah, kami memperkirakan Amazon akan menginvestasikan sekitar 200 miliar dolar AS dalam pengeluaran modal pada 2026, yang diperkirakan akan menghasilkan pengembalian investasi jangka panjang yang kuat.”

Gelombang inferensi AI datang, Nvidia mungkin bukan lagi “pemenang terbesar AI”

Rencana terbaru Amazon sebenarnya tidak hanya soal “apakah ASIC AI buatan sendiri mampu melatih model besar,” tetapi lebih kepada memperluas peran chip AI buatan sendiri dari sekadar daya komputasi AI yang dapat dipilih di cloud, ke jalur utama pengembangan model dasar mereka sendiri.

GPU AI Nvidia hampir mendominasi sisi pelatihan AI, yang membutuhkan cluster daya komputasi AI yang lebih kuat dan kemampuan iterasi cepat dari seluruh sistem daya, sementara sisi inferensi AI setelah teknologi AI canggih diimplementasikan secara massal, lebih menitikberatkan pada biaya per token, latensi, dan efisiensi energi. Misalnya, Google secara tegas menempatkan Ironwood sebagai generasi TPU yang “dilahirkan untuk era inferensi AI,” dan menekankan rasio performa/efisiensi/biaya cluster daya serta skalabilitasnya. Namun, langkah terbaru Amazon membuktikan bahwa ASIC AI berpotensi memiliki kekuatan besar dalam melatih model besar.

Sistem daya ASIC AI tak diragukan lagi akan terus melemahkan premi monopoli Nvidia dan sebagian pangsa pasar dalam jangka menengah-panjang, bukan menggantikan sistem GPU secara linier. Alasannya mendasar adalah, kompetisi utama di era inferensi bukan lagi “puncak daya,” tetapi biaya per token, konsumsi daya, pemanfaatan bandwidth memori, efisiensi interkoneksi, dan total biaya kepemilikan setelah kolaborasi perangkat lunak dan perangkat keras. Dalam indikator-indikator ini, ASIC yang disesuaikan untuk beban kerja tertentu—dengan data flow, compiler, dan interkoneksi khusus—secara alami lebih mudah mencapai rasio biaya-performa yang tinggi dibanding GPU umum.

Namun, bagi Nvidia dan AMD, ini sebagian besar berarti bahwa tekanan marginal memang nyata, tetapi lebih cenderung berupa penurunan kekuatan tawar-menawar, pengurangan pangsa pasar, dan pengurangan premi valuasi, bukan keruntuhan permintaan secara mutlak. ASIC AI dalam gelombang besar inferensi AI pasti akan terus mengguncang dominasi GPU Nvidia, tetapi lebih sebagai upaya untuk merombak kolam laba industri dan struktur pembelian pelanggan, bukan membuat logika ekspansi GPU menjadi tidak relevan.

AWS secara resmi menempatkan Trainium dan Inferentia sebagai akselerator khusus untuk pelatihan dan inferensi AI generatif, di mana Trainium 2 menawarkan sekitar 30-40% peningkatan rasio harga-performa dibanding instans GPU AI mereka; dan Google baru-baru ini menyatakan bahwa Gemini 2.0 akan menjalankan pelatihan dan inferensi sepenuhnya di TPU. Ini menunjukkan bahwa “perusahaan cloud besar yang menggunakan ASIC buatan sendiri untuk menangani pelatihan/inferensi model inti” bukan lagi sekadar konsep, tetapi sudah memasuki tahap industri yang dapat diduplikasi.

Namun, jika dipersempit menjadi “sistem GPU akan segera dihancurkan,” itu terlalu berlebihan. Perlindungan utama Nvidia tidak hanya terletak pada chip itu sendiri, tetapi juga pada CUDA, ekosistem alat pengembangan, cakupan adaptasi model, dan kekakuan ekosistem. Analis Bloomberg bahkan menyebutkan bahwa lebih dari 4 juta pengembang di seluruh dunia sudah bergantung pada CUDA, yang berarti bahwa banyak pelatihan mutakhir, beban kerja campuran yang kompleks, dan model baru yang membutuhkan iterasi cepat, dalam waktu dekat masih lebih cocok dijalankan di GPU. Bahkan AWS, sambil mendorong chip AI buatan sendiri, tetap akan memasukkan sistem GPU ke dalam chip masa depan mereka dan terus menyediakan infrastruktur AI berbasis kekuatan Nvidia; ini menunjukkan bahwa strategi nyata hyperscaler bukanlah “menghilangkan GPU,” melainkan mempertahankan GPU di tingkat pelatihan tingkat tinggi dan meningkatkan proporsi ASIC dalam inferensi skala besar dan tumpukan model mereka sendiri. Jadi, dari sudut pandang rekayasa, masa depan lebih cenderung berupa “GPU + ASIC yang berdampingan secara hierarkis,” bukan satu jalur yang sepenuhnya mengalahkan yang lain.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)