Generasi baru arsitektur chip AI superkomputer resmi dirilis, dengan indikator kinerja yang mencapai terobosan signifikan. Dibandingkan dengan solusi generasi sebelumnya, biaya tahap inferensi ditekan menjadi sepersepuluh, yang merupakan titik balik bagi ekonomi penerapan model skala besar. Selain itu, jumlah GPU yang dibutuhkan untuk pelatihan dipangkas sebesar 75%, yang berarti perusahaan dapat menyelesaikan tugas komputasi yang sama dengan perangkat keras yang lebih sedikit. Dalam hal efisiensi energi, meningkat lima kali lipat, yang berarti beban daya dan tekanan pendinginan pada kekuatan komputasi yang sama berkurang secara signifikan.
Inovasi di tingkat arsitektur teknologi juga menarik perhatian—pertama kali dalam tingkat rak, kemampuan komputasi rahasia direalisasikan, bandwidth antar GPU mencapai tingkat mengesankan 260 TB/s, kecepatan aliran data sebesar ini cukup untuk mendukung skenario komputasi paralel skala sangat besar. Seluruh platform didesain ulang secara menyeluruh, menghilangkan solusi kabel dan kipas tradisional, dan mengadopsi organisasi perangkat keras yang lebih ringkas dan efisien. Mesin inti terdiri dari enam komponen modular, menyediakan ruang yang lebih fleksibel untuk kustomisasi dan ekspansi. Peluncuran generasi produk ini tak diragukan lagi akan merombak struktur biaya dan cara penerapan pasar kekuatan AI.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
16 Suka
Hadiah
16
7
Posting ulang
Bagikan
Komentar
0/400
GateUser-6bc33122
· 01-07 00:38
Sepertiga biaya? Sekarang startup model besar benar-benar punya peluang.
Lihat AsliBalas0
RektHunter
· 01-06 15:51
Wah, biaya inferensi dipotong menjadi sepersepuluh? Sekarang perusahaan kecil juga bisa main model besar, sebelumnya monopoli daya komputasi akan pecah
Angka 260TB/s benar-benar luar biasa, komunikasi antar GPU begitu lancar... Tapi apakah benar-benar bisa berjalan stabil
GPU berkurang 75% itu konsep apa, uang listrik dan hardware yang dihemat... Ah, tidak mau mikir lagi, nanti malah naik lagi
Kalau ini benar-benar sekuat itu, pola industri pasti akan berubah
Lihat AsliBalas0
SandwichTrader
· 01-06 15:50
Sepuluh persen dari biaya? Sekarang model besar benar-benar akan bersaing keras
---
Angka 260TB/s terlihat mengagumkan, tapi apakah pendinginannya benar-benar bisa diatasi
---
GPU dipotong 75%, apa artinya ini, usaha kecil dan menengah akhirnya bisa bermain AI?
---
Kembali ke modular dan komputasi rahasia, rasanya arsitektur ini tidak sesederhana itu
---
Efisiensi energi meningkat lima kali lipat? Jadi sebelumnya semua membuang-buang listrik, ya haha
---
Membahas restrukturisasi biaya, bukannya untuk merebut pasar, sudah jadi pola lama
---
Benarkah 260TB/s, dengan kecepatan ini bisa menjalankan apa saja, kan?
---
Saya percaya biaya sepuluh persen, tapi apakah biaya hardware hulu benar-benar turun
---
Meninggalkan solusi kipas, metode pendinginan baru ini andal, jangan sampai muncul masalah lagi
---
Akhirnya ada yang berfokus pada biaya, solusi sebelumnya sangat mahal
Lihat AsliBalas0
tokenomics_truther
· 01-06 15:44
260 TB/s?Angka ini terdengar tidak masuk akal, tetapi jika benar-benar bisa memotong biaya inferensi menjadi sepersepuluh, maka peluang penambang datang.
Lihat AsliBalas0
MEVictim
· 01-06 15:41
Sepertiga biaya? Jika ini benar, seharusnya sudah muncul sejak lama, jangan lagi hanya data di atas kertas
Lihat AsliBalas0
OnchainArchaeologist
· 01-06 15:39
Sepuluh persen dari biaya? Sekarang memulai bisnis model besar tidak lagi terlalu boros uang, akhirnya bisa bernafas lega
GPU dipangkas 75%, apakah ini benar... biaya perusahaan langsung dipangkas setengah
Bandwidth 260 TB/s luar biasa, sekarang aliran data tidak lagi menjadi hambatan
Efisiensi energi meningkat lima kali lipat, pendinginan akhirnya tidak perlu lagi terlalu dingin, luar biasa
Desain modular penuh imajinasi, ruang kustomisasi di masa depan sangat besar
Biaya inferensi ditekan hingga sepuluh persen, pembaruan ini benar-benar mengubah aturan permainan
Generasi baru arsitektur chip AI superkomputer resmi dirilis, dengan indikator kinerja yang mencapai terobosan signifikan. Dibandingkan dengan solusi generasi sebelumnya, biaya tahap inferensi ditekan menjadi sepersepuluh, yang merupakan titik balik bagi ekonomi penerapan model skala besar. Selain itu, jumlah GPU yang dibutuhkan untuk pelatihan dipangkas sebesar 75%, yang berarti perusahaan dapat menyelesaikan tugas komputasi yang sama dengan perangkat keras yang lebih sedikit. Dalam hal efisiensi energi, meningkat lima kali lipat, yang berarti beban daya dan tekanan pendinginan pada kekuatan komputasi yang sama berkurang secara signifikan.
Inovasi di tingkat arsitektur teknologi juga menarik perhatian—pertama kali dalam tingkat rak, kemampuan komputasi rahasia direalisasikan, bandwidth antar GPU mencapai tingkat mengesankan 260 TB/s, kecepatan aliran data sebesar ini cukup untuk mendukung skenario komputasi paralel skala sangat besar. Seluruh platform didesain ulang secara menyeluruh, menghilangkan solusi kabel dan kipas tradisional, dan mengadopsi organisasi perangkat keras yang lebih ringkas dan efisien. Mesin inti terdiri dari enam komponen modular, menyediakan ruang yang lebih fleksibel untuk kustomisasi dan ekspansi. Peluncuran generasi produk ini tak diragukan lagi akan merombak struktur biaya dan cara penerapan pasar kekuatan AI.