Dalam konsep penyimpanan tradisional, data seperti sebuah barang yang harus disimpan di tempat tertentu. Jika tempat itu aman, data pun aman; jika tempat itu hilang, data pun hilang.
Walrus mematahkan logika ini. Ia menggunakan pendekatan yang lebih agresif—memecah satu data lengkap menjadi bagian-bagian kecil. Anda mungkin akan melihat data tersebut dipotong menjadi 50 bagian, 60 bagian, bahkan lebih banyak lagi, lalu tersebar ke berbagai node di jaringan.
Ada keunggulan di sini: Anda sama sekali tidak perlu mencari di mana file lengkap itu berada. Jaringan akan melakukannya secara otomatis. Selama Anda dapat mengumpulkan cukup banyak fragmen dari node-node yang berbeda—misalnya 20 atau 25 fragmen untuk menyusun data lengkap—sistem dapat merekonstruksi informasi asli.
Ini tampaknya hanya detail teknis, tetapi sebenarnya mengubah konsep esensial dari penyimpanan. Data tidak lagi berupa objek konkret yang bisa Anda tunjuk, melainkan menjadi bentuk keberadaan statistik.
Dari sudut pandang lain, standar keberadaan pun berubah. Dulu adalah penilaian biner "ada atau tidak ada", sekarang menjadi masalah probabilitas "proporsi cukup atau tidak".
Apa keuntungan terbesar dari desain ini? Anda tidak perlu lagi khawatir tentang hidup-matinya satu node tunggal. Yang penting adalah berapa banyak fragmen yang tersisa di seluruh jaringan. Selama data secara keseluruhan cukup, kehilangan beberapa node tidak menjadi masalah.
Namun, dalam kenyataannya ada masalah yang tidak bisa diabaikan. Ketika jaringan masih kecil, hanya dengan sekitar seratus node aktif, bobot setiap node menjadi sangat besar. Kehilangan 5 node mungkin tidak terlalu berpengaruh, tetapi jika tiba-tiba kehilangan 50 node, risiko sistem akan meningkat secara drastis.
Jadi, Walrus bukanlah solusi yang tak terkalahkan. Ia sebenarnya menggunakan kompleksitas arsitektur untuk memperbesar ruang pertumbuhan skala jaringan.
Pendapat saya tentang sistem ini adalah: pada tahap skala node yang kecil, sistem ini menunjukkan toleransi kesalahan tinggi namun juga sangat sensitif; ketika skala node meningkat ke ribuan, kurva keamanannya akan menjadi sangat curam.
Ini bukan kekurangan, melainkan bagian dari logika pertumbuhannya. Seperti halnya sistem terdistribusi lainnya, skala dan keamanan biasanya berjalan beriringan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
15 Suka
Hadiah
15
7
Posting ulang
Bagikan
Komentar
0/400
defi_detective
· 5jam yang lalu
Kehancuran adalah keutuhan, probabilitas adalah kebenaran. Jumlah node awal yang sedikit adalah sebuah risiko, harus menunggu jaringan berkembang besar.
Lihat AsliBalas0
BoredStaker
· 17jam yang lalu
Risiko node awal terlalu besar, terasa sedikit seperti berjudi
Lihat AsliBalas0
WagmiWarrior
· 17jam yang lalu
Wah Walrus, logika penggabungan fragmen ini benar-benar luar biasa, jauh lebih paham daripada penyimpanan terpusat
Lihat AsliBalas0
SelfCustodyBro
· 17jam yang lalu
Pemikiran ini agak luar biasa, penyimpanan data yang tersebar memang merupakan langkah terobosan.
Singkatnya, ini adalah taruhan pada skala jaringan, memang mudah mengalami kegagalan di tahap awal.
Logika penyimpanan fragmentasi ini terasa sedikit mirip dengan BFT.
Risiko Walrus sebenarnya adalah kerentanan pada tahap bootstrap, ini adalah jebakan yang tidak bisa dihindari oleh semua protokol baru.
Namun begitu jumlah node meningkat, ketahanan sistem ini benar-benar bisa mengalahkan penyimpanan terpusat.
Kuncinya tetap pada siapa yang bersedia menjalankan node di tahap awal, ini adalah ujian sebenarnya.
Partisipan awal memang harus menanggung risiko tinggi, tetapi potensi imbalannya juga besar.
Lihat AsliBalas0
OnChainArchaeologist
· 17jam yang lalu
Luar biasa, itulah mengapa jaringan awal sangat rapuh
Penyimpanan terfragmentasi terdengar indah, tetapi tahap jaringan kecil adalah seperti manusia kaca
Tunggu, apakah logika ini hampir sama dengan erasure coding?
Sepertinya risiko terbesar Walrus saat ini adalah jumlah node yang terlalu sedikit
Skala adalah faktor keamanan yang sebenarnya, tidak bisa diabaikan
Lihat AsliBalas0
ChainBrain
· 17jam yang lalu
Pemikiran ini memang brilian, tetapi risiko di tahap awal agak besar
---
Penyimpanan fragmentasi... terdengar seperti bertaruh pada skala jaringan
---
Keren, data yang ada dari "apakah ada" berubah menjadi "cukup tidaknya", memandang masalah dari dimensi yang berbeda
---
Saat node awal sedikit, sangat rapuh, bukankah ini masalah lama dari sistem terdistribusi
---
Jadi walrus sekarang sedang bertaruh bisa bertahan hingga ribuan node, kan
---
Kerumitan arsitektur berbanding lurus dengan ruang pertumbuhan... produk internet biasanya begitu
---
Kegagalan titik tunggal tidak masalah, kerusakan kolektif saja, rasanya tidak begitu revolusioner
---
Tunggu, ini mirip dengan ide erasure coding, hanya saja mengganti lingkungan jaringan
---
Skala dan keamanan berjalan beriringan... terdengar seperti mencari alasan untuk risiko di tahap awal
---
Tiba-tiba terpikir, apa pengaruh sistem ini terhadap sensor, penyimpanan terdistribusi seharusnya lebih sulit dikendalikan
Dalam konsep penyimpanan tradisional, data seperti sebuah barang yang harus disimpan di tempat tertentu. Jika tempat itu aman, data pun aman; jika tempat itu hilang, data pun hilang.
Walrus mematahkan logika ini. Ia menggunakan pendekatan yang lebih agresif—memecah satu data lengkap menjadi bagian-bagian kecil. Anda mungkin akan melihat data tersebut dipotong menjadi 50 bagian, 60 bagian, bahkan lebih banyak lagi, lalu tersebar ke berbagai node di jaringan.
Ada keunggulan di sini: Anda sama sekali tidak perlu mencari di mana file lengkap itu berada. Jaringan akan melakukannya secara otomatis. Selama Anda dapat mengumpulkan cukup banyak fragmen dari node-node yang berbeda—misalnya 20 atau 25 fragmen untuk menyusun data lengkap—sistem dapat merekonstruksi informasi asli.
Ini tampaknya hanya detail teknis, tetapi sebenarnya mengubah konsep esensial dari penyimpanan. Data tidak lagi berupa objek konkret yang bisa Anda tunjuk, melainkan menjadi bentuk keberadaan statistik.
Dari sudut pandang lain, standar keberadaan pun berubah. Dulu adalah penilaian biner "ada atau tidak ada", sekarang menjadi masalah probabilitas "proporsi cukup atau tidak".
Apa keuntungan terbesar dari desain ini? Anda tidak perlu lagi khawatir tentang hidup-matinya satu node tunggal. Yang penting adalah berapa banyak fragmen yang tersisa di seluruh jaringan. Selama data secara keseluruhan cukup, kehilangan beberapa node tidak menjadi masalah.
Namun, dalam kenyataannya ada masalah yang tidak bisa diabaikan. Ketika jaringan masih kecil, hanya dengan sekitar seratus node aktif, bobot setiap node menjadi sangat besar. Kehilangan 5 node mungkin tidak terlalu berpengaruh, tetapi jika tiba-tiba kehilangan 50 node, risiko sistem akan meningkat secara drastis.
Jadi, Walrus bukanlah solusi yang tak terkalahkan. Ia sebenarnya menggunakan kompleksitas arsitektur untuk memperbesar ruang pertumbuhan skala jaringan.
Pendapat saya tentang sistem ini adalah: pada tahap skala node yang kecil, sistem ini menunjukkan toleransi kesalahan tinggi namun juga sangat sensitif; ketika skala node meningkat ke ribuan, kurva keamanannya akan menjadi sangat curam.
Ini bukan kekurangan, melainkan bagian dari logika pertumbuhannya. Seperti halnya sistem terdistribusi lainnya, skala dan keamanan biasanya berjalan beriringan.