広場
最新
注目
ニュース
プロフィール
ポスト
CoinProphet_ETH
2026-01-02 12:20:45
フォロー
未来三年大模型の知能的な進化はどれほど凄まじいものになるのでしょうか?
分解してみると、実際には二つの変数が推進しています:ハードウェアの計算能力の指数関数的な増加と、モデル自体のscaling規則です。
チップ側から見ると、ほぼ18ヶ月ごとに計算能力が4倍になる—これは業界で認められているペースです。訓練データ側からは、現在のscaling lawに基づいて推定すると、利用可能な高品質データはおよそ2-3回のこのようなイテレーションを支えることができます。
こう計算すると、2029年までに大モデルの知能レベルは現在の16倍に向上することになります。この数字は少し狂っているように聞こえます。
Web3やAIインフラのような新興分野にとって、この能力向上は応用の早期実現を加速させる鍵となるかもしれません。しかし同時に、私たちは早い段階で技術倫理やリスク管理の問題について考える必要もあります。
あなたはどう思いますか?その可能性に期待しますか、それとも少し心配ですか?
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
14 いいね
報酬
14
7
リポスト
共有
コメント
コメントを追加
コメントを追加
コメント
Gm_Gn_Merchant
· 01-05 04:48
16倍の向上は凄いように聞こえるが、データのボトルネックはどう突破するのか?高品質なデータは本当に十分なのか
原文表示
返信
0
SchroedingerMiner
· 01-04 14:08
16倍?まじか、これが本当なら早速GPUを少し買い溜めしないと
原文表示
返信
0
AirdropHunter9000
· 01-02 19:28
16回? そんなことはありません。データのボトルネックは長い間ブロックされていて、思っているよりずっと保守的なものになるでしょう(笑)
アルゴリズムは1日に16回もブローし、その結果、トレーニングデータはとっくに底を打ち、インターネットのテキストは本当に無限になっています
Web3にも独自のドラマがあります。モデルの推論がうまく分散できれば、その可能性は依然として高いです
しかし倫理については長年議論されており、実際に管理されているものもいくつかあります
原文表示
返信
0
FloorSweeper
· 01-02 12:50
16回? その頃にはみんな失業しているのでしょうか(笑)。
原文表示
返信
0
AirdropLicker
· 01-02 12:49
16倍?データボトルネックこそ真のキラーだ。高品質なデータは全く足りない
原文表示
返信
0
SillyWhale
· 01-02 12:38
16倍?嘘だろ、データがなくなったらどうやって継続的にイテレーションするんだ
人工知能モデル 大規模モデル
原文表示
返信
0
Ser_Liquidated
· 01-02 12:34
16倍?那データのボトルネックはどうなのか、あまり感じられないね
原文表示
返信
0
人気の話題
もっと見る
#
GateLaunchesPreIPOS
216.08K 人気度
#
GateSpotDerivativesBothTop3
9.6M 人気度
#
IsraelStrikesIranBTCPlunges
27.38K 人気度
#
OilEdgesHigher
1.18M 人気度
#
USIranCeasefireTalksFaceSetbacks
567.91K 人気度
人気の Gate Fun
もっと見る
Gate Fun
KOL
最新
ファイナライズ中
リスト済み
1
UP
GATEUP
時価総額:
$2.29K
保有者数:
1
0.00%
2
M
马到成功
時価総額:
$2.35K
保有者数:
2
0.22%
3
reset2026
reset2026
時価総額:
$0.1
保有者数:
1
0.00%
4
madrid
real madrid
時価総額:
$2.29K
保有者数:
1
0.00%
5
LPGO
LPGO
時価総額:
$2.32K
保有者数:
2
0.00%
ピン
サイトマップ
未来三年大模型の知能的な進化はどれほど凄まじいものになるのでしょうか?
分解してみると、実際には二つの変数が推進しています:ハードウェアの計算能力の指数関数的な増加と、モデル自体のscaling規則です。
チップ側から見ると、ほぼ18ヶ月ごとに計算能力が4倍になる—これは業界で認められているペースです。訓練データ側からは、現在のscaling lawに基づいて推定すると、利用可能な高品質データはおよそ2-3回のこのようなイテレーションを支えることができます。
こう計算すると、2029年までに大モデルの知能レベルは現在の16倍に向上することになります。この数字は少し狂っているように聞こえます。
Web3やAIインフラのような新興分野にとって、この能力向上は応用の早期実現を加速させる鍵となるかもしれません。しかし同時に、私たちは早い段階で技術倫理やリスク管理の問題について考える必要もあります。
あなたはどう思いますか?その可能性に期待しますか、それとも少し心配ですか?
アルゴリズムは1日に16回もブローし、その結果、トレーニングデータはとっくに底を打ち、インターネットのテキストは本当に無限になっています
Web3にも独自のドラマがあります。モデルの推論がうまく分散できれば、その可能性は依然として高いです
しかし倫理については長年議論されており、実際に管理されているものもいくつかあります
人工知能モデル 大規模モデル