AIに触れるほど、私は最大の問題はもはや知性ではないと信じるようになった。AIは非常に説得力のある文章を書き、分析し、回答できるようになった。心配なのは別のところにある:その回答が本当に信頼できるものかどうかをどうやって知るかだ。
AIは間違えることもあるが、その間違いは非常に自信を持っている。AIが金融、教育、法務、または自動化システムに関与し始めると、「正しそうだ」だけでは不十分になる。私たちに必要なのは検証能力だ。
それが私が@Mira\_networkに注目する理由だ。より賢いモデルを構築する代わりに、MiraはAIの出力を検証する層の構築に焦点を当てている。彼らはAIが生成した内容を、切り離せる小さな主張に変換し、検査と採点を可能にしている。文章が具体的な主張に分割されると、それは単なる印象的な言葉ではなく、照合と検証が可能なものになる。
ホワイトペーパーによると、#Miraは「trustless」な検証システムを設計しており、ステーキングと経済メカニズムを用いてバリデーターの誠実な行動を促進している。トークン
$MIRA はBase上で総供給量10億で、APIアクセス、ステーキング、ガバナンスに使用される。例えば、WikiSentryのような製品は、自動的に内容の引用と検証をサポートするために導入された。
もちろん、大規模な検証は決して簡単ではない。しかし、AIがますます