作者:George Sivulka翻訳:深潮 TechFlow深潮ガイド:AIは個人の生産性を10倍向上させたが、その結果、どの会社も10倍の価値を持つようにはなっていない。a16zの投資家でありAI企業Hebbiaの創始者でもあるGeorge Sivulkaは、問題は技術そのものではなく、組織が再構築されていないことにあると考える。彼は「機関レベルAI」と「個人レベルAI」の七つの次元を区別して提案している——調整、信号、偏見、エッジ優位性、結果志向、エンパワーメント、そしてプロンプト不要——本質的には、電動機を変えただけでは不十分で、工場全体を再設計し直す必要があるということだ。全文は以下の通り:AIはちょうど、誰もが生産性を10倍に向上させることを可能にした。しかし、その結果、どの会社も10倍の価値を持つようにはなっていない。生産性はどこへ行ったのか?これは初めてのことではない。1890年代、電力は大きな生産性向上を約束した。ニューイングランドの織物工場は、もともと蒸気機関を中心に設計されていたが、すぐに蒸気機関をより高速な電動モーターに置き換えた。しかし、30年もの間、電気化された工場の生産性はほとんど向上しなかった。技術は遥かに進歩していたが、組織は追いつかなかった。1920年代に入って、工場は生産ラインを徹底的に再設計した——ライン化、各設備に独立した電動モーターを設置し、労働者と機械が全く異なる作業を行うようにした——これにより、電気化は真のリターンを生み出した。図注:ローレル織布工場の三つの進化。左から右へ:1890年蒸気動力工場、1900年電力駆動工場、1920年「ユニット駆動」工場(ゼロから電力ラインに再構築)。リターンは技術そのものからではなく、単一の労働者や機械をより速く動かすことからも得られない。制度と技術を一緒に再設計したときにこそ、真の成果が現れる。これは技術史上最も高価な教訓の一つであり、私たちは今、その教訓を再び学びつつある。2026年、AIはそれを使いこなす者に対して10倍の生産性向上をもたらしている。しかし、それだけでは不十分だ。電動機を取り替えただけで、工場全体を再設計していない。なぜなら、シンプルな事実があるからだ:効率的な個人は、効率的な組織と同じではない。ほとんどのAI製品は、「効率的」という感覚を与えるが、実際の価値を推進しているわけではない。あなたが見るほとんどのAIの使用例は、TwitterやSlackで自己陶酔的に「最大効率」を追求しているだけで、実質的な影響はゼロだ。過去一年間繰り返し言及されてきた「サービスはソフトウェアである」という考え方は正しい方向性だが、青写真を示していないし、より大きな全体像を見落としている。本当の変革は、ツールからサービスへ移行することではなく、技術と制度を一緒に構築すること(古いものを改造するかゼロから作るかに関わらず)にある。真に効率的な未来には、新しいカテゴリーの製品——明日の生産ライン——が必要だ。効率的な組織には「機関レベルの知能」が必要だ。この記事では、「機関レベルAI」と「個人レベルAI」を区別する七つの次元について深く分析する。今後十年間、B2BのAI企業はこれらの違いに基づいて構築されていくだろう。図注:機関レベル知能の七つの柱の比較表【機関レベル知能の七つの柱】1. 調整個人レベルAIは混乱を生む。機関レベルAIは調整を生み出す。一つ思考実験をしよう。もし明日、あなたの組織の人数を倍にし、最も優秀な社員を全員クローンしたとしたら。それぞれの社員には微細な差異、嗜好、癖、視点がある(特にあなたの最良の社員はそうだ)。管理が不十分で、コミュニケーションが不足し、役割やOKR、境界線が明確でなければ……あなたが作り出すのは混乱だ。個人で考えれば、組織はより効率的になったように見えるかもしれない。しかし、何千ものエージェント(または人間)がそれぞれ勝手に動き、逆方向に進めば、良い結果は変わらず、悪い結果は組織の結束力を粉々にしてしまう。これは仮定ではない。調整層のない状態でAIを導入している組織は、今まさにこの状況を経験している。各社員はChatGPTの使い方やプロンプトのスタイル、アウトプットの仕方に個性があり、互いに連携していない。組織図は残っているかもしれないが、AIが生成する仕事は別の線をたどっている。図注:高効率な個人(またはエージェント)はそれぞれ異なる方向に漕ぎ出す。調整がなければ混乱。調整は絶対的なハードニーズであり、人間もエージェントも同じだ。機関レベルの知能は、「エージェント管理」という完全な産業を生み出すだろう——エージェントの役割と責任、エージェント間およびエージェントと人間のコミュニケーション、そしてエージェントの価値を測る方法(単なる従量制だけでは不十分だ)。2. 信号個人レベルAIはノイズを生む。機関レベルAIは信号を見つける。今日の人類は、思いつくものすべてを生成できる——AIが書いた記事、プレゼン資料、表計算、写真、動画、曲、ウェブサイト、ソフトウェア。素晴らしい贈り物だ。問題は、AIが生成するほとんどのコンテンツが徹底的にゴミだということだ。AIゴミの氾濫は深刻で、一部の組織は過剰に反応し、すべてのAI出力を禁止している。正直に言えば、私も同感だ——私はAI企業を運営しているが、役員チームには最終的な文章にはAIを使わないように求めている。あのゴミには我慢できない。PE(プライベートエクイティ)業界がどうなっているか想像してみてほしい。昨年、あなたの机に10件の取引案件があったとしよう。今年の次の四半期には50件の案件が届き、そのすべてがAIによって磨き上げられ、完璧に仕上がっている。しかし、あなたの判断時間は変わらない——その中から本当に信頼できる一つを見つけ出す必要がある。何かを生成すること自体はもはや問題ではない。正規の組織にとって今重要なのは、「正しいもの」を生成し、選別することだ。AI駆動の世界では、良い成果物や良い取引、ノイズの中の信号を見つけることがますます重要になっている。今後十年の核心的経済原動力は、指数関数的に増えるゴミ山の中から信号を掘り出すことだ。図注:個人の生産性ツールによるAIゴミは指数関数的に増殖している。人類はもはやノイズから仕分けできず、新たな機関レベルAI製品が必要だ。機関レベルの知能は、信号を見つけ出し、ノイズを構造化してゴミを突き抜ける必要がある。そして、仕事の中で定義可能で、確定性があり、監査可能でなければならない。個人レベルAIは、Clawdbotのような「常時オンライン」の生産性を重視し、不確定な方法で24/7あなたのニーズを満たす——本質的には非確定性エージェントだ。一方、機関レベルAIは、確定性のあるエージェントの信頼性に依存する。予測可能なチェックポイントやステップ、プロセスを持つエージェントだけが規模拡大でき、信号を見つけ出し、それを通じて組織の収益を推進できる。図注:Matrixは生成技術を用いてノイズを突き抜けるツールであり、確定性エージェントとチェックポイントの世界を切り開いた。3. 偏見個人レベルAIは偏見を養う。機関レベルAIは客観性を創造する。社会政治的偏見に関する議論は数年にわたりAIの話題を支配してきた。基盤モデルの研究所は、RLHF(強化学習による人間のフィードバック)を通じてこの問題を回避し、すべてのモデルを媚びへつらう方向に調整した。今日のChatGPTやClaudeなどのモデルは過剰に整列されており、オーフォードンウィンドウ内のどんな話題でもあなたに賛同する(時には少し越境して、あなた@Grokの言うことに同意することもある)。社会政治的偏見の議論は沈静化したが、新たな問題が浮上している。この過剰な迎合は馬鹿げている。もはやミームのようになっている——Claudeの条件反射的な「あなたは完全に正しい!」という返答は、あなたが本当に正しいかどうかに関わらず、何でも賛同してしまう。これは無害に見えるかもしれない。だが、そうではない。多くの組織でAIを最も積極的に推進している人は、間もなく歴史上最もパフォーマンスの悪い社員になる可能性が高い。なぜか。組織内で最もパフォーマンスの低い社員は、ほとんど正のフィードバックを得られず、すぐにASI(人工超知能)が彼らを全面的に賛同する。彼らは心の中でこう思うだろう:「史上最も賢いインテリジェンスが私に賛同している。私のマネージャーが間違っているのだ。」これは中毒性があり、組織にとって有害だ。図注:個人レベルAIのエコーチェンバーは分裂を促進し、二人の距離を広げる。このダイナミクスは規模拡大に伴い、もともと一体だった組織内に派閥を生み出す。これは重要な事実を明らかにしている。個人の生産性ツールはユーザーを強化するが、最も強化すべきは事実だ。人類の組織は数千年の進化を経て、この問題に対抗する体系を築いてきた。投資委員会第三者のデューデリジェンス取締役会米国の行政・立法・司法の三権分立代議制民主主義と民主制度そのもの図注:客観性は調整問題の緩和にも寄与——小さな意見の相違を抑制し、拡大しない。組織は、社員の自信喪失によって失敗することは少ない。失敗の原因は、「ノー」と言える人がいない、または言えないことにある。機関レベルAIは、この役割を担う必要がある。RLHFで調教されてユーザーを喜ばせたり、信念に追従したりするのではなく、偏見に挑戦し、行動の効率性を高めるために正のフィードバックを与え、軌道から外れた場合は厳しい線を引き、強制的に修正する。したがって、組織内で最も重要なエージェントは、「従順な追従者」ではなく、「否定者」——推論を疑い、リスクを露呈し、基準を実行する規律ある存在だ。将来的には、制度的制約を軸にしたAI応用——AI取締役会メンバー、AI監査人、AI第三者テスト、AIコンプライアンス……が最も影響力を持つだろう。4. エッジ優位性個人レベルAIは使用量を最適化。機関レベルAIはエッジ優位性を最適化。AIの能力の境界は毎週、あるいは毎日でも変動している。基盤モデル企業は、各個人や組織を獲得するために高速な能力のイテレーションを行っている。しかし、古典的なイノベーターのジレンマは、具体的な応用において、深さが広さに勝ることを教えている。@Midjourneyは画像設計においてわずかにリードを保つ。@Elevenlabsioは音声モデルでわずかにリードを保つ。@DecagonAIはフルスタックのカスタマーサポート体験で常にリードを取る。基盤モデルはますます近づいているが、各分野の専門家にとって本当に重要なのはエッジ優位性だ。多くの優れたデザイナーは@Midjourneyを使い、最良の音声AI企業は@Elevenlabsioを使う——基盤モデルが進歩しても、特定のエッジ優位性を追求し続ける専用アプリケーションこそが優位性を定義している。専用ソリューションも進化し続ける限り、経済的成果にとって本当に重要な能力——企業にとってのコア能力——は常に専用製品の側にある。金融分野ではこれが最も顕著だ——現在、LLMの開発は最もホットな分野の一つだ。一つの能力が普及すれば、市場をリードすることは難しくなる。しかし、最先端技術が一時的に1%のニッチな優位性を生み出せるなら、その1%が数億ドルのリターンを動かすこともあり得る。図注:具体的なタスクに対して、エッジ優位性は最先端技術の上に構築された機関レベルのソリューションによって定義される。私たちのユーザーは常に最先端を超えている。LLMのコンテキストウィンドウは4年前の4Kから100万トークンに拡大した。私たちの一部のユーザーは、1回のタスクで3百億トークンを処理している。今年、1000億トークンの処理も見えてきた。基盤モデルの能力向上とともに、私たちはより遠くへ進んでいる。図注:コンテキストウィンドウやその他の能力も移動標的だ。過去3年前の最先端実験室とHebbiaの進化比較。広範なユーザー向けの汎用性はもちろん重要だが、特に従業員にAIを導入させる段階では重要だ。しかし、未来はChatGPTやClaude、あるいは垂直分野のソリューションを使うだけではなく、ChatGPTやClaudeに垂直ソリューションを組み合わせる形になる。機関レベルの知能は、分野特化の、さらにはタスク特化のエージェントを活用する必要がある。私たちは、次のような馬鹿げているが決して馬鹿げていない問いを自問する。「AGIはどのエージェントをショートカットとして選ぶのか?超知能でさえ、特定分野の専用ツールを使いたがるのか?」AIの能力の境界は常に動いている。本当にエッジ優位性を活用できる組織こそが勝者だ。その他の多くは、非常に高価な汎用商品にお金を払っている。5. 結果個人レベルAIは時間を節約。機関レベルAIは収益を拡大。@MaVolpiはかつて私にこう言った、「AIを企業に売る上での私の認識を変えた」——「もしCEOに、コスト削減か収益拡大のどちらを優先するかと聞けば、ほとんどの人は収益と答える」。しかし、今日の市場で提供されているほとんどのAI製品はコスト削減——時間を節約し、少ない人員でより多くのことを行い、人手を代替することを約束している。機関レベルAIは、増分的な収益をもたらす必要がある。そして、その増分的な収益は、節約した時間よりも商品化しにくい。例としてAI支援によるソフトウェア開発を挙げる。コードIDEは史上最高の個人AI生産性ツールの一つだが、すでにClaude Code(別の個人レベルAIツール)から大きな衝撃を受けている。Cognitionは全く異なるゲームをしている。彼らの最も堅実な事業は、ツールを売るのではなく、技術を使ったトランスフォーメーションの販売だ。このモデルは持続性があると私は信じている。純粋なソフトウェアは「急速に投資不可能」になりつつある。純粋なサービスは規模拡大できない。技術と結果を結びつけるソリューション層こそが、持続的な価値の蓄積場所だ。M&Aも同様だ。個人レベルAIはアナリストのモデリングを高速化する。機関レベルAIは、100のターゲットの中から追うべき取引相手を見つけ出し、その範囲を1000に拡大する。時間を節約し、収益を生む。図注:基盤モデル企業は垂直応用層に向かって進化中。垂直応用層の企業はソリューション層に向かって進化中。「上流へ進む」動きは、市場の自然な流れだ。基盤モデルは応用層へ、応用層はソリューション層へと進んでいる。機関レベルの知能はソリューション層にあり、その場所に持続的な価値を蓄積し、最大のリターンを獲得する。6. エンパワーメント個人レベルAIはツールを提供。機関レベルAIは使い方を教える。人類はどんなに賢くても、変化を拒む。信じられるかどうか、ニューヨークには今もクレジットカードを受け付けない成功している店がある。彼らは自分たちが損をしていることを知っているし、クレジットカードを使わないことで損をしていることも知っているが、変わらない。同じように、見通しの立つ未来においても、組織の中の一部の社員はAIの使用を拒否し続けるだろう。純粋な人力組織からAI優先のハイブリッド組織への変革は、今後十年で最も持続的かつ決定的な課題だ。そして、多くの場合、最も上層部、最も重要な人々こそが最も遅れて導入する。図注:組織の最高層——「生産性ツール操作」から最も遠い人々——は、新技術の採用が最も遅く、しかし最も重要な層だ。Palantirは、過去2か月の万億ドル規模のテック株売りの中で、唯一高い評価倍率を維持している「ソフトウェア」企業だ。その理由は明白だ。Palantirは最初の本格的な「プロセスエンジニアリング」企業の一つだ。これを「プロセスエンジニアリング」や「Claudeスキルドキュメント作成」と呼ぶかどうかはともかく、未来の機関レベルAIは、企業のプロセスをエージェントにコード化し、必要な変革を推進する産業を生み出すだろう。図注:組織全体でAIを導入するには複数のハードルを越える必要がある。プロセスをAIに載せることが主要な推進力となる。私は断言できる。プロセスエンジニアリングは、今後最も重要な「技術」になるだろう。そして、その中で最も重要なのは、ソフトウェアの専門性ではなく、ビジネスや業界の専門性だ。垂直ソリューションは、最前線でのエンジニアリング、実装、変革管理において専門知識を持つ人材を育てる。Hebbiaを全面導入したトップ投資銀行(トップ3の大手行)は、こう言っている:「私たちが彼らのチームにCIM(機密情報メモランダム)について説明しなければならないのは、そのためだ」。ClaudeやGPTはこの分野を理解しているが、実際に展開し推進するチームは理解していない……この差がすべてを決める。7. プロンプト不要個人レベルAIは人間のプロンプトに応答する。機関レベルAIは積極的に行動し、プロンプトを必要としない。エージェント間の通信や、将来の企業や制度に人間が関与し続ける必要があるかどうかについて、多くの議論がある。しかし、より良い問いは:未来のAIエージェントはプロンプトを必要とするのか?AGIにプロンプトを書くことは、手動の織機に電動モーターをつなぐようなものだ。それは根本的に、そして不可逆的に、組織のサプライチェーンの最も脆弱な部分——私たち自身——に制約される。人間は何を正しく質問すればいいのかさえわからないし、いつ質問すればいいのかもわからない。AIが最も価値を生む仕事は、「誰も気づかない質問」を見つけることだ。リスクや取引相手、販売ルートなど、誰も気づかないものを見つけ出す。これにより、AIの適用範囲は根本的に拡大する。プロンプト不要のシステムは、投資ポートフォリオ全体のデータフローを継続的に監視し、ある投資先の運転資本サイクルが3か月連続で悪化していることを検知し、クレジット契約の条項とクロスチェックし、ファンドの誰もそのPDFを開く前にオペレーションパートナーに通知する。人間がAIにプロンプトを書く必要がなくなると、新たなインターフェースや働き方が出現する。私たちHebbiaはこの分野に強いアイデアを持っている。後日また話そう。結び以上の内容は、チャットロボットやエージェント、個人レベルAIの価値を否定するものではない。個人レベルAIは、世界中の多くの企業がAI革命の魔力を最初に体験するための媒介となるだろう。利用量を促進し、使いやすさを推進することは、AI優先経済を築くための変革管理の最初の重要なステップだ。しかし同時に、機関レベルの知能に対する需要は明確で、緊急で、巨大だ。未来のすべての組織には、大規模モデル研究所のチャットボットが導入されるだろう。そして、特定分野の問題に特化した機関レベルAIも存在し、個人レベルAIはそれらを最も重要なツールとして活用する。機関レベルAIと個人レベルAIの「より良い連携」は、避けられない潮流だ。しかし、1890年代の織物工場の教訓を忘れてはならない。最初に電気を導入した工場は、工場の再設計を行った工場に敗れた。すでに電力は手に入っている。あとは工場を再設計する番だ。感謝:@aleximm、@WillManidisのレビューと、Willの「ツールの形をした物体」についての文章が本稿に多大な示唆を与えてくれた。
a16z:AIは誰もが効率を10倍にするが、そのために企業の価値が10倍になるわけではない
作者:George Sivulka
翻訳:深潮 TechFlow
深潮ガイド:AIは個人の生産性を10倍向上させたが、その結果、どの会社も10倍の価値を持つようにはなっていない。a16zの投資家でありAI企業Hebbiaの創始者でもあるGeorge Sivulkaは、問題は技術そのものではなく、組織が再構築されていないことにあると考える。彼は「機関レベルAI」と「個人レベルAI」の七つの次元を区別して提案している——調整、信号、偏見、エッジ優位性、結果志向、エンパワーメント、そしてプロンプト不要——本質的には、電動機を変えただけでは不十分で、工場全体を再設計し直す必要があるということだ。
全文は以下の通り:
AIはちょうど、誰もが生産性を10倍に向上させることを可能にした。
しかし、その結果、どの会社も10倍の価値を持つようにはなっていない。
生産性はどこへ行ったのか?
これは初めてのことではない。
1890年代、電力は大きな生産性向上を約束した。
ニューイングランドの織物工場は、もともと蒸気機関を中心に設計されていたが、すぐに蒸気機関をより高速な電動モーターに置き換えた。
しかし、30年もの間、電気化された工場の生産性はほとんど向上しなかった。技術は遥かに進歩していたが、組織は追いつかなかった。
1920年代に入って、工場は生産ラインを徹底的に再設計した——ライン化、各設備に独立した電動モーターを設置し、労働者と機械が全く異なる作業を行うようにした——これにより、電気化は真のリターンを生み出した。
図注:ローレル織布工場の三つの進化。左から右へ:1890年蒸気動力工場、1900年電力駆動工場、1920年「ユニット駆動」工場(ゼロから電力ラインに再構築)。
リターンは技術そのものからではなく、単一の労働者や機械をより速く動かすことからも得られない。制度と技術を一緒に再設計したときにこそ、真の成果が現れる。
これは技術史上最も高価な教訓の一つであり、私たちは今、その教訓を再び学びつつある。
2026年、AIはそれを使いこなす者に対して10倍の生産性向上をもたらしている。しかし、それだけでは不十分だ。電動機を取り替えただけで、工場全体を再設計していない。
なぜなら、シンプルな事実があるからだ:効率的な個人は、効率的な組織と同じではない。
ほとんどのAI製品は、「効率的」という感覚を与えるが、実際の価値を推進しているわけではない。あなたが見るほとんどのAIの使用例は、TwitterやSlackで自己陶酔的に「最大効率」を追求しているだけで、実質的な影響はゼロだ。
過去一年間繰り返し言及されてきた「サービスはソフトウェアである」という考え方は正しい方向性だが、青写真を示していないし、より大きな全体像を見落としている。本当の変革は、ツールからサービスへ移行することではなく、技術と制度を一緒に構築すること(古いものを改造するかゼロから作るかに関わらず)にある。真に効率的な未来には、新しいカテゴリーの製品——明日の生産ライン——が必要だ。
効率的な組織には「機関レベルの知能」が必要だ。
この記事では、「機関レベルAI」と「個人レベルAI」を区別する七つの次元について深く分析する。今後十年間、B2BのAI企業はこれらの違いに基づいて構築されていくだろう。
図注:機関レベル知能の七つの柱の比較表
【機関レベル知能の七つの柱】
個人レベルAIは混乱を生む。
機関レベルAIは調整を生み出す。
一つ思考実験をしよう。もし明日、あなたの組織の人数を倍にし、最も優秀な社員を全員クローンしたとしたら。
それぞれの社員には微細な差異、嗜好、癖、視点がある(特にあなたの最良の社員はそうだ)。管理が不十分で、コミュニケーションが不足し、役割やOKR、境界線が明確でなければ……あなたが作り出すのは混乱だ。
個人で考えれば、組織はより効率的になったように見えるかもしれない。しかし、何千ものエージェント(または人間)がそれぞれ勝手に動き、逆方向に進めば、良い結果は変わらず、悪い結果は組織の結束力を粉々にしてしまう。
これは仮定ではない。調整層のない状態でAIを導入している組織は、今まさにこの状況を経験している。各社員はChatGPTの使い方やプロンプトのスタイル、アウトプットの仕方に個性があり、互いに連携していない。組織図は残っているかもしれないが、AIが生成する仕事は別の線をたどっている。
図注:高効率な個人(またはエージェント)はそれぞれ異なる方向に漕ぎ出す。調整がなければ混乱。
調整は絶対的なハードニーズであり、人間もエージェントも同じだ。
機関レベルの知能は、「エージェント管理」という完全な産業を生み出すだろう——エージェントの役割と責任、エージェント間およびエージェントと人間のコミュニケーション、そしてエージェントの価値を測る方法(単なる従量制だけでは不十分だ)。
個人レベルAIはノイズを生む。
機関レベルAIは信号を見つける。
今日の人類は、思いつくものすべてを生成できる——AIが書いた記事、プレゼン資料、表計算、写真、動画、曲、ウェブサイト、ソフトウェア。素晴らしい贈り物だ。
問題は、AIが生成するほとんどのコンテンツが徹底的にゴミだということだ。AIゴミの氾濫は深刻で、一部の組織は過剰に反応し、すべてのAI出力を禁止している。正直に言えば、私も同感だ——私はAI企業を運営しているが、役員チームには最終的な文章にはAIを使わないように求めている。あのゴミには我慢できない。
PE(プライベートエクイティ)業界がどうなっているか想像してみてほしい。昨年、あなたの机に10件の取引案件があったとしよう。今年の次の四半期には50件の案件が届き、そのすべてがAIによって磨き上げられ、完璧に仕上がっている。しかし、あなたの判断時間は変わらない——その中から本当に信頼できる一つを見つけ出す必要がある。
何かを生成すること自体はもはや問題ではない。正規の組織にとって今重要なのは、「正しいもの」を生成し、選別することだ。AI駆動の世界では、良い成果物や良い取引、ノイズの中の信号を見つけることがますます重要になっている。今後十年の核心的経済原動力は、指数関数的に増えるゴミ山の中から信号を掘り出すことだ。
図注:個人の生産性ツールによるAIゴミは指数関数的に増殖している。人類はもはやノイズから仕分けできず、新たな機関レベルAI製品が必要だ。
機関レベルの知能は、信号を見つけ出し、ノイズを構造化してゴミを突き抜ける必要がある。そして、仕事の中で定義可能で、確定性があり、監査可能でなければならない。
個人レベルAIは、Clawdbotのような「常時オンライン」の生産性を重視し、不確定な方法で24/7あなたのニーズを満たす——本質的には非確定性エージェントだ。一方、機関レベルAIは、確定性のあるエージェントの信頼性に依存する。予測可能なチェックポイントやステップ、プロセスを持つエージェントだけが規模拡大でき、信号を見つけ出し、それを通じて組織の収益を推進できる。
図注:Matrixは生成技術を用いてノイズを突き抜けるツールであり、確定性エージェントとチェックポイントの世界を切り開いた。
個人レベルAIは偏見を養う。
機関レベルAIは客観性を創造する。
社会政治的偏見に関する議論は数年にわたりAIの話題を支配してきた。基盤モデルの研究所は、RLHF(強化学習による人間のフィードバック)を通じてこの問題を回避し、すべてのモデルを媚びへつらう方向に調整した。今日のChatGPTやClaudeなどのモデルは過剰に整列されており、オーフォードンウィンドウ内のどんな話題でもあなたに賛同する(時には少し越境して、あなた@Grokの言うことに同意することもある)。社会政治的偏見の議論は沈静化したが、新たな問題が浮上している。
この過剰な迎合は馬鹿げている。もはやミームのようになっている——Claudeの条件反射的な「あなたは完全に正しい!」という返答は、あなたが本当に正しいかどうかに関わらず、何でも賛同してしまう。
これは無害に見えるかもしれない。だが、そうではない。
多くの組織でAIを最も積極的に推進している人は、間もなく歴史上最もパフォーマンスの悪い社員になる可能性が高い。なぜか。
組織内で最もパフォーマンスの低い社員は、ほとんど正のフィードバックを得られず、すぐにASI(人工超知能)が彼らを全面的に賛同する。彼らは心の中でこう思うだろう:「史上最も賢いインテリジェンスが私に賛同している。私のマネージャーが間違っているのだ。」
これは中毒性があり、組織にとって有害だ。
図注:個人レベルAIのエコーチェンバーは分裂を促進し、二人の距離を広げる。このダイナミクスは規模拡大に伴い、もともと一体だった組織内に派閥を生み出す。
これは重要な事実を明らかにしている。個人の生産性ツールはユーザーを強化するが、最も強化すべきは事実だ。
人類の組織は数千年の進化を経て、この問題に対抗する体系を築いてきた。
投資委員会
第三者のデューデリジェンス
取締役会
米国の行政・立法・司法の三権分立
代議制民主主義と民主制度そのもの
図注:客観性は調整問題の緩和にも寄与——小さな意見の相違を抑制し、拡大しない。
組織は、社員の自信喪失によって失敗することは少ない。失敗の原因は、「ノー」と言える人がいない、または言えないことにある。
機関レベルAIは、この役割を担う必要がある。RLHFで調教されてユーザーを喜ばせたり、信念に追従したりするのではなく、偏見に挑戦し、行動の効率性を高めるために正のフィードバックを与え、軌道から外れた場合は厳しい線を引き、強制的に修正する。
したがって、組織内で最も重要なエージェントは、「従順な追従者」ではなく、「否定者」——推論を疑い、リスクを露呈し、基準を実行する規律ある存在だ。将来的には、制度的制約を軸にしたAI応用——AI取締役会メンバー、AI監査人、AI第三者テスト、AIコンプライアンス……が最も影響力を持つだろう。
個人レベルAIは使用量を最適化。
機関レベルAIはエッジ優位性を最適化。
AIの能力の境界は毎週、あるいは毎日でも変動している。基盤モデル企業は、各個人や組織を獲得するために高速な能力のイテレーションを行っている。
しかし、古典的なイノベーターのジレンマは、具体的な応用において、深さが広さに勝ることを教えている。
@Midjourneyは画像設計においてわずかにリードを保つ。
@Elevenlabsioは音声モデルでわずかにリードを保つ。
@DecagonAIはフルスタックのカスタマーサポート体験で常にリードを取る。
基盤モデルはますます近づいているが、各分野の専門家にとって本当に重要なのはエッジ優位性だ。多くの優れたデザイナーは@Midjourneyを使い、最良の音声AI企業は@Elevenlabsioを使う——基盤モデルが進歩しても、特定のエッジ優位性を追求し続ける専用アプリケーションこそが優位性を定義している。
専用ソリューションも進化し続ける限り、経済的成果にとって本当に重要な能力——企業にとってのコア能力——は常に専用製品の側にある。
金融分野ではこれが最も顕著だ——現在、LLMの開発は最もホットな分野の一つだ。一つの能力が普及すれば、市場をリードすることは難しくなる。しかし、最先端技術が一時的に1%のニッチな優位性を生み出せるなら、その1%が数億ドルのリターンを動かすこともあり得る。
図注:具体的なタスクに対して、エッジ優位性は最先端技術の上に構築された機関レベルのソリューションによって定義される。
私たちのユーザーは常に最先端を超えている。LLMのコンテキストウィンドウは4年前の4Kから100万トークンに拡大した。私たちの一部のユーザーは、1回のタスクで3百億トークンを処理している。今年、1000億トークンの処理も見えてきた。基盤モデルの能力向上とともに、私たちはより遠くへ進んでいる。
図注:コンテキストウィンドウやその他の能力も移動標的だ。過去3年前の最先端実験室とHebbiaの進化比較。
広範なユーザー向けの汎用性はもちろん重要だが、特に従業員にAIを導入させる段階では重要だ。しかし、未来はChatGPTやClaude、あるいは垂直分野のソリューションを使うだけではなく、ChatGPTやClaudeに垂直ソリューションを組み合わせる形になる。
機関レベルの知能は、分野特化の、さらにはタスク特化のエージェントを活用する必要がある。
私たちは、次のような馬鹿げているが決して馬鹿げていない問いを自問する。
「AGIはどのエージェントをショートカットとして選ぶのか?超知能でさえ、特定分野の専用ツールを使いたがるのか?」
AIの能力の境界は常に動いている。本当にエッジ優位性を活用できる組織こそが勝者だ。その他の多くは、非常に高価な汎用商品にお金を払っている。
個人レベルAIは時間を節約。
機関レベルAIは収益を拡大。
@MaVolpiはかつて私にこう言った、「AIを企業に売る上での私の認識を変えた」——「もしCEOに、コスト削減か収益拡大のどちらを優先するかと聞けば、ほとんどの人は収益と答える」。
しかし、今日の市場で提供されているほとんどのAI製品はコスト削減——時間を節約し、少ない人員でより多くのことを行い、人手を代替することを約束している。
機関レベルAIは、増分的な収益をもたらす必要がある。そして、その増分的な収益は、節約した時間よりも商品化しにくい。
例としてAI支援によるソフトウェア開発を挙げる。コードIDEは史上最高の個人AI生産性ツールの一つだが、すでにClaude Code(別の個人レベルAIツール)から大きな衝撃を受けている。Cognitionは全く異なるゲームをしている。彼らの最も堅実な事業は、ツールを売るのではなく、技術を使ったトランスフォーメーションの販売だ。このモデルは持続性があると私は信じている。
純粋なソフトウェアは「急速に投資不可能」になりつつある。純粋なサービスは規模拡大できない。技術と結果を結びつけるソリューション層こそが、持続的な価値の蓄積場所だ。
M&Aも同様だ。個人レベルAIはアナリストのモデリングを高速化する。機関レベルAIは、100のターゲットの中から追うべき取引相手を見つけ出し、その範囲を1000に拡大する。時間を節約し、収益を生む。
図注:基盤モデル企業は垂直応用層に向かって進化中。垂直応用層の企業はソリューション層に向かって進化中。
「上流へ進む」動きは、市場の自然な流れだ。基盤モデルは応用層へ、応用層はソリューション層へと進んでいる。
機関レベルの知能はソリューション層にあり、その場所に持続的な価値を蓄積し、最大のリターンを獲得する。
個人レベルAIはツールを提供。
機関レベルAIは使い方を教える。
人類はどんなに賢くても、変化を拒む。
信じられるかどうか、ニューヨークには今もクレジットカードを受け付けない成功している店がある。彼らは自分たちが損をしていることを知っているし、クレジットカードを使わないことで損をしていることも知っているが、変わらない。同じように、見通しの立つ未来においても、組織の中の一部の社員はAIの使用を拒否し続けるだろう。
純粋な人力組織からAI優先のハイブリッド組織への変革は、今後十年で最も持続的かつ決定的な課題だ。そして、多くの場合、最も上層部、最も重要な人々こそが最も遅れて導入する。
図注:組織の最高層——「生産性ツール操作」から最も遠い人々——は、新技術の採用が最も遅く、しかし最も重要な層だ。
Palantirは、過去2か月の万億ドル規模のテック株売りの中で、唯一高い評価倍率を維持している「ソフトウェア」企業だ。その理由は明白だ。Palantirは最初の本格的な「プロセスエンジニアリング」企業の一つだ。これを「プロセスエンジニアリング」や「Claudeスキルドキュメント作成」と呼ぶかどうかはともかく、未来の機関レベルAIは、企業のプロセスをエージェントにコード化し、必要な変革を推進する産業を生み出すだろう。
図注:組織全体でAIを導入するには複数のハードルを越える必要がある。プロセスをAIに載せることが主要な推進力となる。
私は断言できる。プロセスエンジニアリングは、今後最も重要な「技術」になるだろう。
そして、その中で最も重要なのは、ソフトウェアの専門性ではなく、ビジネスや業界の専門性だ。垂直ソリューションは、最前線でのエンジニアリング、実装、変革管理において専門知識を持つ人材を育てる。
Hebbiaを全面導入したトップ投資銀行(トップ3の大手行)は、こう言っている:「私たちが彼らのチームにCIM(機密情報メモランダム)について説明しなければならないのは、そのためだ」。ClaudeやGPTはこの分野を理解しているが、実際に展開し推進するチームは理解していない……
この差がすべてを決める。
個人レベルAIは人間のプロンプトに応答する。
機関レベルAIは積極的に行動し、プロンプトを必要としない。
エージェント間の通信や、将来の企業や制度に人間が関与し続ける必要があるかどうかについて、多くの議論がある。
しかし、より良い問いは:未来のAIエージェントはプロンプトを必要とするのか?
AGIにプロンプトを書くことは、手動の織機に電動モーターをつなぐようなものだ。それは根本的に、そして不可逆的に、組織のサプライチェーンの最も脆弱な部分——私たち自身——に制約される。人間は何を正しく質問すればいいのかさえわからないし、いつ質問すればいいのかもわからない。
AIが最も価値を生む仕事は、「誰も気づかない質問」を見つけることだ。リスクや取引相手、販売ルートなど、誰も気づかないものを見つけ出す。
これにより、AIの適用範囲は根本的に拡大する。
プロンプト不要のシステムは、投資ポートフォリオ全体のデータフローを継続的に監視し、ある投資先の運転資本サイクルが3か月連続で悪化していることを検知し、クレジット契約の条項とクロスチェックし、ファンドの誰もそのPDFを開く前にオペレーションパートナーに通知する。
人間がAIにプロンプトを書く必要がなくなると、新たなインターフェースや働き方が出現する。私たちHebbiaはこの分野に強いアイデアを持っている。後日また話そう。
結び
以上の内容は、チャットロボットやエージェント、個人レベルAIの価値を否定するものではない。
個人レベルAIは、世界中の多くの企業がAI革命の魔力を最初に体験するための媒介となるだろう。利用量を促進し、使いやすさを推進することは、AI優先経済を築くための変革管理の最初の重要なステップだ。
しかし同時に、機関レベルの知能に対する需要は明確で、緊急で、巨大だ。
未来のすべての組織には、大規模モデル研究所のチャットボットが導入されるだろう。そして、特定分野の問題に特化した機関レベルAIも存在し、個人レベルAIはそれらを最も重要なツールとして活用する。
機関レベルAIと個人レベルAIの「より良い連携」は、避けられない潮流だ。
しかし、1890年代の織物工場の教訓を忘れてはならない。最初に電気を導入した工場は、工場の再設計を行った工場に敗れた。
すでに電力は手に入っている。あとは工場を再設計する番だ。
感謝:@aleximm、@WillManidisのレビューと、Willの「ツールの形をした物体」についての文章が本稿に多大な示唆を与えてくれた。