1. はじめに:ガバナンスは線形にスケールしない
AIエージェントをデプロイするすべての組織は、同じ不都合な発見に直面する:ガバナンスのオーバーヘッドはエージェント数よりも速く増大する。10エージェントのチームに11番目のエージェントを追加すると、ガバナンス負荷は約10%増加する。100エージェントの群に101番目のエージェントを追加すると、ガバナンス負荷は約30%増加する。1000エージェントのデプロイメントに1001番目のエージェントを追加すると、ガバナンス負荷は300%以上増加しうる。
根本原因は組合せ的である。ガバナンスはエージェント単位の性質ではなく、関係的な性質である。すべての意思決定は、他のエージェントの意思決定を参照する制約に対してチェックされなければならない。すべての承認は同時実行中のオペレーションに関するコンテキストを必要とする。すべての競合検出スキャンはペアワイズの相互作用を考慮しなければならない。ガバナンスの表面積はナイーブなケースでO(n^2)で成長し、ハードウェアのスケーリングではアーキテクチャレベルの計算量クラスの不一致を克服できない。
MARIA OSは責任ゲート、エビデンスバンドル、監査証跡を備えた6段階の意思決定パイプラインを実装している。このアーキテクチャはスケーラビリティを念頭に設計されたが、よく設計されたシステムにも崩壊点は存在する。問いは、ガバナンスが負荷下で崩壊するかどうかではなく、どこで、いつ、そして崩壊点を実用的な制約でなくなるほど遠くに押しやるにはどうすればよいかである。
n個の同時エージェント、サイクルあたり平均d個の意思決定、意思決定あたりc個の制約チェックの場合、ナイーブなガバナンスオーバーヘッドはO(n * d * c + n^2 * k)でスケールする(kはペアあたりの競合検出コスト)。約200エージェントを超えるとn^2の項が支配的になる。2. 意思決定パイプラインのスループット分析
MARIA OSの意思決定パイプラインは、6つのステージを通じて意思決定を処理する:proposed、validated、approval_required、approved、executed、completed(またはfailed)。各遷移は不変の監査レコードを生成する。低同時実行下では、このパイプラインは約12msでエンドツーエンドの処理を完了する。しかし、スケールするとどうなるか?
意思決定パイプラインを直列型待ち行列ネットワークとしてモデル化する。各ステージはサービスステーションであり、意思決定はエージェント数に比例するレートlambdaのポアソン過程に従って到着する。
\lambda(n) = n \cdot \bar{d} \cdot \frac{1}{T_{cycle}}
ここで:
\bar{d} = エージェントあたりサイクルあたりの平均意思決定数(実測値: 3.7)
T_{cycle} = ガバナンスサイクル時間(1秒)
n = 同時エージェント数
n = 1000の場合: \lambda = 3,700 意思決定/秒各パイプラインステージには、そのステージの計算複雑性に依存するサービスレートmuがある。検証ステージは制約チェック(mu_v)を実行し、承認ステージはキュー管理とルーティング(mu_a)を行い、実行ステージは下流アクションをトリガーする(mu_e)。
// Decision pipeline throughput model
interface PipelineStage {
name: string;
serviceRate: number; // mu: decisions/second capacity
servers: number; // c: parallel processing capacity
utilizationAt: (n: number) => number;
}
const stages: PipelineStage[] = [
{
name: "validation",
serviceRate: 8500, // mu_v: constraint checks/sec
servers: 4,
utilizationAt: (n) => (n * 3.7) / (4 * 8500),
},
{
name: "approval_routing",
serviceRate: 2200, // mu_a: approval route/sec
servers: 2,
utilizationAt: (n) => (n * 3.7 * 0.4) / (2 * 2200),
},
{
name: "gate_evaluation",
serviceRate: 1800, // mu_g: gate evals/sec
servers: 2,
utilizationAt: (n) => (n * 3.7 * 0.4) / (2 * 1800),
},
{
name: "execution",
serviceRate: 12000, // mu_e: executions/sec
servers: 8,
utilizationAt: (n) => (n * 3.7) / (8 * 12000),
},
];
// Find saturation point per stage
function findSaturationPoint(stage: PipelineStage): number {
return Math.floor(0.95 * stage.servers * stage.serviceRate / 3.7);
}
// Results:
// validation: saturation at n = 8,729
// approval_routing: saturation at n = 1,135
// gate_evaluation: saturation at n = 929 <-- BOTTLENECK
// execution: saturation at n = 24,648ゲート評価ステージが最初のボトルネックであり、デフォルト構成で約929エージェントで飽和する。ただし、実用的な劣化はそれよりもはるかに早く始まる -- いずれかのステージのキュー深度が許容範囲を超えると、エンドツーエンドのレイテンシが非線形にスパイクする。
3. 承認キューの飽和と無限成長
すべての意思決定が承認を必要とするわけではない。典型的なMARIA OSデプロイメントでは、約40%の意思決定がapproval_required状態をトリガーし、人間またはシニアエージェントのレビュアーにルーティングされる。承認キューは最も危険なスケーリングボトルネックである。なぜなら、本質的にスループットが制限されたHuman-in-the-Loop(HITL)処理を含むからである。
承認キューをM/M/cキューとしてモデル化する。cは同時承認者数(人間または委譲エージェントレビュアー)である。
承認到着レート: \lambda_a = 0.4 \cdot n \cdot \bar{d} / T_{cycle}
安定条件: \rho = \lambda_a / (c \cdot \mu_{approver}) < 1
人間承認者: \mu_{human} \approx 0.033 承認/秒(1分あたり2件)
エージェントレビュアー: \mu_{agent} \approx 5.0 承認/秒
人間承認者5名 + エージェントレビュアー10名の場合:
c_{eff} \cdot \mu_{eff} = 5(0.033) + 10(5.0) = 50.165 承認/秒
安定限界: n < 50.165 \cdot T_{cycle} / (0.4 \cdot \bar{d}) = 33.9 エージェント
純粋エージェントレビュー(50名)の場合:
n < 50(5.0) / (0.4 \cdot 3.7) \approx 168.9 エージェントこの結果は衝撃的である。承認フローにHITL承認者が1人でも含まれると、承認キューはわずか34エージェントで不安定化(無限成長)する。50名の純粋エージェントレビュアーでも、169エージェントでシステムが飽和する。承認キューは単なるボトルネックではなく、ガバナンスの崖である。
デフォルトのHITL構成では、34同時エージェントを超えると承認キューが無限成長する。保留中の承認が毎秒(lambda_a - c*mu)のレートで蓄積し、運用中に返済不可能なガバナンス負債を生成する。意思決定が滞留し、SLAが違反され、エージェントは停止(承認待ち)するかガバナンスをバイパスする(タイムアウトフォールバックが存在する場合)。4. 同時実行負荷下のゲート評価レイテンシ
MARIA OSの責任ゲートは、エージェントが意思決定を進める権限、エビデンス、文脈的許可を持っているかを評価する。各ゲート評価は以下を含む:(1) MARIA階層での座標パーミッション検索、(2) エビデンスバンドル検証、(3) アクティブポリシーに対する制約充足チェック、(4) 同時実行中の意思決定に対する競合プレスクリーニング。
低同時実行下では、ゲート評価は3-8msで完了する。高同時実行下では、ステップ(4) -- 競合プレスクリーニング -- が支配的になる。関連ゾーン内の実行中の意思決定セットを検査する必要があるためである。
// Gate evaluation latency model
interface GateLatencyProfile {
agentCount: number;
coordinateLookup_ms: number; // O(log n) - tree traversal
evidenceVerify_ms: number; // O(1) - hash check
constraintCheck_ms: number; // O(p) - p active policies
conflictPrescreen_ms: number; // O(k) - k in-flight decisions in zone
total_p50_ms: number;
total_p99_ms: number;
}
const profiles: GateLatencyProfile[] = [
{
agentCount: 10,
coordinateLookup_ms: 0.3, evidenceVerify_ms: 1.2,
constraintCheck_ms: 2.1, conflictPrescreen_ms: 0.8,
total_p50_ms: 4.4, total_p99_ms: 8.1,
},
{
agentCount: 100,
coordinateLookup_ms: 0.5, evidenceVerify_ms: 1.3,
constraintCheck_ms: 4.7, conflictPrescreen_ms: 12.3,
total_p50_ms: 18.8, total_p99_ms: 67.2,
},
{
agentCount: 1000,
coordinateLookup_ms: 0.8, evidenceVerify_ms: 1.4,
constraintCheck_ms: 14.2, conflictPrescreen_ms: 187.5,
total_p50_ms: 203.9, total_p99_ms: 2340.0,
},
{
agentCount: 10000,
coordinateLookup_ms: 1.1, evidenceVerify_ms: 1.5,
constraintCheck_ms: 48.3, conflictPrescreen_ms: 18720.0,
total_p50_ms: 18771.0, total_p99_ms: 47200.0,
},
];1000エージェントでのp99ゲート評価レイテンシは2.34秒であり、1秒のガバナンスサイクルをすでに超過している。10000エージェントでは、p50レイテンシだけで18.7秒 -- すべてのゲート評価の半数がガバナンスサイクルよりも長い時間を要する。アーキテクチャの変更なしには、このスケールでのガバナンスは構造的に不可能である。
5. 競合検出の爆発:O(n^2)問題
競合検出は最も計算コストの高いガバナンス操作である。エージェントAが意思決定を提案すると、ガバナンスシステムはその意思決定が、関連スコープ内のエージェントB、C、D、...が提案中または実行中の意思決定と競合しないことを検証しなければならない。最悪の場合、すべての意思決定を他のすべての実行中の意思決定に対してチェックする必要がある。
サイクルあたりのペアワイズ競合チェック数:
C(n) = \binom{n \cdot \bar{d}}{2} = \frac{n\bar{d}(n\bar{d} - 1)}{2}
n = 10の場合: C = \binom{37}{2} = 666 チェック
n = 100の場合: C = \binom{370}{2} = 68,265 チェック
n = 1000の場合: C = \binom{3700}{2} = 6,843,150 チェック
n = 10000の場合: C = \binom{37000}{2} = 684,481,500 チェック
競合チェックコスト \tau = 0.05ms/ペアの場合:
n = 1000: 合計 = 342.2秒/サイクル(リアルタイムの342倍)
n = 10000: 合計 = 34,224秒/サイクル(9.5時間)これが根本的なスケーリングの壁である。ペアワイズ競合検出はO(n^2)であり、定数倍の最適化では克服できない。1000エージェントでは、1秒のガバナンスサイクルごとに342秒の計算が必要 -- 342倍の赤字である。アーキテクチャをO(n^2)から根本的に改善する必要がある。
6. エビデンス検証のバックログ
MARIA OSのすべての意思決定にはエビデンスバンドル -- 意思決定を正当化するデータポイント、ログ、証明のコレクション -- が付随しなければならない。エビデンス検証はハッシュ整合性チェック、出所検証、関連性スコアリングを含む。個別の検証は高速(約1.2ms)だが、高同時実行下での集約負荷がバックログを生成する。
エビデンス検証パイプラインはFIFO順でバンドルを処理する。1000エージェントが毎秒3.7件の意思決定を生成する場合、パイプラインは毎秒3,700のエビデンスバンドルを検証しなければならない。各バンドルには平均4.2のエビデンスアイテムが含まれ、毎秒15,540の個別検証が必要になる。
// Evidence verification backlog model
interface EvidenceBacklog {
agentCount: number;
bundlesPerSecond: number;
itemsPerBundle: number;
verifyTime_ms: number;
requiredThroughput: number; // items/sec
actualThroughput: number; // items/sec (4 workers)
backlogGrowth: number; // items/sec accumulation
timeToSLA_breach_sec: number;
}
const backlogs: EvidenceBacklog[] = [
{ agentCount: 10, bundlesPerSecond: 37, itemsPerBundle: 4.2,
verifyTime_ms: 1.2, requiredThroughput: 155,
actualThroughput: 3333, backlogGrowth: 0, timeToSLA_breach_sec: Infinity },
{ agentCount: 100, bundlesPerSecond: 370, itemsPerBundle: 4.2,
verifyTime_ms: 1.2, requiredThroughput: 1554,
actualThroughput: 3333, backlogGrowth: 0, timeToSLA_breach_sec: Infinity },
{ agentCount: 1000, bundlesPerSecond: 3700, itemsPerBundle: 4.2,
verifyTime_ms: 1.2, requiredThroughput: 15540,
actualThroughput: 3333, backlogGrowth: 12207, timeToSLA_breach_sec: 0.08 },
{ agentCount: 10000, bundlesPerSecond: 37000, itemsPerBundle: 4.2,
verifyTime_ms: 1.2, requiredThroughput: 155400,
actualThroughput: 3333, backlogGrowth: 152067, timeToSLA_breach_sec: 0.007 },
];デフォルト構成の4つの検証ワーカーでは、スループット容量は毎秒3,333アイテムである。これは約794エージェントまで十分である。その閾値を超えると、エビデンス検証のバックログが継続的に成長し、1000エージェント以上ではミリ秒単位でSLAを違反する。承認キュー(委譲で緩和可能)とは異なり、エビデンス検証はハードな整合性要件であり、検証のスキップは監査保証を破壊する。
7. MARIA座標ルーティングのオーバーヘッド
MARIA座標系(G.U.P.Z.A)はすべてのエージェントに階層的アドレッシングを提供する。すべてのガバナンス操作は座標解決を必要とする:どのギャラクシー、ユニバース、プラネット、ゾーン、エージェントが関与し、各レベルでどのガバナンスルールが適用されるかを決定する。
座標ルーティングは各レベルでのポリシー検索を伴うツリー走査として実装されている。深さは5レベル(G, U, P, Z, A)で固定されているため、個別の検索はエージェント数に対してO(1)である。しかし、集約ルーティング負荷は意思決定量に線形にスケールし、ポリシーキャッシュヒット率は異なる座標の数が増えると劣化する。
座標空間利用率の関数としてのキャッシュミス率:
m(n) = 1 - \left(1 - \frac{1}{|\mathcal{C}|}\right)^{n}
ここで |\mathcal{C}| は座標空間サイズ(G, U, P, Z, Aの濃度の積)
典型的なデプロイメントの場合:
|\mathcal{C}| = 2 \times 5 \times 10 \times 8 \times 50 = 40,000 座標
n = 100: 利用座標 \approx 100, キャッシュヒット \approx 99.7%
n = 1000: 利用座標 \approx 980, キャッシュヒット \approx 97.6%
n = 10000: 利用座標 \approx 8,800, キャッシュヒット \approx 80.2%
ルーティングレイテンシ: t_{route}(n) = t_{hit} + m(n) \cdot (t_{miss} - t_{hit})
n = 100: t_{route} = 0.2 + 0.003 \cdot 4.8 = 0.21ms
n = 10000: t_{route} = 0.2 + 0.198 \cdot 4.8 = 1.15ms座標ルーティングのオーバーヘッドは単独では管理可能である -- 10000エージェントでの1.15msは許容範囲内である。しかし、ルーティングはゲート評価ごとに複数回呼び出される(エージェント座標に1回、各ポリシースコープに1回、各競合対象に1回)ため、影響が増幅される。10000エージェントでゲート評価あたり平均7回のルーティング検索がある場合、ルーティングはゲートレイテンシに8.05ms寄与する -- 有意だが主要なボトルネックではない。
8. ストレステスト手法
MARIA OS意思決定パイプラインに対してリアルなエージェントワークロードをシミュレートするガバナンス負荷テストフレームワークを開発した。フレームワークは4つのフェーズで動作する:ランプ、維持、スパイク、ドレイン。
// Governance load test configuration
interface LoadTestConfig {
phases: LoadPhase[];
agentProfile: AgentProfile;
governanceConfig: GovernanceConfig;
metrics: MetricCollector;
}
interface LoadPhase {
name: "ramp" | "sustain" | "spike" | "drain";
duration_sec: number;
targetAgentCount: number;
rampRate?: number; // agents/second during ramp
}
interface AgentProfile {
decisionsPerCycle: { mean: number; stddev: number };
decisionComplexity: "low" | "medium" | "high";
approvalRate: number;
conflictProbability: number;
evidenceItemsPerDecision: { mean: number; stddev: number };
coordinateDistribution: "clustered" | "uniform" | "hotspot";
}
// Standard test profile
const standardProfile: AgentProfile = {
decisionsPerCycle: { mean: 3.7, stddev: 1.2 },
decisionComplexity: "medium",
approvalRate: 0.4,
conflictProbability: 0.02,
evidenceItemsPerDecision: { mean: 4.2, stddev: 1.8 },
coordinateDistribution: "clustered",
};
// 1000-agent test phases
const phases: LoadPhase[] = [
{ name: "ramp", duration_sec: 60, targetAgentCount: 1000, rampRate: 20 },
{ name: "sustain", duration_sec: 300, targetAgentCount: 1000 },
{ name: "spike", duration_sec: 30, targetAgentCount: 2000 },
{ name: "drain", duration_sec: 120, targetAgentCount: 0, rampRate: -10 },
];手法における主要な設計判断:(1) エージェントの意思決定は実測平均3.7を中心とした正規分布に従い、現実的なワークロード分散を反映する。(2) coordinateDistribution: 'clustered' 設定により、エージェントは座標空間に一様分散するのではなく、現実的なゾーングルーピングに集中する。(3) スパイクフェーズはエージェント数を30秒間2倍にしてバースト耐性をテストする。(4) すべてのメトリクスはナノ秒タイムスタンプで100msの粒度で収集される。
8.1 収集メトリクス
| メトリクス | 説明 | 収集方法 |
|---|---|---|
| パイプラインスループット | 毎秒完了した意思決定数 | 完了ステージでのカウンター |
| ステージキュー深度 | パイプラインステージあたりの保留アイテム | 100msでサンプリングされたゲージ |
| ゲート評価レイテンシ | ゲート入口からゲート判定までの時間 | ヒストグラム(p50/p95/p99) |
| 競合検出レイテンシ | 意思決定あたりの完全競合スキャン時間 | ヒストグラム(p50/p95/p99) |
| 承認キュー深度 | 全レビュアーにわたる保留承認数 | 100msでサンプリングされたゲージ |
| エビデンス検証バックログ | キュー内の未検証エビデンスアイテム | 100msでサンプリングされたゲージ |
| 座標キャッシュヒット率 | キャッシュから提供されたルーティング検索の割合 | 比率カウンター |
| ガバナンス完全性スコア | 完全な監査証跡を持つ意思決定の割合 | 定期監査スキャン |
| 意思決定ドロップ率 | 失敗またはタイムアウトした意思決定 | 障害ハンドラーでのカウンター |
9. 崩壊点の特定:ガバナンスはどこで失敗するか
10から10000エージェントまでストレステストを実行し、5つの異なるガバナンス障害モードを特定した。各モードは異なるスケール閾値でトリガーされる。
9.1 障害モード分類
| # | 障害モード | トリガー閾値 | 症状 | 結果 |
|---|---|---|---|---|
| F1 | 承認キューオーバーフロー | ~34エージェント(HITL) | キュー深度の無限成長 | 意思決定の停滞、エージェントのアイドルまたはバイパス |
| F2 | エビデンス検証バックログ | ~794エージェント | 検証スループット < 到着レート | 監査完全性の劣化 |
| F3 | ゲート評価タイムアウト | ~340エージェント(ナイーブ) | p99レイテンシ > サイクル時間 | ガバナンスウィンドウの逸失 |
| F4 | 競合検出の爆発 | ~200エージェント(完全ペアワイズ) | 二次計算量が予算超過 | 競合の未検出 |
| F5 | パイプラインスループット崩壊 | ~929エージェント | ボトルネックステージが95%利用率 | エンドツーエンドレイテンシの発散 |
実効的なガバナンス崩壊点は、これらの閾値の最小値である。デフォルト構成では、F1(HITLでの承認キューオーバーフロー、約34エージェント) が最初の障害である。純粋エージェントレビューでは、F4(競合検出、約200エージェント) が拘束的制約となる。F1からF4を緩和して初めて、パイプラインスループット限界(F5、約929エージェント)が上限となる。
ガバナンスは単一の点で失敗するのではなく、複数の次元で同時に劣化する。「崩壊点」は最初のガバナンス不変量が違反されるエージェント数である。デフォルトのMARIA OS構成では、約34エージェント(HITL承認)または約200エージェント(純粋エージェントレビュー)で発生する。一般に想定される約340エージェントの限界は、承認と競合検出の制約を無視した、ゲート評価単独での障害点を表している。10. 形式的待ち行列理論モデル
各ガバナンスボトルネックに古典的待ち行列理論を適用し、キュー深度、待ち時間、安定条件の閉じた形の表現を導出する。
10.1 M/M/cキューとしての意思決定パイプライン
各パイプラインステージをM/M/cキュー(ポアソン到着、指数サービス、cサーバー)としてモデル化する。
ステージjの到着レート \lambda_j、サービスレート \mu_j、サーバー数 c_j に対して:
利用率: \rho_j = \frac{\lambda_j}{c_j \mu_j}
安定条件: \rho_j < 1
アーランC確率(待ち行列発生確率):
C(c_j, A_j) = \frac{\frac{A_j^{c_j}}{c_j!} \cdot \frac{1}{1 - \rho_j}}{\sum_{k=0}^{c_j - 1} \frac{A_j^k}{k!} + \frac{A_j^{c_j}}{c_j!} \cdot \frac{1}{1 - \rho_j}}
ここで A_j = \lambda_j / \mu_j(提供負荷)
期待待ち時間: W_j = \frac{C(c_j, A_j)}{c_j \mu_j (1 - \rho_j)}
期待キュー深度: L_{q,j} = \lambda_j \cdot W_j10.2 M/G/1キューとしての競合検出
競合検出のサービス時間は非指数的である(現在の実行中意思決定数に依存する)ため、Pollaczek-Khinchineの公式を用いたM/G/1モデルを使用する。
競合検出サービス時間: S = \tau \cdot k(t)
ここで k(t) は時刻tでの実行中意思決定数
E[S] = \tau \cdot E[k] = \tau \cdot \lambda \cdot \bar{T}_{pipeline}
Var[S] = \tau^2 \cdot Var[k]
Pollaczek-Khinchine平均キュー深度:
L_q = \frac{\rho^2 + \lambda^2 \cdot Var[S]}{2(1 - \rho)}
ここで \rho = \lambda \cdot E[S]
nが増加するとE[k]はnに線形に成長し、E[S]も線形に成長する。
\rho = \lambda \cdot E[S] \propto n^2 であるため、キューは以下で不安定化する:
n_{critical} = \sqrt{\frac{1}{\bar{d}^2 \cdot \tau \cdot \bar{T}_{pipeline}}}11. 緩和戦略
4つのアーキテクチャ変更により、ガバナンスのスケーリングをO(n^2)からO(n log n)に変換し、実用的な限界を約340から12,000エージェントに拡張する。
11.1 階層的委譲
すべての承認を中央プールにルーティングする代わりに、承認権限をMARIA座標階層に沿って下方に委譲する。ゾーンレベルのエージェント(Zレベル)は、プラネットやユニバースレベルにエスカレーションすることなく、ゾーン内の意思決定を承認できる。ゾーン間または高インパクトの意思決定のみが上方にエスカレーションされる。
// Hierarchical delegation configuration
interface DelegationPolicy {
level: "zone" | "planet" | "universe" | "galaxy";
canApprove: (decision: Decision) => boolean;
escalationCriteria: EscalationRule[];
}
const delegationPolicies: DelegationPolicy[] = [
{
level: "zone",
canApprove: (d) =>
d.impactScore < 0.3 &&
d.scope === "intra-zone" &&
d.reversibility > 0.7,
escalationCriteria: [
{ condition: "cross-zone", escalateTo: "planet" },
{ condition: "highImpact", escalateTo: "universe" },
],
},
{
level: "planet",
canApprove: (d) =>
d.impactScore < 0.6 &&
d.scope !== "cross-planet",
escalationCriteria: [
{ condition: "cross-planet", escalateTo: "universe" },
{ condition: "irreversible", escalateTo: "universe" },
],
},
];
// Effect: ~85% of approvals handled at zone level
// Reduces approval queue load by 6x at 1000 agents11.2 バッチ承認
類似の意思決定を承認バッチにグループ化する。同じゾーン内の複数のエージェントが類似の意思決定(同じ意思決定タイプ、類似のパラメータ、同じ制約プロファイル)を提案した場合、単一の承認がバッチ全体をカバーする。
バッチ承認は、ゾーン内の意思決定のクラスタリング係数に比例する係数で承認量を削減する。実測では、類似度閾値0.85で1000エージェント時に4.2倍の承認量削減を達成した。
11.3 予測的ゲーティング
ゲートをリアクティブに(意思決定が提案された後に)評価する代わりに、意思決定がパイプラインに入る前にゲート評価を通過するかを予測する。エージェントは信頼度スコアを返す予測ゲートモデルに問い合わせる。予測通過確率が高い(> 0.95)意思決定は、完全な競合プレスクリーニングをスキップするファストトラックパイプラインに入る。不確実なゲート結果を持つ意思決定のみが完全評価を受ける。
予測ゲートモデル:
\hat{g}(d_i) = \sigma(w^T \phi(d_i, \mathcal{H}_t))
ここで:
\phi(d_i, \mathcal{H}_t) = 意思決定 d_i とガバナンス履歴 \mathcal{H}_t からの特徴ベクトル
\sigma = シグモイド関数
ファストトラック割合: f(n) = P(\hat{g}(d_i) > 0.95)
各スケールでの実測 f(n):
f(10) = 0.92 (92%の意思決定がファストトラック)
f(100) = 0.84 (84%がファストトラック)
f(1000) = 0.71 (71%がファストトラック)
f(10000) = 0.63 (63%がファストトラック)
実効ゲート評価負荷削減:
\lambda'_{gate} = (1 - f(n)) \cdot \lambda_{gate}11.4 ゾーンスコープ競合分割
O(n^2)の競合検出問題はMARIA座標階層に沿って分解できる。同じゾーン内のエージェントはゾーン内競合としてチェックされる(ゾーンあたりO(z^2)、zはゾーンあたりのエージェント数)。ゾーン間競合は個別の意思決定ではなくゾーンレベルの意思決定サマリーを比較することで検出し、O(Z^2)となる(Zはゾーン数、Z << n)。合計計算量はO(n * z + Z^2)となり、バランスのとれたゾーン分布ではO(n log n)となる。
// Zone-scoped conflict detection
interface ZoneConflictPartition {
zoneId: string;
agentsInZone: number;
intraZoneChecks: number;
zoneSummary: DecisionSummary;
}
function partitionedConflictDetection(
decisions: Decision[],
zones: Zone[]
): ConflictResult[] {
const results: ConflictResult[] = [];
// Phase 1: Intra-zone conflict detection (parallelizable)
for (const zone of zones) {
const zoneDecisions = decisions.filter(
(d) => d.coordinate.zone === zone.id
);
results.push(...detectPairwiseConflicts(zoneDecisions));
}
// Phase 2: Cross-zone conflict detection via summaries
const summaries = zones.map((z) => buildZoneSummary(z, decisions));
for (let i = 0; i < summaries.length; i++) {
for (let j = i + 1; j < summaries.length; j++) {
if (summariesMayConflict(summaries[i], summaries[j])) {
results.push(
...detectCrossZoneConflicts(summaries[i], summaries[j])
);
}
}
}
return results;
}
// Complexity analysis:
// n agents, Z zones, z = n/Z agents per zone
// Intra-zone: Z * O(z^2) = Z * O((n/Z)^2) = O(n^2/Z)
// Cross-zone: O(Z^2) + expansion cost
// With Z = O(sqrt(n)): total = O(n * sqrt(n)) = O(n^1.5)
// With Z = O(n/log(n)): total = O(n * log(n))12. スケールにおけるベンチマーク結果
4つのスケールポイント(10、100、1000、10000エージェント)で、ナイーブ(デフォルト)および最適化構成の両方で完全な負荷テストスイートを実行した。すべてのテストは同一のインフラ(16コア、64GB RAM、NVMeストレージ)で実行された。
12.1 ナイーブ構成の結果
| メトリクス | 10エージェント | 100エージェント | 1000エージェント | 10000エージェント |
|---|---|---|---|---|
| パイプラインスループット(dec/s) | 37 | 364 | 2,180 | 失敗 |
| ゲート評価 p50(ms) | 4.4 | 18.8 | 203.9 | 失敗 |
| ゲート評価 p99(ms) | 8.1 | 67.2 | 2,340 | 失敗 |
| 競合検出(ms/サイクル) | 0.03 | 3.4 | 342,200 | 失敗 |
| 承認キュー深度(定常) | 2 | 47 | 無限成長 | 無限成長 |
| エビデンスバックログ(アイテム) | 0 | 0 | 12,207/s成長 | 152,067/s成長 |
| ガバナンス完全性 | 100% | 99.7% | 72.3% | 0% |
| 意思決定ドロップ率 | 0% | 0.3% | 27.7% | 100% |
ナイーブ構成は10000エージェントで完全に失敗する -- 完全なガバナンスパイプラインを通過する意思決定は1つもない。1000エージェントでは27.7%の意思決定がドロップされ(ガバナンスタイムアウト)、残りの72.3%は不完全な監査証跡を持つ。
12.2 最適化構成の結果
| メトリクス | 10エージェント | 100エージェント | 1000エージェント | 10000エージェント |
|---|---|---|---|---|
| パイプラインスループット(dec/s) | 37 | 370 | 3,685 | 34,200 |
| ゲート評価 p50(ms) | 3.8 | 9.2 | 18.7 | 84.3 |
| ゲート評価 p99(ms) | 6.9 | 21.4 | 47.0 | 312.0 |
| 競合検出(ms/サイクル) | 0.03 | 2.1 | 48.7 | 890.0 |
| 承認キュー深度(定常) | 1 | 8 | 23 | 187 |
| エビデンスバックログ(アイテム) | 0 | 0 | 0 | 42/s成長 |
| ガバナンス完全性 | 100% | 100% | 100% | 99.94% |
| 意思決定ドロップ率 | 0% | 0% | 0% | 0.06% |
最適化アーキテクチャは1000エージェントまで100%のガバナンス完全性を維持し、10000エージェントでも99.94%を達成する。1000エージェントでのゲート評価p99は2,340msから47msに低下 -- 49.8倍の改善。競合検出コストはサイクルあたり342秒から48.7msに低下 -- 7,025倍の改善 -- O(n^2)のペアワイズスキャンの排除による。
4つの緩和戦略により、ガバナンス崩壊点を約340エージェントから約12,000エージェントに拡張 -- 35倍の改善。12,000エージェントを超えると、エビデンス検証パイプラインが次の拘束的制約となり、検証ワーカーの水平スケーリングが必要になる。12.3 スケーリング軌道と予測限界
最適化アーキテクチャでのガバナンス容量:
n_{max} = \min\left(
\frac{c_{gate} \cdot \mu_{gate}}{\bar{d} \cdot (1 - f(n))}, \quad
\sqrt{\frac{T_{cycle}}{\tau \cdot \bar{d}^2 / Z}}, \quad
\frac{c_{ev} \cdot \mu_{ev}}{\bar{d} \cdot \bar{e}}, \quad
\frac{\sum_l c_l \cdot \mu_l}{\bar{d} \cdot (1 - h(n))}
\right)
実測値を代入:
n_{max} = \min(14,200, \; 12,800, \; 12,400, \; 18,900) = 12,400
エビデンス検証パイプライン(第3項)が
次のスケールフロンティアでの拘束的制約となる。13. 結論:スケーリングアーキテクチャ問題としてのガバナンス
スケールにおけるガバナンスはチューニングの問題ではなく、アーキテクチャの問題である。10エージェントで機能する設計パターンが、1000エージェントでは壊滅的な障害モードを生む。我々の負荷テストは5つの異なる障害モードを明らかにし、それぞれが異なるトリガー閾値を持つことを示し、標的を絞ったアーキテクチャ介入によりガバナンス容量を35倍に拡張できることを実証した。
重要な洞察は、ガバナンスの複雑さはエージェント組織自体と同じ階層的境界に沿って分解されなければならないということである。MARIA座標系は単なるアドレッシングスキームではなく、ガバナンス分割戦略である。ゾーンが競合検出をスコープする。プラネットが承認委譲をスコープする。ユニバースがポリシー評価をスコープする。ガバナンス構造が組織構造を鏡映するとき、O(n^2)問題はO(n log n)となり、1000エージェント時代は12,000エージェント時代になる。
次のフロンティアは100,000エージェント体制であり、より良いアルゴリズムだけでなく根本的に新しいガバナンスプリミティブが必要となる:確率的ガバナンス(制御された不確実性の受容)、創発的制約発見(エージェントが運用からガバナンスルールを学習)、自己組織化ゲートトポロジー(ワークロードパターンに適応するガバナンス構造)。これらがMARIA OSの次世代のオープン問題である。
すべてのベンチマーク構成、負荷テストスクリプト、分析ノートブックはMARIA OSリポジトリの/benchmarks/governance-load-test/で利用可能。結果は決定論的PRNGシーディング(seed: 0x4D415249)を使用した標準テストプロファイルで再現可能。