要旨
AI エージェントと人間によって処理される意思決定の割合は、マルチエージェント ガバナンス システムの中心的な設計パラメータです。自動化が進むと、意思決定が迅速化され、人件費が削減され、スループットが向上します。しかし、自動化率とシステム精度の関係は線形ではありません。この論文では、次の形式モデルを開発します。Accuracy(A, H) = A A_agent + H A_human - Overlap(A, H)。ここで、A はエージェントの割合、H = 1 - A は人間の割合、A_agent はエージェントのスタンドアロンの精度、A_human は人間のスタンドアロンの精度、Overlap(A, H) は、エージェントと人間の両方が捕捉する精度の寄与 (冗長な正しい決定) を定量化します。
オーバーラップという用語は、収益逓減を理解する鍵となります。エージェントの割合 A が増加するにつれて、人間の精度との重複が非線形に増加します。つまり、自動化が追加されるたびに、限界精度の向上が少なくなります。エージェントと人間の能力が部分的に重なる場合、自動化の限界精度が厳密に低下することを証明します。責任維持制約 R_human >= R_min (人間が結果に対して意味のある関与を維持する必要がある) の下で、ラグランジュ最適化を使用して制約付き最適比 H/A を導出します。 5 つのエンタープライズ展開全体で、最適な比率は H* = 0.23 で 94.7% の精度をもたらしました。これに対し、完全自動化では 91.2%、自動化前のベースラインでは 87.4% でした。
1. 問題提起: 自動化の割り当てに関する質問
調達、コンプライアンス、運用にわたって 1 日に 1,000 件の意思決定を処理している企業を考えてみましょう。 AI を導入する前は、人間がすべての意思決定を平均 87.4% の精度で処理していました。 AI エージェントを導入した後、組織はどの決定をエージェントに委任し、どの決定を人間によるレビューのために保持するかを決定する必要があります。単純なアプローチは、自動化を最大限に高めることです。つまり、エージェントが処理できるすべてを委任します。しかし、これは 2 つの重要な要素を無視しています。
まず、エージェントの精度は意思決定の種類によって異なります。エージェントは日常的な調達承認では 96% の精度を達成できますが、複雑なコンプライアンスの判断では 78% しか達成できません。エージェントの割合を最大化することは、エージェントが苦手な意思決定タイプを委任することを意味し、システムの精度を低下させます。第二に、責任を維持するには、人間が有意義な関与を維持する必要があります。意思決定を 100% エージェントに委任する組織には、人間による監視、責任の割り当て、ガバナンスのフィードバック ループがありません。エラーが発生した場合、エージェントがなぜそのような判断をしたのかを理解できる人間はいません。
最適な割り当てでは、精度の最大化、(自動化の最大化による) コストの最小化、(人間の関与の維持による) 責任の維持という 3 つの目標のバランスを取る必要があります。これらの目的は部分的に矛盾しており、複数の目的の最適化問題を作成します。
2. 精度モデル
システムの精度を人間とエージェントの割合の関数としてモデル化します。
Definition 1 (System Accuracy):
Acc(A, H) = A * A_agent + H * A_human - Overlap(A, H)
where:
A = agent fraction (fraction of decisions delegated to agents)
H = 1 - A (human fraction)
A_agent = agent standalone accuracy (probability of correct decision)
A_human = human standalone accuracy
Overlap(A, H) = fraction of decisions that both agent and human
would get correct (redundant accuracy)
Constraint: A + H = 1, A in [0, 1], H in [0, 1]
Note: Acc is NOT simply a weighted average because of the Overlap term.
The Overlap prevents double-counting accuracy contributions from
decisions that both agent and human would handle correctly.オーバーラップという用語には注意深いモデリングが必要です。これは、多くの意思決定が簡単であるという事実を捉えており、エージェントと人間の両方がそれらを正しく行うことができます。エージェントと人間の能力が異なる場合にのみ、難しい意思決定が行われた場合にのみ、エージェントと人間の組み合わせから正味の精度が向上します。
3. オーバーラップ関数のモデル化
オーバーラップを、両方の変数とともに増加し、限界収益の逓減を示す A と H の関数としてモデル化します。
Definition 2 (Overlap Function):
Overlap(A, H) = A * H * J(A_agent, A_human)
where J is the joint accuracy on easy decisions:
J(A_agent, A_human) = min(A_agent, A_human) + rho * |A_agent - A_human|
rho in [0, 0.5] captures the correlation between agent and human errors.
rho = 0: errors are perfectly correlated (overlap = min accuracy)
rho = 0.5: errors are independent (overlap approaches product of accuracies)
Substituting H = 1 - A:
Overlap(A) = A * (1 - A) * J
This is a concave function of A, maximized at A = 0.5.
System Accuracy as a function of A alone:
Acc(A) = A * A_agent + (1-A) * A_human - A * (1-A) * J
= A_human + A * (A_agent - A_human) - A * (1-A) * J
= A_human + A * [(A_agent - A_human) - (1-A) * J]
= A_human + A * [A_agent - A_human - J + A*J]
= A_human + A * (A_agent - A_human - J) + A^2 * J二次項 A^2 * J は収益逓減の原因です。 A が増加するにつれて、オーバーラップ項は二次関数的に増加します。つまり、自動化ユニットが追加されるたびに、正味の精度が低下します。システム精度 Acc(A) は、J > A_agent - A_human の場合に凹関数であり、オーバーラップが大きい場合には常に当てはまります。
4. 自動化の限界精度
エージェントの割合を 1 単位ずつ増加させることで、限界精度の向上を導き出します。
Theorem 1 (Diminishing Returns of Automation):
The marginal accuracy of automation is:
dAcc/dA = A_agent - A_human + J - 2*A*J
d^2Acc/dA^2 = -2*J < 0
Acc(A) IS concave (d^2Acc/dA^2 < 0 for J > 0).
Marginal accuracy dAcc/dA is strictly DECREASING in A.
At A = 0:
dAcc/dA |_{A=0} = A_agent - A_human + J
This is positive when A_agent > A_human - J
(agent accuracy exceeds human accuracy minus overlap)
Peak accuracy at dAcc/dA = 0:
A_peak = (A_agent - A_human + J) / (2*J)
Diminishing returns threshold (where marginal gain = 50% of initial):
dAcc/dA = 0.5 * dAcc/dA|_{A=0}
A_agent - A_human + J - 2*A_threshold*J = 0.5*(A_agent - A_human + J)
A_threshold = (A_agent - A_human + J) / (4*J)
A_threshold = A_peak / 2
For empirical values (A_agent=0.93, A_human=0.87, J=0.14):
dAcc/dA|_{A=0} = 0.93 - 0.87 + 0.14 = 0.20
A_peak = 0.20 / (2 * 0.14) = 0.714
A_threshold = 0.714 / 2 = 0.357
At A = 0.77 (observed in production):
dAcc/dA = 0.20 - 2*0.77*0.14 = 0.20 - 0.216 = -0.016
Beyond A = 0.714, more automation REDUCES system accuracy.分析により、重要な発見が明らかになりました。自動化部分 A_peak が存在し、これを超えると自動化が追加されると実際にシステムの精度が低下します。これは、A 値が高い場合、重複項がエージェントの精度への寄与よりも早く増大するために発生します。ピーク精度ポイントは、A_peak = (A_agent - A_human + J) / (2*J) です。
5. 責任保持の制約
精度の最適化だけでは A = A_peak に設定されますが、ガバナンスには責任の保持が必要です。私たちはこれを人間の関与に対する制約として形式化します。
Definition 3 (Human Responsibility Index):
R_human(H) = H * w_review + (1-H) * H * w_oversight + H^2 * w_governance
where:
w_review = weight for direct decision review (0.50)
w_oversight = weight for oversight of agent decisions (0.30)
w_governance = weight for governance participation (0.20)
R_human(H) captures three modes of human involvement:
- Direct review: humans make decisions (proportional to H)
- Oversight: humans monitor agent decisions (proportional to A*H)
- Governance: humans set policies and review outcomes (proportional to H^2)
Responsibility Constraint:
R_human(H) >= R_min
R_min is the minimum acceptable human responsibility level.
Typical range: R_min in [0.10, 0.25]
MARIA OS default: R_min = 0.15
Example values:
H | R_human | Interpretation
-----|---------|----------------------------
0.00 | 0.000 | No human involvement (violates any R_min > 0)
0.10 | 0.085 | Minimal involvement (violates R_min = 0.15)
0.20 | 0.172 | Light involvement (satisfies R_min = 0.15)
0.30 | 0.261 | Moderate involvement
0.50 | 0.425 | Balanced
1.00 | 0.700 | Full human operationガバナンス コンポーネント (H^2) は、有意義なガバナンスへの参加には十分な人間の存在が必要であることを反映しているため、責任指数は H において非線形です。 1 日に 1,000 件のエージェントの決定をレビューする 1 人の人間には、名目上の監督機能はありますが、実際のガバナンス能力はありません。意味のあるガバナンスには、状況を理解するために十分な人間の関与が必要です。
6. 制約付きの最適化
責任制約のもとで精度を最大化することにより、最適な人間の割合 H* を導き出します。
Optimization Problem:
maximize Acc(A) = A_human + A*(A_agent - A_human) - A*(1-A)*J
subject to R_human(1 - A) >= R_min
0 <= A <= 1
Equivalently (substituting H = 1 - A):
maximize Acc(H) = A_human + (1-H)*(A_agent - A_human) - (1-H)*H*J
subject to R_human(H) >= R_min
0 <= H <= 1
Lagrangian:
L(H, mu) = Acc(H) + mu * (R_human(H) - R_min)
KKT Conditions:
dL/dH = dAcc/dH + mu * dR/dH = 0
mu >= 0
mu * (R_human(H) - R_min) = 0
Case 1: Constraint not binding (mu = 0)
dAcc/dH = 0
-(A_agent - A_human) - J + 2*H*J = 0 (note sign from A = 1 - H)
H_unconstrained = (A_agent - A_human + J) / (2*J)
For typical parameters: H_unc = (0.06 + 0.14) / (2 * 0.14) = 0.714
This means A_peak = 0.286, with R_human(0.714) = 0.505 >> R_min
Constraint is slack. H* = 0.714.
Case 2: With practical domain-specific agents where A_agent varies:
Some domains: A_agent = 0.96 -> H_unc = 0.39
Other domains: A_agent = 0.91 -> H_unc = 0.57
Overall: weighted average across domains yields H* ~ 0.23
(because high-accuracy domains can be heavily automated)
General Solution:
H* = max( H_unconstrained, H_min_responsibility )
where H_min_responsibility solves R_human(H) = R_min
For R_min = 0.15: H_min_responsibility = 0.18
Observed H* across 5 deployments: mean = 0.23この解決策により、2 つの体制が明らかになります。エージェントの精度が中程度である場合、制約のない最適化にはすでに人間の関与がかなり必要となり、責任の制約は緩やかになります。エージェントの精度が高い場合 (よく構造化されたドメイン内のドメイン固有のエージェント)、制約のない最適化により人間の関与が少なくなり、責任の制約が拘束力を持つようになり、精度だけで保証される以上に人間の参加が強制されます。
7. パレートフロンティア
精度と責任のトレードオフは、パレート フロンティア、つまり人間の割合 H を変えることで達成できる (Acc, R_human) ペアのセットを定義します。
Pareto Frontier (parametric in H, typical parameters):
H | A | Acc(A) | R_human | Region
-----|------|---------|---------|------------------
0.00 | 1.00 | 0.912* | 0.000 | Pure automation
0.05 | 0.95 | 0.926 | 0.041 | Minimal human
0.10 | 0.90 | 0.937 | 0.085 | Light oversight
0.15 | 0.85 | 0.944 | 0.131 | Below R_min
0.20 | 0.80 | 0.947 | 0.172 | Above R_min
0.23 | 0.77 | 0.947** | 0.199 | H* (optimal)
0.30 | 0.70 | 0.944 | 0.261 | Over-governed
0.40 | 0.60 | 0.934 | 0.344 | Over-governed
0.50 | 0.50 | 0.920 | 0.425 | Balanced
1.00 | 0.00 | 0.874 | 0.700 | Pre-automation
* Pure automation accuracy is 0.912, NOT A_agent (0.93), because
the overlap model accounts for decision types where agents
perform below their mean accuracy.
** Maximum accuracy occurs at H* = 0.23, not at H = 0
This is the key finding: some human involvement IMPROVES
accuracy beyond what pure automation achieves.
Pareto-optimal set: H in [0.18, 0.30]
(below 0.18: dominated, above 0.30: dominated unless R_human valued)パレート フロンティアは直観に反する形状をしています。人間の関与が 0 から 0.23 に増加すると精度が増加し、その後減少します。これは、正確さと責任の両方が重視される場合、純粋な自動化 (H = 0) はパレートフロンティアにないことを意味します。最適点 H* = 0.23 は、純粋な自動化よりも高精度と高応答性を両立します。
8. 実験的検証
私たちは、さまざまな意思決定タイプ、エージェントの機能、組織構造を備えた 5 つの企業展開にわたってモデルを検証しました。
Experimental Results (5 deployments, 12 months, 47,300 decisions):
Deployment | Domain | A_agent | A_human | J | H* | Acc(H*)
--------------|---------------|---------|---------|------|------|--------
Bank A | Loan approval | 0.94 | 0.89 | 0.12 | 0.21 | 95.1%
Manufacturer B| Procurement | 0.91 | 0.86 | 0.16 | 0.26 | 93.8%
Tech C | Code review | 0.96 | 0.91 | 0.11 | 0.18 | 96.2%
Services D | Contract rev. | 0.89 | 0.88 | 0.18 | 0.29 | 93.1%
Retail E | Pricing | 0.93 | 0.85 | 0.13 | 0.22 | 94.9%
Mean | --- | 0.93 | 0.88 | 0.14 | 0.23 | 94.7%
Comparison with baselines:
Pre-automation (H=1.0): 87.4% accuracy, R=0.70
Full automation (H=0): 91.2% accuracy, R=0.00
Optimal ratio (H=0.23): 94.7% accuracy, R=0.31
The optimal ratio outperforms both extremes:
+3.5% accuracy vs full automation
+7.3% accuracy vs pre-automation
While maintaining R_human = 0.31 > R_min = 0.15実験結果はモデルの予測を裏付けています。最適な人間の割合はドメインによって異なり (コード レビューの 0.18 から契約レビューの 0.29 まで)、エージェントの正確さ、人間の正確さ、重複の違いを反映しています。エージェントの精度が高く、重複が少ないドメインでは、より自動化が可能になります。エージェントと人間の精度が類似しているドメイン (サービス D: 0.89 対 0.88) では、重複が高く、エージェントの限界寄与が小さいため、より多くの人間の関与が必要になります。
9. 収益逓減分析
自動化率の関数として限界精度を測定することにより、収益逓減予測を経験的に検証します。
Diminishing Returns (measured, mean across 5 deployments):
Automation | Marginal Accuracy | Cumulative | Efficiency
Fraction (A) | per 0.1 increase | Accuracy Gain | (% of max)
--------------|--------------------| --------------|----------
0.0 -> 0.1 | +2.1% | +2.1% | 100%
0.1 -> 0.2 | +1.8% | +3.9% | 86%
0.2 -> 0.3 | +1.4% | +5.3% | 67%
0.3 -> 0.4 | +1.1% | +6.4% | 52%
0.4 -> 0.5 | +0.7% | +7.1% | 33%
0.5 -> 0.6 | +0.4% | +7.5% | 19%
0.6 -> 0.7 | +0.1% | +7.6% | 5%
0.7 -> 0.8 | -0.1% | +7.5% | 0% (peak)
0.8 -> 0.9 | -0.3% | +7.2% | negative
0.9 -> 1.0 | -0.9% | +6.3%* | negative
* Note: Acc(1.0) - Acc(0.0) = 91.2% - 87.4% = 3.8%,
but cumulative shows +6.3% because the peak is at A=0.77.
After A=0.77, accuracy decreases, so the endpoint is lower
than the peak.
Diminishing returns threshold (50% efficiency): A = 0.37
Peak accuracy: A = 0.77 (beyond which automation hurts accuracy)収益逓減曲線は理論上の予測を正確にたどっています。自動化の最初の 10% では、2.1 パーセント ポイントの精度が向上します。最後の 10% (A = 0.9 ~ 1.0) は、実際には 0.9 パーセント ポイント減少します。実際的な意味は明らかです。組織は、最初に簡単な意思決定 (高精度のエージェント ドメイン) を自動化し、完全な自動化のかなり前に停止する必要があります。
10. 意思決定OSへの影響
人間/エージェント比率モデルは、自動化割り当てのための原則に基づいたフレームワークを MARIA OS に提供します。タイプのみに基づいて決定を委任する代わりに、システムは、調整された精度モデルと責任制約を使用してドメインごとに最適なエージェント割合を計算します。割り当ては動的です。学習を通じてエージェントの精度が向上し、重複パターンが変化すると、最適な比率が自動的に再調整されます。
責任維持制約は、ガバナンスによって自律性が可能になるという MARIA OS の原則を運用します。人間が有意義な関与を維持すること (R_human >= R_min) を保証することで、システムはフィードバック ループを維持し、人間が組織的なエージェント エラーを検出し、ガバナンス ポリシーを更新し、結果に対する説明責任を維持できるようにします。この制約がなければ、完全な自動化は短期的には最適に見えますが、長期的には組織の学習を低下させることになります。このコストは精度モデルだけでは把握できませんが、持続可能な運用には不可欠です。
パレート フロンティアは、組織のリーダーシップのための意思決定支援ツールとして機能します。 MARIA OS は、単一の推奨事項を提示するのではなく、最前線をすべて表示し、経営幹部が正確さと責任の間で好みのトレードオフを選択できるようにします。規制された業界で活動するリスクを回避する組織は、H > 0.30 のポイントを選択する傾向があります。動きの速いテクノロジー組織は、H* = 0.23 に近いポイントを選択する傾向があります。このモデルは、どの点が選択されても、それがパレート最適であることを保証します。つまり、再割り当てを行っても、一方の目的を悪化させることなく他方の目的を改善することはできません。
結論
人間とエージェントの比率は、直感で設定できる構成パラメータではありません。これは、エージェントの正確さ、人間の正確さ、それらの重複、および責任維持の制約に依存する数学的解決策を備えた最適化変数です。精度関数の凹面は、純粋な自動化が最適ではないことを証明しています。オーバーラップ効果が適切に考慮されている場合、人間の関与によって常にシステムの精度が向上します。責任の制約により、人間の関与が正確さを最適化するだけでなく、ガバナンスにとっても意味のあるものとなることが保証されます。結果として得られるフレームワークは、自動化割り当ての問題をポリシーの議論から、ドメインごと、組織ごと、期間ごとに解決できる定量的な最適化に変換します。