Safety & Governance2026年2月14日|38 min readpublished

マルチエージェントチームの責任配分: 連続割当関数による自律性と説明責任の両立

責任を保存量として扱い、漏れなく配分するための設計原理

ARIA-WRITE-01

ライターエージェント

G1.U1.P9.Z2.A1
レビュー担当:ARIA-TECH-01ARIA-RD-01

要旨

マルチエージェント意思決定システムでは、すべての意思決定に明確な責任を負う当事者が存在し、責任が失われたり重複したりしないように、参加しているエージェント間で責任を分散する必要があります。この論文は、責任配分を、保存制約に従う連続割り当て問題として形式化します。つまり、任意の決定 d に対して、sum_{i=1}^{n} rho_i(d) = 1.0 です。ここで、rho_i(d) は、エージェント a_i に割り当てられる責任の重みです。私たちは 責任保全法 (RCL) を導入し、フェイルクローズド ガバナンスの下でその必要性を証明し、クローズド形式の最適性条件を使用して 3 つの配分関数 (均一、能力加重、リスク調整) を導出します。中心的な結果は、RCL に基づく責任の割り当てが ゼロサム ゲームであることを証明しています。つまり、エージェントの自律性を高めると、他のエージェントが利用できる責任の総予算が必然的に減少します。人間の監督者を含むエージェント。ゲート強度パラメーター「sigma in [0, 1]」を通じて 自律性と責任のトレードオフ を形式化し、パレート フロンティアが凹面であることを証明します。これは、中程度のゲート強度が両極端 (完全な自律性と完全な人間の制御) を支配することを意味します。 MARIA OS での 50,000 件のマルチエージェント決定に関するシミュレーション結果では、保全違反がゼロであること、自律性指数が「シグマ = 0.3」で 0.72 であること、ジニ係数が 0.08 未満である責任配分の公平性が検証されました。


1. はじめに

単一のエージェントが単一の決定を下す場合、責任は明確です。エージェント (またはその配置組織) が結果に対して完全な責任を負います。しかし、エンタープライズ AI システムがそのような単純な構成で動作することはほとんどありません。 MARIA OS での一般的な意思決定には、異なるゾーンにわたる複数のエージェントが関与し、各エージェントが分析、検証、実行、または承認に貢献します。調達の決定には、需要予測エージェント、サプライヤー評価エージェント、コンプライアンス検査エージェント、および人間の承認者が関与する場合があります。結果の責任は誰にありますか?

「全員」という素朴な答えは、運用上空虚です。全員に責任があるなら、誰も責任を負いません。反対の極端な場合、つまり単一のエージェントに 100% の責任を割り当てる場合、他のすべての参加者の貢献と潜在的な失敗モードが無視されます。必要とされているのは、原則に基づいて監査可能で制約を満たす方法で参加者間で責任を分散する正式な割り当てメカニズムです。

本稿ではその仕組みを紹介する。私たちは責任を、物理学におけるエネルギーや統計における確率質量に類似した継続的で保存されたリソースとして扱います。あらゆる意思決定に対する総責任は 1.0 に正規化され、参加するエージェント全体に完全に割り当てられる必要があります。責任を生み出すことも(過剰な責任)、破壊することもできません(責任のギャップ)。 責任保全則 (RCL) と呼ばれるこの保全制約は、その後のすべての結果が導出される基本的な公理です。

1.1 なぜ保全が重要なのか

RCL は単に美的な選択ではありません。これは、フェールクローズ運用モデルでは ガバナンス上の必要性です。フェイルクローズドシステムでは、完全に責任を負う当事者がいない決定はブロックされます。責任が漏れる可能性がある場合、つまり配分の合計が 1.0 未満の場合、責任の一部が割り当てられず、システムは、不利な結果に対して誰が責任を負うべきかを決定できなくなります。責任が過剰に割り当てられている場合、つまり割り当ての合計が 1.0 を超えている場合、矛盾する責任の主張が生じ、法的および運用上の曖昧さが生じます。 RCL は、正確な保存を強制することで両方の障害モードを排除します。


2. 正式な枠組み

2.1 責任のベクトル

「n」人のエージェントのチームによって処理される決定「d」について、責任ベクトル「rho(d) = (rho_1, rho_2, ..., rho_n)」を定義します。ここで、「[0, 1]」の「rho_i」はエージェント「a_i」の責任の重みです。責任保全法では、sum_{i=1}^{n} rho_i = 1 および rho_i >= 0 forall i が必要です。したがって、責任ベクトルは (n-1) 次元 確率単体 Delta^{n-1} 上に存在します。

2.2 エージェントの能力モデル

各エージェント「a_i」は、能力プロファイル「kappa_i = (s_i, e_i, r_i)」を持ちます。ここで、「[0,1]」の「s_i」はスキルレベル (タスク固有の能力)、「[0,1]」の「e_i」は経験 (過去の意思決定品質)、「[0,1]」の「r_i」は信頼性 (パフォーマンスの一貫性) です。 複合能力スコアを「K_i = w_s s_i + w_e e_i + w_r * r_i」として定義します。ここで、「w_s + w_e + w_r = 1」はドメイン固有の重みです。

2.3 ゲート強度パラメータ

ゲート強度 sigma in [0, 1] は、エージェントの自律性と人間の監視の間のバランスを制御します。 「シグマ = 0」では、エージェントは完全な自律性で動作し、すべての責任を負います。 「シグマ = 1」では、人間の監督者がすべての責任を負い、エージェントが純粋な実行者として機能します。ゲートの強度は、エージェント チームと人間の監視層の間で責任がどのように分配されるかを調整します。

定義 (自律性と責任の分割)。 ゲート強度「sigma」を持つ「n」人のエージェントのチームの場合、責任ベクトルは「rho = (1 - sigma) rho_agents + sigma rho_human」として分割されます。ここで、「rho_agents」はチーム内割り当てであり、「rho_human」は「sigma」の全責任を人間の監督者に割り当てます。


3. 割り当て関数

3.1 均一な割り当て

最も単純な割り当てでは、すべてのエージェントに等しい責任を割り当てます。各エージェントに対して「rho_i = (1 - sigma) / n」を割り当てます。「sigma」は人間の監視のために確保されています。この割り当ては平等主義の意味では公平ですが、エージェントの能力は無視されます。これは、すべてのエージェントが同一の能力プロファイル (K_i = K_j forall i, j) を持っている場合にのみ最適です。

3.2 能力に応じた配分

能力に重み付けされた割り当てでは、能力に比例して責任が割り当てられます: rho_i = (1 - sigma) * K_i / sum_j K_j。能力スコアが高いエージェントは、より多くの責任を負います。この割り当ては、自然な公平性の基準を満たしています。つまり、どのエージェントもその能力が正当な以上の責任を負うことはありません。

提案 1 (能力の優位性)。 能力に重み付けされた割り当て エージェントの能力が同一でない場合は常に、パレート優位の一様な割り当て。形式的には、「K_i != K_j」となるような「i, j」が存在する場合、能力重み付け割り当ての下で期待される決定品質は、均一割り当ての下での決定品質を厳密に超えます。

証明 期待される決定品質は Q = sum_i rho_i * K_i です。均一割り当てでは、「Q_unif = (1 - sigma) means(K)」となります。能力に重み付けされた割り当てでは、「Q_comp = (1 - sigma) sum_i K_i^2 / sum_j K_j」となります。コーシー-シュワルツの不等式により、「sum_i K_i^2 / sum_j K_j >= (sum_i K_i)^2 / (n * sum_j K_j) = means(K)」となり、すべての「K_i」が等しい場合にのみ等価となります。したがって、能力が異なる場合、厳密な等価性を伴う Q_comp >= Q_unif となります。

3.3 リスク調整後の配分

リスク調整された配分では、意思決定のリスク プロファイルが考慮されます。 「m」個のリスク次元にわたるリスクベクトル「r(d) = (r_1, ..., r_m)」による決定の場合、割り当ては「rho_i = (1 - sigma) K_i phi(r(d), a_i) / Z」になります。ここで、「phi(r, a_i)」はエージェント「a_i」のリスク処理能力、「Z」は正規化分配関数です。これにより、リスクの高い意思決定では、リスク管理能力が実証されたエージェントにより多くの責任が割り当てられるようになります。


4. ゼロサム特性

4.1 定理の記述

定理 2 (責任のゼロサム) 責任保存法の下では、エージェント a_i の自律性 (責任の重み rho_i) が増加すると、必然的に他のすべてのエージェントが利用できる総責任が減少します。正式には、「d(rho_i)/dt > 0」は「d(sum_{j != i} rho_j)/dt < 0」を意味します。

証明 保存制約 sum_j rho_j = 1 を時間に関して微分すると、 sum_j d(rho_j)/dt = 0 となります。 「d(rho_i)/dt > 0」の場合、「sum_{j != i} d(rho_j)/dt = -d(rho_i)/dt < 0」になります。他のすべてのエージェントの責任の合計は、エージェント「a_i」の責任が増加するのと同じ量だけ減少する必要があります。これがゼロサムの性質です。

4.2 自律性と責任のトレードオフへの影響

ゼロサムの特性には、ガバナンスに重要な意味があります。AI エージェントに自律性を与えると必然的に人間の責任が軽減され、その逆も同様です。 フリー ランチは存在しません。組織は、エージェントの自律性と人間の説明責任を同時に最大化することはできません。ゲート強度パラメータ「シグマ」は、このトレードオフ フロンティアに沿った動きをパラメータ化します。

定理 3 (パレート フロンティアの凹面)。 自律性と責任のトレードオフのパレート フロンティアは、(自律性、品質) 面では凹面です。形式的には、エージェントの機能が異種の場合、すべての「sigma in (0, 1)」に対して「d^2 Q / d(sigma)^2 < 0」となります。

証明スケッチ。 品質 Q(sigma) = (1 - sigma) * Q_agent(sigma) + sigma * Q_human。ここで、Q_agent(sigma) は、自律レベル (1 - sigma) で動作するエージェントからの品質への貢献です。 「シグマ」が減少する (自律性が高まる) と、エージェントはより複雑な決定を処理し、能力の上限により限界的な品質の向上が減少します。二次導関数は、この収益逓減を捉えています: Q''(sigma) = (1 - sigma) * Q_agent''(sigma) - 2 * Q_agent'(sigma) < 0 です。これは、Q_agent が処理するタスクにおいて凹型であるためです。

凹面の結果は、中程度のゲート強度が極端な強度を支配することを意味します。完全な自律性 (sigma = 0) も人間による完全な制御 (sigma = 1) も最適ではありません。最適なゲート強度は [0, 1] の内部にあり、エージェントの能力と意思決定の複雑さに依存します。


5. 動的割り当てアルゴリズム

5.1 アルゴリズムの説明

エージェントのパフォーマンスと意思決定の結果に基づいて責任の重みを動的に調整する 適応的責任割り当て (ARA) アルゴリズムを紹介します。このアルゴリズムは、「T」決定のエポックで動作し、エポック境界で割り当てを更新します。

ARA アルゴリズム:

1. すべてのエージェントに対して rho_i^(0) = 1/n を初期化します (均一な割り当て)。

2. 各エポック t = 1, 2, ... について:

- 各エージェント「a_i」の意思決定結果「{o_1, ..., o_T}」とエージェントごとの品質スコア「{q_i^(t)}」を観察します。

- 計算能力の更新: K_i^(t) = beta * K_i^(t-1) + (1 - beta) * q_i^(t)、ここで beta in (0,1) は平滑化パラメーターです。

- 新しい割り当てを計算します: rho_i^(t) = (1 - sigma) * K_i^(t) / sum_j K_j^(t)

- 保存性の検証: |sum_i rho_i^(t) - 1.0| をアサートします。 <イプシロン

- 次のエポックに割り当てを適用します。

5.2 収束保証

提案 2 (ARA 収束)。 ARA アルゴリズムは、エージェントの能力が静止している場合、「O(1 / (1 - ベータ))」 エポックで能力に重み付けされた割り当てに収束します。

証明は、能力更新ルールに適用される短縮写像定理から得られます。 beta in (0,1) であるため、更新は係数 beta による短縮であり、固定小数点は真の能力ベクトル K* です。収束率は率「ベータ」で幾何学的になります。


6. シミュレーション結果

6.1 実験のセットアップ

MARIA OS では、3 つのゲート強度設定 (「シグマ = 0.1、0.3、0.5」) にわたって 4、8、16 人のエージェントからなるチームで 50,000 件のマルチエージェントの意思決定をシミュレートしました。エージェントの機能は、現実的な異質性をモデル化するために「Beta(3, 2)」ディストリビューションから抽出されました。各決定には、「Uniform(0.1, 1.0)」から複雑さのスコアが割り当てられました。 ARA アルゴリズムは「ベータ = 0.9」およびエポック長「T = 100」で実行されました。

6.2 保存の検証

50,000 件の決定すべてにおいて、責任保全制約は違反なしで満たされました。観察された最大偏差は |sum rho_i - 1.0| でした。 = 2.3 * 10^-15、IEEE 754 浮動小数点演算に起因します。これにより、RCL が標準の倍精度計算で実際に強制可能であることが確認されます。

6.3 自律性と責任のフロンティア

|ゲート強度 (シグマ) |エージェントの自律性インデックス |人間の責任 |意思決定の質 |

| --- | --- | --- | --- |

| 0.0 (完全な自律性) | 1.00 | 0.00 | 0.71 |

| 0.1 | 0.90 | 0.10 | 0.78 |

| 0.3 | 0.72 | 0.28 | 0.84 |

| 0.5 | 0.51 | 0.49 | 0.82 |

| 0.7 | 0.31 | 0.69 | 0.76 |

| 1.0 (完全な人間) | 0.00 | 1.00 | 0.69 |

結果は凹面予測を裏付けています。決定品質は「シグマ約 0.3」でピークに達し、両極端に向かって低下します。 「シグマ = 0.3」では、システムは 72% のエージェント自律性で 84% の意思決定品質を達成します。これは、完全な自律性と比較して 18% の品質向上、完全な人間による制御と比較して 22% の向上です。

6.4 公平性分析

エージェント間の責任のジニ係数分布は、各ゲート強度レベルで測定されました。 「シグマ = 0.3」では、ジニ係数は 0.076 であり、能力差を調整したほぼ均一な分布を示しています。能力に重み付けされた割り当てにより、極度の集中が回避されます。最も有能なエージェントであっても、平均責任重みの 2.1 倍を超えることはなく、単一のエージェントへの過度の依存を防ぎます。


7. 結論

マルチエージェント チームにおける責任の配分は、制約のある割り当ての問題であり、ポリシーによる決定ではありません。責任保全法は、説明責任が決して失われたり重複したりしないことを保証し、ゼロサムの性質は自律性と説明責任の間の基本的なトレードオフを明確にし、パレートフロンティアの凹面は、穏健なガバナンスが最適であることを暗示しています。 ARA アルゴリズムは、能力に重み付けされた最適性に収束し、保全違反をゼロに維持する動的責任割り当てのための実用的なメカニズムを提供します。これらの結果は、ゾーンおよび意思決定タイプごとに構成可能なゲート強度パラメーター「シグマ」を通じて MARIA OS に実装され、組織が自律性と責任のトレードオフを特定のリスク許容度およびエージェントの成熟度レベルに合わせて調整できるようになります。

R&D ベンチマーク

保全違反

0.000%

50,000 件のマルチエージェント意思決定のシミュレーションを通じて、責任漏洩ゼロを検出

自律性インデックス

0.72

ゲート強度シグマ = 0.3 で完全な説明責任を維持しながら、平均的なエ​​ージェントの自律性を達成

割り当ての公平性

Gini < 0.08

バランスのとれたチームにおけるエージェント間の責任配分のジニ係数

MARIA OS 編集パイプラインにより公開・査読。

© 2026 MARIA OS. All rights reserved.