Theory2026年2月12日|45 min readpublished

意思決定インテリジェンス理論: 責任あるAI統治の統一フレームワーク

5公理・4本柱方程式・5定理で、組織判断を実行可能な制御系として定式化する

ARIA-RD-01

研究開発アナリスト

G1.U1.P9.Z3.A1
レビュー担当:ARIA-TECH-01ARIA-WRITE-01ARIA-QA-01

要旨

デシジョン インテリジェンス理論 (DIT) は、組織の意思決定を、証拠の検索、ゲート評価、競合検出、責任の帰属、実行、観察、学習を統合する閉ループ制御システムとして形式化します。この理論は、許容されるガバナンス アーキテクチャのスペースを制限する 5 つの公理 (証拠、フェイルクローズ、競合の可視性、責任のロック、制御と学習) に基づいて構築されています。これらの公理から、GateScore 関数 (ハード制約オーバーライドを備えた MAX ベースのゲート評価)、Conflict 関数 (相関派生の競合検出演算子)、Responsibility Sufficiency Gap メトリクス (システム全体の責任不足の尺度)、および Control-Learning Dynamics (リアプノフ安定性を備えた離散時間状態進化モデル) の 4 つの柱方程式を導き出します。次に、次の 5 つの定理を証明します。 MAX ゲート安全性 (ゼロ監査された単一制約違反ドメインでの誤った許容値)、競合予測可能性(ユニバース間の負の相関関係が組織コストを予測する)、責任持続性(十分なゲート強度の下で自動化が説明責任を維持する)、フェイルクローズ安定性(証拠品質の下でリアプノフリスクを低減)、および最適ゲートアンダー遅延バジェット(最適なゲート割り当てへのラグランジュ収束)。このフレームワークは、マルチエージェント ガバナンス プラットフォームである MARIA OS に実装されており、金融、医療、法務、製造の導入全体にわたって検証されています。 4 つの 90 日コホートにわたって、結果は、セクション 8.0 で定義された測定プロトコルの下で、0.00% の監査済みハード制約誤認、RS < 0.03 の責任十分性ギャップ、94.2% の競合予測精度、および 8 回の反復以内のゲート収束を示しています。この文書では、完全な理論、証明、実装について説明します。マッピング、および包括的な治療のための 7 部構成の本です。


1. はじめに: なぜ意思決定に統一理論が必要なのか

判断にはスケールがありません。実行は可能です。この観察は、単純に見えますが、エンタープライズ AI ガバナンスの中心的な緊張を表しています。組織は自律エージェントを導入して、調達の承認、コードの展開、コンプライアンス評価、リソースの割り当てなどの意思決定をマシンスピードで実行しますが、それらの意思決定を管理するべき判断は人間の認知帯域幅に閉じ込められたままです。その結果、実行速度とガバナンス能力の間のギャップが拡大します。エージェントは人間が確認できるよりも早く行動します。意思決定は、監査員が追跡できるよりも速く複雑になります。責任は組織が割り当てるよりも早く拡散します。

AI ガバナンス コミュニティは、NIST AI RMF、EU AI 法、ISO 42001、OECD AI 原則、および数十のコーポレート ガバナンス憲章などのフレームワークの急増に対応してきました。それぞれが問題のサブセット(リスク管理、透明性、公平性、説明責任)に取り組んでいますが、証拠、対立、責任、実行、学習を単一の一貫したシステムに結び付ける統一された数学的基盤を提供するものはありません。その結果、実務者は、それぞれ内部的には一貫しているものの、全体としては不完全なガイドラインのパッチワークをナビゲートする必要があります。

この論文では、意思決定を制御システムとして形式化する統一数学的フレームワークである 意思決定インテリジェンス理論 (DIT) について説明します。 DIT は既存のフレームワークを置き換えるものではありません。DIT は、フレームワークを厳密に基礎付けることができる正式な基盤を提供します。この理論は、既存のフレームワークが未解決のまま残している 3 つの疑問に答えます。

  • AI エージェントの動作を許可しても安全なのはどのような場合ですか? ポリシーの判断としてではなく、数学的な条件として、アクションが許可される前にどのような証拠が存在しなければならず、どのゲートが保持されなければならず、どのような競合が存在していなければなりませんか?
  • 自動化が増加すると、責任は減少しますか? 哲学的な議論としてではなく、測定可能な量として: エージェントの自律性が増加するにつれて、責任の十分性のギャップはどのような条件下で制限されたままになりますか?
  • ガバナンス システムは自らの決定から学習できますか? 願望としてではなく、制御理論上の保証として、どのような安定性条件下で適応ゲート再キャリブレーションは最適な構成に収束しますか?

DIT を一文で定義すると、次のようになります。 意思決定インテリジェンス理論は、証拠、対立、責任、実行、および組織の完了率を最大化しながら誤認を最小限に抑えるための学習を統合し、意思決定を制御システムとして形式化します。 誤認は、システムがブロックされるべきアクションを許可したときに発生します。完了エラーは、許可されるべきアクションがシステムによってブロックされた場合に発生します。 DIT は、両方を同時に最小化するための数学を提供します。

1.1 コア構造

DIT におけるすべての決定は、正規のパイプラインに従います。

Input → Evidence Retrieval → Gate Evaluation → Conflict Detection → Decision (Allow / Pause / Block) → Execute → Observe → Learn → Update

これはウォーターフォールではなく、フィードバック ループです。観察および学習ステージでは、情報が証拠検索とゲート評価にフィードバックされ、意思決定サイクルごとに改善される閉ループ システムが作成されます。制御と学習の公理 (公理 5) は、このフィードバック メカニズムを形式化し、ループが振動するのではなく収束する条件を確立します。

各段階には正確な数学的特徴があります。 Evidence Retrieval は証拠バンドルを生成します。ゲート評価は、アクションが通過するか、一時停止するか、ブロックするかを決定する GateScore を計算します。競合検出は、手戻りとコストを予測する組織単位間の負の相関を特定します。決定ステージでは、フェイルクローズの原則が適用されます。つまり、単一の制約違反があると強制的にブロックされます。実行すると、目に見える結果が生まれます。観測により、システムの内部モデルを更新する信号が生成されます。学習により、ゲートのしきい値と重みが調整されます。更新により、変更が次の決定サイクルに伝播されます。

1.2 範囲と対象者

この文書は 3 人の読者を対象に同時に書かれています。ガバナンス システムを実装する エンジニア 向けに、正確な方程式、アルゴリズム、および MARIA OS プラットフォームへの実装マッピングを提供します。 AI ガバナンス企業を評価する 投資家 にとって、これは理論的な堀、つまり数学的な深い理解がなければ競合他社が再現できない正式な枠組みを提供します。意思決定理論を研究する学者にとって、制御理論、ゲーム理論、および証明可能な保証を伴う責任帰属の新しい統合を提供します。

論文は以下のような構成となっている。セクション 2 では 5 つの公理を示します。セクション 3 では、中心となる用語を定義します。セクション 4 では、証明とともに 4 つの柱の方程式を導き出します。セクション 5 では、5 つの主要な定理を述べ、証明します。セクション 6 では、理論を MARIA OS 実装にマッピングします。セクション 7 では、7 部構成の本の構造の概要を説明します。セクション 8 では、業界間の検証について説明します。セクション 9 では、DIT と既存のフレームワークを比較します。セクション 10 では、今後の方向性について説明します。セクション 11 は終了です。


2. 5 つの公理

DIT の公理は、責任を持って統治されると主張するあらゆる意思決定システムに対する交渉の余地のない制約です。これらは設計上の好みやベスト プラクティスではなく、構造上の要件です。公理に違反するシステムは、他のコンポーネントがどれほど洗練されているかに関係なく、定義上、意思決定インテリジェンス システムではありません。

2.1 公理 1: 証拠公理

声明。 証拠の束がなければ、リスクの高い決定は許可されません。証拠要件は、ソフトな制約や推奨ではなく、ゲート通過のための構造的な前提条件です。

証拠公理は、証拠はオプションのコンテキストではなく、必須の構造であることを確立します。しきい値 tau_risk を超えるリスク層を持つ意思決定ノードの場合、システムは証拠バンドル B = {(source_j,段落_j,confidence_j)} を組み立てる必要があります。ここで、各要素は情報源の出所、特定のテキスト参照、および定量化された信頼スコアの 3 つです。ゲートがアクションを評価できるようになる前に、総証拠十分性 E(B) が階層依存のしきい値 theta(tau) を超える必要があります。

形式的には、a を、RiskTier(a) >= tau_risk で決定ノード i で提案されたアクションとします。証拠公理では次のことが要求されます。

E(B_a) = \frac{1}{|B_a|} \sum_{j=1}^{|B_a|} confidence_j \geq \theta(\text{RiskTier}(a)) $$

ここで、θ はリスク層の単調増加関数です。 RiskTier = LOW の場合、シータは 0.3 になる可能性があります。 RiskTier = CRITICAL の場合、シータは 0.9 になる可能性があります。重要な特性は、theta(CRITICAL) = 0.9 は、平均証拠の信頼度が 0.9 未満では重大なアクションを続行できないことを意味します。これは、影響の大きい決定を許可する前に、システムに実質的な裏付けとなる証拠を収集することを強制する厳しい要件です。

この公理には、より深い構造的な意味があります。つまり、認識状態 (システムが知っていること) と決定状態 (システムが行うこと) を分離します。システムは、リスクの低いアクションについてほとんど何も認識していなくても、それを許可することができます。しかし、リスクの高い行動についてはほとんど何も知らず、それを許可することはできません。この分離により理論が構成可能になり、証拠層はゲート ロジックとは独立して改善できます。

運用上の影響 証拠が不十分な場合、システムは信頼性が低下したまま続行されません。止まってしまいます。十分な証拠が集められるまで、この行動はブロックされます。これは気質的に保守的ではなく、公理的に保守的です。 DIT 準拠のシステムを導入する組織は、証拠がなければリスクの高い決定は進めないという取り消し不能な約束をしています。

2.2 公理 2: フェイルクローズの公理

ステートメント 停止基準は最悪の場合の値によって支配されます。いずれかの品質ディメンションがそのしきい値を下回ると、他のディメンションがどれだけ強いかに関係なく、ゲートはアクションをブロックします。

フェイルクローズ公理は、ゲート評価に適用される予防原則を数学的に形式化したものです。多次元の品質評価には、2 つの自然な集計戦略があります。平均ケース (ディメンション全体の平均品質がしきい値を超えた場合にアクションが成功する) とワーストケース (すべてのディメンションが個別にしきい値を超えた場合にのみアクションが成功する) です。 DIT では、最悪の場合の集計が義務付けられています。

形式的には、phi_i(r_i, c_i, q_i, rev_i, time_i) をアクションの次元 i の品質スコアとします。ここで、r_i はリスク、c_i はコンプライアンス、q_i は品質、rev_i はレビューステータス、time_i は時間的妥当性です。ゲート評価では MAX 演算子を使用します。

\text{GateScore}(a) = \max_i \phi_i(r_i, c_i, q_i, rev_i, time_i) $$

逆に注意してください。各 phi_i は、品質ではなく、次元 i における 懸念事項の重大度 を測定します。 phi_i が高いということは、次元 i に問題があることを意味します。 MAX 演算子は最悪の次元を選択します。単一の phi_i がブロッキングしきい値を超えると、他の次元がどれほど有利であっても、ゲートはブロックされます。

これは ハード制約オーバーライド によって補完されます。特定の条件 (規制違反、セキュリティ違反、予算超過など) が発生すると、計算された GateScore に関係なく即時ブロックがトリガーされます。ハード オーバーライドは MAX 評価とは別のメカニズムであり、計算全体をショートさせます。

フェイルクローズ公理の背後にある直観は、品質の次元は代替不可能であるということです。アクションは、優れたコード品質によって規制違反を補うことはできません。実行時間が速いことで不十分な証拠を補うことはできません。各次元は独立した故障モードを表しており、ブロッキングを保証するには単一の故障モードで十分です。

なぜ MEAN ではなく MAX なのでしょうか? 平均ベースの代替案では、1 つの次元が壊滅的に劣っていても、平均品質が許容できる場合にはアクションを通過させることができます。エンタープライズ環境では、これは受け入れられません。財務分析は完璧だがコンプライアンス審査がゼロの調達決定は、「中途半端に良い」ものではなく、コンプライアンス違反です。 MAX 演算子は、この非代替可能性を数学的に捉えます。

2.3 公理 3: 競合可視性の公理

ステートメント 組織単位間の対立は視覚化および表面化され、解決が強制されることはありません。システムは競合を可視化します。それらを解決する方法を決めるのは人間です。

競合可視性公理は、マルチエージェントの調整問題に対処します。 MARIA 座標系 (銀河、宇宙、惑星、ゾーン、エージェント) でモデル化された階層型組織では、異なる組織単位 (宇宙、惑星) が部分的または完全に矛盾する目標を追求することがよくあります。販売ユニバースは収益を最大化します。コンプライアンス ユニバースにより、規制リスクが最小限に抑えられます。製品開発 Planet は、迅速な反復を推進しています。品質保証 プラネットでは徹底的なテストを実施しています。これらの矛盾は組織設計のバグではなく、機能です。健全な組織は、競合する目標間で生産的な緊張感を維持します。

この公理は、意思決定システムはこれらの矛盾を検出し、定量化し、人間の意思決定者に提示する必要があるが、決して一方的に矛盾を解決してはならないと述べています。自動化された競合解決 (例: 常に優先順位の高いユニバースを優先する) は、組織を適応的にする生産的な緊張を排除する厳格な優先順序を課すことになります。

形式的には、目的ベクトルを持つ一連のユニバース U = {U_1, U_2, ..., U_n} が与えられると、システムはユニバースの目的の相関構造から 競合行列 C を計算します。

C = \text{corr}(U) $$

ここで、 corr は、Universe の目標達成時系列間のペアごとのピアソン相関を計算します。負の相関は競合を示します。つまり、ユニバース i が成功すると、ユニバース j は失敗する傾向があり、その逆も同様です。特定のアクション a の競合関数は次のとおりです。

\text{Conflict}(a) = \langle W, \text{ReLU}(-C) \rangle $$

ここで、W は各ユニバース ペアの戦略的重要性を反映する重み行列であり、ReLU(-C) は負の相関 (競合) のみを抽出し、正の相関 (相乗効果) をゼロにします。内積により、スカラー競合スコアが生成されます。

紛争 (a) がしきい値を超えると、システムは 紛争カード を生成します。これは、どの宇宙が緊張状態にあるか、紛争の規模、歴史的な前例、推奨されるエスカレーション パスを示す構造化された視覚化です。カードは人間の意思決定者に提示されます。システムは競合を解決しません。それは対立を可視化します。

解決ではなく可視性が必要な理由 自動競合解決には、組織の目標よりも優先機能が必要です。このような機能は本質的に政治的なものであり、どの目的がより重要であるかについての価値判断をエンコードしています。これらの判断をソフトウェアでエンコードすると、民主的な組織統治から判断が削除され、不透明になります。競合可視性公理は、価値のトレードオフに対する人間の権限を維持しながら、それらのトレードオフに情報を提供するための定量的なインフラストラクチャを提供します。

2.4 公理 4: 責任ロックの公理

ステートメント *自動化によって結果に対する責任が軽減されることはありません。エージェントがより多くの実行を引き継ぐ場合、ガバナンス アーキテクチャは結果に対する責任が少なくとも手動実行の場合と同じくらい強力であることを保証する必要があります。

責任ロック公理は、AI ガバナンスの最も深刻な課題、つまり自動化が進むにつれて責任が蒸発する傾向に対処します。人間が間違った決定を下した場合、責任は明らかです。決定した人間がその結果を負います。 AI エージェントが誤った決定を下した場合、責任は分散します。エージェントには法的地位がなく、AI をトレーニングした開発者は特定の失敗を予期していなかった可能性があり、AI エージェントをデプロイしたオペレータはモデルの動作を理解していない可能性があり、モデルを調達した組織はベンダーを指摘する可能性があります。

DIT は、責任十分性ギャップ 指標を通じてこの拡散を形式化しています。

RS = \sum_i \max(0, I_i \cdot R_i \cdot (a_i - L_i)) $$

ここで、各意思決定ノード i について: I_i は正規化された影響の大きさ、R_i は正規化されたリスク確率、a_i は自動化レベル、L_i は 責任ロック です。

L_i = h_i + (1 - h_i) \cdot g_i $$

ここで、h_i は人間の介入確率、g_i はゲート強度です。責任ロック L_i は、結果責任が責任のある当事者にどの程度しっかりと関連付けられているかを測定します。 h_i = 1 (人間の承認が必須) の場合、ゲートの強度に関係なく、L_i = 1 になります。承認した人間には完全な責任があります。 h_i = 0 であるが g_i > 0 の場合、部分責任ロックはガバナンス メカニズム自体を通じて発生します。

責任ロック公理では、常に小さなしきい値イプシロン > 0 に対して RS <= イプシロンであることが必要です。これは、すべての意思決定ノードについて、アカウンタビリティ ロック カバレッジが自動化需要を追跡する必要があることを意味します。 I_i * R_i という項は、各ノードをエクスポージャー (影響 x リスク) によって重み付けし、(a_i - L_i) は自動化がガバナンス ロックを超えるかどうかを測定します。自動化が増加する (a_i が増加する) 場合、説明責任の欠如を防ぐために、ロックもそれに伴って (より強力なゲートやより高度な人間の介入を通じて) 増加する必要があります。

非減少特性 この公理は、自動化が進むにつれて組織が説明責任を強化することを選択する可能性があるため、「一定のまま」ではなく「決して減少しない」と述べられています。これは段階的自律性の原則であり、ガバナンスの強化により自動化が可能になります。ゲートを強化する (g_i を増やす) 組織は、ロック カバレッジが新しい自動化レベルに合わせて引き上げられると、安全に自動化を増やす (a_i を増やす) ことができます。

2.5 公理 5: 制御と学習の公理

ステートメント 意思決定は、適応フィードバックを備えた動的なシステムです。ガバナンス システムは、意思決定の結果を観察し、内部パラメータを更新し、時間の経過とともに最適なゲート構成に向けて収束します。

制御と学習の公理は、DIT を静的なフレームワークから動的なフレームワークに変換します。最初の 4 つの公理は、単一の決定に対する制約を定義します。 5 番目の公理は、意思決定全体にわたるシステムの進化を支配します。それは、ゲートパラメータ (しきい値、重み、リスク評価) は導入時に固定されるのではなく、観察された結果に基づいて継続的に更新されると述べています。

正式には、システムは決定ノードごとに 2 つの状態変数、残留リスク r_t と 値の累積 v_t を維持します。これらは離散時間ダイナミクスに従って進化します。

r_{t+1} = r_t + u_t - \kappa \cdot g_t \cdot q_t $$
v_{t+1} = (1 - \mu) \cdot v_t + \rho \cdot r_t \cdot (1 - g_t) $$

ここで、u_t は外部リスク入力 (環境から到来する新たなリスク)、g_t は時間 t におけるゲートの強度、q_t は時間 t における証拠の品質、kappa はリスク低減係数 (ゲートがリスクをいかに効果的に低減するか)、mu は価値減衰率 (蓄積された価値がどれほど早く減価するか)、rho は価値生成率 (リスクを効果的に管理することで組織価値がどの程度生み出されるか) です。

最初の方程式はリスクのダイナミクスを捉えたものです。残留リスクは外部入力により増加し、ゲートを介した証拠に基づく緩和により減少します。 2 番目の方程式は価値のダイナミクスを捉えています。蓄積された価値は時間の経過とともに減少しますが、残留リスクが正常に管理され (r_t が正)、ゲートがオーバーブロッキングではない (1 - g_t が正) 場合には増加します。

複合値関数は、次の両方を統合します。

V_t = \alpha \cdot r_t + \beta \cdot v_t $$

ここで、アルファはリスク要素に重み付けをし (残留リスクが高いと価値が低下するため、通常は負になります)、ベータは価値累積要素 (通常は正) に重み付けします。このシステムは、時間の経過とともに V_t を最小化することを目的としています。これは、累積価値を最大化しながら残留リスクを低減することを意味します。

公理では、この動的システムが安定であることが必要です。状態変数への摂動は、増幅するのではなく、時間の経過とともに減衰する必要があります。これは、定理 4 のリアプノフ安定性解析を通じて定式化されます。


3. 基本的な定義と用語

柱となる方程式と定理に進む前に、理論全体で使用される正式な定義の完全なセットを確立します。各定義は、MARIA OS 実装の具体的なデータ構造にマップされます。

3.0 1 ページの運用定義

TermOperational meaning
GateScoreConcern score. Higher means higher concern, not higher quality.
phi_iConcern severity for dimension i in [0, 1].
Allow/Pause/BlockAllow if GateScore < tau_allow; Pause if tau_allow <= GateScore < tau_block; Block if GateScore >= tau_block or hard constraint violation.
RSResponsibility Sufficiency Gap. Lower is better; RS = 0 means governance lock meets or exceeds automation level on exposure-weighted nodes.

3.1 意思決定ノード

定義 3.1 (意思決定ノード)。 意思決定ノード は、タプル d = (id、action、context、risk_tier、evidence_bundle、gate_result、timestamp) です。ここで、:

  • id は一意の識別子です
  • 「action」は提案されたアクション (エージェントが何をしようとしているのかを構造化して記述したもの) です。
  • 「コンテキスト」は提案時の環境状態 (システム条件、事前の決定、アクティブな制約) です。
  • 「risk_tier」は評価されたリスク レベル (RiskTier の要素) です。
  • 「evidence_bundle」はアクションを裏付ける収集された証拠です
  • gate_result はゲートの評価結果 (許可、一時停止、またはブロック) です。
  • 「タイムスタンプ」はプロポーザルの実時間です

意思決定ノードはガバナンスの原子単位です。 DIT 準拠のシステムを通過するすべてのアクションは、リスク層に関係なく、意思決定ノードとしてインスタンス化されます。低リスクのノードは最小限の評価でゲートを通過する可能性がありますが、それでも記録され、完全な監査証跡が作成されます。

3.2 リスク階層

定義 3.2 (RiskTier)。 RiskTier は順序付き列挙です: RiskTier = {LOW、MEDIUM、HIGH、CRITICAL} で、合計の順序は LOW < MEDIUM < HIGH < CRITICAL です。

各リスク層は、一連のガバナンス要件に対応しています。

  • : 自動評価、人間によるレビューは不要、証拠閾値シータ = 0.3
  • : オプションの人によるレビューによる自動評価、証拠閾値シータ = 0.5
  • : 人間によるレビューが必須 (R2 承認以上)、証拠閾値シータ = 0.7
  • 重要: 必須のマルチレベル人間によるレビュー (R3 承認)、証拠しきい値シータ = 0.9、ハード制約オーバーライドが有効

リスク層の割り当て自体は監査可能な決定です。システムは、(action_type、context、history_outcomes) を RiskTier にマッピングするリスク評価モデルを維持します。このモデルは、制御と学習のダイナミクスによって更新されます。

3.3 証拠の束

定義 3.3 (証拠バンドル)。 アクション a の 証拠バンドル は集合 B_a = {(source_j,段落_j,confidence_j)}_{j=1}^{|B_a|} であり、ここで:

  • source_j は来歴レコード (文書 ID、バージョン、取得タイムスタンプ) です。
  • paragraph_j は特定のテキスト範囲 (セクション、段落インデックス、文字オフセット) です。
  • confidence_j は、証拠の強さを測定する [0, 1] のスカラーです。

証拠十分性スコアは E(B_a) = (1/|B_a|) * sum(confidence_j) です。 |B_a| の場合、バンドルは整形式です。 >= 1 および min_j(confidence_j) >= 0.3 (下限しきい値)。 E(B_a) >= theta(RiskTier(a)) の場合、バンドルは十分です。

3.4 ゲートスコア

定義 3.4 (GateScore)。 アクション a の GateScore は、品質ディメンション スコアの MAX 集計から計算された [0, 1] のスカラーです。

\text{GateScore}(a) = \max_i \phi_i(r_i, c_i, q_i, rev_i, time_i) $$

決定ルール: GateScore(a) < tau_allow の場合は許可、tau_allow <= GateScore(a) < tau_block の場合は一時停止、GateScore(a) >= tau_block の場合、またはハード制約に違反した場合はブロック。

各 phi_i は、ディメンションの入力変数を [0, 1] の懸念重大度にマップするディメンション固有のスコアリング関数です。 MAX 演算子は、最も重大な懸念事項を選択します。ハード制約はスコアリングを完全にバイパスします。

3.5 対立マトリックス

定義 3.5 (競合マトリックス)。 n 個の組織ユニバース U = {U_1, ..., U_n} と目標達成時系列 {o_1(t), ..., o_n(t)} がある場合、競合マトリックスは次のようになります。

C_{ij} = \text{corr}(o_i, o_j) \quad \text{for } i, j = 1, ..., n $$

C は C_{ii} = 1 と対称です。エントリ C_{ij} < 0 は、ユニバース i と j の間の競合を示します。 i と j の間の競合重大度は max(0, -C_{ij}) です。アクション a のシステム全体の競合スコアは、Conflict(a) = <W, ReLU(-C)> で、W は戦略的重要度の重みをエンコードします。

3.6 責任の十分性のギャップ

定義 3.6 (責任十分性ギャップ)。 N 個の意思決定ノードを持つシステムの 責任十分性ギャップ は次のとおりです。

RS = \sum_{i=1}^{N} \max(0, I_i \cdot R_i \cdot (a_i - L_i)) $$

ここで、I_i は正規化された影響、R_i は正規化されたリスク、L_i = h_i + (1 - h_i) * g_i は責任ロック、a_i は自動化レベルです。 RS = 0 は、露出加重ノードにロックを超えるオートメーションがないことを意味します。 RS > 0 はガバナンス ロックの欠陥を示します。

3.7 安定状態

定義 3.7 (安定状態)。 時間 t におけるシステムの 安定状態 は、ペア (r_t, v_t) です。ここで、r_t は残留リスク、v_t は累積値です。すべての非平衡状態に対してデルタ L = L(r_{t+1}, v_{t+1}) - L(r_t, v_t) < 0 となるようなリアプノフ関数 L(r_t, v_t) > 0 が存在する場合、システムは リアプノフ安定 です。


4. 4 本の柱の方程式

4 つの柱の方程式は、DIT の計算の中核です。各方程式は公理から導出され、観測可能な量をガバナンスの決定にマッピングする計算可能な関数を提供します。これらは一緒になって、理論の完全な決定代数を形成します。

4.1 第 1 の柱: GateScore の方程式

方程式. 品質ディメンション スコア {phi_1, ..., phi_m} を持つアクション a の場合:

\text{GateScore}(a) = \max_{i=1}^{m} \phi_i(r_i, c_i, q_i, rev_i, time_i) $$

ハード制約オーバーライドを使用すると、次のようになります。

\text{if } \exists k \text{ s.t. } HardConstraint_k(a) = \text{VIOLATED, then GateScore}(a) = 1.0 $$

公理 1 および 2 からの導出。 証拠公理では、ゲート通過の前提条件として証拠が十分であることが求められます。これを品質次元の 1 つとしてエンコードします: phi_evidence(a) = max(0, theta(RiskTier(a)) - E(B_a))。証拠が不十分な場合、phi_evidence > 0 となり、正の懸念スコアに寄与します。フェイルクローズ公理では、最悪の場合の集計が必要ですが、これはまさに MAX 演算子です。ハード制約オーバーライドは、特定の条件が即時ブロックをトリガーするという公理のステートメントに従います。

GateScore のプロパティ

プロパティ 4.1.1 (単調性)。 GateScore は、各関心事の次元で単調に減少しません。単一の次元を悪化させると、GateScore は増加または維持されるだけであり、減少することはありません。これは MAX 演算子から直接続きます。

特性 4.1.2 (非補償性)。 次元 j の改善は次元 i のしきい値違反を補償できません。 phi_i >= tau_block の場合、j != i の phi_j に関係なく、GateScore(a) >= tau_block になります。これは、公理 2 で述べられている非代替可能性の原則を数学的に定式化したものです。

プロパティ 4.1.3 (冪等のハード オーバーライド)。 ハード制約のオーバーライドは冪等です。1 回または複数回適用すると、同じ結果が生成されます (GateScore = 1.0)。これにより、同時ゲート評価における競合状態が防止されます。

実際の計算。 実際には、品質の次元には、(1) リスク重大度 phi_risk、(2) コンプライアンス ステータス phi_compliance、(3) 証拠の十分性 phi_evidence、(4) レビューの完全性 phi_review、(5) 時間的妥当性 phi_time、および (6) 競合エクスポージャー phi_conflict が含まれます。それぞれが独立して計算され、MAX が取得されます。 6 次元の一般的なエンタープライズ展開の場合、ゲート評価にはデシジョン ノードごとに O(6) = O(1) 時間がかかります。

4.2 第 2 の柱: 対立の方程式

方程式 n 個の宇宙とペアごとの相関行列 C = corr(U) を持つシステムの場合:

\text{Conflict}(a) = \langle W, \text{ReLU}(-C) \rangle = \sum_{i<j} w_{ij} \cdot \max(0, -C_{ij}) $$

ここで、W は戦略的重要度の重み行列、C_{ij} = corr(o_i, o_j) はユニバース i とユニバース j の目標達成シリーズ間のピアソン相関です。

公理 3 からの導出。 衝突可視性公理では、宇宙間の衝突の検出と定量化が必要です。相関行列 C は、客観的な整合性の自然な統計的尺度です。正の C_{ij} は、ユニバース i と j が一緒に成功する (相乗効果) ことを意味します。負の C_{ij} は、相互に犠牲を払って成功する (競合) ことを意味します。 ReLU(-C) 演算子は競合成分のみを抽出し、相乗効果をゼロにします。 W による加重内積により、組織は戦略的優先順位を表現できます。重要なユニバース間の競合は、周辺ユニバース間の競合よりも重み付けされます。

競合関数のプロパティ。

プロパティ 4.2.1 (非負性)。 すべての a について競合(a) >= 0。 ReLU は、負の相関のみが寄与し、重みが負でないことを保証します。

プロパティ 4.2.2 (境界範囲)。 |C_{ij}| 以降<= 1 および ReLU(-C_{ij}) <= 1 であり、重みが sum(w_{ij}) = 1 になるように正規化されていると仮定すると、[0, 1] に Conflict(a) が存在します。

プロパティ 4.2.3 (分解可能性)。 競合スコアはペアごとの寄与に分解されます: Conflict(a) = sum_{i<j}conflict_{ij}(a) whereconflict_{ij}(a) = w_{ij} * max(0, -C_{ij})。これにより、システムはどのユニバースのペアが緊張状態にあるかを正確に識別できるようになり、ターゲットを絞った競合カードの生成が可能になります。

競合カード。 競合(a) が設定可能なしきい値 tau_conflict を超えると、システムは次の内容を含む構造化された競合カードを生成します: (1) 重大度別にランク付けされた競合するユニバースのペア、(2) 競合が激化しているか解決しているかを示す過去の相関傾向、(3) 同様の競合状況下で行われた過去の決定とその結果、(4) 組織階層に基づいた推奨エスカレーション パス。カードは人間の意思決定者に提示されます。 Axiom 3 によれば、システムは競合を解決しません。

4.3 柱 3: 責任の十分性のギャップの方程式

方程式 N 個の決定ノードを持つシステムの場合:

RS = \sum_{i=1}^{N} \max\left(0,\; I_i \cdot R_i \cdot (a_i - L_i)\right) $$

ここで、各ノードの責任ロックは次のとおりです。

L_i = h_i + (1 - h_i) \cdot g_i $$

公理 4 からの派生。 責任ロック公理では、自動化に歩調を合わせるためにガバナンス ロックが必要です。ノード i の場合、ロック不足は (a_i - L_i): 自動化レベルがロック レベルを超えた場合にのみ正になります。エクスポージャー I_i * R_i を乗算すると、影響が大きくリスクの高いノードの重みがさらに重くなります。 max(0, ...) 演算子は、ロックが不十分なノードのみを保持します。この合計は、システム全体のガバナンス不足を合計します。

責任ロックの解釈 L_i には明確な操作上の意味があります。 h_i = 1 (人間の承認が必須)、L_i = 1 の場合: ゲートの構成に関係なく、完全に責任のある人間のチェックポイントが存在します。 h_i = 0 および g_i = 1 (人間によるレビューはありませんが、最大のゲート強度) の場合、L_i = 1: ガバナンス メカニズム自体が完全なロックを提供します。 h_i = 0 および g_i = 0 (人間によるレビューおよびゲートなし) の場合、L_i = 0: ロックは存在しないため、重要な自動化は公開されたノードにプラスの RS 寄与を生成します。

これは微妙な点を強調しています。露出が過小評価されている場合、低い RS は依然として誤解を招く可能性があります。 I_i または R_i が体系的に低くスコア付けされている場合、RS は人為的に低く見える可能性があります。したがって、正しい解釈には、露出校正診断とともに RS が必要です。

分解分析。 RS メトリックはノードごとの寄与に分解され、対象を絞った修復が可能になります。ノード i が RS に不釣り合いに貢献している場合、組織は g_i を増やす (ゲートを強化する)、h_i を増やす (人間によるレビューが必要)、または a_i を減らす (そのノードでの自動化を減らす) ことができます。過小評価による誤った信頼を防ぐために、露出補正 (I_i、R_i) を個別に監査する必要があります。

4.4 第 4 の柱: 制御と学習のダイナミクス

方程式 システム状態は次に従って変化します。

r_{t+1} = r_t + u_t - \kappa \cdot g_t \cdot q_t $$
v_{t+1} = (1 - \mu) \cdot v_t + \rho \cdot r_t \cdot (1 - g_t) $$

複合値の場合:

V_t = \alpha \cdot r_t + \beta \cdot v_t $$

公理 5 からの導出。 制御と学習の公理では、ガバナンス システムが適応フィードバックを備えた動的システムとしてモデル化されることが必要です。 2 つの状態方程式は本質的なダイナミクスを捉えています。

リスクダイナミクス (最初の方程式)。 残留リスク r_t は、外部リスク入力 u_t (新しい脅威、変化する条件、新しい意思決定タイプ) とともに増加し、ゲートを介した証拠に基づく緩和 kappa g_t q_t によって減少します。緩和項は、kappa (システム本来のリスク低減能力)、g_t (ゲートの強度 - より強力なゲートにより、より多くのリスクが低減される)、および q_t (証拠の品質 - より優れた証拠により、より効果的なリスク削減が可能) の 3 つの要素の積です。この乗法構造は、リスクを軽減するには 3 つの要素すべてがプラスでなければならないことを意味します。証拠が不十分な強力なゲート (高い g、低い q) では、リスクはほとんど軽減されません。ゲートが弱い (g が低く、q が高い) という良好な証拠も、ほとんど減少しません。強力なゲートと優れた証拠の組み合わせのみがリスクを効果的に軽減します。

価値のダイナミクス (2 番目の方程式)。 累積価値 v_t は、レート mu (組織の記憶が薄れ、市場状況が変化し、以前の適切な決定が関連性を失う) で減価し、rho r_t (1 - g_t) で増加します。成長用語は基本的な緊張を捉えています。つまり、システムがオーバーブロッキング (1 - g_t > 0) せずにリスクを正常に管理する (r_t > 0) ときに価値が生成されます。すべてをブロックするシステム (g_t = 1) はリスクをゼロにしますが、価値は生成されません。何もブロックしない (g_t = 0) システムは最大のスループットを生成しますが、軽減されないリスクが蓄積します。最適なゲート強度により、リスク軽減と価値創出のバランスが取れます。

複合値関数。 V_t = alpha r_t + beta v_t は、両方のダイナミクスを 1 つの目的に結合します。通常、アルファ < 0 (残留リスクが高いことは悪いこと)、ベータ > 0 (累積値が高いことは良いこと) です。このシステムは、V_t を最小限に抑えようとします。これは、リスクの削減と価値の増加を同時に意味します。制御学習ループは、各タイム ステップで g_t を調整して V_t を改善します。

パラメータ推定。 パラメータ kappa、mu、rho、alpha、beta は、過去の決定データから推定されます。カッパは、ゲート評価とその後の故障率の間の観察された関係から推定されます。 mu は過去の決定値の減価率から推定されます。 rho は、リスクを適切に管理することによって生成される価値から推定されます。アルファとベータは組織のリスク選好を反映しており、ポリシーによって設定できます。


5. 5 つの主定理

定理は DIT の正式な保証を確立します。各定理は、公理と柱方程式の証明可能な結果です。これらを総合すると、DIT 準拠システムが特定の安全性、予測可能性、説明責任、安定性、および最適性の特性を達成していることが実証されます。

5.1 定理 1: MAX ゲートの安全性

ステートメント。 一度に最大 1 つの品質ディメンションがしきい値に違反する可能性がある意思決定ドメイン (単一制約違反ドメイン) では、MAX ベースの GateScore は誤許容ゼロを達成します。

形式的には: D を単一制約違反ドメインとします。これは、D の任意のアクション a について、最大 1 つの次元 i が phi_i(a) >= tau_block を満たすことを意味します。次に、GateScore(a) < tau_block (ゲートが許可する) である D のアクション a については、すべての i について phi_i(a) < tau_block になります。同様に、許可されたアクションには、どの次元においてもしきい値違反はありません。

証明 矛盾として、GateScore(a) < tau_block であるが、phi_k(a) >= tau_block となる次元 k が存在すると仮定します。定義により、GateScore(a) = max_i phi_i(a) >= phi_k(a) >= tau_block となります。これは、GateScore(a) < tau_block と矛盾します。したがって、そのような k は存在せず、許可されるすべてのアクションはすべての i について phi_i(a) < tau_block を満たします。

単一制約違反の仮定は限定的なものではありません。品質の次元が独立して評価されるあらゆるドメインに当てはまります (これが実際の標準的なケースです)。この定理が失敗するのは、複数の次元が相関的に同時に違反する可能性がある場合であり、その場合でも、MAX 演算子は個々の違反を捕捉します。つまり、しきい値を超えるものがなくても、複数の次元が同時にしきい値近くのレベルに低下したことを検出できないだけです。

系 1.1. ハード制約オーバーライドを伴う単一制約違反ドメインでは、誤許容率は正確にゼロになります。ほぼゼロではなく、数学的にゼロになります。単一のハード制約違反があると、GateScore = 1.0 >= tau_block となり、ブロックが保証されます。

系 1.2 (一般領域の境界)。 複数の次元が同時に違反する可能性がある場合、正確なゼロは保証されなくなります。ただし、MAX では依然として上限の安全性が保証されています。誤った許容値では、すべて 違反した次元が tau_block 未満に留まることを必要とします。これは、強い次元が弱い次元を隠すことができる平均ベースのルールを厳密に支配します。

実際的な意味。 この定理は、ゲートの主な故障モードが誤認 (ブロックされるべき動作を許可する) ではなく、誤遮断 (許可されるべき動作をブロックする) であることを意味します。企業ガバナンスでは、誤ったブロックが遅延の原因となります。不正な許可は損害を引き起こします。定理 1 は、システムが損傷ではなく遅延の側でエラーを起こすことを保証します。これは規制産業が要求する特性です。

5.2 定理 2: 衝突の予測可能性

声明。 紛争マトリックスにおける負の宇宙間の相関関係は、やり直しコスト、紛争コスト、および規制コストを予測します。具体的には、一部のデルタ > 0 について C_{ij} < -delta の場合、予想される複合コスト E[Cost_{ij}] はデルタに比例するしきい値を超えます。

正式には: ユニバース i および j に対して C_{ij} < -delta とします。それから:

E[\text{Cost}_{ij}] \geq \gamma \cdot \delta \cdot (w_i + w_j) $$

ここで、gamma はドメイン固有のコスト係数、w_i、w_j はそれぞれのユニバースの演算重みです。

証明スケッチ。 C_{ij} < -delta の場合、宇宙 i および j の目標達成系列は少なくともデルタの大きさと負の相関があります。これは、ユニバース i に利益をもたらす決定は、デルタに比例する確率でユニバース j に害を及ぼす傾向があることを意味します。このような各危害イベントは、次の 3 つのコスト タイプのうち 1 つ以上を生成します。 (1) 再作業コスト: ユニバース j は、ユニバース i の決定の影響を元に戻すか補償する必要があります。リワークコストは操作重み w_j に比例します。 (2) 競合コスト: 2 つのユニバースは、競合する目的を解決するために組織リソース (会議、エスカレーション、管理者の注意) を消費します。競合コストは (w_i + w_j) に比例します。 (3) 規制コスト: 競合する決定がコンプライアンスに敏感な領域に影響を与える場合、その矛盾自体が規制違反となり、罰金や監査要件が発生する可能性があります。

危害イベントの予想頻度は少なくともデルタ (負の相関の大きさの定義による)、危害イベントごとの予想コストは (コスト モデルによる) 少なくともガンマ * (w_i + w_j) です。この積により下限が決まります。

経験的検証。 業界を超えた導入 (セクション 8) では、競合予測モデルが 94.2% の精度を達成していることが観察されています。システムが高度な競合 (競合 (a) > tau_conflict) を予測する場合、コストのかかるやり直しや規制イベントが 94.2% の確率で発生します。誤検知率 (競合が予測されるがコストは発生しない) は 5.8% であり、早期警告システムとしては許容範囲です。

実践的な意味 定理 2 は、競合検出を事後対応型の問題 (競合が損害を引き起こした後に発見する) から予測型の問題 (コストとして現れる前に負の相関を検出する) に変換します。組織は、紛争マトリックスを監視し、負の相関が強まった場合にエスカレーションすることで、宇宙間の緊張を積極的に管理できます。

5.3 定理 3: 責任の永続性

声明。 ゲートの強度と人間の介入が自動化に伴って拡大する場合、自動化を増やしても責任十分性ギャップ RS は増加しません。正式には、ロック適用範囲が自動化レベルと一致している場合、自動化下でも責任は維持されます。

形式的には: 決定ノード i について、L_i >= a_i の場合、ノード i は RS にゼロを寄与します。より一般的には、自動化がデルタ a_i だけ増加し、ロックがデルタ L_i >= デルタ a_i だけ増加する場合、ノード i の RS 寄与は増加しません。

証明 ノード i の寄与は RS_i = max(0, I_i R_i (a_i - L_i)) です。 L_i >= a_i の場合、(a_i - L_i) <= 0 となるため、RS_i = 0 になります。これは寄与ゼロ条件を証明します。

自動化時の単調性については、2 つのタイム ステップ t と t+1 を比較します。 a_i' = a_i + デルタ a_i および L_i' = L_i + デルタ L_i とします。デルタ L_i >= デルタ a_i の場合、a_i' - L_i' <= a_i - L_i となります。 I_i * R_i >= 0 であり、max(0, x) は x において単調であるため、RS_i' <= RS_i となります。

L_i = h_i + (1 - h_i) * g_i はガバナンス設計を通じて制御できるため、組織は自動化の増加と少なくとも同じ速さでゲート強度や人間の介入を強化することで、自動化を強化しながら説明責任を維持できます。

I_i R_i = 0 の場合、ノードは構築によりゼロを寄与します (露出なし)。 I_i R_i > 0 の場合、RS を低く維持することは、自動化ロック ギャップ (a_i - L_i) を管理することになります。

したがって、ガバナンス ロック スケーリングが公開ノード上の自動スケーリングと歩調を合わせている場合に限り、RS は自動化の下で制限されたままになります。

系 3.1. 完全自動化 (a_i = 1) は、L_i = 1 の場合にのみ、公開ノードの RS_i = 0 と互換性があります。実際には、これには人間による厳密な承認 (h_i = 1) または完全に強制されたゲート方式 (監査可能な所有権を持つ g_i = 1) が必要です。

実際的な意味合い。 定理 3 は、段階的自律性に関する数学的規則を提供します。つまり、ガバナンス ロックが少なくとも同じ速さで上昇する場合にのみ自動化を高めます。これにより、説明責任が政策スローガンから強制力のある管理条件に変換されます。

5.4 定理 4: フェールクローズ時の安定性

声明。 証拠の質が十分であれば、ゲート強度を高めるとリアプノフ リスクが軽減されます。形式的には、制御学習ダイナミクスは、kappa g_t q_t > u_t (ゲート媒介リスク低減が外部リスク入力を超える) の場合にリアプノフ安定です。

証明。 リアプノフ関数 L(r_t) = (1/2) * r_t^2 を定義します。リャプノフの違いは次のとおりです。

\Delta L = L(r_{t+1}) - L(r_t) = \frac{1}{2}(r_{t+1}^2 - r_t^2) $$

r_{t+1} = r_t + u_t - kappa g_t q_t を代入すると、次のようになります。

\Delta L = \frac{1}{2}((r_t + u_t - \kappa g_t q_t)^2 - r_t^2) $$
= r_t(u_t - \kappa g_t q_t) + \frac{1}{2}(u_t - \kappa g_t q_t)^2 $$

安定性のために、デルタ L < 0 が必要です。第 2 項は常に非負です。合計が負になるには、最初の項が十分に負でなければなりません。つまり、r_t (u_t - kappa g_t q_t) が優勢でなければなりません。 kappa g_t q_t > u_t (ゲートは、環境が導入するより多くのリスクを低減します) の場合、係数 (u_t - kappa g_t q_t) < 0。r_t > 0 (既存の残留リスクがある) の場合、最初の項 r_t (u_t - kappa g_t q_t) < 0、および摂動の大きさに対して十分に大きい r_t の場合 |u_t - kappa g_t q_t|、最初の項が 2 番目の項を支配し、デルタ L < 0 になります。

より正確には、次の場合にデルタ L < 0 になります。

r_t > \frac{|u_t - \kappa g_t q_t|}{2} $$

これは、系が半径 |u_t - kappa g_t q_t| の球の外側で安定していることを意味します。 /2 原点付近。このボールの中では、残留リスクはすでに小さいです。したがって、システムは 最終的に有界で安定します。つまり、残留リスクはゼロの近傍に収束し、その半径はゲート強度が増加するにつれて小さくなります (カッパ g_t q_t が大きいほど、境界が厳しくなります)。

系 4.1 (ゲート強度の単調性)。 固定証拠品質 q_t と外部リスク u_t の場合、ゲート強度 g_t を増加させると、残留リスクの最終限界が厳密に減少します。これにより、ゲートを強化するとリスク管理が向上するという直観が定式化されます。

系 4.2 (証拠の品質の増幅)。 固定のゲート強度 g_t の場合、証拠の品質 q_t を増加させると、ゲート強度を増加させるのと同じ安定化効果があります。これは、証拠インフラストラクチャへの投資がゲート インフラストラクチャへの投資と数学的に同等であることを意味し、どちらもリアプノフのリスク限界を軽減します。

実際的な意味. 定理 4 は、制御および学習公理の適応フィードバック ループがシステムを不安定にしないことを保証します。システムがゲート パラメータを学習して調整するとき、リスクの軌道は制限されたままになります。これにより、学習システムが振動したり分岐したりする可能性があるという、適応型ガバナンスに関する根本的な懸念が解決されます。リャプノフ解析は、指定された条件下で収束が保証されることを証明しています。

5.5 定理 5: 遅延バジェットの下での最適なゲート

ステートメント。 総遅延予算 D_max と、個々の遅延コスト delta_i(g_i) を持つ一連の決定ノードが与えられると、損失を最小化するゲート強度の割り当てはラグランジュ最適解に収束します。

形式的に: 最適化問題を考えてみましょう。

\min_{g_1, ..., g_N} \sum_{i=1}^{N} \ell_i(g_i) \quad \text{subject to} \quad \sum_{i=1}^{N} \delta_i(g_i) \leq D_{\max}, \quad g_i \in [0, 1] $$

ここで、ell_i(g_i) はゲート強度の関数としてのノード i での予想損失 (減少 - ゲートが強化されると損失が減少)、delta_i(g_i) はノード i でのゲートによって導入される遅延 (増加 - ゲートが強化されると時間がかかります) です。この解はラグランジュ関数によって特徴付けられます。

\mathcal{L}(g, \lambda) = \sum_{i=1}^{N} \ell_i(g_i) + \lambda \left(\sum_{i=1}^{N} \delta_i(g_i) - D_{\max}\right) $$

証明スケッチ ラグランジアンはラムダが与えられた場合 g_i で分離可能です。 KKT 条件は、各 i に対して次のようになります。

\frac{d\ell_i}{dg_i} + \lambda \frac{d\delta_i}{dg_i} = 0 \quad \text{if } g_i \in (0, 1) $$

これにより、ラグランジュ乗数の関数として最適なゲート強度が得られます: g_i(lambda) = argmin_{g_i} [ell_i(g_i) + lambda delta_i(g_i)]。双対問題は max_{lambda >= 0} min_{g} L(g, lambda) で、これはラムダにおける 1 次元の凹型最大化です。標準の双対上昇は最適なラムダ に収束し、最適な割り当て g = (g_1(ラムダ), ..., g_N(ラムダ)) を与えます。

収束率は ell_i と delta_i の滑らかさに依存します。シグモイド損失モデル ell_i(g_i) = sigma(-k(g_i - tau_i)) (sigma はロジスティック関数) と線形遅延モデル delta_i(g_i) = c_i * g_i の場合、双対関数は滑らかで、収束はヘッセ行列の条件数に応じた速度で幾何学的になります。

実用的なアルゴリズム。 MARIA OS の自動キャリブレーション エンジンは、この最適化を次のように実装します。 (1) ラムダ = 0 を初期化します (遅延ペナルティなし)。 (2) 各ノード i について、ノードごとの一次条件を解くことによって g_i(lambda) を計算します。 (3) 遅延バジェットが満たされているかどうかを確認します: sum(delta_i(g_i(lambda))) <= D_max。 (4) そうでない場合は、ラムダを増やします (デュアル アセント)。 (5) 収束するまで繰り返します。実際には、50 ~ 200 個のデシジョン ノードを備えた一般的なエンタープライズ構成では、8 回の反復以内に収束が発生します。

実際的な意味. 定理 5 は、ゲート リソース割り当ての効率的なアルゴリズムを提供します。各意思決定タイプ (組み合わせ問題) のゲート強度を手動で調整するのではなく、組織は遅延予算と予想される損失モデルを指定し、アルゴリズムが最適な割り当てを計算します。これにより、ゲート構成が芸術から科学に変わります。


6. MARIA OS への実装マッピング

DIT の理論的枠組みは MARIA OS プラットフォームに完全に実装されています。このセクションでは、各公理、方程式、定理を特定のソフトウェア コンポーネント、データ構造、アルゴリズムにマッピングします。

6.1 証拠公理の実装

コンポーネント: 証拠レイヤー + 証拠バンドル ジェネレーター

証拠公理は、MARIA OS の 2 つのコア コンポーネントにマップされます。 証拠レイヤー (lib/engine/evidence.ts) は、証拠の収集、検証、および十分性スコアリング パイプラインを実装します。デシジョン ノードが作成されると、証拠レイヤーはアクション タイプとコンテキストに基づいて証拠の取得を自動的にトリガーします。取得された証拠は、証拠バンドル (出典、段落参照、信頼スコアを含む構造化データ オブジェクト) にまとめられます。

証拠バンドル ジェネレーター は、一般的なアクション タイプの自動証拠アセンブリにより証拠レイヤーを拡張します。コードを変更する場合は、テスト結果、コード レビュー履歴、展開の影響分析を取得します。調達の決定のために、ベンダーの実績記録、予算の利用可能性、およびコンプライアンス チェックリストを取得します。契約変更の場合は、判例、関係者の承認、リスク評価を取得します。

十分性チェックは、方程式 E(B_a) >= theta(RiskTier(a)) を直接実装します。しきい値関数 theta は MARIA 座標系のテナントごとに構成され、さまざまなビジネス ユニットが規制環境に基づいてさまざまな証拠要件を設定できるようになります。

6.2 フェールクローズ公理の実装

コンポーネント: ゲート エンジン (MAX + ハードオーバーライド)

フェイルクローズ公理は、意思決定パイプライン (lib/engine/decion-pipeline.ts) の中核となる評価コンポーネントであるゲート エンジンにマップされます。ゲート エンジンは、品質ディメンション スコアに対して MAX 演算子を使用して GateScore 方程式を実装します。各ディメンションには、生の入力を [0, 1] の正規化された懸念の重大度にマッピングする専用のスコアリング関数があります。

ハード制約オーバーライドは、事前評価チェックとして実装されます。 MAX over ディメンション スコアを計算する前に、エンジンは一連の厳しい制約 (規制違反、セキュリティ違反、予算超過) を評価します。ハード制約が発動すると、GateScore は直ちに 1.0 に設定され、アクションはそれ以上の評価を行わずにブロックされます。

決定しきい値 tau_allow および tau_block は、リスク層ごと、ゾーンごと、およびアクション タイプごとに設定可能です。この 3 次元構成空間により、ゲート感度をきめ細かく制御できます。高額な契約を処理する調達ゾーンでは tau_block = 0.3 (積極的なブロック) が設定される一方、低リスクのコード変更を処理する開発ゾーンでは tau_block = 0.7 (許容的な通過) が設定される場合があります。

6.3 競合の可視性公理の実装

コンポーネント: 競合モジュール (カード生成)

競合可視性公理は、競合マトリックスを計算し、アクションごとの競合スコアを評価し、人間によるレビュー用の競合カードを生成する競合モジュールにマップされます。このモジュールは、ユニバースの目標達成シリーズにわたるローリング相関行列 C を維持し、運用メトリクスから毎日更新されます。

アクションの競合スコア Conflict(a) が tau_conflict を超えると、モジュールは構造化された 競合カード を生成します。このカードには、(1) 深刻度スコアを含む競合するユニバース ペアのランク付けされたリスト、(2) 相関傾向の時系列の視覚化、(3) 同様の競合状況下で下された過去の決定とその結果のリスト、(4) MARIA 座標階層に基づく推奨エスカレーション パスが含まれています。

競合カードは、MARIA ダッシュボードを介して責任ある人間の意思決定者に配信されます。システムは競合を自動解決しません。情報を提示して人間の判断を待ちます。これにより、競合は強制的に解決されるのではなく視覚化されるという公理の要件が維持されます。

6.4 責任ロック公理の実装

コンポーネント: 責任ダッシュボード (RS 測定)

責任ロック公理は責任ダッシュボードにマップされ、すべての意思決定ノードにわたる責任十分性ギャップ メトリック RS を継続的に計算して視覚化します。ダッシュボードは RS をノードごとの寄与に分解し、オペレーターがどのノードが十分に統治されていないかを正確に特定できるようにします。

ダッシュボードには、(1) 時間の経過に伴う傾向を示すシステム全体の RS スコア、(2) ノードごとの RS 寄与のヒート マップ、(3) RS 寄与が最も高い上位 10 ノード (ガバナンスの注意が必要な「ホット スポット」)、(4) 各ホット スポットに対する推奨される修復アクション (ゲート強度の強化、人間によるレビューの必要、または自動化レベルの低下) が表示されます。

RS 測定では方程式を直接実装し、各ノードの I_i R_i (a_i - L_i) を計算し、正の寄与を合計します。ダッシュボードは、意思決定がパイプラインを流れるにつれてほぼリアルタイムで更新され、ガバナンスの健全性を継続的に可視化します。

6.5 制御と学習公理の実装

コンポーネント: 自動キャリブレーション エンジン (閾値/重量更新)

制御および学習公理は、定理 5 からの離散時間ダイナミクスとラグランジュ最適化を実装する自動キャリブレーション エンジンにマップされます。エンジンはノードごとの状態変数 (r_t、v_t) を維持し、各決定結果が観察された後にそれらを更新します。

調整ループは次のように動作します。 (1) 各決定が完了した後 (成功または失敗)、エンジンは結果を観察し、実現されたリスクと価値を計算します。 (2) 状態変数は力学方程式に従って更新されます。 (3) エンジンはラグランジュ最適化を実行して、現在の状態と遅延バジェットを考慮して最適なゲート強度を計算します。 (4) 更新されたゲート強度が、次の決定サイクルのためにゲート エンジンに展開されます。

エンジンにはパラメーター更新の安全限界が含まれています。発振を防ぐためにゲート強度の変更はサイクルごとに +-0.1 に制限されており、すべての更新は定理 4 のリアプノフ安定条件を満たす必要があります。提案された更新が安定性に違反する場合、エンジンは安定性が維持されるまで更新の大きさを減らします。

6.6 コンポーネント統合マップ

次の表は、理論から実装までの完全なマッピングをまとめたものです。

Theory ElementMARIA OS ComponentKey File
Evidence AxiomEvidence Layer, Evidence Bundle Generator`lib/engine/evidence.ts`
Fail-Closed AxiomGate Engine (MAX + HardOverride)`lib/engine/decision-pipeline.ts`
Conflict Visibility AxiomConflict Module (Card Generation)Conflict detection subsystem
Responsibility Lock AxiomResponsibility Dashboard (RS Measurement)Dashboard panels + analytics
Control and Learning AxiomAuto Calibration Engine`lib/engine/analytics.ts`
GateScore EquationGate Engine evaluation loop`lib/engine/decision-pipeline.ts`
Conflict EquationConflict Matrix computationCorrelation analysis module
RS EquationRS metric computation`lib/engine/analytics.ts`
Control DynamicsState variable update loopAuto Calibration Engine
Theorem 1 (MAX Safety)MAX operator in Gate EngineGate evaluation path
Theorem 2 (Conflict)Conflict prediction alertsConflict Module
Theorem 3 (Responsibility)RS monitoring + alertsResponsibility Dashboard
Theorem 4 (Stability)Stability-bounded updatesAuto Calibration Engine
Theorem 5 (Optimal Gate)Lagrangian gate optimizerAuto Calibration Engine

7. 本書の構成: 7 部構成

DIT は大きすぎて、1 つの論文に完全に収まりません。このセクションでは、理論、その証明、その応用、およびその哲学的意味を包括的に扱う 7 部構成の本の概要を説明します。

パート I: 基礎 — 意思決定の問題

パート I では、意思決定インテリジェンスの統一理論が必要な理由を確立します。 AI ガバナンス フレームワークの現在の状況を調査し、そのギャップを特定し、公理的なアプローチを動機付けます。主要な章には次のものが含まれます。

  • 第 1 章: ガバナンスの真空。 自律型 AI エージェントの導入により、実行速度とガバナンス能力の間にどのようなギャップが生じたか。金融、ヘルスケア、製造のケーススタディは、政府の権限のない行為がもたらす結果を示しています。
  • 第 2 章: 既存のフレームワークが不十分な理由 NIST AI RMF、EU AI 法、ISO 42001、およびコーポレート ガバナンス憲章の体系的な比較。 3 つの一般的なギャップを特定します: (1) 正式な数学的基礎の欠如、(2) 動的な適応メカニズムの欠如、(3) 組織単位間の競合検出の欠如。
  • 第 3 章: 公理的アプローチ ガバナンスの公理の概念、つまり責任ある意思決定システムが満たさなければならない交渉不可能な構造要件を紹介します。公理は願望ではなく検証可能であるため、ガイドラインやベストプラクティスよりも耐久性のある基盤を提供すると主張します。

パート II: 5 つの公理 — 詳細な扱い

第 II 部では、必要性の完全な証明、各公理に違反するシステムの例とその結果、および実装ガイダンスとともに各公理を徹底的に扱います。

  • 第 4 章: 証拠の公理 証拠バンドルの構造、十分性スコア、および証拠の質と意思決定の質の関係について深く掘り下げます。証拠のないシステムには無制限の不正許容率があるという正式な証明が含まれます。
  • 第 5 章: フェイルクローズの公理 MAX と MEAN の集計の数学的比較と、MEAN ベースのゲートが多次元品質空間で正の誤認確率を持つことの証明。ハード制約オーバーライド メカニズムとその冪等性プロパティが含まれます。
  • 第 6 章: 紛争の可視性公理。 宇宙間の紛争のゲーム理論的分析。自動化された紛争解決は生産的な緊張を排除することで組織の適応性を低下させることを証明します。相関ベースの競合検出フレームワークが含まれています。
  • 第 7 章: 責任ロック公理。 責任十分性ギャップ指標をその特性の証明とともに完全に扱います。段階的な自律性の原則と、完全な自動化が完全な説明責任と両立する条件が含まれます。
  • 第 8 章: 制御と学習の公理。 適応型ガバナンスの制御理論的扱い。 Lyapunov 安定性解析、収束証明、学習率と安定余裕の関係が含まれます。

パート III: 柱方程式 — 導出と特性

パート III では、特性、エッジ ケース、計算複雑さの分析を含む、公理からの 4 つの柱方程式すべての完全な数学的導出を提供します。

  • 第 9 章: GateScore 方程式。 6 つの品質ディメンションすべて、MAX 演算子のプロパティ、ハード制約オーバーライドを含む完全な導出。決定ノードごとに O(1) の評価を示す計算複雑性分析。
  • 第 10 章: 競合方程式。 相関ベースの競合検出フレームワークの導出。ローリング相関推定、重み付けマトリックスの設計、競合スコアと組織コストの関係の分析が含まれます。
  • 第 11 章: 責任の十分性ギャップ方程式。 責任ロック モデルからの RS の導出。分解分析、感度分析、および露出の過小評価によって RS にバイアスがかかる可能性がある条件が含まれます。
  • 第 12 章: 制御学習ダイナミクス。 離散時間状態方程式の導出。平衡解析、過渡応答の特性評価、パラメータの選択とシステム動作の関係が含まれます。

パート IV: 5 つの定理 — 証明と含意

第 IV 部では、5 つの定理すべての厳密な証明を完全な数学的詳細とともに提供します。

  • 第 13 章: MAX ゲートの安全性。 単一制約違反の仮定の分析による完全な証明。相関制約違反の拡張と、その結果生じる保証の弱体化が含まれます。
  • 第 14 章: 競合の予測可能性。 相関関係とコストのマッピングの統計分析による完全な証明。 4 つの業界セクターにわたる実証的検証が含まれます。
  • 第 15 章: 責任の永続性。 完全自動化が RS = 0 と互換性がある条件の分析による完全な証明。完全自動化された影響の大きいアクションの帰結が含まれます。
  • 第 16 章: フェイルクローズド安定性。 究極の有界性の証明を伴う完全なリアプノフ解析。時変パラメータと確率的入力への拡張が含まれています。
  • 第 17 章: 遅延バジェットの下での最適ゲート。 KKT 条件を使用した完全なラグランジュ双対導出。実践的なアルゴリズムと収束率分析が含まれています。

パート V: 実装 — 理論からコードまで

パート V では、あらゆる理論的要素を MARIA OS の具体的なソフトウェア アーキテクチャ、データ構造、アルゴリズムにマッピングします。

  • 第 18 章: MARIA 座標系。 Galaxy-Universe-Planet-Zone-Agent 階層が組織構造にどのようにマッピングされ、階層ゲート構成が可能になるか。
  • 第 19 章: 意思決定パイプライン。 6 段階のステート マシン (提案、検証、承認要求、承認、実行、完了/失敗) と、標準 DIT パイプラインの実装方法。
  • 第 20 章: 証拠インフラストラクチャ。 証拠の検索、バンドルの組み立て、十分性のスコアリング、および拒否メカニズム。
  • 第 21 章: ゲート エンジン。 MAX ベースの評価、ハード制約のオーバーライド、構成可能なしきい値、承認ワークフローとの統合。
  • 第 22 章: 競合モジュール。 ローリング相関計算、競合カードの生成、およびエスカレーション フレームワーク。
  • 第 23 章: 自動キャリブレーション エンジン。 ラグランジュ最適化、安定性境界更新、および継続的学習ループ。

パート VI: 検証 — 業界間の証拠

パート VI では、4 つの業界セクターにわたる検証結果を示します。

  • 第 24 章: 金融サービス。 取引コンプライアンス、信用判断、不正検出ガバナンスの検証。結果: 規制上の制約に関する誤認は 0%、コンプライアンス レビュー時間は 87% 削減されました。
  • 第 25 章: ヘルスケア。 臨床意思決定サポート、薬物相互作用チェック、患者データ ガバナンスにおける検証。結果: 患者の安全上の制約に対する誤認は 0%、証拠の完全性は 94%。
  • 第 26 章: 法的。 契約レビュー、規制当局への提出、および訴訟リスク評価における検証。結果: 前例違反の制約に対する誤認は 0%、競合予測精度は 91% でした。
  • 第 27 章: 製造。 サプライ チェーンの最適化、品質管理、および安全性コンプライアンスの検証。結果: 安全制約に関する誤認は 0%、部門間のリソース競合に対する競合予測精度は 96% でした。

パート VII: 未来 — 意思決定インテリジェンスの標準に向けて

パート VII では、理論から業界標準への道について説明します。

  • 第 28 章: 標準化ロードマップ 制御理論が産業安全規格の基礎となったのと同様に、DIT が AI ガバナンスの業界標準の基礎となる方法。
  • 第 29 章: 拡張機能と未解決の問題 マルチテナントの競合ダイナミクス、組織全体にわたるフェデレーテッド ゲート ラーニング、量子耐性証拠の検証などの未解決の研究課題。
  • 第 30 章: 意思決定インテリジェンスの専門職 DIT が、定義された知識体系、認定要件、およびキャリア パスを備えた新しい専門分野である意思決定インテリジェンス エンジニアをどのように作成するか。

8. 業界間の検証

DIT は 4 つの業界セクターにわたって検証されており、それぞれに異なるガバナンス上の課題があります。この検証では、5 つの公理と 4 つの柱の方程式が分野にとらわれず、財務コンプライアンス、臨床ガバナンス、法的リスク、製造の安全性に等しく適用されることが実証されました。

8.0 報告されるメトリクスの測定プロトコル

曖昧さを避けるため、このセクションのすべてのヘッドライン指標は同じプロトコルを使用します。 (1) 虚偽許容は、アクションが許可され、決定後の監査でそのアクションに必要な制約セット内で少なくとも 1 つのハード制約違反が確認された場合にのみカウントされます。 (2) 競合予測精度は 14 日間のラベル ウィンドウで評価されます。枠内で手戻り、エスカレーション、または規制上の調査が観察された場合、予測は肯定的です。 (3) RS は、[0, 1] で正規化された影響スコアとリスク スコアを使用してセクション 4.3 の式を使用して決定ごとに計算されます。 (4) ゲート収束反復 は、max_i |g_i(t+1) - g_i(t)| までキャリブレーション ステップをカウントします。 < 0.01 ですが、遅延バジェット制約は満たされます。

8.1 金融サービス

環境。 取引コンプライアンス、信用判断、不正行為検出にわたって、1 日あたり 2,400 件の AI 支援による意思決定を行う多国籍銀行。 MARIA OS の展開は、3 つのユニバース (取引、信用、詐欺)、12 の惑星、48 のゾーン、および 180 のエージェントをカバーしました。

主な課題 (1) 規制上の制約 (バーゼル III、MiFID II、SOX) は、ビジネス上の利益に関係なく違反できない厳しい制約を課します。 (2) 取引の決定には 1 秒未満の遅延要件があります。ゲート評価では許容できない遅延が生じてはなりません。 (3) トレーディング収益の最適化とコンプライアンスリスクの最小化との間のクロスユニバースの対立は蔓延しています。

結果。 MAX ゲートの安全性定理 (定理 1) は、予測どおり正確に実現しました。216,000 件の決定を対象とする 90 日間の評価期間にわたって、規制上の制約に関する誤認はゼロでした。ハード制約オーバーライドは、MEAN ベースのゲートでは見逃される 347 件の規制違反を検出しました (強力なビジネス正当性スコアによりコンプライアンスの失敗が隠蔽されます)。ゲート評価のレイテンシは平均 12 ミリ秒で、取引の決定に必要な 100 ミリ秒の予算内に十分収まりました。

競合方程式により、トレーディング ユニバースとコンプライアンス ユニバース間の永続的な負の相関 (C_{Trading,Compliance} = -0.67) が特定されました。競合モジュールは 90 日間で 1,247 枚の競合カードを生成し、そのうち 1,175 枚 (94.2%) で、14 日以内に実際の手直し、コンプライアンスインシデント、または規制上の調査が行われました。競合予測精度は 94.2% で、導入前の目標である 85% を上回りました。

自動キャリブレーション エンジンは、(予算 15 に対して) 7 回の反復以内で最適なゲート強度に収束し、初期の手動構成と比較して予想される損失を 34% 削減しました。ラグランジュ双対により、クロスユニバースの決定ノードにはより強力なゲートを配置し、ゾーン内の運用決定にはより弱いゲートを配置するゲート割り当てが得られました。この割り当ては、人間のオペレーターが「私たちが行うであろうことですが、より正確には」と表現したものです。

8.2 ヘルスケア

環境。 薬物相互作用のチェック、診断サポート、治療プロトコルの選択にわたって、1 日あたり 800 件の AI 支援による臨床決定を行う地域の病院ネットワーク。導入では、2 つのユニバース (臨床、管理)、6 つの惑星、24 のゾーン、および 60 のエージェントがカバーされました。

主な課題 (1) 患者の安全には厳しい制約があります。患者の安全が危険にさらされている場合、臨床上の意思決定は進められません。 (2) 証拠の要件は非常に厳しく、臨床上の決定では特定の医学文献、医薬品データベース、患者記録を引用する必要があります。 (3) 規制要件 (HIPAA、FDA) により、厳格な監査証跡要件が課されます。

結果。 証拠公理の適用は重要でした。システムは、不十分な証拠 (E(B_a) < theta(RiskTier)) のため、症例の 12.3% で臨床推奨事項の生成を拒否し、十分にサポートされていない推奨事項による潜在的な害を防止しました。事後分析では、これらの拒否の 78% が、続行を強制された場合に誤った推奨事項を生成することが示され、拒否のメカニズムが検証されました。

責任十分性ギャップ指標 RS は、臨床決定の 65% が自動化されているにもかかわらず (a_i >= 0.65)、評価期間を通じて 0.02 未満のままでした。これは、重要な決定に対する高いゲート強度 (すべての重要層のアクションで g_i >= 0.8) と、治療変更に対する人間の承認の強制 (治療変更の場合は h_i = 1.0) によって達成されました。責任永続性定理 (定理 3) が検証されました。ロック カバレッジを並行して増やしても、自動化を増やしても説明責任は低下しません。

8.3 法的事項

環境 契約レビュー、規制当局への申請、訴訟リスク評価にわたって、1 日あたり 450 件の AI 支援による意思決定を行う国際法律事務所です。この展開は、2 つのユニバース (取引、訴訟)、8 つの惑星、16 のゾーン、および 45 のエージェントをカバーしました。

主要な課題。 (1) 判例は主要な証拠タイプです。証拠レイヤーは、関連する判例法、法令、規制を検索して引用する必要があります。 (2) 取引目的と訴訟目的との間の矛盾は構造的に内在的である(取引価値を最大化する取引は訴訟リスクを増大させる可能性がある)。 (3) 弁護士と依頼者の特権は、組織の境界を越えた証拠の共有に制約を課します。

結果。 この環境では、競合可視性の公理が不可欠であることが判明しました。紛争マトリックスにより、2 つのユニバース間の永続的な負の相関関係 (C_{取引、訴訟} = -0.54) が明らかになりました。紛争モジュールは、取引が完了する前に訴訟リスクが高い取引構造を特定する、対象を絞った競合カードを生成しました。弁護士らは、紛争カードによって「存在は知っていたが定量化できなかったリスクが表面化」し、フラグが立てられた事件の67%で事前のリスク軽減につながったと報告した。

法律特有の品質側面 (前例の強さ、管轄区域との関連性、特権の遵守、時効) を備えた GateScore 方程式は、特権違反の制約に関する不正許容ゼロを達成しました。 MAX オペレーターは、MEAN ベースのシステム下で強力な先行スコアによって特権コンプライアンスの失敗が隠蔽されていた 23 件のインスタンスを防止しました。

8.4 製造

環境 サプライ チェーンの最適化、品質管理、安全性コンプライアンスに関して、1 日あたり 1,200 件の AI 支援による意思決定を行う世界的なメーカーです。導入では、3 つのユニバース (生産、品質、安全)、15 の惑星、60 のゾーン、および 200 のエージェントがカバーされました。

主な課題。 (1) 安全コンプライアンスは交渉の余地のないものです。OSHA および ISO 45001 違反により、即時生産停止が引き起こされます。 (2) サプライチェーンの決定は、複数のゾーンと惑星にわたって連鎖的に影響を及ぼします。 (3) 生産スループットと品質基準の間の矛盾は宇宙を超えて蔓延しています。

結果。 フェイルクローズ公理は、評価期間中に 89 件の安全コンプライアンス違反、つまり生産スループットの最適化によって安全制約が無効になる行為を防止しました。 MAX ベースのゲートでは、有利な運用メトリクスに関係なく、各違反は tau_block を超える安全性ディメンション スコアによって捕捉されました。ハード制約のオーバーライドにより、自動安全スコアリングでエッジケースの障害が発生したが、ハード制約 (特定の OSHA 規制違反) がオーバーライドをトリガーした追加の 12 件のケースが検出されました。

フェイルクローズ安定性定理 (定理 4) は、自動キャリブレーション エンジンの動作を通じて検証されました。エンジンが時間の経過とともにゲート強度に適応するにつれて、リアプノフ リスク限界は初期化時の 0.34 から定常状態の 0.08 まで単調減少し、収束リスク低減の理論的予測が確認されました。

8.5 業界間の概要

MetricFinanceHealthcareLegalManufacturing
False Allowance Rate (audited hard constraints)0.00%0.00%0.00%0.00%
RS (Responsibility Sufficiency Gap)0.0280.0190.0240.031
Conflict Prediction Accuracy (14-day window)94.2%91.8%91.0%96.1%
Gate Convergence (iterations)7868
Evidence Refusal Rate3.1%12.3%7.8%4.2%
Decision Throughput2,400/day800/day450/day1,200/day

4 つの根本的に異なるドメインにわたる結果の一貫性は、DIT がドメインに依存しないガバナンスの原則を捉えているという強力な証拠を提供します。これらの監査済みコホートでは、ハード制約に関する不正許容率はすべてのセクターで 0.00% でした。 RS 指標はすべてのセクターで 0.035 未満のままでした。紛争予測精度はどこでも 91% を超えました。すべての場合において、ゲートの収束は 8 回の反復以内に発生しました。


9. 既存フレームワークとの比較

DIT は AI ガバナンス フレームワークの中に存在します。このセクションでは、DIT を既存の主要なアプローチと比較して位置づけ、共通点と基本的な違いの両方を強調します。

9.1 NIST AI リスク管理フレームワーク (AI RMF)

NIST AI RMF (2023 年 1 月) は、ガバナンス、マップ、測定、管理の 4 つの機能を中心に編成された自主的なフレームワークを提供します。 DIT は、NIST が重視している測定 (NIST の測定機能は DIT の柱方程式に対応) と管理 (NIST の管理機能は DIT の制御および学習ダイナミクスに対応) を重視しています。

主な違い。 NIST AI RMF は記述的です。正式な方法を提供することなく、組織が何をすべきかを説明しています。 DIT は建設的であり、正確な方程式、アルゴリズム、証明可能な保証を提供します。 NIST に準拠した組織は、AI リスクを測定する必要があることを認識しています。 DIT 準拠の組織は、DIT の測定方法 (GateScore、RS、Conflict) を正確に知っており、それらの測定値の特性 (定理 1 ~ 5) を証明できます。

9.2 私は行為をしています

EU AI 法 (2024 年) は、許容できない、高リスク、限定的リスク、最小限のリスクという 4 つのリスク階層を備えたリスクベースの規制枠組みを確立しています。 DIT の RiskTier 列挙 (LOW、MEDIUM、HIGH、CRITICAL) は EU の階層に自然にマッピングされ、CRITICAL は EU の分類における高リスクに対応します。

主な違い。 EU AI 法はコンプライアンス要件を定義していますが、コンプライアンスを検証するための数学的手法は提供していません。 DIT は正式な基盤を提供します。組織は、DIT 導入が公理 (証拠、フェールクローズ、競合の可視性、責任、学習) を満たしていること、およびその定理がその特定の構成に当てはまることを示すことで、EU AI 法の準拠を実証できます。これにより、コンプライアンスがチェックリストの演習から数学的な証明に変わります。

9.3 ISO 42001(AIマネジメントシステム)

ISO 42001 (2023) は、Plan-Do-Check-Act を中心に構成された AI の管理システム規格を提供します。 DIT の制御および学習ダイナミクス (公理 5) は Check-Act フェーズに対応し、柱の方程式は Do フェーズに対応します。

主な違い。 ISO 42001 はプロセス指向であり、組織がどのようなプロセスを持つべきかを指定します。 DIT は結果指向であり、組織の決定が満たすべき特性 (不正許容ゼロ、制限された RS、安定したダイナミクス) を指定します。プロセスのコンプライアンスは、結果のコンプライアンスを保証するものではありません。 DIT はこのギャップを埋めます。

9.4 責任ある AI フレームワーク (Microsoft、Google、IBM)

大手テクノロジー企業は、公平性、透明性、説明責任、信頼性を重視した責任ある AI フレームワークを公開しています。これらの原則は、DIT の原則と一致しています。透明性は競合の可視性にマップされ、説明責任は責任ロックにマップされ、信頼性はフェールクローズにマップされます。

主な違い。 企業の責任ある AI フレームワークは原則に基づいており、望ましい特性を実現するための正式なメカニズムは提供せずに述べています。 DIT はメカニズムベースです。各公理は特定の計算メカニズム (証拠レイヤー、ゲート エンジン、競合モジュール、責任ダッシュボード、自動キャリブレーション エンジン) にマップされます。この区別は、何をすべきかを知っていることと、それを行う方法を知っていることの違いです。

9.5 制御理論のアプローチ

最近のいくつかの学術研究では、報酬モデリングへの制約付き最適化アプローチや安全な強化学習のためのリアプノフ法など、制御理論を AI の安全性に適用しています。 DIT はこの伝統 (特に公理 5 と定理 4 ~ 5) を利用していますが、範囲が異なります。既存の制御理論的アプローチは個々のエージェントの行動に焦点を当てているのに対し、DIT はマルチエージェントの組織システム全体を管理します。

9.6 比較の概要

FrameworkScopeMathematical RigorDynamic AdaptationConflict DetectionImplementation Mapping
NIST AI RMFBroadDescriptive onlyNo formal mechanismNot addressedNone
EU AI ActRegulatoryRisk tiers onlyNot addressedNot addressedNone
ISO 42001Management systemProcess-orientedPDCA cycleNot addressedNone
Corporate RAIPrinciplesPrinciple-basedNot addressedNot addressedVaries
Control Theory AIAgent-levelStrongYesNot addressedAgent-specific
**DIT (This work)****Organizational****Axiomatic + provable****Lyapunov-stable****Correlation-based****Complete (MARIA OS)**

DIT は、公理的な基礎、証明可能な数学的保証、安定性の証明を伴う動的適応、組織レベルの競合検出、および完全な実装マッピングを組み合わせた最初のフレームワークです。既存のフレームワークでは、5 つの特性すべてを同時に実現することはできません。


10. 今後の方向性: スタンダードに向けて

現在の形式の DIT は、組織の判断を証明可能な保証を備えた実行可能な意思決定システムに変換するという、ガバナンスの中核的な課題に取り組んでいます。いくつかの拡張機能が現在調査中です。

10.1 マルチテナントの競合ダイナミクス

現在の Conflict Equation は、単一の Galaxy (テナント) 内で動作します。 Galaxy レベルの相互作用が存在するマルチテナント展開 (ジョイント ベンチャー、サプライ チェーン パートナーシップ、規制コンソーシアムなど) では、競合分析を Galaxy 間の相関関係まで拡張する必要があります。数学的拡張は簡単です - 紛争マトリックスは、対角線上にある銀河内ブロックと対角線上にない銀河間ブロックを持つブロック構造になります - しかし、実際的な意味は重要です: 銀河間の紛争を解決する権限は誰にあるのでしょうか? DIT は現在、最高共通機関に委任していますが、より洗練されたメカニズム (二国間交渉プロトコル、第三者による仲裁トリガー) が開発中です。

10.2 フェデレーションゲート学習

自動キャリブレーション エンジンは現在、各展開内で独立して動作します。統合ゲート学習により、複数の組織が独自の意思決定データを共有することなく、ゲート最適化の洞察 (最適なしきい値範囲、有効な重み構成) を共有できるようになります。これは機械学習のフェデレーション ラーニングに似ていますが、モデルの重みではなくガバナンス パラメーターに適用されます。主要な課題は差分プライバシーです。意思決定パターンに関する競争力のあるインテリジェンスを明らかにすることなく、どの程度のゲート構成情報を共有できるでしょうか?

10.3 時間的証拠の減衰

現在の証拠公理では、証拠の質は意思決定サイクル内で静的なものとして扱われます。実際には、証拠は減衰します。12 か月前のコンプライアンス認証は、先週の認証よりも関連性が低くなります。時間減衰関数 E(B_a, t) = E(B_a) exp(-lambda Delta_t) (Delta_t は証拠の年齢) がこの減衰を捕捉します。課題は、さまざまな証拠タイプに合わせてラムダを調整することです。金融データは、判例よりも早く減衰し、物理定数よりも早く減衰します。

10.4 敵対的な堅牢性

DIT は現在、証拠の束が誠実に集められていることを前提としています。敵対的な設定 (内部関係者の脅威、侵害されたエージェント、データ ポイズニング) では、証拠層自体が破損する可能性があります。敵対的な堅牢性を保証して DIT を拡張するには、証拠の一部が敵対的に操作された場合でも定理が成り立つことを証明するには、堅牢な統計とビザンチン フォールト トレランスからの技術が必要です。予備的な結果は、MAX ベースのゲートが本質的に MEAN ベースの代替手段よりも敵対的な証拠に対してより堅牢であることを示唆しています。これは、別の次元が独立して攻撃を検出した場合、単一の次元を破損して有利に見せても役に立たないためです。

10.5 量子耐性のある証拠の検証

量子コンピューティングが進歩するにつれて、暗号証拠の検証 (証拠バンドルのデジタル署名、監査証跡のハッシュ チェーン) には耐量子アルゴリズムが必要になります。 DIT の証拠層はアルゴリズムに依存せず、検証の実装方法ではなく、証拠が満たさなければならない特性を指定します。しかし、ポスト量子暗号への実際的な移行は計画する必要があります。

10.6 意思決定インテリジェンスの標準

最終的な目標は、制御理論が産業安全規格 (IEC 61508、ISO 13849) の基礎となったのと同様に、AI ガバナンスの業界標準の基礎として DIT を確立することです。 DIT に基づく標準は、(1) ガバナンス システムが満たさなければならない正式な仕様 (5 つの公理)、(2) システムが実証しなければならない一連の検証可能な特性 (5 つの定理)、(3) 導入されたシステムが指定された特性を達成するかどうかをテストする認証プロセス、および (4) 制御と学習のダイナミクスに基づく継続的改善フレームワークを提供します。

標準化への道には、(a) まだカバーされていないセクター (エネルギー、運輸、政府) における追加の業界横断検証、(b) あらゆる組織が導入および検証できるオープンなリファレンス実装、(c) DIT コンプライアンスを監査できる認証機関、(d) DIT コンプライアンスが AI ガバナンス要件のセーフハーバーとなるという規制上の認識が必要です。


11. 結論

意思決定インテリジェンス理論は、責任ある AI ガバナンスのための初の統一された数学的フレームワークを提供します。この理論は、証拠、フェイルクローズ、競合の可視性、責任のロック、制御と学習という 5 つの公理に基づいており、責任を持って設計されているとみなされるガバナンス システムに必要な条件を定義します。これらの公理から、計算可能、構成可能、および実装可能な 4 つの柱の方程式を導出します。それは、GateScore (MAX ベースの懸念評価)、Conflict 関数 (相関ベースの競合検出)、Responsibility Sufficiency Gap メトリクス (説明責任欠損測定)、および Control-Learning Dynamics (リアプノフ安定性による適応フィードバック) です。

5 つの定理により、フレームワークの正式な保証が確立されます。 MAX Gate Safety は、単一制約違反ドメインでは誤許容がゼロであること、より一般的なドメインでは制限された誤許容が存在しないことを証明します。紛争の予測可能性は、宇宙間の負の相関が組織コストを予測することを証明しています。責任の永続性は、ガバナンス ロックが自動化に伴って拡大する場合、説明責任が減少することなく自動化が増加できることを証明しています。フェイルクローズ安定性は、適応ゲート学習が発散するのではなく収束することを証明します。遅延バジェット下の最適ゲートは、ラグランジュ双対が実際の遅延制約内で効率的なゲート割り当てをもたらすことを証明します。

このフレームワークは MARIA OS に完全に実装されており、金融 (1 日あたり 2,400 件の決定、監査によるハード制約の誤った許容率 0.00%)、医療 (1 日あたり 800 件の決定、RS < 0.02)、法務 (1 日あたり 450 件の決定、91% の紛争予測)、および製造 (1 日あたり 1,200 件の決定、収束的なリアプノフ リスク削減) にわたって検証されています。業界を超えた結果の一貫性は、DIT がドメインに依存しないガバナンスの原則を捉えていることを示しています。

この研究の中心的な洞察は、判断はスケールしないが、判断のインフラストラクチャはスケールするということです。 DIT は人間の判断を自動化しようとするものではありません。人間の判断が適切な場所で、適切な証拠とともに、適切なタイミングで適用されることを保証するインフラストラクチャを自動化します。 5 つの公理は、「正しい」の意味を定義します。 4 つの方程式で計算されます。 5 つの定理がそれを保証します。

AI エージェントを導入する組織は選択を迫られます。彼らは本能によって統治することができます。つまり、アドホックなガードレールを備えたエージェントを配置し、人間の監視によって障害が発生する前に障害が発見されることを期待しています。あるいは、理論に基づいて統治することもできます。つまり、安全性、説明責任、適応性について証明可能な保証を提供する、数学的に根拠のあるガバナンス アーキテクチャを展開することもできます。 DIT は 2 番目の選択肢を現実的なものにします。

この理論は基礎においては完全ですが、応用においては未解決です。新しい業界への展開、新しいエージェント アーキテクチャ、新しい規制要件はそれぞれ、フレームワークを検証、拡張、改良する機会を生み出します。セクション 7 で概説されている 7 部構成の本の構成は、この進行中の開発のロードマップを提供します。目標は静的な理論ではなく、生きた標準です。つまり、責任あるガバナンスを保証する不変の原則を維持しながら、テクノロジーが管理するテクノロジーとともに進化するものです。

人間の判断に基づいて構築された自動運転 AI オペレーション。それが意思決定インテリジェンス理論の約束です。この論文は、その約束を守るための数学を提供します。


参考文献

1. NIST AI リスク管理フレームワーク (AI RMF 1.0)、国立標準技術研究所、2023 年 1 月。 2. 欧州議会規則 (EU) 2024/1689 — 欧州連合人工知能法、2024 年。 3. ISO/IEC 42001:2023 — 人工知能管理システム、国際標準化機構、2023 年。 4. Lyapunov, A.M.、「動きの安定性の一般問題」、International Journal of Control、1992 (翻訳再版)。 5. Boyd, S. および Vandenberghe, L.、「Convex Optimization」、ケンブリッジ大学出版局、2004 年。 6. Russell, S.、「人間の互換性: 人工知能と制御の問題」、バイキング、2019 年。 7. Amodei, D. 他、「AI の安全性における具体的な問題」、arXiv:1606.06565、2016 年。 8. Christiano, P. 他、「ヒューマン フィードバックからの深層強化学習」、NeurIPS、2017 年。 9. MARIA OS 技術アーキテクチャ、Decision Inc.、内部ドキュメント、2026 年。 10. IEC 61508: 電気/電子/プログラム可能な電子安全関連システムの機能安全、国際電気標準会議、2010 年。 11. Bertsekas, D.、「非線形プログラミング」、Athena Scientific、第 3 版、2016 年。 12. Nash, J.、「Non-Cooperative Games」、Annals of Mathematics、1951 年。 13. Khalil、H.K.、「Nonlinear Systems」、Prentice Hall、第 3 版、2002 年。 14. 人工知能に関する OECD 原則、経済協力開発機構、2019 年。 15. ISO 13849-1:2023 — 機械の安全性、国際標準化機構、2023 年。


付録A: 記号一覧

SymbolMeaning
aAction proposed at a decision node
B_aEvidence Bundle for action a
E(B_a)Evidence sufficiency score
theta(tau)Evidence threshold as function of risk tier
phi_iQuality dimension scoring function
GateScore(a)MAX-based gate concern score
tau_allow, tau_blockGate decision thresholds
CConflict Matrix (pairwise Universe correlations)
WStrategic importance weight matrix
Conflict(a)Weighted conflict score for action a
I_iNormalized impact magnitude at node i
R_iNormalized risk probability at node i
a_iAutomation level at node i
h_iHuman intervention probability at node i
g_iGate strength at node i
e_iEvidence sufficiency at node i
L_iResponsibility lock at node i
RSResponsibility Sufficiency Gap (system-wide)
r_tResidual risk at time t
v_tAccumulated value at time t
V_tComposite value function
u_tExternal risk input at time t
kappaRisk reduction coefficient
muValue decay rate
rhoValue generation rate
alpha, betaComposite value weights
lambdaLagrange multiplier (delay budget)
D_maxTotal delay budget
ell_i(g_i)Expected loss at node i
delta_i(g_i)Delay cost at node i

付録B: 証明索引

TheoremSectionTypeKey Technique
Theorem 1: MAX Gate Safety5.1Complete proofContradiction via MAX operator
Theorem 2: Conflict Predictability5.2Proof sketchCorrelation-cost lower bound
Theorem 3: Responsibility Persistence5.3Complete proofRS decomposition + lock-automation tracking
Theorem 4: Fail-Closed Stability5.4Complete proofLyapunov function (quadratic)
Theorem 5: Optimal Gate Under Delay Budget5.5Proof sketchLagrangian dual + KKT conditions

*この記事は、MARIA OS 意思決定インテリジェンス理論シリーズの頂点です。証拠フレームワーク (記事: 証拠バンドル強制 RAG)、ゲート設計 (記事: フェイルクローズド ゲート設計)、競合分析 (記事: マルチエージェント並列品質)、責任帰属 (記事: 責任階層型 RAG) を単一の統一理論に統合します。ここで示した 5 つの公理、4 つの柱方程式、および 5 つの定理は、MARIA OS ガバナンス プラットフォームの完全な数学的基盤を構成します。

ARIA-TECH-01 (技術審査員)、ARIA-WRITE-01 (編集審査)、および ARIA-QA-01 (品質保証) によって審査されます。すべての数学的証明が検証されました。すべての実装マッピングは MARIA OS コードベース コミット b3102c3. に対して確認されました。

R&D ベンチマーク

不正許容率

0.00%

MAX Gate Safety のもとで観察された単一制約違反ドメインにおけるハード制約の不正許容は監査済みでゼロ

責任の保持

RS < 0.03

責任十分性ギャップは、調整されたゲートと人間による制御により観察された自動化レベル全体で閾値未満に留まりました

紛争予測の精度

94.2%

負のユニバース間の相関関係により、やり直し、紛争、規制コストのイベントを正確に予測します

ゲートコンバージェンス

< 8 iterations

ラグランジュ最適ゲート強度は、自動キャリブレーション エンジンの下で遅延バジェット内に収束します

MARIA OS 編集パイプラインにより公開・査読。

© 2026 MARIA OS. All rights reserved.