ユースケース

技術的ディープダイブ

階層理論ナビゲーション、フェーズコンテキスト切替、モデルオーケストレーション戦略、評価メトリクス — エンジニアと研究者のために。

深層分析

Decision Engine OSの階層理論

組織がAIを生き延びるために設計された。

コンテキストに適応する。原則を妥協しない。

組織の優先順位は時間とともに変化する。MARIA OSは自動的に適応する。

17:55
通常
ピーク
月末
ACTIVE
バランス型
throughput
0.30
latency
0.30
human Load
0.25
cost
0.15
深層価値観: 不変
月末モード18:00-23:00
throughput
0.55
latency
0.15
human Load
0.20
cost
0.10
深層価値観: 不変
インシデント対応
throughput
0.15
latency
0.50
human Load
0.30
cost
0.05
深層価値観: 不変

バランス最適化が稼働中。

自分自身を変えることなく、優先順位を変える。

Model Architecture

Fast × Heavy モデルオーケストレーション

モデルは能力ではなく、役割で分離する。

壊れない止められる説明できる

だからこそ、モデルをパワーではなく役割で分離する。

Fastモデル

前処理
前提条件の整理
入力正規化
状態更新
低レイテンシ決定論的交換可能

Heavyモデル

推論
トレードオフ分析
推論生成
反事実シナリオ
高推論抽象化高コスト

決定フロー

スクロール
入力
Fastモデル
状態評価
OK続行
不安定Heavy呼出
Heavyモデル
決定ゲート
自動レビューエスカレート

なぜ分離が「停止」を可能にするのか

賢いモデルは実行しない

高速モデルは判断しない

権限はモデルの外に存在する

人間ゲートは強制される

どちらのモデルにも実行権限はない。

モデルアーキテクチャではなく、制御アーキテクチャ。

PERFORMANCE METRICS

Decision OSをどう測定するか

実行すべきでない決定を確実に止められるか?

評価軸
MARIA
一般的
停止リコール
高い
未定義
誤実行率
最小
対象外
決定安定性
定量化
属人的
説明可能性の堅牢性
監査対応
ブラックボックス
決定移転可能性
構造化
属人的

なぜMARIA OSは止められるのか

前提条件は揃っているか?
決定は安定しているか?
影響は大きいか?
哲学と整合しているか?
説明可能か?

仕様シート

単位ステートマシン
停止多層構造
人間ロールゲート
監査自動証跡

決定を実行すべきかどうかを制御するOS。

TECHNICAL DEEP DIVE

制御ロジックと実装設計

ML評価ではなく — 制御システム工学

5つの独立した評価レイヤー

前提整合性
completeness < threshold → STOP

判断に必要なすべての前提が整っており、矛盾がないことを検証する。

premise_completeness_ratepremise_conflict_flagpremise_drift_distance

ステートマシン制御

1// State Machine - Decision Control
2enum DecisionState {
3 AUTO_EXECUTE, // Full automation
4 HUMAN_REVIEW, // Requires human check
5 CEO_REVIEW, // Escalate to CEO
6 BOARD_REVIEW, // Board-level decision
7 STOP // Halt execution
8}
9
10// Models have NO execution authority
11// Only OS layer manages state transitions
12function evaluateDecision(context: Context): DecisionState {
13 const premise = checkPremiseConsistency(context);
14 const stability = checkDecisionStability(context);
15 const impact = checkImpactIrreversibility(context);
16 const philosophy = checkPhilosophyDeviation(context);
17 const explain = checkExplainability(context);
18

Fast / Heavy 分離

高速

前提整理、状態更新、決定論的

重量級

深層推論、オンデマンド、高コスト

どちらのモデルにも実行権限はない。

決定を壊さないための制御OS。

再現可能
測定可能
比較可能
MARIA OS の核心

判断からスケーラブルな自律性へ

AIはすでに自律的です。

問題は:あなたの組織はそれを信頼できますか?

組織が今日直面していること:

意思決定がブラックボックス化する
例外処理が個人に依存する
業務が再現できない
責任がスケール時に曖昧になる

AIの問題ではありません。
構造化された判断の欠如です。

AIをより賢くすることではありません。

「AIエージェントを最適化するプラットフォーム」ではありません。

1

判断を凝縮して構造化する

2

OSに移植する

3

自律エージェントで安全にスケール

これがMARIA OSの本質です。

自律性はスケールする。
責任はスケールしない。

組織あたり最大10,000のAIエージェント。しかし実行だけがスケールする。

意思決定ポイント

→ 決定軸

承認

→ 責任ゲート

人間の判断

→「人間サイズ」

実行はスケールする。
責任は人間サイズのまま。

AI業務は疲弊せず、破綻せず、完全に再現可能に稼働します。

Universe Builderが作る
再現可能なAI組織。

単なるエージェントの集まりではありません。

Universe =

完全な業務単位:判断、責任、最適化、承認。

Universe Builderのフロー:

要件設計エージェントゲート検証デプロイ

一度動けば、部門や環境を越えて複製できます。

HITLはフォールバックではない。
コラボレーションポイントです。

AIの失敗を補うための仕組みではありません。

最初から設計されている:

どの判断に人間が必要か
なぜ人間が必要か
どの役割が担当するか
何を見て何を決めるか

意味のある判断

品質保証

学習資産

AIと人間は競い合うのではなく、協働する。

従来のアプローチが失敗する理由

項目従来型MARIA OS
判断暗黙的明示的な決定
責任個人依存ゲート
最適化すべて表面のみ
価値観ドキュメント制約
再利用困難ユニバース単位
監査事後常時稼働
スケール混沌安定

組織はどう変革するのか

導入前

AI増加 = 不安増大
判断が個人に依存
業務が再現不可能

導入後

AI増加 = 安定性向上
判断が構造に組み込まれる
ユニバースが複製可能

改善ではありません。
変革です。

まとめ

MARIA OSとは?

判断をOSに昇華

価値観を制約として固定

自律性を安全にスケール

人間とAIの協働

MARIA OS

意思決定エンジンOS

判断を自動化するのではありません。

判断をスケーラブルに、統治可能に、再利用可能にします。