Use Cases

Technical Deep Dive

Layered theory navigation, phase context switching, model orchestration strategies, and evaluation metrics — for engineers and researchers.

深層分析

Decision Engine OSの階層理論

組織がAIを生き延びるために設計された。

コンテキストに適応する。原則を妥協しない。

組織の優先順位は時間とともに変化する。MARIA OSは自動的に適応する。

17:55
通常
ピーク
月末
ACTIVE
バランス型
throughput
0.30
latency
0.30
human Load
0.25
cost
0.15
深層価値観: 不変
月末モード18:00-23:00
throughput
0.55
latency
0.15
human Load
0.20
cost
0.10
深層価値観: 不変
インシデント対応
throughput
0.15
latency
0.50
human Load
0.30
cost
0.05
深層価値観: 不変

バランス最適化が稼働中。

自分自身を変えることなく、優先順位を変える。

Model Architecture

Fast × Heavy モデルオーケストレーション

モデルは能力ではなく、役割で分離する。

壊れない止められる説明できる

だからこそ、モデルをパワーではなく役割で分離する。

Fastモデル

前処理
前提条件の整理
入力正規化
状態更新
低レイテンシ決定論的交換可能

Heavyモデル

推論
トレードオフ分析
推論生成
反事実シナリオ
高推論抽象化高コスト

決定フロー

スクロール
入力
Fastモデル
状態評価
OK続行
不安定Heavy呼出
Heavyモデル
決定ゲート
自動レビューエスカレート

なぜ分離が「停止」を可能にするのか

賢いモデルは実行しない

高速モデルは判断しない

権限はモデルの外に存在する

人間ゲートは強制される

どちらのモデルにも実行権限はない。

モデルアーキテクチャではなく、制御アーキテクチャ。

PERFORMANCE METRICS

Decision OSをどう測定するか

実行すべきでない決定を確実に止められるか?

評価軸
MARIA
一般的
停止リコール
高い
未定義
誤実行率
最小
対象外
決定安定性
定量化
属人的
説明可能性の堅牢性
監査対応
ブラックボックス
決定移転可能性
構造化
属人的

なぜMARIA OSは止められるのか

前提条件は揃っているか?
決定は安定しているか?
影響は大きいか?
哲学と整合しているか?
説明可能か?

仕様シート

単位ステートマシン
停止多層構造
人間ロールゲート
監査自動証跡

決定を実行すべきかどうかを制御するOS。

TECHNICAL DEEP DIVE

制御ロジックと実装設計

ML評価ではなく — 制御システム工学

5つの独立した評価レイヤー

前提整合性
completeness < threshold → STOP

判断に必要なすべての前提が整っており、矛盾がないことを検証する。

premise_completeness_ratepremise_conflict_flagpremise_drift_distance

ステートマシン制御

1// State Machine - Decision Control
2enum DecisionState {
3 AUTO_EXECUTE, // Full automation
4 HUMAN_REVIEW, // Requires human check
5 CEO_REVIEW, // Escalate to CEO
6 BOARD_REVIEW, // Board-level decision
7 STOP // Halt execution
8}
9
10// Models have NO execution authority
11// Only OS layer manages state transitions
12function evaluateDecision(context: Context): DecisionState {
13 const premise = checkPremiseConsistency(context);
14 const stability = checkDecisionStability(context);
15 const impact = checkImpactIrreversibility(context);
16 const philosophy = checkPhilosophyDeviation(context);
17 const explain = checkExplainability(context);
18

Fast / Heavy 分離

高速

前提整理、状態更新、決定論的

重量級

深層推論、オンデマンド、高コスト

どちらのモデルにも実行権限はない。

決定を壊さないための制御OS。

再現可能
測定可能
比較可能
The Core of MARIA OS

From Judgment to Scalable Autonomy

AI is already autonomous.

The question is: can your organization trust it?

What organizations face today:

Decisions become black boxes
Exceptions depend on individuals
Ops cannot be replicated
Responsibility blurs at scale

Not an AI problem.
The absence of structured judgment.

Not about making AI smarter.

It is not "a platform to optimize AI agents."

1

Condense judgment into structures

2

Transplant into an operating system

3

Scale safely through autonomous agents

That is the essence of MARIA OS.

Autonomy scales.
Responsibility does not.

Up to 10,000 AI agents per organization. But execution only scales.

Decision points

→ Decision Axis

Approvals

→ Responsibility Gates

Human decisions

→ "human-sized"

Execution scales.
Responsibility stays human-sized.

AI operations run without exhaustion, without breaking, with full replicability.

Universe Builder creates
replicable AI orgs.

Not just a group of agents.

Universe =

Complete operational unit: judgment, responsibility, optimization, approval.

Universe Builder flow:

ReqDesignAgentsGatesValidDeploy

Once working, replicate across departments and environments.

HITL is not a fallback.
A collaboration point.

Not a mechanism to compensate for AI failure.

Designed from the start:

Which decisions need human
Why human is needed
Which role handles it
What they see/decide

Meaningful decisions

Quality assurance

Learning assets

AI and humans collaborate, not compete.

Why traditional approaches fail

AspectTraditionalMARIA OS
JudgmentImplicitExplicit Decision
ResponsibilityPerson-dep.Gates
OptimizationEverythingSurface only
ValuesDocumentsConstraints
ReuseDifficultPer-Universe
AuditAfter factAlways on
ScaleChaoticStable

How organizations transform

Before

More AI = More anxiety
Judgment person-dependent
Ops not reproducible

After

More AI = More stability
Judgment in structure
Universes replicable

Not an improvement.
A transformation.

Summary

MARIA OS — What is it?

Elevates judgment to OS

Locks values as constraints

Scales autonomy safely

Human-AI collaboration

MARIA OS is a

Decision Engine OS

Does not automate judgment.

Makes it scalable, governable, reusable.