GitHub Actions · 29種のゲートタイプ · デフォルトFail-Closed

AIが不正できない品質ゲート

AIエージェントがコードとテストの両方を書く時代 — LLMは見える指標に最適化します。「カバレッジ80%を達成せよ」と指示されたAIは、品質を証明しない空のテストで80.1%をぴったり達成します。Evidence GateのBlind Gatesは判定基準そのものを隠すことで、AIによる指標の不正を構造的に不可能にします。

.github/workflows/ci.yml
# Add quality gates in 3 lines
- uses: evidence-gate/evidence-gate-action@v1
  with:
    gate_type: "test_coverage"
    phase_id: "testing"
    evidence_files: "coverage.json"

仕組み

3ステップでプルリクエストに品質を強制

1

定義

ワークフローYAMLにEvidence Gateを追加します。ゲートタイプ、エビデンスファイル、閾値を指定します。

2

評価

ゲートがエビデンスファイルを自動検証します — ファイルの存在、スキーマ、閾値、整合性をチェックします。

3

強制

フェイルクローズド: 品質違反があるとパイプラインが停止します。結果はPRサマリーとワークフローアノテーションに表示されます。

Blind Gates: AIエージェントに判定基準を隠す理由

LLMがコードとテストの両方を書く時代 — 見える閾値は品質基準ではなく、最適化の標的になります

Traditional Gate CI Pipeline GATE 80% coverage (visible) 80.1 AI agent reads threshold LLM generates hollow tests targeting exactly 80.1% vs Blind Gate CI Pipeline GATE PASS or FAIL AI agent cannot see criteria × LLM cannot game what it cannot see

問題: 従来のCIゲートは閾値をワークフローYAMLに公開しています。AIコーディングエージェント(Copilot、Cursor、Devinなど)は「CIを通せ」と指示されるとこの閾値を読み取り、80.1%にちょうど到達する空のテストを生成します — メトリクスを満たしつつ、品質については何も証明しません。

解決策: Blind Gatesは、パイプラインにもリポジトリにもAIエージェントにも公開されない基準でエビデンスを評価します。コードを生成したLLMは、合否の閾値を見ることも、リバースエンジニアリングすることも、最適化の対象にすることもできません。品質は本物でなければなりません。

仕組み: パイプラインがエビデンスファイルを提出します。Evidence Gate APIがチーム設定のプライベート基準で評価します。パイプライン — そしてそれを操作するAIエージェント — が受け取るのは合格か不合格のみ。基準そのものは決して公開されません。

AIガバナンスのための設計

Evidence Gateの設計は、日本のAI事業者ガイドラインの原則に沿っています

フェイルクローズド安全性

すべてのゲートはデフォルトでFAILです。明示的に検証されたエビデンスのみがPASSを獲得します。ガイドラインが重視する安全性とリスク防止をサポートします。

透明性と信頼レベル

現地現物信頼レベル(L1–L4)により、エビデンスの信頼性を明確にします。SHA-256エビデンスチェーンにより、すべての判断データの整合性を検証できます。

セキュリティと説明責任

AWS KMS暗号化(FIPS 140-2準拠)、HMAC署名カーソル、成熟度レベルベースの品質状態モデルにより、すべてのステップで監査可能なガバナンスを提供します。

Evidence Gateは、透明性、安全性、説明責任を含む主要原則に沿った実践をサポートします。私たちのアプローチについて詳しく →

本製品はいかなる政府機関の推奨や提携を受けたものではありません。機能説明は情報提供のみを目的としており、コンプライアンス認証を構成するものではありません。

エージェントガバナンスエコシステム

CI検証からランタイム制御まで — 3層の防御

CIレイヤー

evidence-gate-action GitHub Actions

ビルド時の品質ゲート — デプロイ前にブループリント、ポリシー、SBOM、来歴を検証

インフラレイヤー

nemoclaw-governance Python CLI & Library

NVIDIA NemoClawのblueprint.yamlとOpenShellサンドボックスポリシーをデプロイ前に検証

ランタイムレイヤー

agentgov Proxy + SDK

AIエージェント運用のためのランタイムコスト制御、予算管理、ネットワークガバナンス

evidence-gate-action

NemoClawブループリントとポリシー検証を含む29種のゲートタイプ。フェイルクローズド、改ざん防止CIゲート。

GitHubで見る →

nemoclaw-governance

NVIDIA NemoClaw設定検証用のCLIおよびPythonライブラリ。pip install nemoclaw-governance

GitHubで見る →

agentgov

AIエージェント向けコスト対応ガバナンスプロキシ。予算管理、hold/settle課金、ストリーミング制御。

GitHubで見る →

なぜ3層なのか? NemoClawはサンドボックス分離を提供しますが、コスト制御はありません。agentgovがランタイム予算管理を追加します。Evidence GateはCI時にすべてを検証します — コードが本番に到達する前に。

シンプルで透明な料金体系

無料で始めて、チームの成長に合わせてアップグレード

機能 Free($0/月) Pro(お問い合わせ) Enterprise(お問い合わせ)
月間評価回数 100 無制限
月間APIコール数 1,000 無制限
全29種のゲートタイプ
SARIF出力
GitHub Check Runs
SHA-256整合性ハッシュ
フェイルクローズドエラー処理
3つの適用モード(warn / observe / enforce)
設定ファイル(.evidencegate.yml) — 必須入力なし
SBOMゲート(CycloneDX/SPDX構造検証)
来歴ゲート(SLSAビルド証明)
NemoClawゲート(ブループリント + ポリシー検証)
シグナルソートJob Summary(Critical > Warning > Info)
AIエージェント修復コントラクト(retry_prompt出力)
ゲートプリセット
スティッキーPRコメント
Blind Gate評価
エビデンスチェーン検証(L4)
品質状態トラッキング
改善ワークフロー
エビデンス不足検出 + 推奨アクション
セルフホストデプロイ
カスタムAPIベースURL
専用サポート
無料で始める 営業に問い合わせ

5分で導入完了

3つの簡単なステップでGitHub Actionsに品質ゲートを追加

1 Marketplaceからインストール

Evidence Gate Marketplaceページにアクセスし、「Use latest version」をクリックしてリポジトリにアクションを追加します。

2 ワークフローに追加

GitHub ActionsワークフローファイルにEvidence Gateステップを追加します:

name: Quality Gate
on: [pull_request]

permissions:
  contents: read
  checks: write

jobs:
  evaluate:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v4

      # Your build & test steps here...

      - name: Evidence Gate
        uses: evidence-gate/evidence-gate-action@v1
        with:
          # Or use .evidencegate.yml config file for zero required inputs
          gate_type: "test_coverage"
          phase_id: "testing"
          evidence_files: "coverage.json"

3 PRで結果を確認

Evidence Gateは詳細なサマリーをGITHUB_STEP_SUMMARYに書き込み、プルリクエストのワークフロー実行から直接確認できます。ゲートの合否結果、エビデンスハッシュ、閾値評価が自動的に表示されます — 設定は不要です。