# KeeperAI

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2FfP4pWT0gutvpad6rtOBJ%2Fimage.png?alt=media&#x26;token=59703750-9468-4b0f-8640-7d3c12fafe33" alt=""><figcaption></figcaption></figure>

## 概要

KeeperAIは、エージェント型AIによる脅威検知システムで、KeeperPAMの特権セッションを自動的に監視・分析し、不審または悪意のある行動を特定します。このシステムはソブリンAIフレームワークを基盤として構築されており、すべての分析をゲートウェイレベルで実行します。入力される各コマンドをリアルタイムで解析し、後で確認できるよう暗号化されたセッション要約を生成します。これにより、セキュリティチームはアクティブな特権セッション中に潜在的な脅威を迅速に検知できます。

動画 (英語)

{% embed url="<https://vimeo.com/1143898222?fe=sh&fl=pl>" %}
KeeperAIによる特権セッションの脅威検知
{% endembed %}

KeeperAI製品ページは[こちら](https://www.keepersecurity.com/ja_JP/features/keeper-ai/)

## 主な機能

* **自動セッション分析**: セッションメタデータ、キーストロークログ、コマンド実行ログを分析し、異常な挙動を検出
* **セッションの検索機能**: セッション全体を対象に、特定のキーワードや操作を検索
* **脅威分類**: 検出した脅威を自動的にカテゴリ分けし、リスクレベルを割り当て
* **柔軟なデプロイ**: サードパーティ、クラウド環境、オンプレミスでのLLM推論に対応
* **構成のカスタマイズ**: 環境に合わせてリスクパラメータや検出ルールを調整可能

## 対応プロトコル

**現在対応済み**

* SSH

**近日対応予定**

* データベースプロトコル (MySQL/PostgreSQL)
* RDP
* VNC
* RBI

## セットアップ手順

* Keeperゲートウェイの最新バージョン (1.7.0以降) をインストールします。
* LLM推論サービス (クラウドまたはセルフホスト) へのアクセスを確保します。
* Keeperゲートウェイのデプロイ環境でLLMプロバイダを有効化します。
* KeeperAIを利用できるようにPAM構成を設定します。
* 対象リソースでKeeperAIを有効化します。

[以下に記載の手順](#llmpurobaidanosettoappu)に従って、使用するLLMプロバイダーに合わせてKeeperゲートウェイをセットアップします。

***

## PAM構成の設定

1. **\[Keeperシークレットマネージャー]** タブの **\[PAM構成]** に移動します。
2. 対象のリソースを選択し、KeeperAI機能セクションまでスクロールします。
3. 設定を切り替えて有効化します。

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2FhXcdnwKHUpBPPr8AtAZj%2Fimage.png?alt=media&#x26;token=4847cd1c-8c25-4d62-bd55-78c91efcaf18" alt=""><figcaption></figcaption></figure>

***

## リソースでの脅威検知の有効化

1. 選択したリソースのPAM設定を編集します。
2. **\[接続]** タブに移動します。
3. **セッション録画**のすべてのオプションを有効化します。

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2Fei7TehIngMlXThPrutdQ%2Fimage.png?alt=media&#x26;token=c93fff02-e2b0-4ee1-ac10-6da26ac7d04a" alt=""><figcaption></figcaption></figure>

4. **\[KeeperAI]** タブへ移動し、**\[KeeperAIを有効にする]** のトグルボタンをオンにします。

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2FDPQno5nj2f9CnscSG0mr%2Fimage.png?alt=media&#x26;token=ad414c97-7250-41d6-8581-f321521be79e" alt=""><figcaption></figcaption></figure>

デフォルトでは、KeeperAIによりコマンドは自動的に分類され、適切なリスクレベルカテゴリに割り当てられます。

より強力な制御を行うには、特定のリスクレベルに対して **\[セッションを終了]** を有効化できます。有効化すると、そのレベルに分類されたコマンドが実行された時点でセッションが即座に終了します。

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2Fdx1myuLVbZDEAqxjU0UD%2Fimage.png?alt=media&#x26;token=1fbed50b-d7bb-4e4c-90db-d722aecb3cf7" alt=""><figcaption></figcaption></figure>

### KeeperAIの例外設定とカスタムルール

**\[例外]** ポップアップを使用して、特定のキーワードやパターンの分類方法をカスタマイズできます。ドロップダウン例から追加するか、プレーンテキストまたは正規表現 (regex) を入力して設定できます。

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2FuuD2lcqsjwwLYHWdYtX5%2Fimage.png?alt=media&#x26;token=b4b5b736-f5e2-4dd6-9b60-d0ef248b0c5c" alt=""><figcaption></figcaption></figure>

***

### セッション要約の確認

各セッション記録にはKeeperAIによるAI生成の要約が付与され、セキュリティチームがユーザーの操作内容を効率的に確認・把握できます。要約を確認するには、監視対象リソースのオプションメニューを開き、**\[セッションアクティビティ]** を選択します。

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2FXrGDEwE0YPl5LpqQJyZV%2Fimage.png?alt=media&#x26;token=f3eb1d1f-4939-42f0-92f3-07b83bef06bf" alt=""><figcaption></figcaption></figure>

* **分析を開く:** セッション行をクリックすると **\[セッション分析]** ポップアップが開き、実行された各コマンドの詳細な要約が表示されます。
* **再生:** **\[再生]** ボタンをクリックすると、セッション全体の記録をリアルタイムで閲覧できます。
* **ダウンロード:** **\[ダウンロード]** ボタンを使用すると、セッション記録ファイルをローカルに保存し、オフラインで確認できます。

{% hint style="warning" %}
セッション記録ファイルをローカルにダウンロードする場合、これらのファイルは暗号化されておらず、機密情報を含んでいる可能性がありますのでご留意ください。組織のデータ保護ポリシーに従って、安全に保管・取り扱うようにしてください。
{% endhint %}

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2Fk4RVdKJ1kdCCBWLsvusq%2Fimage.png?alt=media&#x26;token=b0a51ec5-1a93-4e71-a504-517a50a483ac" alt=""><figcaption></figcaption></figure>

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2Flx4BsNt0RWCVAAeeygKD%2Fimage.png?alt=media&#x26;token=9a8e41ab-afed-4107-8888-3d39811ba43d" alt=""><figcaption></figcaption></figure>

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2FlW3rZ1omKqa37bjX7TDX%2Fimage.png?alt=media&#x26;token=0d5871ca-3052-44d1-ab03-655b80c424c9" alt=""><figcaption></figcaption></figure>

***

### 注意事項

* デフォルトでは、AIがコマンドをできる限り適切なリスクレベルカテゴリに分類します。
* 特定のリスクレベルで分類されたコマンドをトリガーにセッションを終了させたい場合は、そのリスクレベルに対して **\[セッションを終了]** を有効化してください。
* 特定のパターンマッチングキーワードがある場合は、**\[例外]** ポップアップを開いて、リスクレベルの分類や検知ポリシーをカスタマイズできます。

### リスク分類

KeeperAIでは脅威検知のためにコマンドは以下のリスクレベルに分類されます。

* **重大:** 即時対応が必要な深刻なセキュリティ脅威
* **高:** 速やかに対処すべき重要なセキュリティ上の懸念
* **中:** 監視が必要となる潜在的なセキュリティ問題
* **低:** 監視不要の通常または無害な動作

***

## LLM連携

### 概要

KeeperAIでは、大規模言語モデル (LLM) を活用して脅威検出機能を強化しています。Keeperゲートウェイは、任意のLLMと連携してセッションデータを分析し、高度なセキュリティ分析結果を生成します。この統合は、KeeperAIが不審なパターンを検出し、詳細なセッション要約を作成するための重要な基盤となっています。

{% hint style="warning" %}
免責事項

AIによる予測は本質的に確率的なものであり、常に正確であるとは限りません。使用するLLMプロバイダおよびモデルの選択はユーザーの裁量によるものであり、KeeperAIはAIがタスクを完全に理解し、正しく解釈することを保証するものではありません。

ユーザーは、AIの出力結果を鵜呑みにせず、意思決定プロセスの一環として慎重に確認・検証することを推奨します。
{% endhint %}

### LLMプロバイダのセットアップ

KeeperAIは複数のLLMプロバイダーと連携できるよう設計されており、柔軟なデプロイが可能です。セルフホスト型およびクラウド型のLLMの両方に対応しています。LLMプロバイダーに関してご不明点や詳細情報をご希望でしたら、<pam@keepersecurity.com> へお問い合わせください。

#### Dockerインストール方法

<details>

<summary>OpenAI-Compatible API</summary>

OpenAIの `/chat/completions` エンドポイント形式に準拠したリクエスト/レスポンス形式を実装している**あらゆるAPIプロバイダ**に対応しています。

**構成**

1. まず、ゲートウェイにLLMサービスへアクセスするための適切な権限が付与されていることを確認してください。
2. 次に、Docker Composeファイル内のゲートウェイサービスに、以下の環境変数を設定します。

```yaml
environment:
  KEEPER_GATEWAY_AI_LLM_PROVIDER: "openai-generic"
  KEEPER_GATEWAY_AI_BASE_URL: "<your-base-url>"
  KEEPER_GATEWAY_AI_API_KEY: "<your-api-key>"
  KEEPER_GATEWAY_AI_MODEL: "<your-model-id>"
```

{% hint style="info" %}
`KEEPER_GATEWAY_AI_BASE_URL` には、有効なプロトコル接頭辞(`http://` または `https://`)を含める必要があります。プロトコルが含まれていない場合、Keeperゲートウェイの起動時に構成エラーが発生します。

例

✅ `https://your-llm-provider.com/v1`\
❌ `your-llm-provider.com/v1`
{% endhint %}

利用できるプロバイダの例 (一部抜粋)

<table><thead><tr><th>推論プロバイダ</th><th>資料</th><th><select multiple><option value="w4jLAzOQY09S" label="Saas" color="blue"></option><option value="N1Wpp7FTQhei" label="セルフホスト" color="blue"></option></select></th></tr></thead><tbody><tr><td>Ask Sage</td><td><a href="https://www.asksage.ai/">Ask Sage</a></td><td><span data-option="w4jLAzOQY09S">Saas, </span><span data-option="N1Wpp7FTQhei">セルフホスト</span></td></tr><tr><td>Azure AI Foundry</td><td><a href="https://ai.azure.com/">Azure AI Foundry</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Cohere</td><td><a href="https://docs.cohere.com/v2/docs/compatibility-api">Cohere</a></td><td><span data-option="w4jLAzOQY09S">Saas, </span><span data-option="N1Wpp7FTQhei">セルフホスト</span></td></tr><tr><td>Cerebras</td><td><a href="https://inference-docs.cerebras.ai/resources/openai">Cerebras</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Fireworks AI</td><td><a href="https://docs.fireworks.ai/tools-sdks/openai-compatibility">Fireworks AI</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Featherless AI</td><td><a href="https://featherless.ai/docs/quickstart-guide">Featherless AI</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Groq</td><td><a href="https://groq.com/">Groq</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Grok</td><td><a href="https://docs.x.ai/docs/api-reference#chat-completions">Grok</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Hyperbolic</td><td><a href="https://docs.hyperbolic.xyz/docs/inference-api">Hyperbolic</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Hugging Face</td><td><a href="https://huggingface.co/inference-endpoints/dedicated">Hugging Face</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Keywords AI</td><td><a href="https://www.keywordsai.co/">Keywords AI</a></td><td><span data-option="w4jLAzOQY09S">Saas, </span><span data-option="N1Wpp7FTQhei">セルフホスト</span></td></tr><tr><td>LitelLLM</td><td><a href="https://www.litellm.ai/">LiteLLM</a></td><td><span data-option="w4jLAzOQY09S">Saas, </span><span data-option="N1Wpp7FTQhei">セルフホスト</span></td></tr><tr><td>LM Studio</td><td><a href="https://lmstudio.ai/docs">LM Studio</a></td><td><span data-option="N1Wpp7FTQhei">セルフホスト</span></td></tr><tr><td>Nebius</td><td><a href="https://docs.nebius.com/studio/inference/quickstart">Nebius</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Novita</td><td><a href="https://novita.ai/docs/guides/llm-api#api-integration">Novita</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>NScale</td><td><a href="https://docs.nscale.com/api-reference/inferencing/create-chat-completion">NScale</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Ollama</td><td><a href="https://ollama.com/">Ollama</a></td><td><span data-option="w4jLAzOQY09S">Saas, </span><span data-option="N1Wpp7FTQhei">セルフホスト</span></td></tr><tr><td>OpenRouter</td><td><a href="https://openrouter.ai/">OpenRouter</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>SambaNova</td><td><a href="https://docs-legacy.sambanova.ai/sambastudio/latest/open-ai-api.html">SambaNova</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Tinfoil</td><td><a href="https://docs.tinfoil.sh/sdk/overview">Tinfoil</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>TogetherAI</td><td><a href="https://docs.together.ai/docs/openai-api-compatibility">TogetherAI</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>Unify AI</td><td><a href="https://docs.unify.ai/api-reference/llm_queries/chat_completions">Unify AI</a></td><td><span data-option="w4jLAzOQY09S">Saas, </span><span data-option="N1Wpp7FTQhei">セルフホスト</span></td></tr><tr><td>Vercel AI Gateway</td><td><a href="https://vercel.com/docs/ai-gateway/openai-compat">Vercel AI Gateway</a></td><td><span data-option="w4jLAzOQY09S">Saas</span></td></tr><tr><td>vLLM</td><td><a href="https://docs.vllm.ai/">vLLM</a></td><td><span data-option="N1Wpp7FTQhei">セルフホスト</span></td></tr></tbody></table>

</details>

<details>

<summary>AWS Bedrock</summary>

AWSのツールを使用すれば、インフラ管理の必要なく、すぐに利用を開始でき、自社データで基盤モデルをプライベートにカスタマイズし、アプリケーションに簡単かつ安全に統合・展開することができます。

**構成**

1. ゲートウェイに割り当てられたIAMロールに、`AmazonBedrockFullAccess` ポリシーが付与されていることを確認します。
2. AWSコンソールから、Amazon Bedrockの基盤モデルへの[アクセスをリクエスト](https://docs.aws.amazon.com/bedrock/latest/userguide/getting-started.html#getting-started-model-access)します。
3. [サポートされているモデル一覧](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html)から使用するモデルを選び、対応するモデルIDを控えておいてください。
4. Docker Composeファイル内のゲートウェイサービスに、以下の環境変数を構成します。

```yaml
environment:
  KEEPER_GATEWAY_AI_LLM_PROVIDER: "aws-bedrock"
  KEEPER_GATEWAY_AI_MODEL: "<your-model-id>"
  AWS_REGION: "<your-aws-region>"
```

</details>

<details>

<summary>Anthropic</summary>

**構成**

開始する前に、[AnthropicコンソールでAPIキーを作成します](https://console.anthropic.com/settings/keys)。

1. Docker Composeファイル内のゲートウェイサービスに、以下の環境変数を構成します。

```yaml
environment:
  KEEPER_GATEWAY_AI_LLM_PROVIDER: "anthropic"
  KEEPER_GATEWAY_AI_API_KEY: "<your-api-key>"
  KEEPER_GATEWAY_AI_MODEL: "<your-model-id>"
```

</details>

<details>

<summary>Google AI: Gemini</summary>

**構成**

開始する前に、[Google AIダッシュボードでAPIキーを作成します](https://aistudio.google.com/apikey)。

1. Docker Composeファイル内のゲートウェイサービスに、以下の環境変数を構成します。

```yaml
environment:
  KEEPER_GATEWAY_AI_LLM_PROVIDER: "google-ai"
  KEEPER_GATEWAY_AI_API_KEY: "<your-api-key>"
  KEEPER_GATEWAY_AI_MODEL: "<your-model-id>"
```

</details>

<details>

<summary>Google: Vertex</summary>

Vertexの利用が許可されている `ProjectID` を持つアカウントを使用する必要があります。Google Cloudアカウントを管理する際は、**Vertexを有効化**し、`gcloud auth` で認証する際に**プロジェクトのIDを指定**するようにしてください。

```
gcloud auth application-default login --project MY_PROJECT_ID
```

* Google Cloudの[アプリケーションデフォルト認証情報](https://cloud.google.com/docs/authentication/application-default-credentials)を使用していれば、特別な設定をしなくてもそのまま認証が機能します。
* [`options.credentials`](https://docs.boundaryml.com/ref/llm-client-providers/google-vertex#credentials) を設定すると、その指定が優先され、`vertex-ai` は指定されたファイルパスからサービスアカウント認証情報を読み込むようになります。

**構成**

1. Docker Composeファイル内のゲートウェイサービスに、以下の環境変数を構成します。

```yaml
environment:
  KEEPER_GATEWAY_AI_LLM_PROVIDER: "vertex-ai"
  KEEPER_GATEWAY_AI_MODEL: "<your-model-id>"
  KEEPER_GATEWAY_AI_LOCATION: "<your-location>"
```

</details>

<details>

<summary>OpenAI</summary>

**構成**

開始する前に、[Open AI PlatformのダッシュボードでAPIキーを作成してください](https://platform.openai.com/api-keys)。

1. Docker Composeファイル内のゲートウェイサービスに、以下の環境変数を構成します。

```yaml
environment:
  KEEPER_GATEWAY_AI_LLM_PROVIDER: "openai"
  KEEPER_GATEWAY_AI_API_KEY: "<your-api-key>"
  KEEPER_GATEWAY_AI_MODEL: "<your-model-id>"
```

</details>

<details>

<summary>Azure OpenAI</summary>

**構成**

1. Docker Composeファイル内のゲートウェイサービスに、以下の環境変数を構成します。

```yaml
environment:
  KEEPER_GATEWAY_AI_LLM_PROVIDER: "azure-openai"
  KEEPER_GATEWAY_AI_RESOURCE_NAME: "<your-resource-name>"
  KEEPER_GATEWAY_AI_DEPLOYMENT_ID: "<your-deployment-id>"
  KEEPER_GATEWAY_AI_API_VERSION: "<your-api-version>"
  KEEPER_GATEWAY_AI_API_KEY: "<your-api-key>"
```

</details>

#### ネイティブインストール方法

<details>

<summary>Windowsインストール手順</summary>

**WindowsでのKeeperゲートウェイサービス用環境変数の構成**

以下は、Windows環境でKeeperゲートウェイサービスの環境変数を構成する手順となります。

1. PowerShellを管理者として起動します。
2. マシンスコープで変数を設定します。

```bash
setx KEEPER_GATEWAY_AI_LLM_PROVIDER "<your_provider_name>" /M
setx KEEPER_GATEWAY_AI_BASE_URL "<your-base-url>" /M
setx KEEPER_GATEWAY_AI_API_KEY "<your-api-key>" /M
setx KEEPER_GATEWAY_AI_MODEL "<your-model-id>" /M
```

ゲートウェイサービスを再起動して新しい環境が反映されるようにします。

```
Restart-Service -DisplayName "Keeper Gateway Service"
```

</details>

<details>

<summary>Linuxインストール手順</summary>

**LinuxでのKeeperゲートウェイサービス用環境変数の構成**

Linux環境でKeeperゲートウェイサービスの環境変数を構成するには、以下の手順に従ってください。

1. `systemd` サービスファイルを編集します。

   ```bash
   sudo vi /etc/systemd/system/keeper-gateway.service
   ```
2. `Environment=` 行を拡張し、サポートされているLLMプロバイダに基づいて必要な環境変数を追加します。

   ```bash
   Environment=KEEPER_GATEWAY_AI_LLM_PROVIDER="<your_provider_name>"
   Environment=KEEPER_GATEWAY_AI_BASE_URL="<your-base-url>"
   Environment=KEEPER_GATEWAY_AI_API_KEY="<your-api-key>"
   Environment=KEEPER_GATEWAY_AI_MODEL="<your-model-id>"
   ```
3. デーモンをリロードし、ゲートウェイサービスを再起動します。

   ```bash
   # デーモンをリロード
   sudo systemctl daemon-reload

   # 環境変数が正しく構成されているかを確認 (任意)
   sudo systemctl show keeper-gateway.service | grep Environment=

   # Keeper Gatewayサービスを再起動
   sudo systemctl restart keeper-gateway.service
   ```

</details>

***

## セッション要約の確認

### セッションレコーディングへのアクセス

分析された各セッションにはAIによる要約が付与されます。

1. ボルトUIのセッション録画セクションへ移動します。
   1. レコードを右クリックするかオプションアイコンをクリックして **\[セッションアクティビティ]** を選択します。
2. KeeperAIによる分析が行われたセッションの行をクリックすると、**\[セッション分析]** ポップアップが開き、セッション中に実行された各コマンドの詳細を確認できます。
3. **\[再生]** ボタンをクリックすると、セッション録画の再生が始まり、セッションの様子をリアルタイムで確認できます。
4. **\[ダウンロード]** ボタンをクリックすると、セッション録画ファイルをローカルに保存できます。

{% hint style="warning" %}
セッション録画ファイルをローカルにダウンロードする際は、これらのファイルが暗号化されておらず、機密情報を含んでいる可能性がある点にご注意ください。

ファイルは、組織のデータ保護ポリシーに従って、安全に保管・取り扱うようにしてください。
{% endhint %}

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2Fpaw7sNbEz2IDyI6zg9D4%2Fimage.png?alt=media&#x26;token=b5801f16-d745-4c42-842c-49313a3d4f91" alt=""><figcaption><p>セッションアクティビティ画面</p></figcaption></figure>

<figure><img src="https://859776093-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FPL6k1aGsLiFiiJ3Y7zCl%2Fuploads%2FMtfeTZOiZPRE7KWU4Ncx%2Fimage.png?alt=media&#x26;token=e394dc04-af44-4aa6-825b-adbefec83eac" alt=""><figcaption><p>セッション分析画面</p></figcaption></figure>

### ARAMイベントとの統合

KeeperAIは、検出された脅威ごとに自動的に[ARAMイベント](https://docs.keeper.io/jp/keeperpam/privileged-access-manager/references/event-reporting)を生成し、既存のセキュリティワークフローとの統合が可能です。

***

## トラブルシューティング

### よくある問題と対処方法

**検知漏れ**

* リスクレベル設定で感度のしきい値を調整するか、例外画面でカスタムキーワードパターンを追加してください。

**誤検知**

* パターンマッチングルールを見直すか、特定のコマンドに対してリスクレベルのしきい値を引き下げるカスタム例外ルールを追加してください。

**パフォーマンスの問題**

* オンプレミスでLLMを使用している場合は、リソースの割り当て状況を確認してください。また、クラウドLLMプロバイダーを利用している場合は、ネットワーク接続が正常であるかを確認してください。

**セッション分析が表示されない**

* Keeperゲートウェイの構成および対象リソースの両方でKeeperAIが有効になっているかを確認してください。
  * セッション録画ファイルをダウンロードし、`summary.json` が含まれているかを確認してください。
    * `summary.json` **が存在しない場合**、そのセッションではKeeperAIが有効になっていなかったことを意味します。
    * `summary.json` **が破損または不完全な場合**、処理の最終段階でエラーが発生した可能性があります。サポートまでご連絡ください。
  * **KeeperAI有効化前に記録されたセッション**については分析データは含まれません。

**LLM接続エラー**

* ゲートウェイ設定で、LLMプロバイダーの認証情報およびエンドポイント構成が正しいか確認してください。

### サポート

KeeperAIについてのお問い合わせは、**<pam@keepersecurity.com>** までメールにてお寄せください。

***

## よくある質問

**Q: KeeperAIで自分のLLMモデルを使用できますか？**\
**A:** はい。KeeperAIでは、OpenAIの`/chat/completions`APIエンドポイントに準拠している任意のプロバイダーに対応しています。

**Q: KeeperAIはリアルタイムで動作しますか？**\
**A:** はい。KeeperAIはユーザーの入力ごとにリアルタイムでセッションを解析し、完了したセッションの録画と分析結果を暗号化されたファイルに保存します。

**Q: KeeperAIは機密情報をどのように扱いますか？**\
**A:** セッション録画および分析データを暗号化ファイルとして保存します。今後のリリースでは、機微な個人情報 (PII) の検出機能が強化され、PIIをLLMに送信する前に削除するオプションや、LLMの応答からPIIを除去する機能が追加される予定です。

**Q: ゲートウェイ、LLMプロバイダ、Keeperのシステム間でデータはどのように流れますか?**\
**A:** KeeperAIでは、データのプライバシーとセキュリティを確保するために、安全な多段階の通信フローを採用しています。

1. **ゲートウェイ ↔** [**LLMプロバイダ**](#llm-lian-xie)**:** Keeperゲートウェイが、構成済みのLLMプロバイダと暗号化されたHTTPS経由で直接通信し、セッションコマンドをリアルタイムに分析します。
2. **ゲートウェイ → Keeper:** LLMの分析結果を受信した後、ゲートウェイはすべてのセッションデータと分析結果を固有のレコードキーで暗号化し、[Keeperのエンドポイントに送信して保存](https://github.com/Keeper-Security/gitbook-jp-secrets-manager/blob/main/session-recording-and-playback/README.md#tekisutosesshonrekdingu-taipusukuriputo-no)します。

**Q: KeeperAIはインターネットに接続されていない環境 (エアギャップ環境) でも使用できますか？**\
**A:** はい。オンプレミスのLLMを使用すれば、インターネットや外部サービスに接続せず、ローカルサービスとのみ連携させることが可能です。

**Q: セッション分析1回あたりの想定コストはどれくらいですか？**\
**A:** コスト計算の参考として、各コマンドに使用されるリスク分析プロンプトは約550トークン、すべてのコマンドを要約する最終プロンプトは約400トークンです (ユーザー入力のコンテキストを除く)。入力コマンドの長さや内容によって追加トークンが発生する可能性があります。

**Q: サードパーティのLLMプロバイダーに送信されるデータと、その保護方法は？**\
**A:** コマンドのテキストは、暗号化されたHTTPS通信を通じて設定されたLLMプロバイダーに送信されます。LLMの応答も暗号化され、S3に保存されます。すべての通信はゲートウェイから直接LLMプロバイダーに送られ、Keeper側に送信されることはありません。ゼロ知識およびゼロトラストを維持するため、通信内容はユーザーの秘密鍵で暗号化されてからでなければKeeperには送信されません。

**Q: コンプライアンス報告用に脅威検知データをエクスポートできますか？**\
**A:** はい。セッション分析画面から分析データをJSON形式でエクスポートできます。
