このサイトを参照するため、JavaScriptを有効にして下さい。

SecurityGateway for Email Servers 11.0

ナビゲーション: AI分類

AI分類モデル

スクロール 前へ トップ 次へ もっと

このページを使用して、選択したメッセージの分析に使用するAIモデルのリストを管理します。モデルの追加、編集、削除ができ、名前、エンドポイントURL、AIプロファイル、タイムアウト、APIキーなどの設定詳細を表示できます。クラウドベースのAIモデルと、ローカルにホストされた独自のモデルを選択できます。

クラウドベースのAIモデル

クラウドベースのAIモデルを選択する際に考慮すべき点は以下の通りです。

コストとテストの考慮点

クラウドベースのAIモデルを使用する場合、コストは有効な懸念事項であるため、さまざまなモデルをテストして、どれが最適かを確認する必要がある。特に、AIルールが分類のために送信するメッセージを制限するように構成されている場合、以下で推奨するモデルを使用するコストはかなり管理しやすいと感じるかもしれない。例えば、フィッシング詐欺に最も遭いやすいと思われるユーザーなど、特定のユーザー宛のメッセージにのみAI分類を使用することもできます。

OpenAI API - OpenAIは、新規アカウント向けに一定量の無料トークンを提供する場合があります。より広範なテストを行う場合、またはデータ使用ポリシーに同意する場合(トレーニング目的でデータを使用することを許可することを含むかもしれません)、割引価格または無料のテストのオプションを見つけることができるかもしれません。AIプロバイダーの利用規約は必ず確認してください。

Google Cloud AI - Google Cloudの無料アカウントでは、多くの場合、無料層の一部として限られた数の無料リクエストが提供されます。

推奨クラウドベースAIモデル

能力と費用対効果のベストバランスを考えるなら、以下のモデルを検討する:

1.OpenAI

gpt-4.1-mini- 一般的なタスクには性能とコストのバランスが良いことが多い。

gpt-4.1 - より強力なオプションで、複雑な分析に適している可能性があるが、コストが高くなる可能性がある。

2.Google Gemini

gemini-2.0-flash - スピードと効率を追求した設計。

ローカルAIモデル

OpenAI APIをサポートするローカルAIモデルも、サードパーティにデータを送信することが不可能な場合のオプションです。これを容易にするプラットフォームには以下のようなものがある:

LocalAI

Ollama(OpenAI互換性)

ローカルモデルでは、特に専用のGPUやAIアクセラレーターハードウェアを持っていない場合、パフォーマンスが懸念されます。また、ローカルモデルは一般的に、メッセージがフィッシングか純粋な商用かを正確に検出するようなニュアンスの強いタスクでは、主要なクラウドモデルよりも能力が劣る。しかし、あなたが定義した特定のコンテンツパターンに基づいてメッセージをタグ付けするなど、他のユースケースでは非常に効果的です。

AIモデルの追加と編集

モデル」リストに新しいAIモデルを追加するには、「モデル」ページのツールバーで「新規」をクリックします。既存のモデルのエントリーを編集するには、エントリーを選択してEditをクリックします。

プロパティ

プロファイル:

内蔵AIプロファイルを選択するか、別のAIモデルを使用する場合はカスタムを選択して独自の設定を入力します。

表示名:

このAIモデルのエントリーの名前を入力します。この名前は参考用です。定義済みのプロファイルの場合、一般的な名前が追加されます。

エンドポイントURL:

これは、AIモデルのAPIにアクセスしてリクエストを送信し、レスポンスを受信するための特定のWebアドレスです。ほとんどの場合、このURLは上記のプロファイルを選択したときに自動的に追加されます。

APIキー:

このオプションを使用して、選択したAIサービスプロバイダから取得した必要なAPIキーを提供します。

モデル名:

モデル名を入力するか、「Fetch List」をクリックして利用可能なモデルのドロップダウンリストを表示します。

リストを取得

このボタンをクリックすると、利用可能なAIモデルのドロップダウンリストが表示されます。注: Fetch Listオプションを使用するには、最初にエンドポイントURLと APIキーを入力する必要があります。

タイムアウト(秒):

サーバーがAIの応答をあきらめるまで待つ秒数。

デフォルトの温度:

AI Classificationのデフォルトの温度は1.0に設定されています。例えば、0.1の温度は非常に狭く決定論的であり、極端な硬直性により誤った分類を引き起こす可能性があります。逆に、2.0の設定は非常にランダムであり、奇妙で無関係な、あるいは無意味な結果を生む可能性がある。ほとんどの場合、この設定はデフォルト値の1.0のままにしておくべきです。不正な分類が定期的に発生する場合は、まず温度設定ではなくプロンプトの調整を試してください。

無効なSSL証明書を許可する

ローカルプロファイルまたはカスタムプロファイルを使用する場合、無効なSSL証明書を許可する場合は、このボックスにチェックを入れます。

追加のHTTPリクエストヘッダ

追加のHTTPリクエストヘッダを含める必要がある場合は、ここに入力してください。

接続のテスト

AIモデルの設定が完了したら、ダイアログの上部にある[接続のテスト]をクリックして、サーバーが設定したAIモデルに接続し、AIモデルから応答が得られることを確認します。