LLMセキュリティ診断 | 脆弱性診断(セキュリティ診断)のGMOサイバーセキュリティ byイエラエ

LLMセキュリティ診断

GPT等のLLMを利用して構築したアプリケーションの
セキュリティリスクを可視化します

LLMセキュリティ診断は、GPT等のLLM(Large Language Model/大規模言語モデル)を利用して構築したアプリケーションに対し、敵対的プロンプト(Adversarial Prompting)を用いた擬似攻撃を行い、アプリケーションに内在するセキュリティリスクを調査するサービスです。GMOサイバーセキュリティ byイエラエの膨大な脆弱性診断の実績と経験に基づく高い技術力と、GPT等のLLMへの最新の攻撃手法の知見を組み合わせることでセキュリティリスクを可視化します。

LLMセキュリティ診断は
こんな方におすすめ

  • はじめてGPT等のLLMを用いたアプリケーションを構築する
  • 既存のアプリケーションにGPT等のLLMを利用するに当たってリスクを把握したい
  • ユーザーの個人情報を取り扱うため、セキュリティを高めたい

LLMセキュリティ診断の
特長

01GPT等のLLMに対応したセキュリティ診断を提供

GPT等のLLMを利用して構築したアプリケーションは
プロンプト次第でサイバー攻撃に悪用される可能性があります

GPT等のLLM(Large Language Model/大規模言語モデル)を利用して構築したアプリケーションには、敵対的プロンプト(Adversarial Prompting)による、情報漏洩や、出力を乗っ取りフィッシングメッセージを出力する等の、LLMを利用して構築したアプリケーション特有のリスクが存在しています。「LLMセキュリティ診断」では、これらのリスクに対応したセキュリティ診断を提供します。

02豊富な脆弱性診断の知見を活かした高度なテストを提供

高度なテストを実施するアドバンスドプランでは、単純な敵対的プロンプト(Adversarial Prompting)によるPrompt InjectionやPrompt Leakに留まらず、Indirect Prompt Injectionのリスクの評価や、LLMからの出力によるXSS(クロスサイトスクリプティング)やテンプレートインジェクションなどの一般的なWebアプリケーションの脆弱性と組み合わせた評価についても対応が可能です。

用語説明
Prompt Injectionプロンプトによる対話を通じてサービスの設定情報や秘密情報の窃取や表示される内容を書き換える攻撃
Prompt Leak予め設定されたプロンプトを取得する攻撃
Indirect Prompt Injectionプロンプトインジェクションの1種で、信頼できない外部ソースをデータの参照先として取得させ悪意あるプロンプトを間接的に挿入し、意図しない挙動を引き起こさせる攻撃

03予算やセキュリティレベルに応じた複数のプラン

敵対的プロンプト(Adversarial Prompting)によるテストを行う安価なライトプランに加え、ホワイトボックスで設定等を検査するベーシックプラン、その他最新の攻撃事例を踏まえた高度な手動診断を実施するアドバンスドプランの3つのプランを提供します。ご予算やアプリケーションのセキュリティレベルに合わせたプランの選択が可能です。

ライトプランベーシックプランアドバンスドプラン
敵対的プロンプトによる機密情報漏洩の診断
敵対的プロンプトによる出力汚染
ホワイトボックスによる設定診断 ×
Indirect Prompt Injection等の
最新の攻撃事例を踏まえた手動診断
× ×
調査対象アプリケーション毎にカスタマイズした診断 × ×

「情報セキュリティサービス基準適合サービスリスト」登録済

当社のLLMセキュリティ診断は経済産業省の定める情報セキュリティサービス基準に適合したサービスとして「情報セキュリティサービス台帳」に登録されています。
サービス名:脆弱性診断サービス
登録番号:019-0004-20

LLMセキュリティ診断の
診断フロー

 
  1. 01

    診断準備

    診断プランの確定

    ご希望のプランを選択いただいた後に、必要なヒアリングを実施し、工数のお見積を行います。

    1. プラン選択
      ご希望の診断プランをご選択いただきます。
    2. 診断実施方法の調整とお見積もり
      対象のプランに合わせて、ヒアリング等を実施しお見積もりをお出しします。
  2. 02

    診断実施

    ツールおよび手動による診断の実施

    診断対象のアプリケーションに対し、ツールや手動にて診断を実施します。

    1. 敵対的プロンプトによる診断
      ツールや手動にてアプリケーションに対し敵対的プロンプトを入力し、攻撃を試行します。
    2. ホワイトボックスでの設定診断
      Azure OpenAI ServiceやOpenAIアカウントにおける設定や、API呼び出しを行うコード等をホワイトボックスで診断します。
    3. 最新の攻撃事例を踏まえた手動診断
      最新の攻撃事例を踏まえ、手動やツールにてアプリケーションに対する攻撃を試行します。

    ※診断内容はプランにより変動します。

  3. 03

    診断報告レポート提出

    LLMセキュリティ診断の実施結果報告

    検出されたセキュリティ上の問題点および、推奨する対策案または問題の緩和方法についてご報告します。

    1. セキュリティ上の問題点の有無
      各種診断観点についてセキュリティ上の問題点が確認されたかどうか、問題の発現したプロンプト例と共にご報告します。
    2. 対策や緩和方法
      確認されたセキュリティ上の問題点について、推奨する対策案や問題の緩和方法についてご報告します。

よくある質問

QChatGPTを利用したアプリのテストに対応していますか?
Aはい、対応しています。
QGPT以外のLLMを用いたアプリケーションに対するテストは対応可能ですか?
AGPT以外のLLMを用いたアプリケーションであってもテストの実施は可能です。ご相談ください。
Qチャットボットのようなインターフェイスでなくても対応可能ですか?
Aチャットボットのようなインターフェイスではない場合や、APIのみのシステムに対しても診断は可能です。
QFine-Tuning済みモデルを利用したサービスに対するModel Extraction Attackのテストや事前学習済みモデルに対するバックドアの有無等の検査は可能でしょうか?
A現時点ではModel Extraction Attackや学習済みモデルに対するポイズニングに関したテストは提供しておりません。
Qテストに際して準備するものはありますか?
AWebアプリケーションやAPIが正常動作する環境やアカウント情報のご準備、また、可能であればソースコード、仕様書等の準備をお願いするケースがあります。またベーシック以上のプランの場合、AzureやOpenAIアカウントへのアクセス権やソースコードのご提供をお願いする可能性があります。

お見積り/お問い合わせ
資料請求はこちら

経験豊富なエンジニアが
セキュリティの不安を解消します

Webサービスやアプリにおけるセキュリティ上の問題点を解消し、
収益の最大化を実現する相談役としてぜひお気軽にご連絡ください。

疑問点やお見積もり依頼はこちらから

お見積もり・お問い合わせ

セキュリティ診断サービスについてのご紹介

資料ダウンロード