プロンプトインジェクションが、AIの脆弱性をどのように悪用し、セキュリティに影響を与えるか、そして悪意のある攻撃からAIシステムを保護するための戦略を学んでください。
プロンプト・インジェクションは、大規模言語モデル(Large Language Models: LLM)や他の言語モデルで構築されたシステムに影響を及ぼす、重大なセキュリティ脆弱性です。 ラージ・ランゲージ・モデル(LLM)やその他の プロンプト・インジェクションは、悪意のあるユーザーが特定の入力を細工することで発生します。悪意のあるユーザーが特定の入力を細工することで発生します。 その結果、AIモデルは本来の開発者が設定した命令を無視し、意図しないコマンドを実行します。 コマンドを実行する。SQLインジェクションによって 攻撃者がバックエンドのクエリを妨害することでデータベースを操作するのと同じように、プロンプト・インジェクションは 自然言語処理(NLP) ロジックを標的にし、多くの最新モデルが同じコンテキストウィンドウ内でユーザーデータとシステム命令を処理するという事実を悪用します。 ウィンドウに表示されます。
典型的なAIアプリケーションでは、開発者はAIエージェントのルール、ペルソナ、安全境界を定義する「システム・プロンプト」を提供する。 安全境界を定義する「システム・プロンプト」を提供する。しかし、LLM は指示に流暢に従うように設計されているため、権威あるシステム・プロンプトとユーザーの入力を区別するのに苦労します。 とユーザーの入力を区別するのに苦労する。プロンプトインジェクション攻撃が成功すると、システムの安全ガードレールが上書きされ、以下のような可能性がある。 データ漏洩、不正操作、有害コンテンツの生成につながる可能性がある。この脅威は現在 の主要な懸念事項としてランクされている。 OWASP Top 10 for LLM Applications(LLMアプリケーションのためのOWASPトップ10)」にランクインしており、サイバーセキュリティの状況における重要性を強調している。
プロンプト・インジェクション攻撃は、おちゃらけたいたずらから深刻なセキュリティ侵害まで、さまざまな形で現れる可能性がある。
当初はテキストのみのモデルに関連していたが、プロンプト注入はコンピュータビジョン(CV)においてますます関連性が高まっている。 コンピュータ・ビジョン(CV)では、マルチモーダルモデルの台頭により マルチモーダルモデル視覚言語モデル(VLM) CLIPや のような視覚言語モデル(VLM)は、ユーザがテキスト記述を使ってどのようなオブジェクトを見つけるかを定義することを可能にする。
例えば、YOLOようなモデルでは、検出されるクラスはテキストプロンプトによって定義される。 はテキストプロンプトによって定義される。悪意のある入力は、理論的には埋め込み空間を操作して、オブジェクトを誤分類したり、脅威を無視したりすることができる。 オブジェクトを誤分類したり、脅威を無視したりすることができる。
次のコードは、テキストプロンプトがどのようにビジョンモデルとインターフェースをとるかを示している。 を表しています:
from ultralytics import YOLO
# Load a YOLO-World model which accepts text prompts for class definitions
model = YOLO("yolov8s-world.pt")
# Define custom classes via text prompts
# A malicious prompt here could attempt to confuse the model's semantic understanding
model.set_classes(["person", "suspicious object"])
# Run prediction on an image
results = model.predict("https://ultralytics.com/images/bus.jpg")
# Display the results
results[0].show()
AIエコシステムにおいて、プロンプト・インジェクションを他の用語と区別することは極めて重要である:
プロンプト・インジェクションに対する防御は、現在のところ、単一のソリューションでは防御できないため、徹底的な防御アプローチが必要である。
組織は、以下のようなフレームワークを参考にすべきである。 NISTのAIリスク管理フレームワークのような 包括的なセキュリティ対策を実施する必要がある。