Yolo 深圳
深セン
今すぐ参加
用語集

大規模言語モデル(LLM)

大規模言語モデル(LLM)が、高度なNLPでAIに革命をもたらし、チャットボット、コンテンツ作成などを強化する様子をご覧ください。重要な概念を学びましょう!

大規模言語モデル(LLM)は、人工知能(AIアルゴリズムの洗練されたタイプです 人工知能(AI)アルゴリズム ディープラーニングの技術を応用し 新しいコンテンツを理解し、要約し、生成し、予測する。これらのモデルは これらのモデルは、書籍、記事、ウェブサイトから数十億語からなる膨大なデータセットで訓練され、人間の言語のニュアンスを把握することができる。LLMの機能の中心は LLMの機能の中心は、Transformerアーキテクチャである、 LLMの機能の中心はトランスフォーマー・アーキテクチャである 長い文章や段落の文脈理解を容易にする。 パラグラフの文脈理解を容易にする。この機能により 自然言語処理(NLP)の要となっている。

コア・メカニズムとトレーニング

LLMの開発には、主に2つの段階がある。 微調整である。事前学習では、モデルは膨大なコーパスに対して教師なし学習を行う。 教師なし学習を行う。 文法、事実、推論能力を学習する。このプロセスは トークン化(テキストをトークンと呼ばれる小さな単位に分解すること)に大きく依存している。 トークンと呼ばれる小さな単位に分解される。これに続いて、開発者はラベル付けされた学習データを使って微調整を行う。 学習データを使って、モデルを特定のタスクに適応させる、 例えば、医療診断や法的分析などである。次のような組織がある。 Stanford Center for Research on Foundation Models (CRFM) のような組織は、このような適応可能なシステムをファウンデーション・ classify このような適応可能なシステムは として分類している。

実際のアプリケーション

LLMは研究室から実用的なツールへと移行し、業界全体で無数のアプリケーションを動かしている。 首尾一貫したテキストを生成し、情報を処理するその能力は、広く採用されるに至った。

  • 会話エージェントとチャットボット:高度な チャットボット または Meta Llamaのようなモデルを搭載した高度なチャットボットは、顧客サポートを提供し、電子メールを作成し、個人的なアシスタントとして機能します。 アシスタントとして機能する。これらのシステムは多くの場合 検索拡張世代(RAG) を利用し、最新の外部情報にアクセスする。 幻覚のリスクを軽減する。
  • コード生成とデバッグ:次のようなツールがあります。 GitHub Copilotのようなツールは、LLMを活用して開発者を支援する。 コードスニペットを自動補完し、コメントを機能的なコードに変換し、複雑なロジックを説明することで、開発者を支援します。 ソフトウェア開発のライフサイクルを加速します。

マルチモーダルAIのLLM

LLMはテキストに特化しているが、この分野は次のように進化している。 テキストを画像や音声などの他のデータと統合するマルチモーダルAIへと発展している。 マルチモーダルAIへと進化している。これは、言語モデリングと コンピュータ・ビジョン(CV)とのギャップを埋める。例えば 視覚言語モデル(VLM) は画像を分析し、それに関する質問に答えることができる。

この文脈では、次のような物体検出モデルが使われる。 Ultralytics YOLO11のようなオブジェクト検出モデルは LLMのテキスト推論を補完する。例えば YOLOな特殊なモデルは、ユーザーがオブジェクトをdetect することを可能にする。 YOLO-Worldのような特殊なモデルは、言語的概念と視覚的認識を効果的に組み合わせることで、オープン・ボキャブラリーのテキスト・プロンプトを使って、ユーザーが物体を検出することを可能にする。

from ultralytics import YOLOWorld

# Load a YOLO-World model capable of understanding text prompts
model = YOLOWorld("yolov8s-world.pt")

# Define custom classes using natural language text
model.set_classes(["person wearing a hat", "red backpack"])

# Run inference to detect these specific text-defined objects
results = model("path/to/image.jpg")

# Display the detection results
results[0].show()

課題と考慮事項

そのパワーにもかかわらず、LLMは大きな課題に直面している。それは 学習データから得られるAIに偏りが生じ 不公平または歪んだ出力につながる。さらに、これらのモデルを実行するための膨大な計算コストが、モデルの量子化と最適化の研究に拍車をかけている。 モデルの量子化と最適化 のようなハードウェアでより効率的に実行するための、モデルの量子化と最適化技術の研究に拍車がかかっている。 NVIDIA.これらの限界を理解することは ジェネレーティブAIを責任を持って展開するために非常に重要です。

関連概念

  • 自然言語処理 (NLP):コンピュータと人間の言語との相互作用に焦点を当てたAIの広範な分野。LLMは、この分野の中でも特殊で強力なツールである、 強力なツールである。
  • コンピュータビジョン:テキストを処理するLLMとは異なり、CVは機械が視覚情報を解釈することを可能にする。以下のようなモデルがある。 YOLO11のようなモデルが得意とする。 マルチモーダルなアプリケーションではLLMと重なることが多くなっている。
  • トークン化:テキストをモデルが処理できる数値入力に変換するプロセス。これは ディープラーニング言語モデルの ディープラーニング言語モデルの基本的な前処理ステップです。

LLMの基礎となるアーキテクチャーについては、以下の論文を参照されたい。 Attention Is All You Need」という論文に、LLMの基本的なアーキテクチャーである Transformerモデルエンタープライズ・グレードのモデルに関するその他のリソースは、以下のサイトで見つけることができる。 IBM Researchおよび Google DeepMindにある。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加