YOLO Vision Shenzhen
深セン
今すぐ参加

Ultralytics を使用したポリゴン注釈ガイド

ポリゴン注釈について、それがどのようにして正確なオブジェクトのセグメンテーションを可能にするのか、Ultralytics を使って簡単に注釈を作成する方法をご紹介します。

コンピュータビジョンプロジェクトの導入をお考えですか?

ライセンスについて詳しく見る

最先端のAI技術は、自動運転から精密農業に至るまで、幅広い産業分野に浸透しつつあります。例えば、酪農家たちはAIや画像解析を活用して、牛のdetect 。跛行(はこう)などの健康上の問題は、背中が反る、動きに左右差が見られるといった、動物の歩行や姿勢の変化を観察することでモニタリングが可能です。 

図1. AIと画像解析を用いた牛のモニタリングの例。

人工知能の一分野であるコンピュータビジョンは、機械が視覚データを解釈・分析できるようにすることで、こうしたアプリケーションを実現します。具体的には、インスタンスセグメンテーションは、画像内の各オブジェクトをピクセル単位で識別・分割するコンピュータビジョンのタスクであり、個々の動物を正確にdetect 分析することを可能にします。

このプロセスにおいて、ポリゴンアノテーションは重要な役割を果たします。これは、画像内の対象物の輪郭に沿って点を配置することで、その正確な形状を詳細にトレースするデータアノテーション手法です。単純なバウンディングボックスのアノテーションとは異なり、この手法は対象物の実際の輪郭に沿って描かれるため、より精度の高いトレーニングデータの作成が可能となり、ビジョンAIモデルが対象物の境界をより正確に理解できるようになります。

現在、ポリゴン注釈を作成するためのツールは数多く存在します。しかし、これらのツールは、特に注釈の種類ごとにサポート内容が不統一だったり限定的だったりする場合が多く、単一のワークフロー内で多様なラベル付けのニーズを管理するのが難しくなりがちです。

データセット管理、アノテーション、トレーニング、デプロイ、モニタリングの間のギャップを埋める、当社の新しいエンドツーエンドのビジョンAIワークスペース「Ultralytics 」は、単一のシームレスなワークスペース内で複数のアノテーション形式とAI支援ワークフローをサポートすることでこの課題を解決し、アノテーションプロセス全体を簡素化します。

この記事では、ポリゴン注釈とは何か、Ultralytics を使ってどのように作成するかについて解説します。さっそく始めましょう! 

ポリゴンの注釈について詳しく見てみよう

Ultralytics ポリゴン注釈機能について詳しく説明する前に、ひとまず一歩引いて、ポリゴン注釈とは何かを理解しておきましょう。 

画像アノテーションとは、AIモデルが画像の内容を理解できるように、視覚データにラベルを付与するプロセスです。通常、画像内の対象物を特定し、モデルが学習できる形でそれらにマークを付ける作業が含まれます。 

最も一般的な手法の一つは、オブジェクトの周囲に長方形の枠(バウンディングボックス)を描くことです。しかし、バウンディングボックスではオブジェクトの輪郭を大まかに示すにとどまります。ポリゴン注釈は、より正確な手法です。

この手法は、対象物を四角い枠で囲むのではなく、一点ずつ輪郭(境界線)を描き出すことで機能します。これを行うために、アノテーターは対象物の縁に沿って複数の頂点(点)を配置し、形状全体が覆われるまで輪郭をなぞっていきます。

これらの接続された点は、対象物の自然な輪郭を反映した多角形を形成します。形状が対象物の境界に密接に沿っているため、この注釈機能は、従来の手法では見落とされがちな細部まで捉えることができます。これは、葉や人のシルエット、重なり合った物体など、不規則な形状や複雑なエッジを持つ対象物において特に有用です。 

このようなデータの精度は、モデルトレーニング中に機械学習モデルがより効果的に学習するのに役立ちます。アノテーションがオブジェクトの実際の境界を正確に捉えている場合、モデルはピクセルレベルでそのオブジェクトのパターンをより正確に理解できるようになります。これにより、特に高い精度が求められるセグメンテーションタスクにおいて、モデルの性能が向上します。

コンピュータビジョンワークフローにおけるポリゴン注釈の役割

では、ポリゴン注釈は実際にはどのように使われるのでしょうか?これらは、インスタンスセグメンテーションのような画像セグメンテーションタスクをサポートするビジョンAIモデルと密接に関連しています。

多くのコンピュータビジョンアプリケーションにおいて、画像や動画のフレーム内で各オブジェクトが占める正確な領域を把握することは不可欠です。その好例が、製造現場における自動車部品の検出です。この場合、モデルは、ドア、窓、ヘッドライトなどの部品が重なっていたり複雑な形状をしていても、それらを識別し、正確に輪郭を描き出す必要があります。

ここでインスタンスセグメンテーションの出番となります。これにより、モデルはdetect オブジェクトdetect 、ピクセル単位でその正確な境界を特定できるようになります。これは、バウンディングボックスを使用する基本的な物体検出とは異なります。 

図2. インスタンスセグメンテーションは、自動車の損傷箇所の特定にも役立つ。(出典

バウンディングボックスは、オブジェクトの周囲にあるおおよその長方形の領域を示すに過ぎず、多くの場合、余分な背景が含まれてしまうため、不規則な形状を捉えたり、重なっている要素を分離したりするのが難しくなります。

ポリゴンアノテーションは、このレベルの精度を実現する上で極めて重要な役割を果たしています。データセット内の画像にある各オブジェクトの正確な形状をトレースすることで、オブジェクトの実際の境界を反映した高品質なトレーニングデータが生成されます。こうした詳細なアノテーションにより、Ultralytics モデルは各構成要素の構造をより正確に把握できるようになり、その結果、より精度の高いセグメンテーション結果が得られます。

従来の画像アノテーションツールの限界

次に、従来のアノテーションツールの限界について見ていき、Ultralytics のような、より効率的で拡張性の高いソリューションが必要とされる理由を理解しましょう。

従来のポリゴン注釈ツールを使用する際、注釈担当者が直面する一般的な課題には次のようなものがあります:

  • 注釈タイプの対応が限定的:一部のツールは特定の注釈手法に特化しているため、ポリゴン、バウンディングボックス、キーポイントといった異なるタイプの注釈を1か所で扱うことが困難です。
  • 複雑なアノテーションの処理が非効率的:ツールには、複雑なオブジェクトの細部まで正確にアノテーションを付けるための機能が不足している場合があります。
  • AI支援機能の不足:多くのツールは、アノテーション作業を効率化するためのAI機能が組み込まれておらず、完全に手作業に依存している。
  • 分散したデータセットの管理:データセット、バージョン、およびアノテーションの管理は、特にツールに一元化されたワークスペースが備わっていない場合、困難を伴うことがあります。

Ultralytics 、Segment Anything Models(SAM)YOLO 両方を活用したAI支援型アノテーション機能により、こうした課題に対応しています。SAM 、クリックなどの簡単な操作から高品質なセグメンテーションマスクを生成SAM 、それをさらに精緻なポリゴンアノテーションへと磨き上げることができます。 

同様に、YOLO、事前学習済みまたはYOLO を用いて画像の推論を行い、バウンディングボックス、セグメンテーションマスク、または方向指定付きバウンディングボックスなどの予測結果をアノテーションとして追加します。これらのアノテーションは、必要に応じて確認・調整が可能です。これらの機能により、アノテーションプロセスはより高速かつ一貫性が高くなり、拡張性も向上します。

Ultralytics Platformがサポートするさまざまな種類のアノテーション

Ultralytics 、ワークスペース内で直接画像にアノテーションを付与できる統合型アノテーションエディタが搭載されています。これにより、別途用意する必要があり、多くの場合手間のかかるデータラベリングツールに頼ることなく、データセットの構築や管理を容易に行うことができます。

ポリゴン注釈に加え、Ultralytics 他にもいくつかの注釈タイプに対応しています。以下に概要を簡単に紹介します:

  • バウンディングボックス:アノテーターは、対象物の周囲にシンプルな長方形の枠を描画することができ、画像内でのdetect ラベル付けやdetect を容易にします。
  • 要点:この手法は、姿勢推定などのタスクにおいて、体の関節やランドマークといった特定のポイントをマークするために用いられます。
  • 方向指定バウンディングボックス(OBB):これにより、ユーザーは標準のバウンディングボックスに比べて、回転したり傾いたりしたオブジェクトをより正確にキャプチャすることができます。
  • 分類ラベル:単純なタスクの場合、ユーザーは個々のオブジェクトにマークを付ける代わりに、画像全体にラベルを割り当てることができます。

Ultralytics でのオブジェクトへのポリゴンによる注釈付け

それでは、Ultralytics 上で、手動またはAI支援ツールを用いてポリゴン注釈を作成する方法を見ていきましょう。

Ultralytics でのポリゴン注記の手動作成

多角形のアノテーションを手動で作成するための簡単な手順を以下に示します:

  • ステップ 1 - データセットを開く:アノテーションを追加したい画像が含まれているデータセットを開きます。ここが、画像とアノテーションの保存・管理場所となります。
  • ステップ 2 - 画像を開く:画像をクリックして、アノテーション画面で開きます。アノテーションのワークフローは、データセットのタスクによって異なります。たとえば、インスタンスセグメンテーションのデータセットでは、ポリゴンマスクを使用してアノテーションを作成します。
  • ステップ3 – マスクの作成を開始する: 画像をクリックして 注釈の追加を開始します。クリックするたびに、オブジェクトの境界線上に頂点が追加されます。
  • ステップ4 – オブジェクトの輪郭をトレースする: オブジェクトの縁に沿ってクリックし続け 、その形状を定義します。
  • ステップ 5 – 多角形を完成させる: 「Enter」キーを押すか、最初の点をクリックして多角形を完成させ、クラスラベルを割り当てます。
  • ステップ 6 – 注釈を追加する: この手順を繰り返して 、画像内の他のオブジェクト用にさらにポリゴンを作成します。
  • ステップ 7 – 注釈の保存:注釈は 作成と同時に自動的に保存されます。
図3.Ultralytics を使用したポリゴン注記の手動作成の様子(出典

Ultralytics におけるスマートポリゴン注釈

次に、アノテーションのプロセスを効率化する、Ultralytics がサポートするAIを活用したラベリング機能について見ていきましょう。

このプラットフォームでは、スマートアノテーションのために2つのアプローチを提供しています。1つは「Segment Anything Models」を活用した、クリック操作によるインタラクティブなアノテーション生成であり、もう1つは「YOLO を活用した、モデルの予測結果を直接アノテーションとして追加するものです。どちらのアプローチも、スマートポリゴンアノテーションに利用可能です。 

Ultralytics SAM を活用したスマートなアノテーション

Ultralytics SAMアノテーション機能は、「Segment Anything Model(SAM)」を活用することで、最小限の入力でセグメンテーションマスクを生成し、手動によるラベリング作業を簡素化します。ユーザーは、オブジェクトを一点ずつトレースする代わりに、クリックなどの簡単な操作で画像と対話しながら、含めるべき部分や除外すべき部分を指定することができます。

このプラットフォームは、SAM .SAM を含むSAM に対応しており、ユーザーはニーズに応じて、処理速度の向上と精度の向上、どちらを優先するかを選択できます。SAM ユーザーの入力に基づいて、ピクセル単位のマスクをリアルタイムでSAM 。これらのマスクはさらに精緻化してポリゴン注釈として使用できるため、プロセスの高速化、一貫性の向上、および拡張性の向上が図れます。

Ultralytics SAM ポリゴン注釈SAM 手順は以下の通りです:

  • ステップ 1 – 画像を開く:データセットに移動し、画像をクリックして全画面ビューアを起動します。
  • ステップ 2 – アノテーションモードに入る:「編集」をクリックし、スマートモードに切り替える(または S キーを押す)ことでSAM有効にします。
  • ステップ3 –SAM 選択:速度と精度の要件に応じて、ツールバーからSAM を選択してください。
  • ステップ 4 – 指定を行う:左クリックで加算ポイント(含める領域)を追加し、右クリックで減算ポイント(除外する領域)を追加します。
  • ステップ 5 – マスクを生成して適用する: SAM リアルタイムでセグメンテーションマスクをSAM 。「Enter」キーを押すか(または自動適用機能を使用する)、注釈を適用します。
  • ステップ6 – アノテーションを調整する:保存する前に、必要に応じてポイントを追加したり、結果を調整したりして、精度を高めます。 
図4.Ultralytics におけるSAMポリゴン注釈(出典

Ultralytics YOLO を利用したスマートアノテーション

Ultralytics YOLOスマートアノテーション機能は、事前学習Ultralytics YOLO 微調整済YOLO を使用して画像に対する予測を生成し、それらをアノテーションとして追加することで、ラベリング作業を効率化します。これらの予測には、データセットのタスクに応じて、バウンディングボックス、セグメンテーションマスク、または方向指定付きバウンディングボックスが含まれます。 

ユーザーはその後、必要に応じてこれらのアノテーションを確認・修正することができます。以下に、Ultralytics でYOLOスマートアノテーションを使用する際の手順の概要を示します:

  • ステップ 1 – 画像を開く: データセットに移動し 、画像を選択してフルスクリーンビューアで開きます。
  • ステップ 2 – アノテーションモードに入る: 「編集」をクリックし 、スマートモードに切り替えます(または S キーを押します)。
  • ステップ 3 –YOLO 選択:ツールバーのモデルピッカーからYOLO を選択します。
  • ステップ 4 – 予測を実行する:「Predict」をクリックして、モデルに自動的にアノテーションを生成させます。
  • ステップ 5 – アノテーションの確認: 画像に追加された予測バウンディングボックス、セグメンテーションマスク、または OBBを確認します
  • ステップ 6 – 修正して保存: 必要に応じて注釈を編集 、調整、または削除し、最終的なラベルを保存します。
図5.YOLO アノテーションの使用例(出典

ポリゴン注釈の実用例

ポリゴン注釈は、製造業の品質管理から農業、医療に至るまで、幅広い業界で大きな影響を与えています。ここでは、実際の主な活用事例をいくつか見ていきましょう。 

コンピュータビジョンを用いた害虫の検知

農業において、作物の健康状態を監視することは、収量を向上させ、損失を減らすために極めて重要です。作物の葉に害虫が寄生した箇所を特定するのは難しい場合があります。なぜなら、そうした部分は不規則な形をしており、境界がはっきりしないことが多いからです。

この種の問題には、あるクラス(例えば感染部位)に属するすべてのピクセルにラベルを付ける「セマンティックセグメンテーション」や、物体の輪郭をより正確に分離する「インスタンスセグメンテーション」といった画像セグメンテーション技術を用いて取り組むことができます。

Ultralytics を使用すれば、ユーザーはポリゴン注釈機能を利用して、これらの感染箇所の正確な形状をトレースすることができます。これにより、より正確なデータセットを作成できるようになり、ビジョンAIアルゴリズムが農業環境における微妙なパターンを検知しやすくなります。

その結果、チームは、モデルが害虫の発生箇所を正確に特定するのに役立つ、より質の高いトレーニングデータを構築できるようになります。これは、被害を受けていない葉の部分まで含まれてしまうことがあるバウンディングボックスを使用するよりも効果的です。

インスタンスセグメンテーションを活用した医療画像解析

農業における害虫の検出と同様に、境界線のわずかな違いでさえ、医療画像におけるがんなどの疾患の解析結果に影響を与える可能性があります。これは、CTスキャンにおける腫瘍などの医療上の異常を特定する際に、特に重要です。

従来のアノテーション手法では、微細なエッジが見落とされたり、周囲の組織が含まれてしまったりすることがあり、その結果、精度が低下する可能性があります。Ultralytics を使用すれば、チームはポリゴンアノテーションを用いてトレーニングデータ内のこれらの領域を正確にトレースすることができ、モデルがより正確で信頼性の高い腫瘍セグメンテーションを生成できるようになります。

主なポイント

モデルが画像内の物体の形状を高精度で認識するためには、ポリゴン注釈が不可欠です。Ultralytics を使用する場合、これにより複雑な形状をより正確に表現することができます。精度と強力なツールを組み合わせることで、チームはより信頼性が高く、高性能なAIモデルを構築できます。

プロジェクトにビジョンAIを導入する準備はできていますか?当社のコミュニティに参加して、自動車業界におけるAIや ロボット工学におけるビジョンAIについて学びましょう。詳細については、GitHubリポジトリをご覧ください。今すぐ始めるために、ライセンスオプションをご確認ください! 

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。