ポリゴン注釈について、それがどのようにして正確なオブジェクトのセグメンテーションを可能にするのか、Ultralytics を使って簡単に注釈を作成する方法をご紹介します。

ポリゴン注釈について、それがどのようにして正確なオブジェクトのセグメンテーションを可能にするのか、Ultralytics を使って簡単に注釈を作成する方法をご紹介します。

最先端のAI技術は、自動運転から精密農業に至るまで、幅広い産業分野に浸透しつつあります。例えば、酪農家たちはAIや画像解析を活用して、牛のdetect 。跛行(はこう)などの健康上の問題は、背中が反る、動きに左右差が見られるといった、動物の歩行や姿勢の変化を観察することでモニタリングが可能です。

人工知能の一分野であるコンピュータビジョンは、機械が視覚データを解釈・分析できるようにすることで、こうしたアプリケーションを実現します。具体的には、インスタンスセグメンテーションは、画像内の各オブジェクトをピクセル単位で識別・分割するコンピュータビジョンのタスクであり、個々の動物を正確にdetect 分析することを可能にします。
このプロセスにおいて、ポリゴンアノテーションは重要な役割を果たします。これは、画像内の対象物の輪郭に沿って点を配置することで、その正確な形状を詳細にトレースするデータアノテーション手法です。単純なバウンディングボックスのアノテーションとは異なり、この手法は対象物の実際の輪郭に沿って描かれるため、より精度の高いトレーニングデータの作成が可能となり、ビジョンAIモデルが対象物の境界をより正確に理解できるようになります。
現在、ポリゴン注釈を作成するためのツールは数多く存在します。しかし、これらのツールは、特に注釈の種類ごとにサポート内容が不統一だったり限定的だったりする場合が多く、単一のワークフロー内で多様なラベル付けのニーズを管理するのが難しくなりがちです。
データセット管理、アノテーション、トレーニング、デプロイ、モニタリングの間のギャップを埋める、当社の新しいエンドツーエンドのビジョンAIワークスペース「Ultralytics 」は、単一のシームレスなワークスペース内で複数のアノテーション形式とAI支援ワークフローをサポートすることでこの課題を解決し、アノテーションプロセス全体を簡素化します。
この記事では、ポリゴン注釈とは何か、Ultralytics を使ってどのように作成するかについて解説します。さっそく始めましょう!
Ultralytics ポリゴン注釈機能について詳しく説明する前に、ひとまず一歩引いて、ポリゴン注釈とは何かを理解しておきましょう。
画像アノテーションとは、AIモデルが画像の内容を理解できるように、視覚データにラベルを付与するプロセスです。通常、画像内の対象物を特定し、モデルが学習できる形でそれらにマークを付ける作業が含まれます。
最も一般的な手法の一つは、オブジェクトの周囲に長方形の枠(バウンディングボックス)を描くことです。しかし、バウンディングボックスではオブジェクトの輪郭を大まかに示すにとどまります。ポリゴン注釈は、より正確な手法です。
この手法は、対象物を四角い枠で囲むのではなく、一点ずつ輪郭(境界線)を描き出すことで機能します。これを行うために、アノテーターは対象物の縁に沿って複数の頂点(点)を配置し、形状全体が覆われるまで輪郭をなぞっていきます。
これらの接続された点は、対象物の自然な輪郭を反映した多角形を形成します。形状が対象物の境界に密接に沿っているため、この注釈機能は、従来の手法では見落とされがちな細部まで捉えることができます。これは、葉や人のシルエット、重なり合った物体など、不規則な形状や複雑なエッジを持つ対象物において特に有用です。
このようなデータの精度は、モデルトレーニング中に機械学習モデルがより効果的に学習するのに役立ちます。アノテーションがオブジェクトの実際の境界を正確に捉えている場合、モデルはピクセルレベルでそのオブジェクトのパターンをより正確に理解できるようになります。これにより、特に高い精度が求められるセグメンテーションタスクにおいて、モデルの性能が向上します。
では、ポリゴン注釈は実際にはどのように使われるのでしょうか?これらは、インスタンスセグメンテーションのような画像セグメンテーションタスクをサポートするビジョンAIモデルと密接に関連しています。
多くのコンピュータビジョンアプリケーションにおいて、画像や動画のフレーム内で各オブジェクトが占める正確な領域を把握することは不可欠です。その好例が、製造現場における自動車部品の検出です。この場合、モデルは、ドア、窓、ヘッドライトなどの部品が重なっていたり複雑な形状をしていても、それらを識別し、正確に輪郭を描き出す必要があります。
ここでインスタンスセグメンテーションの出番となります。これにより、モデルはdetect オブジェクトdetect 、ピクセル単位でその正確な境界を特定できるようになります。これは、バウンディングボックスを使用する基本的な物体検出とは異なります。

バウンディングボックスは、オブジェクトの周囲にあるおおよその長方形の領域を示すに過ぎず、多くの場合、余分な背景が含まれてしまうため、不規則な形状を捉えたり、重なっている要素を分離したりするのが難しくなります。
ポリゴンアノテーションは、このレベルの精度を実現する上で極めて重要な役割を果たしています。データセット内の画像にある各オブジェクトの正確な形状をトレースすることで、オブジェクトの実際の境界を反映した高品質なトレーニングデータが生成されます。こうした詳細なアノテーションにより、Ultralytics モデルは各構成要素の構造をより正確に把握できるようになり、その結果、より精度の高いセグメンテーション結果が得られます。
次に、従来のアノテーションツールの限界について見ていき、Ultralytics のような、より効率的で拡張性の高いソリューションが必要とされる理由を理解しましょう。
従来のポリゴン注釈ツールを使用する際、注釈担当者が直面する一般的な課題には次のようなものがあります:
Ultralytics 、Segment Anything Models(SAM)YOLO 両方を活用したAI支援型アノテーション機能により、こうした課題に対応しています。SAM 、クリックなどの簡単な操作から高品質なセグメンテーションマスクを生成SAM 、それをさらに精緻なポリゴンアノテーションへと磨き上げることができます。
同様に、YOLO、事前学習済みまたはYOLO を用いて画像の推論を行い、バウンディングボックス、セグメンテーションマスク、または方向指定付きバウンディングボックスなどの予測結果をアノテーションとして追加します。これらのアノテーションは、必要に応じて確認・調整が可能です。これらの機能により、アノテーションプロセスはより高速かつ一貫性が高くなり、拡張性も向上します。
Ultralytics 、ワークスペース内で直接画像にアノテーションを付与できる統合型アノテーションエディタが搭載されています。これにより、別途用意する必要があり、多くの場合手間のかかるデータラベリングツールに頼ることなく、データセットの構築や管理を容易に行うことができます。
ポリゴン注釈に加え、Ultralytics 他にもいくつかの注釈タイプに対応しています。以下に概要を簡単に紹介します:
それでは、Ultralytics 上で、手動またはAI支援ツールを用いてポリゴン注釈を作成する方法を見ていきましょう。
多角形のアノテーションを手動で作成するための簡単な手順を以下に示します:

次に、アノテーションのプロセスを効率化する、Ultralytics がサポートするAIを活用したラベリング機能について見ていきましょう。
このプラットフォームでは、スマートアノテーションのために2つのアプローチを提供しています。1つは「Segment Anything Models」を活用した、クリック操作によるインタラクティブなアノテーション生成であり、もう1つは「YOLO を活用した、モデルの予測結果を直接アノテーションとして追加するものです。どちらのアプローチも、スマートポリゴンアノテーションに利用可能です。
Ultralytics SAMアノテーション機能は、「Segment Anything Model(SAM)」を活用することで、最小限の入力でセグメンテーションマスクを生成し、手動によるラベリング作業を簡素化します。ユーザーは、オブジェクトを一点ずつトレースする代わりに、クリックなどの簡単な操作で画像と対話しながら、含めるべき部分や除外すべき部分を指定することができます。
このプラットフォームは、SAM .SAM を含むSAM に対応しており、ユーザーはニーズに応じて、処理速度の向上と精度の向上、どちらを優先するかを選択できます。SAM ユーザーの入力に基づいて、ピクセル単位のマスクをリアルタイムでSAM 。これらのマスクはさらに精緻化してポリゴン注釈として使用できるため、プロセスの高速化、一貫性の向上、および拡張性の向上が図れます。
Ultralytics SAM ポリゴン注釈SAM 手順は以下の通りです:

Ultralytics YOLOスマートアノテーション機能は、事前学習Ultralytics YOLO 微調整済YOLO を使用して画像に対する予測を生成し、それらをアノテーションとして追加することで、ラベリング作業を効率化します。これらの予測には、データセットのタスクに応じて、バウンディングボックス、セグメンテーションマスク、または方向指定付きバウンディングボックスが含まれます。
ユーザーはその後、必要に応じてこれらのアノテーションを確認・修正することができます。以下に、Ultralytics でYOLOスマートアノテーションを使用する際の手順の概要を示します:

ポリゴン注釈は、製造業の品質管理から農業、医療に至るまで、幅広い業界で大きな影響を与えています。ここでは、実際の主な活用事例をいくつか見ていきましょう。
農業において、作物の健康状態を監視することは、収量を向上させ、損失を減らすために極めて重要です。作物の葉に害虫が寄生した箇所を特定するのは難しい場合があります。なぜなら、そうした部分は不規則な形をしており、境界がはっきりしないことが多いからです。
この種の問題には、あるクラス(例えば感染部位)に属するすべてのピクセルにラベルを付ける「セマンティックセグメンテーション」や、物体の輪郭をより正確に分離する「インスタンスセグメンテーション」といった画像セグメンテーション技術を用いて取り組むことができます。
Ultralytics を使用すれば、ユーザーはポリゴン注釈機能を利用して、これらの感染箇所の正確な形状をトレースすることができます。これにより、より正確なデータセットを作成できるようになり、ビジョンAIアルゴリズムが農業環境における微妙なパターンを検知しやすくなります。
その結果、チームは、モデルが害虫の発生箇所を正確に特定するのに役立つ、より質の高いトレーニングデータを構築できるようになります。これは、被害を受けていない葉の部分まで含まれてしまうことがあるバウンディングボックスを使用するよりも効果的です。
農業における害虫の検出と同様に、境界線のわずかな違いでさえ、医療画像におけるがんなどの疾患の解析結果に影響を与える可能性があります。これは、CTスキャンにおける腫瘍などの医療上の異常を特定する際に、特に重要です。
従来のアノテーション手法では、微細なエッジが見落とされたり、周囲の組織が含まれてしまったりすることがあり、その結果、精度が低下する可能性があります。Ultralytics を使用すれば、チームはポリゴンアノテーションを用いてトレーニングデータ内のこれらの領域を正確にトレースすることができ、モデルがより正確で信頼性の高い腫瘍セグメンテーションを生成できるようになります。
モデルが画像内の物体の形状を高精度で認識するためには、ポリゴン注釈が不可欠です。Ultralytics を使用する場合、これにより複雑な形状をより正確に表現することができます。精度と強力なツールを組み合わせることで、チームはより信頼性が高く、高性能なAIモデルを構築できます。
プロジェクトにビジョンAIを導入する準備はできていますか?当社のコミュニティに参加して、自動車業界におけるAIや ロボット工学におけるビジョンAIについて学びましょう。詳細については、GitHubリポジトリをご覧ください。今すぐ始めるために、ライセンスオプションをご確認ください!

未来の機械学習で、新たな一歩を踏み出しましょう。