Yolo 深圳
深セン
今すぐ参加
用語集

マシンビジョン

マシンビジョンとは?このAI分野がどのように産業オートメーション、品質管理、ロボティクスを可能にするのかを学びましょう。コンピュータビジョンとの主な違いもご紹介します。

マシンビジョンは、画像を解析することによって、自動検査、プロセス制御、ロボット誘導を可能にする工学的学問分野であり、技術である。 ロボットの誘導を可能にする工学技術である。産業オートメーションの「目」として機能し、光学的ハードウェアと高度なソフトウェアを組み合わせることで、視覚的な入力を解釈し、物理的なアクションを引き起こす。 ハードウェアと洗練されたソフトウェアを組み合わせることで、視覚的な入力を解釈し、物理的なアクションを引き起こす。それは の理論原理に大きく依存している。 コンピュータ・ビジョン(CV)の理論的原理に大きく依存しているが、マシンビジョンは 構造化された環境での実用的な実世界展開に重点を置いている点が特徴である。この技術は インダストリー4. この技術はインダストリー4.0の基礎であり、スマート工場が人間の作業者よりも高速、高精度、一貫性をもって稼働することを可能にする。

コア・コンポーネントと機能性

一般的なマシンビジョンシステムは、特定のタスクを確実に実行するために、いくつかの重要なコンポーネントを統合している。その そのプロセスは画像取得から始まります。 産業用カメラと専用レンズが視覚データを取得します。 データを取得する。重要なのは、これらのシステムが 照明技術 ノイズを抑えながら、表面のテクスチャーやエッジなどの特徴を強調します。

画像がキャプチャされると、その画像はコンピューティング・ユニット(多くの場合、エッジ・コンピューティング・デバイスまたはスマート・カメラ)によって処理される。 高度なアルゴリズムを実行する 高度なアルゴリズムによって処理される。歴史的には、これらはルールベースのシステム(例えばピクセルを数える)でしたが、現代のアプリケーションでは への依存度が高まっている。 人工知能(AI)や ディープラーニング(DL)に依存するようになっている。以下のようなモデル Ultralytics YOLO11ようなモデルは、パターンを特定するために画像を分析する、 欠陥をdetect したり、寸法を測定したりする。そしてシステムは、製品の受け入れやロボットアームの誘導などの判断を下し、その判断を ロボットアームに伝達する。 プログラマブル・ロジック・コントローラ(PLC)に伝達する。

マシンビジョン vs. コンピュータビジョン

この用語はしばしば同じ意味で使われるが、マシンビジョンをより広い分野であるコンピュータ・ビジョンと区別することは重要である。 コンピュータ・ビジョンと区別することが重要である。コンピュータ・ビジョンは、コンピュータが画像全般を「理解」できるようにすることに焦点を当てた科学分野である。 コンピュータ・ビジョンは、コンピュータが画像全般を「理解」できるようにすることに焦点を当てた科学分野で、ソーシャルメディアの写真や監視カメラの映像のような非構造化データを扱うことが多い。それは 画像の分類から 画像分類から生成AIまで、幅広いタスクが含まれる。

対照的に、マシンビジョンは、産業上の問題を解決するためにこれらの技術を応用したものである。 マシンビジョンシステムは通常、高い信頼性を確保するために、照明やカメラの位置が一定に管理された環境で作動する。 高い信頼性を保証します。例えば、コンピュータ ビジョンモデルは公園にいる犬を認識しようとするのに対し、マシンビジョンシステムは高速で移動するピストンリング上の微細な傷 を検出するように設計されています。

実際のアプリケーション

マシンビジョンは視覚的な作業を自動化することで、様々な分野の効率化を促進します。

  • 自動化された品質管理:製造部門では 製造分野では、マシンビジョンシステムが を使用しています。 自動光学検査(AOI)を行う。 人間の目には見えない欠陥をdetect します。物体検出モデルを使用して 物体検出モデルを使用することで 組立ラインのひび割れ、へこみ、部品の欠落などの欠陥を即座に特定し、高品質の製品だけが市場に出荷されるようにします。 高品質の製品だけを市場に送り出すことができる。
  • 視覚誘導ロボット工学:マシンビジョンは 不可欠です。これにより、ロボットは物体の位置を特定し ビンから対象物をピックアップしたり(ビンピッキング)、組み立てのために部品を正確に位置決めしたりすることができます。統合 ポーズ推定を統合することで、ロボットは3D空間における物体の これにより、ロボットはあらかじめプログラムされた経路をたどるのではなく、環境とダイナミックに相互作用することができる。 事前にプログラムされた経路をたどるのではなく、環境との動的な相互作用を可能にします。

YOLO11マシンビジョンの実装

現代のマシンビジョンは、ロバストな性能を実現するために、最先端のニューラルネットワークを利用することが多い。次の例 を使用する方法を示します。 ultralytics Python パッケージで YOLO11 モデル 推論を行う。 推論を実行します。

from ultralytics import YOLO

# Load a pre-trained YOLO11 model (or a custom-trained industrial model)
model = YOLO("yolo11n.pt")

# Run inference on an image of a manufactured component
# This step identifies objects and checks for defects based on training
results = model("production_part.jpg")

# Display the results to visualize detections and confidence scores
results[0].show()

このシンプルなワークフローが、以下のような複雑なシステムを支えている。 リアルタイム推論が このワークフローは、複雑なシステムを支えている。 推論の待ち時間を最小化することで、生産速度に スピードを維持する。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加