YOLOビジョン2024(YV24)は、Ultralyticsが毎年開催しているハイブリッドイベントで、世界中からAI愛好家、開発者、専門家が集まり、コンピュータービジョンの最新イノベーションを探求しました。YV24は、新たなブレークスルーを議論する絶好の機会であり、プラットフォームでした。このイベントでは、AI業界の主要企業が最新のイノベーションを紹介した。その中にはインテルも参加し、彼らの新しい画期的なAI PCとインテルOpenVinoの Ultralytics YOLO 11のようなUltralytics YOLOモデルとの統合についての基調講演を行った。
講演は、LandCover.aiデータセットを共同作成し、インテルのOpenVINOツールキットについて開発者を教育するソフトウェア・エバンジェリストのAdrian Boguszewski氏と、産業オートメーションとAIで20年以上の経験を持つAI PCエバンジェリストのDmitriy Pastushenkov氏によって行われた。イベント中、エイドリアンは興奮を分かち合い、"UltralyticsがYOLOの新バージョンを提供したからだけでなく、私たちの新しいハードウェア上で動作するこの新しいモデル、そしてOpenVINOの新バージョンを発表することができたので、今日は素晴らしいイベントとなりました。"と語った。
この記事では、インテルがYV24で行った講演の主なハイライトを紹介し、AI PCであるインテル Core Ultra 200Vシリーズの裏側と、OpenVINOツールキットを使用したUltralytics YOLOモデルとの統合方法について掘り下げる。さっそく始めよう!
ドミトリーは基調講演の冒頭で、従来のAIとジェネレーティブAIの主な違いについて説明した。焦点は、2024年にこれらのテクノロジーとそのユースケースがどのように進化しているかに絞られた。コンピュータ・ビジョンや 自然言語処理のような伝統的なAI技術は、姿勢推定、物体検出、音声認識のようなタスクに不可欠である。しかし、ジェネレーティブAIは、チャットボット、テキストから画像への生成、コードの記述、さらにはテキストからビデオへの変換といったアプリケーションを含む、AI技術の新しい波を表している。
ドミトリーは両者のスケールの違いを指摘した。従来のAIモデルが数百万個のパラメータで構成されているのに対し、ジェネレーティブAIモデルははるかに大規模で動作すると説明した。ジェネレーティブAIモデルは、数十億から数兆のパラメータを含むことが多く、計算負荷がはるかに高くなります。
ドミトリーは、従来のAIモデルとジェネレーティブAIモデルの両方を効率的に実行するという増大する課題に対処するために設計された新しいハードウェアソリューションとして、インテルAI PCを紹介した。インテルAI PCは、パワフルでエネルギー効率の高いマシンです。クラウドベースの処理を必要とせず、幅広いAIモデルをローカルで実行することができる。
ローカル処理は、機密データのプライバシー保護に役立つ。AIモデルがインターネット接続から独立して動作できるようになれば、プライバシーとセキュリティに関する業界の倫理的懸念に答えることができる。
インテルAI PCの原動力は、インテル・コア・ウルトラ200Vシリーズ・プロセッサーである。このプロセッサーには、中央処理ユニット(CPU)、グラフィックス・プロセッシング・ユニット(GPU)、ニューラル・プロセッシング・ユニット(NPU)の3つの主要コンポーネントが組み込まれている。それぞれが、さまざまなタイプのAIワークロードを処理する上で特定の役割を果たす。CPUは迅速な応答が必要な小規模で低レイテンシーのタスクに最適で、GPUはAIモデルの実行のような高スループット処理に最適化されている。電力効率を重視して設計されたNPUは、YOLO11のようなモデルによるリアルタイムの物体検出のような長時間実行タスクに適している。
CPUは最大5TOPS(1秒間に数兆回の演算)、GPUは最大67TOPS、NPUはシステムリソースを消耗することなくAIタスクを継続的に実行するエネルギー効率の高い方法を提供することが強調された。
インテル Core Ultra 200Vシリーズ・プロセッサーは、NPU、CPU、GPUの3つのAIエンジンを1つの小型チップに統合しています。そのデザインは、性能を犠牲にすることなく、ノートPCのようなコンパクトなデバイスに最適です。
プロセッサーにはRAMも内蔵されており、グラフィックカードを別途用意する必要がない。これにより、消費電力を削減し、デバイスをコンパクトに保つことができる。ドミトリーはまた、プロセッサーの柔軟性も強調した。ユーザーはタスクに応じて、AIモデルをCPU、GPU、NPUのどれで実行するかを決めることができる。例えば、YOLO11モデルによる物体検出は、これらのエンジンのいずれでも実行できますが、テキストから画像への生成のような複雑なタスクでは、GPUとNPUの両方を同時に使用してパフォーマンスを向上させることができます。
プレゼンテーションの間、ドミトリーはポケットからチップを取り出し、このような高度なAIタスクを処理する能力があるにもかかわらず、チップが本当に小さいことを皆にはっきりと実感させた。それは、インテルがいかに強力なAI機能をよりポータブルで実用的なデバイスにもたらそうとしているかを示す、楽しく印象的な方法だった。
ドミトリーは、インテルの最新のハードウェアを紹介した後、AIをサポートするインテルのソフトウェア・スタックに話を移した。彼はOpenVINOを紹介した。OpenVINOはインテルのオープンソース・フレームワークで、AIモデルを最適化し、さまざまなデバイスに効率的に展開するように設計されている。OpenVINOはビジュアル・タスクにとどまらず、自然言語処理、オーディオ処理、トランスフォーマーなどに使用されるAIモデルにもサポートを拡大している。
OpenVINOは、PyTorch、TensorFlow、ONNXのような一般的なプラットフォームと互換性があり、開発者は簡単にワークフローに組み込むことができる。彼が注目した重要な機能のひとつは量子化だ。量子化はモデルの重みを圧縮してサイズを小さくするため、大規模なモデルでもクラウドを必要とせず、ローカルデバイスでスムーズに実行できる。OpenVINOは複数のフレームワークで動作し、CPU、GPU、NPU、FPGA、あるいはARMデバイスでも動作し、Windows、Linux、macOSをサポートしている。ドミトリーはまた、OpenVINOを使い始めるのがいかに簡単かを聴衆に説明した。
講演の第2部では、マイクがエイドリアンに渡され、UltralyticsのYOLOモデルとIntelのOpenVINOツールキットとのシームレスな統合について説明し、YOLOモデルのデプロイプロセスを簡素化した。彼は、UltralyticsのPythonパッケージを使ったYOLOモデルのOpenVINOフォーマットへのエクスポートがいかに迅速で簡単であるかを、ステップ・バイ・ステップで説明した。この統合により、開発者はインテル・ハードウェア向けにモデルを最適化し、両プラットフォームを最大限に活用することがより容易になります。
エイドリアンは、UltralyticsのYOLOモデルが一度トレーニングされると、ユーザーはいくつかの簡単なコマンドラインフラグを使用して、それをエクスポートできることを示しました。例えば、ユーザーはモデルを最大精度の浮動小数点バージョンとしてエクスポートするか、スピードと効率性を高めるために量子化バージョンとしてエクスポートするかを指定することができます。また、開発者がコードを通じてこのプロセスを直接管理し、INT8量子化などのオプションを使用することで、精度をあまり犠牲にすることなくパフォーマンスを向上させる方法についても強調しました。
この理論を実践するため、インテルチームはインテルAI PC上でYOLO11を実行し、オブジェクト検出のリアルタイムデモを披露した。エイドリアンは、システムが異なるプロセッサ間でモデルをどのように処理するかを紹介し、CPUでは浮動小数点モデルで毎秒36フレーム(FPS)、統合GPUでは100FPS以上、INT8量子化バージョンでは70FPSを達成した。彼らは、インテル® AI PCが複雑なAIタスクをいかに効率的に管理できるかを示すことができました。
また、すべてのデータやビデオフレームが前もって利用可能なタスクでは、CPU、GPU、NPUを併用し、並列にモデルを実行できることも指摘した。これは動画のような高負荷を処理する場合に有効だ。システムは作業負荷を異なるプロセッサーに分割できるため、より高速で効率的な処理が可能になる。
最後に、エイドリアンはユーザーが自宅でデモを試すことができることに触れ、その中にはピープルカウンティングや インテリジェント・キュー・マネージメントといった ソリューションも含まれていると述べた。そして、ユーザーがプロンプトを入力することで、夢のような画像をGPU上でリアルタイムに生成できるボーナスデモを披露した。このデモは、伝統的なAIタスクと創造的でジェネレーティブなAIプロジェクトの両方に対するインテルAI PCの多用途性を示した。
このイベントでインテルはブースを構え、インテルAI PC上で動作するYOLO11を使ったリアルタイムの物体検出デモを展示した。参加者は、OpenVINOで最適化され、インテルCore Ultra 200Vプロセッサーにデプロイされたモデルを実際に見ることができた。
インテルのブースでドミトリーは、「YOLOビジョンに参加するのは初めてで、マドリードに来られてうれしいです。インテルCore Ultra 200Vプロセッサーで動作するUltralyticsのYOLO11モデルを紹介します。優れたパフォーマンスを示しており、モデルの最適化とデプロイにはOpenVINOを使用しています。Ultralyticsと協力し、CPU、GPU、NPUを活用して最新のインテル・ハードウェア上でモデルを実行するのは非常に簡単でした」。ブースでは、参加者が持ち帰れるTシャツやノートブックなど、楽しい景品も用意されていた。
インテルはYV24で、インテル・コア・ウルトラ200Vシリーズ・プロセッサーを使った技術講演を行い、OpenVINOツールキットがUltralytics YOLO11のようなAIモデルをどのように最適化するかを紹介した。この統合により、ユーザーはYOLOモデルをデバイス上で直接実行することができ、物体検出のようなコンピュータ・ビジョン・タスクに優れたパフォーマンスを提供することができる。主な利点は、ユーザーがクラウドサービスに依存する必要がないことです。
開発者やAI愛好家は、CPU、GPU、NPUなどのハードウェアをリアルタイム・アプリケーションにフル活用しながら、YOLOモデルを簡単に実行し、微調整することができます。Intel OpenVINOツールキットとUltralytics YOLOモデルの組み合わせは、高度なAI機能をパーソナル・デバイスに直接もたらす新たな可能性を開くものであり、さまざまな業界にわたってAIイノベーションを推進することを熱望する開発者にとって理想的な選択肢となります。
コラボレーションして、イノベーションを起こしましょう!GitHub リポジトリを訪問して、私たちのコントリビューションを探索し、私たちのコミュニティに参加してください。製造業やヘルスケアなどの業界にインパクトを与えるためにAIをどのように活用しているかをご覧ください。