YOLO Vision 2024で発表されたSharkEyeが、リアルタイムの物体検出とビーチの安全のためにUltralytics YOLOv8をどのように活用しているかをご紹介します。

YOLO Vision 2024で発表されたSharkEyeが、リアルタイムの物体検出とビーチの安全のためにUltralytics YOLOv8をどのように活用しているかをご紹介します。

自然の生息地にいる動物たち、たとえば農場で草を食む牛や海岸近くを移動するサメなどを観察することは、常に彼らの安全と幸福のために重要なことでした。しかし、手動で観察するのは簡単ではありません。観察者は行動や動きのわずかな変化を注意深く監視する必要があるため、多くの場合、何時間もの忍耐と注意深い集中力が必要です。それでも、微妙でありながら重要な兆候を見逃してしまうことがあります。
人工知能(AI)の登場のおかげで、このプロセスはより速く、よりスマートに、そしてはるかに効率的になり、人間の観察者の負担を軽減しながら精度を向上させています。特に、コンピュータビジョンを使用して、動物を追跡し、危険を特定し、リアルタイムで意思決定を行うことができます。かつて何時間もかかっていたタスクが数分で完了できるようになり、動物の行動を理解するための新しい方法が開かれています。
Ultralyticsが主催する年次ハイブリッドイベントであるYOLO Vision 2024(YV24)では、専門家やイノベーターが集まり、AIが日常の課題にどのように取り組んでいるかを探求しました。紹介されたトピックの中には、リアルタイム物体検出と動物モニタリングの進歩が含まれており、AIがさまざまな分野で安全性と効率をどのように向上させているかが示されました。
イベントのハイライトの1つは、AI Master Groupの創設者であるJim Griffin氏による講演で、彼はVision AIがサメが海岸に近づきすぎる前に検出することで、ビーチをより安全にしている様子を実演しました。彼は、最先端のコンピュータビジョンモデルであるUltralytics YOLOv8を使用して、波の荒さ、まぶしさ、水中の障害物などの困難な条件下でも、リアルタイムでサメを正確に識別する方法を説明しました。
この記事では、SharkEyeプロジェクトを詳しく見て、Jim氏の講演からの興味深い洞察を共有します。
Jim氏は、カリフォルニアの有名なサーフィンスポットであるパダロビーチを紹介することから講演を始めました。そこでは、サーファーとサメが同じ海域を共有することがよくあります。サメの検出における現実の課題を強調し、彼は次のように述べています。「もちろん、サメに噛まれたら検出するのは簡単ですが、私たちがやりたかったのは、事前にサメを識別することでした。」

SharkEyeは、カリフォルニア大学サンタバーバラ校の支援を受けて、この問題に取り組むために作成されました。Jim氏は、高解像度のAIカメラを搭載したドローンを水面から約200フィート上空に飛行させ、リアルタイムで海をスキャンする方法を説明しました。
サメが検出されると、ライフガード、サーフショップのオーナー、および最新情報にサインアップした人を含む約80人にSMSアラートが送信されます。Jim氏は、これらの即時通知により迅速な対応が可能になり、サメが海岸の近くにいるときに海水浴客の安全を確保できることを指摘しました。
また、Jim氏は、SharkEyeにはサメの検出状況をリアルタイムで確認できるライブダッシュボード機能があると述べました。例えば、過去12週間で、このシステムは2匹の大型のサメと15匹の小型のサメを識別し、1週間あたり平均1匹強のサメを検出しました。
続いて、SharkEyeの開発を主導した科学者、Neil Nathan氏を紹介しました。Nathan氏は、コンピュータサイエンスではなく環境学を専門としていましたが、プロジェクトを見事に成功させました。Jim氏は、SharkEyeで使用されているような最新のAIツールは、専門知識を持たない人でもアクセスしやすいように設計されており、インパクトのあるソリューションを開発できると強調しました。
さらに詳細について、Jim氏はSharkEyeの内部構造と、このサメ検出ソリューションが単純な物体検出タスクだけではなかったことを詳しく説明しました。サメと間違えやすい海藻が浮遊するなど、予測不可能な動的条件に対処する必要がありました。静止した物体を特定するのとは異なり、サメの識別には精度と適応性が求められるため、YOLOv8が最適な選択肢となりました。
YOLOv8のもう1つの利点は、クラウドサーバーに頼らずにドローンに実装できることでした。Jim氏は、このアプローチによってSharkEyeが即座にアラートを送信できるようになったと説明しました。これは、予測不可能な海洋状況において迅速な対応を確保するために不可欠な要素です。
SharkEyeの仕組みと、その背景にある共同作業について説明した後、Jim氏はライブデモを披露しました。
Jim Griffin氏は、おなじみの例として、Ultralytics YOLOモデルの「ハローワールド」コードスニペットを紹介し、ライブデモを開始しました。わずか6行のPythonコードで、事前学習済みのUltralytics YOLOv8モデルが画像内のバスを簡単に検出できる様子を実演しました。

彼のデモでは、ドローンのような低電力デバイス向けの軽量版であるYOLOv8 Nanoモデルが使用されました。SharkEyeでも、リアルタイムのサメ検出に同じモデルが使用されました。
より詳細な情報として、Jim氏は、デモで使用されたモデルが、広く使用されているCOCOデータセットの小規模なサブセットであるCOCO128でトレーニングされていると述べました。COCOデータセットには、80種類の物体カテゴリにわたる20,000枚以上の画像が含まれています。COCO128は簡単なデモンストレーションには適していますが、SharkEyeには、現実世界の複雑なシナリオに対応できる、より堅牢なアプリケーション固有のサメ検出データセットが必要であると指摘しました。
Jim氏によると、SharkEyeプロジェクトで最も困難だったのは、AIモデルのトレーニングではなく、適切なデータを収集することでした。彼は、「このプロジェクトの主な作業はAIではありませんでした。このプロジェクトの主な作業は、5年間ドローンを飛ばし、それらのビデオから画像を選び出し、適切にタグ付けすることでした」とコメントしました。
彼は、チームがパダロビーチで15,000枚の画像を収集した経緯を説明しました。各画像には、サメ、海藻、および水中の他の物体を区別するために、手動でラベルを付ける必要がありました。このプロセスは時間と労力を要しましたが、その後のすべての基礎となりました。

データセットの準備が完了すると、Ultralytics YOLOV8がカスタムトレーニングされました。Jim氏は、「実際のトレーニングは難しいことではありませんでした。T4 GPU(グラフィックスプロセッシングユニット)でわずか20時間しかかかりませんでした」と述べています。また、A100 GPUのようなより強力なハードウェアを使用すれば、時間をわずか5時間に短縮できたとも付け加えました。
次に、Jim氏はSharkEyeのパフォーマンスがどのように評価されたかについて説明しました。重要な指標は精度、つまりシステムが実際のサメをどれだけ正確に識別できるかであると説明しました。SharkEyeは92%という驚異的な精度を達成しており、複雑な海洋環境の中でサメを正確に識別する上で非常に効果的であることが証明されました。
精度の重要性についてさらに詳しく説明するために、Jim氏は、この場合、なぜ再現率よりも精度が重要なのかを明確にしました。「ほとんどの場合、人々は再現率に関心を持っています。特に、陽性ケースを見逃すことが重大な結果につながる医療分野ではそうです。しかし、この場合、どれだけのサメがいるのかわからなかったので、私たちが重要視したのは精度でした」と彼は説明しました。SharkEyeは、精度に焦点を当てることで誤報を最小限に抑え、ライフガードやその他の対応者が迅速に行動できるようにしました。

彼は、AIと人間のパフォーマンスを比較し、SharkEyeの92%の精度が人間の専門家の60%の精度をはるかに上回っていると指摘して、講演を締めくくりました。彼はこのギャップを強調し、「それは私たちが人間だからです。あなたや私がどれほど専門家であろうと、一日中スクリーンの前に座ってサメを探さなければならないとしたら、いずれは気が散ってしまうでしょう」と述べました。人間とは異なり、AIモデルは疲れたり、気が散ったりすることがないため、継続的な監視が必要なタスクにとって信頼できるソリューションとなります。
Jim Griffin氏の講演からの興味深い引用、「6行のコードがいつかあなたの命を救うかもしれない」は、高度でありながらアクセスしやすいAIがいかに普及しているかを完璧に捉えています。Ultralytics YOLOモデルは、このことを念頭に置いて作成されており、最先端のコンピュータビジョン技術をあらゆる規模の開発者や企業が利用できるようにしています。Ultralytics YOLO11は、より高速な推論とより高い精度でこれをさらに発展させています。
YOLO11の特徴を簡単に見てみましょう。
これらの機能により、YOLO11は農場や野生環境における動的な環境での動物行動追跡に最適です。
Vision AIの進歩により、さまざまな分野に実用的なツールが提供され、現実世界の課題への取り組みが容易になっています。例えば、YOLO11のようなコンピュータビジョンモデルは、困難な条件下でも動物のリアルタイム監視と追跡に使用できます。
YV24でのJim Griffinの基調講演では、YOLOv8を最小限のコーディングで複雑な問題を解決するためにどのように使用できるかが説明されました。ドローンとAIを組み合わせてリアルタイムのサメ検出を行うSharkEyeプロジェクトは、テクノロジーがビーチの安全性をどのように向上させることができるかを示しました。
これは、アクセスしやすいAIが、さまざまなバックグラウンドを持つ人々が効果的なソリューションを作成できるようにする魅力的なケーススタディでした。AIが進化し続けるにつれて、産業を変革し、個人がその可能性を活用して世界をより安全、スマート、効率的な場所にすることが可能になっています。
私たちのコミュニティに参加し、GitHubリポジトリを探求して、AIについてより深く掘り下げてみましょう。農業におけるコンピュータビジョンから自動運転車におけるAIまで、これらのテクノロジーがどのようにイノベーションを推進しているかをご覧ください。当社のライセンスオプションをチェックして、今日からAIプロジェクトを始めましょう!