Meta Segment Anything Model 2 紹介
WebsiteAI Image Segmentation
Meta Segment Anything Model 2(SAM 2)は、ゼロショット一般化機能を備えた画像と動画の両方にわたるリアルタイムでプロンプト可能なオブジェクトセグメンテーションを可能にする強力なAIモデルです。
もっと見るMeta Segment Anything Model 2とは
Meta Segment Anything Model 2(SAM 2)は、MetaのSegment Anything Modelの次世代版であり、画像から動画へのオブジェクトセグメンテーション機能を拡張します。Meta AIによってリリースされたSAM 2は、リアルタイムで動画フレーム全体のオブジェクトを識別し追跡できる統一モデルであり、前のモデルのすべての画像セグメンテーション機能を維持しています。画像と動画のタスクを処理するために単一のアーキテクチャを使用し、特にトレーニングされていないオブジェクトをセグメントするためにゼロショット学習を採用しています。SAM 2は、以前のモデルと比較して、精度、速度、汎用性が向上したコンピュータビジョン技術の重要な進歩を表しています。
Meta Segment Anything Model 2はどのように機能しますか?
SAM 2は、Vision Transformer(ViT)画像エンコーダ、ユーザーインタラクション用のプロンプトエンコーダ、およびセグメンテーション結果を生成するためのマスクデコーダを組み合わせたトランスフォーマーベースのアーキテクチャを利用しています。このモデルは、動画内のターゲットオブジェクトに関する情報をキャプチャするセッションごとのメモリモジュールを導入しており、一時的に視界から消えてもフレーム間でオブジェクトを追跡することができます。ユーザーは、任意の画像または動画フレーム上でクリック、ボックス、またはマスクなどのさまざまな入力プロンプトを通じてSAM 2と対話できます。モデルはこれらの入力を処理して、リアルタイムでオブジェクトをセグメントおよび追跡します。動画処理の場合、SAM 2はストリーミングアーキテクチャを採用し、フレームを順次分析して効率を維持し、リアルタイムアプリケーションを可能にします。静的画像に適用される場合、メモリモジュールは空のままで、モデルは元のSAMと同様に機能します。
Meta Segment Anything Model 2の利点
SAM 2は、さまざまな業界やアプリケーションにわたって多くの利点を提供します。画像と動画のセグメンテーションに対する統一的なアプローチは、ワークフローを効率化し、別々のモデルの必要性を減少させます。ゼロショット一般化機能により、追加のトレーニングなしで幅広いオブジェクトを扱うことができ、高い汎用性を持っています。リアルタイム処理とインタラクティビティにより、動画編集、拡張現実、自律走行車両などの分野で動的なアプリケーションが可能になります。SAM 2の改善された精度と効率は、既存のモデルの3倍少ないインタラクション時間を必要とし、オブジェクトのセグメンテーションや追跡に関わるタスクの生産性を大幅に向上させることができます。さらに、そのオープンソースの性質と包括的なデータセットは、コンピュータビジョンの分野でのさらなる研究と開発を促進し、複数のセクターにわたる新しい革新やアプリケーションにつながる可能性があります。
もっと見る