Meta Segment Anything Model 2 소개
WebsiteAI Image Segmentation
메타 세그먼트 애니씽 모델 2(SAM 2)는 제로샷 일반화 기능을 갖춘 이미지와 비디오 전반에 걸쳐 실시간으로 프롬프트 가능한 객체 분할을 가능하게 하는 강력한 AI 모델입니다.
더 보기Meta Segment Anything Model 2이란 무엇인가요
메타 세그먼트 애니씽 모델 2(SAM 2)는 메타의 세그먼트 애니씽 모델의 차세대 모델로, 이미지에서 비디오로 객체 분할 기능을 확장합니다. 메타 AI에 의해 출시된 SAM 2는 실시간으로 비디오 프레임에서 객체를 식별하고 추적할 수 있는 통합 모델로, 이전 모델의 모든 이미지 분할 기능을 유지합니다. 단일 아키텍처를 사용하여 이미지 및 비디오 작업을 처리하며, 특정 교육을 받지 않은 객체를 분할하기 위해 제로샷 학습을 사용합니다. SAM 2는 이전 모델에 비해 향상된 정밀도, 속도 및 다재다능성을 제공하는 컴퓨터 비전 기술의 중요한 발전을 나타냅니다.
{aiToolName}은 어떻게 작동하나요?
SAM 2는 비전 트랜스포머(ViT) 이미지 인코더, 사용자 상호작용을 위한 프롬프트 인코더 및 분할 결과 생성을 위한 마스크 디코더를 결합한 트랜스포머 기반 아키텍처를 사용합니다. 이 모델은 비디오에서 대상 객체에 대한 정보를 캡처하는 세션별 메모리 모듈을 도입하여 객체가 일시적으로 시야에서 사라지더라도 프레임 간에 객체를 추적할 수 있게 합니다. 사용자는 클릭, 박스 또는 마스크와 같은 다양한 입력 프롬프트를 통해 SAM 2와 상호작용할 수 있습니다. 그런 다음 모델은 이러한 입력을 처리하여 실시간으로 객체를 분할하고 추적합니다. 비디오 처리의 경우 SAM 2는 스트리밍 아키텍처를 사용하여 프레임을 순차적으로 분석하여 효율성을 유지하고 실시간 응용 프로그램을 가능하게 합니다. 정적 이미지에 적용할 때 메모리 모듈은 비어 있으며, 모델은 원래 SAM과 유사하게 작동합니다.
Meta Segment Anything Model 2의 이점
SAM 2는 다양한 산업 및 응용 분야에서 수많은 이점을 제공합니다. 이미지 및 비디오 분할에 대한 통합 접근 방식은 워크플로를 간소화하고 별도의 모델에 대한 필요성을 줄입니다. 제로샷 일반화 기능은 추가 교육 없이 다양한 객체를 처리할 수 있게 하여 매우 다재다능합니다. 실시간 처리 및 상호작용은 비디오 편집, 증강 현실 및 자율 주행 차량과 같은 분야에서 동적 응용 프로그램을 가능하게 합니다. SAM 2의 향상된 정확도와 효율성은 기존 모델보다 상호작용 시간이 세 배 적게 필요하여 객체 분할 및 추적 작업의 생산성을 크게 향상시킬 수 있습니다. 또한, 오픈 소스 특성과 포괄적인 데이터 세트는 컴퓨터 비전 분야에서 추가 연구 및 개발을 촉진하여 여러 분야에서 새로운 혁신 및 응용 프로그램으로 이어질 수 있습니다.
더 보기