
Mercury
Mercury는 기존 LLM보다 최대 10배 더 빠르게 텍스트를 생성하면서도 고품질 출력을 유지할 수 있는 최초의 상업용 규모 확산 기반 대규모 언어 모델(dLLM)입니다.
https://www.inceptionlabs.ai/?ref=producthunt&utm_source=aipure

제품 정보
업데이트됨:Feb 28, 2026
Mercury이란?
Mercury는 Inception Labs에서 개발한 획기적인 AI 모델로, 기존의 자동 회귀 언어 모델에서 확산 기반 텍스트 생성으로의 근본적인 변화를 나타냅니다. 2025년 2월에 출시된 Mercury와 코드에 특화된 버전인 Mercury Coder는 Amazon Bedrock Marketplace와 Amazon SageMaker JumpStart를 통해 사용할 수 있습니다. 이 모델 제품군은 Stanford, UCLA, Cornell의 연구팀이 기초 확산 작업을 개척하여 만들었습니다. Mercury는 코드 생성, 추론 및 실시간 음성 애플리케이션을 포함한 다양한 작업을 처리하도록 설계되었습니다.
Mercury의 주요 기능
Mercury는 Inception Labs에서 개발한 획기적인 확산 기반 대규모 언어 모델(dLLM)로, 언어 모델이 텍스트를 생성하는 방식을 근본적으로 변화시킵니다. 텍스트를 순차적으로 생성하는 기존의 자동 회귀 모델과는 달리, Mercury는 여러 토큰을 병렬로 생성하여 표준 NVIDIA GPU에서 초당 1,000개 이상의 토큰 속도를 달성하면서도 고품질 출력을 유지합니다. 128K 토큰 컨텍스트 창, 도구 호출 지원, AWS Bedrock 및 Azure AI Foundry와 같은 주요 클라우드 플랫폼과의 호환성을 포함한 엔터프라이즈급 기능을 제공합니다.
병렬 토큰 생성: 확산 기반 아키텍처를 사용하여 순차적 생성 대신 여러 토큰을 동시에 생성하여 기존 LLM보다 5-10배 빠른 처리를 가능하게 합니다.
클라우드 플랫폼 통합: 엔터프라이즈급 안정성 및 99.5% 이상의 가동 시간으로 AWS Bedrock 및 Azure AI Foundry를 포함한 주요 클라우드 공급자를 통해 사용할 수 있습니다.
API 호환성: OpenAI API 호환성을 유지하고 표준 프롬프트 방법(제로샷, 퓨샷, CoT)을 지원하므로 기존 LLM 워크플로우를 즉시 대체할 수 있습니다.
고급 추론 기능: 텍스트 생성 중 오류를 포착하고 일관성을 향상시키는 다단계 개선 프로세스를 특징으로 하며, 특히 코딩 및 수학적 추론 작업에서 강력합니다.
Mercury의 사용 사례
코드 개발: 매우 짧은 지연 시간으로 개발 환경에서 실시간 코드 완성, 지능형 탭 제안 및 빠른 코드 편집을 지원합니다.
엔터프라이즈 검색: 최소한의 지연 시간으로 대규모 조직 지식 기반에서 즉각적인 데이터 검색 및 요약을 가능하게 합니다.
실시간 음성 애플리케이션: 고객 지원, 번역 서비스 및 대화형 음성 에이전트를 포함한 응답성이 뛰어난 음성 기반 워크플로우를 지원합니다.
자동화된 워크플로우: 매우 응답성이 뛰어난 AI 기능을 통해 엔터프라이즈 환경에서 복잡한 라우팅, 분석 및 의사 결정 프로세스를 처리합니다.
장점
훨씬 빠른 처리 속도(초당 1000개 이상의 토큰)
기존 LLM에 비해 낮은 추론 비용
기존 LLM 워크플로우와의 즉시 호환성
단점
새로운 기술로서 제한적인 실적
현재 주로 코딩 및 엔터프라이즈 애플리케이션에 중점
최적의 성능을 위해 특정 GPU 하드웨어 필요
Mercury 사용 방법
계정 만들기: platform.inceptionlabs.ai를 방문하여 Inception Platform 계정을 만들거나 이미 계정이 있는 경우 로그인합니다.
API 키 받기: 계정 대시보드의 API 키 섹션으로 이동하여 새 API 키를 만듭니다. 새 API 키에는 1,000만 개의 무료 토큰이 제공됩니다.
배포 방법 선택: 필요에 따라 직접 API 통합, Amazon Bedrock Marketplace, Amazon SageMaker JumpStart 또는 Azure AI Foundry를 통해 Mercury에 액세스할 수 있습니다.
API 호출하기: API 키를 사용하여 Mercury API 엔드포인트에 호출합니다. API는 OpenAI와 호환되며 REST 호출 또는 기존 OpenAI 클라이언트 라이브러리를 통해 액세스할 수 있습니다.
기본 API 사용 예제: Authorization 헤더에 API 키와 모델(예: \'mercury-2\') 및 메시지가 포함된 JSON 페이로드를 사용하여 https://api.inceptionlabs.ai/v1/chat/completions에 POST 요청을 합니다.
설정 구성: 선택적으로 max_tokens와 같은 매개변수를 설정하고 diffusing 매개변수를 true로 설정하여 스트리밍/확산 시각화를 활성화합니다.
도구와 통합: Mercury는 LangChain, AISuite 및 LiteLLM을 포함한 인기 있는 도구 및 프레임워크와 통합하여 더 복잡한 애플리케이션을 만들 수 있습니다.
사용량 모니터링: 플랫폼 대시보드를 통해 토큰 사용량을 추적합니다. 입력 토큰은 1M 토큰당 $0.25이고 출력 토큰은 1M 토큰당 $0.75입니다.
지원 받기: 문제나 질문이 있는 경우 [email protected]로 문의하거나 Discord 채널에 참여하십시오. 엔터프라이즈 고객은 [email protected]로 문의할 수 있습니다.
Mercury 자주 묻는 질문
Mercury는 2025년 2월에 Inception Labs에서 출시한 최초의 상용 확산 기반 대규모 언어 모델(dLLM)입니다. 기존의 자동 회귀 생성 대신 획기적인 확산 기반 접근 방식을 사용하여 언어를 생성합니다.











