Hierarchical Reasoning Model

Hierarchical Reasoning Model

HRM(Hierarchical Reasoning Model)은 추상적 계획 및 상세한 계산을 위해 두 개의 상호 의존적인 순환 모듈을 사용하여 2,700만 개의 파라미터만으로 뛰어난 추론 능력을 달성하는 두뇌에서 영감을 얻은 AI 아키텍처입니다.
https://github.com/sapientinc/HRM?ref=producthunt&utm_source=aipure
Hierarchical Reasoning Model

제품 정보

업데이트됨:Aug 9, 2025

Hierarchical Reasoning Model이란?

HRM(Hierarchical Reasoning Model)은 Sapient Intelligence에서 개발한 혁신적인 순환 아키텍처로, AI 추론 능력을 혁신합니다. 2025년 7월에 출시된 HRM은 인간 두뇌에서 관찰되는 계층적 및 다중 시간 척도 처리 패턴에서 영감을 얻었습니다. CoT(Chain-of-Thought) 기술에 의존하는 기존 대규모 언어 모델과 달리 HRM은 최소한의 학습 데이터로 효율적으로 작동하며 사전 학습 요구 사항이 없습니다. 이 모델은 1,000개의 학습 샘플만 사용하여 극단적인 스도쿠 퍼즐 풀기 및 대규모 미로에서 최적 경로 찾기를 포함한 복잡한 추론 작업에서 놀라운 성능을 보여줍니다.

Hierarchical Reasoning Model의 주요 기능

계층적 추론 모델(HRM)은 복잡한 추론 능력을 달성하기 위해 추상적 계획을 위한 고수준 모듈과 상세한 계산을 위한 저수준 모듈이라는 두 개의 상호 의존적인 순환 모듈을 사용하는 뇌에서 영감을 받은 AI 아키텍처입니다. 2,700만 개의 파라미터만 사용하고 사전 훈련 없이 1,000개의 예제만으로 훈련된 HRM은 계층적 처리, 시간 분리 및 순환 연결을 통해 어려운 작업을 해결할 수 있으며, 더 효율적이고 안정적이면서 훨씬 더 큰 언어 모델보다 뛰어난 성능을 보입니다.
계층적 이중 모듈 아키텍처: 느리고 추상적인 계획을 위한 고수준 모듈과 빠르고 상세한 계산을 위한 저수준 모듈이라는 서로 다른 시간 척도로 작동하는 두 개의 결합된 순환 모듈을 특징으로 합니다.
최소 훈련 요구 사항: 사전 훈련 또는 CoT(Chain-of-Thought) 데이터 없이 1,000개의 훈련 샘플만 사용하여 뛰어난 성능을 달성합니다.
효율적인 파라미터 사용: 단 2,700만 개의 파라미터로 복잡한 추론 작업을 수행하며, 이는 기존의 대규모 언어 모델보다 훨씬 적은 수입니다.
단일 순방향 패스 처리: 중간 단계에 대한 명시적인 감독 없이 하나의 순방향 패스에서 순차적 추론 작업을 실행합니다.

Hierarchical Reasoning Model의 사용 사례

복잡한 퍼즐 풀이: 거의 완벽한 정확도로 극단적인 스도쿠 퍼즐 및 기타 복잡한 수학/논리 퍼즐을 풉니다.
경로 찾기 최적화: 큰 미로와 복잡한 탐색 시나리오에서 최적의 경로를 효율적으로 찾습니다.
추상적 추론 작업: 일반 지능 작업에서 능력을 입증하면서 ARC(Abstraction and Reasoning Corpus)에서 좋은 성능을 보입니다.

장점

최소한의 파라미터 수와 훈련 데이터 요구 사항으로 매우 효율적입니다.
수렴 문제 없이 안정적인 훈련 프로세스를 제공합니다.
더 큰 모델에 비해 복잡한 추론 작업에서 뛰어난 성능을 보입니다.

단점

소규모 샘플 시나리오에서 후기 단계 과적합이 발생할 수 있습니다.
소규모 샘플 학습에서 ±2점의 정확도 분산을 보입니다.
최적의 성능을 위해 특정 GPU 구성 및 CUDA 확장이 필요합니다.

Hierarchical Reasoning Model 사용 방법

필수 구성 요소 설치: CUDA 12.6, CUDA 지원 PyTorch 및 확장 빌드를 위한 추가 패키지를 설치합니다. 다음을 실행합니다. wget CUDA 설치 프로그램, CUDA 설치, CUDA_HOME 설정, PyTorch 설치 및 패키징 종속성 설치
FlashAttention 설치: Hopper GPU의 경우: flash-attention 리포지토리를 복제하고 FlashAttention 3을 설치합니다. Ampere 또는 이전 GPU의 경우: pip install flash-attn을 통해 FlashAttention 2를 설치합니다.
Python 종속성 설치: 'pip install -r requirements.txt'를 실행하여 필요한 모든 Python 패키지를 설치합니다.
Weights & Biases 설정: 'wandb login'을 실행하고 계정에 로그인했는지 확인하여 실험 추적을 위해 W&B를 설정합니다.
데이터 세트 준비: 특정 작업에 대한 데이터 세트를 빌드합니다. 예를 들어 스도쿠의 경우: 데이터 세트 크기 및 증대에 대한 적절한 파라미터로 'python dataset/build_sudoku_dataset.py'를 실행합니다.
학습 시작: 적절한 파라미터로 학습을 시작합니다. 스도쿠의 예: 'OMP_NUM_THREADS=8 python pretrain.py data_path=data/sudoku-extreme-1k-aug-1000 epochs=20000 eval_interval=2000 global_batch_size=384 lr=7e-5'
학습 모니터링: W&B 인터페이스를 통해 학습 진행 상황을 추적하고 eval/exact_accuracy 메트릭을 모니터링합니다.
모델 평가: 'torchrun --nproc-per-node 8 evaluate.py checkpoint=<CHECKPOINT_PATH>'를 사용하여 평가를 실행하고 제공된 노트북을 통해 결과를 분석합니다.
사전 학습된 체크포인트 사용: 또는 ARC-AGI-2, Sudoku 9x9 Extreme 또는 Maze 30x30 Hard 작업에 대한 HuggingFace에서 사전 학습된 체크포인트를 다운로드합니다.

Hierarchical Reasoning Model 자주 묻는 질문

HRM은 인간 두뇌의 계층적 및 다중 시간 척도 처리에 영감을 받은 새로운 순환 아키텍처입니다. 이는 느리고 추상적인 계획을 위한 상위 수준 모듈과 빠르고 상세한 계산을 위한 하위 수준 모듈이라는 두 개의 상호 의존적인 순환 모듈을 특징으로 합니다. 명시적인 감독 없이 단일 순방향 패스에서 순차적 추론 작업을 실행할 수 있습니다.

Hierarchical Reasoning Model와(과) 유사한 최신 AI 도구

Athena AI
Athena AI
아테나 AI는 문서 분석, 퀴즈 생성, 플래시 카드 및 인터랙티브 채팅 기능을 통해 개인화된 학습 지원, 비즈니스 솔루션 및 라이프 코칭을 제공하는 다재다능한 AI 기반 플랫폼입니다.
Aguru AI
Aguru AI
Aguru AI는 행동 추적, 이상 감지 및 성능 최적화와 같은 기능을 갖춘 LLM 기반 애플리케이션을 위한 포괄적인 모니터링, 보안 및 최적화 도구를 제공하는 온프레미스 소프트웨어 솔루션입니다.
GOAT AI
GOAT AI
GOAT AI는 뉴스 기사, 연구 논문 및 비디오를 포함한 다양한 콘텐츠 유형에 대한 원클릭 요약 기능을 제공하는 AI 기반 플랫폼이며, 도메인 특정 작업을 위한 고급 AI 에이전트 조정도 제공합니다.
GiGOS
GiGOS
GiGOS는 사용자가 다양한 AI 모델과 상호작용하고 비교할 수 있도록 직관적인 인터페이스를 제공하는 AI 플랫폼으로, Gemini, GPT-4, Claude 및 Grok와 같은 여러 고급 언어 모델에 접근할 수 있습니다.