
Hierarchical Reasoning Model
Mô hình Lý luận Phân cấp (HRM) là một kiến trúc AI lấy cảm hứng từ não bộ, đạt được khả năng lý luận vượt trội chỉ với 27 triệu tham số, sử dụng hai mô-đun lặp lại phụ thuộc lẫn nhau để lập kế hoạch trừu tượng và tính toán chi tiết.
https://github.com/sapientinc/HRM?ref=producthunt&utm_source=aipure

Thông tin Sản phẩm
Đã cập nhật:Aug 9, 2025
Hierarchical Reasoning Model là gì
Mô hình Lý luận Phân cấp (HRM) là một kiến trúc lặp lại mới do Sapient Intelligence phát triển, mang tính cách mạng hóa khả năng lý luận của AI. Được phát hành vào tháng 7 năm 2025, HRM lấy cảm hứng từ các mẫu xử lý phân cấp và đa thời gian được quan sát thấy trong não người. Không giống như các mô hình ngôn ngữ lớn truyền thống dựa trên các kỹ thuật Chain-of-Thought (CoT), HRM hoạt động hiệu quả với dữ liệu huấn luyện tối thiểu và không có yêu cầu huấn luyện trước. Mô hình thể hiện hiệu suất đáng chú ý trên các tác vụ lý luận phức tạp, bao gồm giải các câu đố Sudoku cực khó và tìm đường đi tối ưu trong các mê cung lớn, trong khi chỉ sử dụng 1.000 mẫu huấn luyện.
Các Tính năng Chính của Hierarchical Reasoning Model
Mô hình Suy luận Phân cấp (HRM) là một kiến trúc AI lấy cảm hứng từ não bộ, sử dụng hai mô-đun lặp lại phụ thuộc lẫn nhau - một mô-đun cấp cao để lập kế hoạch trừu tượng và một mô-đun cấp thấp để tính toán chi tiết - để đạt được khả năng suy luận phức tạp. Chỉ với 27 triệu tham số và được đào tạo trên chỉ 1.000 ví dụ mà không cần đào tạo trước, HRM có thể giải quyết các nhiệm vụ đầy thách thức thông qua xử lý phân cấp, phân tách thời gian và kết nối lặp lại, vượt trội hơn nhiều so với các mô hình ngôn ngữ lớn hơn đồng thời hiệu quả và ổn định hơn.
Kiến trúc mô-đun kép phân cấp: Có hai mô-đun lặp lại được ghép nối hoạt động ở các mốc thời gian khác nhau - một mô-đun cấp cao để lập kế hoạch trừu tượng chậm và một mô-đun cấp thấp để tính toán chi tiết nhanh
Yêu cầu đào tạo tối thiểu: Đạt được hiệu suất vượt trội chỉ bằng cách sử dụng 1.000 mẫu đào tạo mà không yêu cầu đào tạo trước hoặc dữ liệu Chain-of-Thought
Sử dụng tham số hiệu quả: Hoàn thành các nhiệm vụ suy luận phức tạp chỉ với 27 triệu tham số, ít hơn đáng kể so với các mô hình ngôn ngữ lớn truyền thống
Xử lý chuyển tiếp đơn: Thực hiện các nhiệm vụ suy luận tuần tự trong một lần chuyển tiếp mà không cần giám sát rõ ràng các bước trung gian
Các Trường hợp Sử dụng của Hierarchical Reasoning Model
Giải quyết câu đố phức tạp: Giải các câu đố Sudoku cực khó và các câu đố toán học/logic phức tạp khác với độ chính xác gần như hoàn hảo
Tối ưu hóa tìm đường: Tìm đường đi tối ưu trong các mê cung lớn và các tình huống điều hướng phức tạp một cách hiệu quả
Các nhiệm vụ suy luận trừu tượng: Thực hiện tốt trên Abstraction and Reasoning Corpus (ARC), thể hiện khả năng trong các nhiệm vụ trí tuệ tổng quát
Ưu điểm
Hiệu quả cao với số lượng tham số tối thiểu và yêu cầu dữ liệu đào tạo
Quá trình đào tạo ổn định mà không gặp vấn đề về hội tụ
Hiệu suất vượt trội trong các nhiệm vụ suy luận phức tạp so với các mô hình lớn hơn
Nhược điểm
Có thể bị overfitting giai đoạn cuối trong các tình huống mẫu nhỏ
Cho thấy phương sai độ chính xác là ±2 điểm trong học tập mẫu nhỏ
Yêu cầu cấu hình GPU cụ thể và các tiện ích mở rộng CUDA để có hiệu suất tối ưu
Cách Sử dụng Hierarchical Reasoning Model
Cài đặt các điều kiện tiên quyết: Cài đặt CUDA 12.6, PyTorch có hỗ trợ CUDA và các gói bổ sung để xây dựng các tiện ích mở rộng. Chạy: wget trình cài đặt CUDA, cài đặt CUDA, đặt CUDA_HOME, cài đặt PyTorch và cài đặt các phụ thuộc đóng gói
Cài đặt FlashAttention: Đối với GPU Hopper: Sao chép kho lưu trữ flash-attention và cài đặt FlashAttention 3. Đối với GPU Ampere hoặc cũ hơn: Cài đặt FlashAttention 2 thông qua pip install flash-attn
Cài đặt các phụ thuộc Python: Chạy 'pip install -r requirements.txt' để cài đặt tất cả các gói Python cần thiết
Thiết lập Weights & Biases: Thiết lập W&B để theo dõi thử nghiệm bằng cách chạy 'wandb login' và đảm bảo bạn đã đăng nhập vào tài khoản của mình
Chuẩn bị tập dữ liệu: Xây dựng tập dữ liệu cho tác vụ cụ thể của bạn. Ví dụ: đối với Sudoku: Chạy 'python dataset/build_sudoku_dataset.py' với các tham số thích hợp cho kích thước tập dữ liệu và tăng cường
Bắt đầu huấn luyện: Khởi chạy huấn luyện với các tham số thích hợp. Ví dụ cho Sudoku: 'OMP_NUM_THREADS=8 python pretrain.py data_path=data/sudoku-extreme-1k-aug-1000 epochs=20000 eval_interval=2000 global_batch_size=384 lr=7e-5'
Giám sát huấn luyện: Theo dõi tiến trình huấn luyện thông qua giao diện W&B, theo dõi chỉ số eval/exact_accuracy
Đánh giá mô hình: Chạy đánh giá bằng cách sử dụng 'torchrun --nproc-per-node 8 evaluate.py checkpoint=<CHECKPOINT_PATH>' và phân tích kết quả thông qua các sổ tay được cung cấp
Sử dụng các điểm kiểm tra được huấn luyện trước: Ngoài ra, hãy tải xuống các điểm kiểm tra được huấn luyện trước từ HuggingFace cho các tác vụ ARC-AGI-2, Sudoku 9x9 Extreme hoặc Maze 30x30 Hard
Câu hỏi Thường gặp về Hierarchical Reasoning Model
HRM là một kiến trúc lặp mới, lấy cảm hứng từ quá trình xử lý đa tầng và đa thời gian trong não người. Nó có hai mô-đun lặp phụ thuộc lẫn nhau: một mô-đun cấp cao để lập kế hoạch chậm, trừu tượng và một mô-đun cấp thấp để tính toán nhanh, chi tiết. Nó có thể thực hiện các tác vụ suy luận tuần tự trong một lần chuyển tiếp duy nhất mà không cần giám sát rõ ràng.
Video Hierarchical Reasoning Model
Bài viết phổ biến

Grok ra mắt AI Companion—Ani & Rudi, với các Tính năng NSFW
Jul 16, 2025

SweetAI Chat so sánh với Secret Desires: Ứng dụng xây dựng AI Partner nào phù hợp với bạn? | 2025
Jul 10, 2025

Cách tạo video động vật AI lan truyền năm 2025: Hướng dẫn từng bước
Jul 3, 2025

Các lựa chọn thay thế hàng đầu cho SweetAI Chat năm 2025: So sánh các nền tảng AI Girlfriend & NSFW Chat tốt nhất
Jun 30, 2025