Ollama v0.7

Ollama v0.7

Ollama v0.7 giới thiệu một công cụ mới để hỗ trợ AI đa phương thức hạng nhất, cho phép chạy cục bộ các mô hình thị giác tiên tiến như Llama 4, Gemma 3, Qwen 2.5 VL và Mistral Small 3.1 với độ tin cậy và quản lý bộ nhớ được cải thiện.
https://ollama.com/blog/multimodal-models?ref=aipure&utm_source=aipure
Ollama v0.7

Thông tin Sản phẩm

Đã cập nhật:Jun 9, 2025

Xu hướng Lưu lượng Truy cập Hàng tháng của Ollama v0.7

Ollama v0.7 đã trải qua sự sụt giảm 5,5% về lưu lượng truy cập, với 298.679 lượt truy cập ít hơn. Mặc dù có sự cải tiến hỗ trợ thị giác và việc giới thiệu Qwen 2.5 VL với khả năng OCR nâng cao, sự sụt giảm này có thể do các lỗi phần mềmvấn đề trải nghiệm người dùng liên quan đến việc xử lý URL, điều này đã được giải quyết bằng cách tải hình ảnh về máy cục bộ.

Xem lịch sử lưu lượng truy cập

Ollama v0.7 là gì

Ollama v0.7 đại diện cho một sự phát triển đáng kể trong việc triển khai mô hình ngôn ngữ lớn cục bộ, vượt ra ngoài sự phụ thuộc trước đây vào llama.cpp để giới thiệu một công cụ chuyên dụng mới cho các khả năng AI đa phương thức. Phiên bản này tập trung vào việc biến các mô hình đa phương thức thành công dân hạng nhất, cho phép người dùng chạy các mô hình ngôn ngữ thị giác phức tạp cục bộ mà không cần dịch vụ đám mây. Hệ thống hỗ trợ nhiều kích thước mô hình khác nhau, từ các tham số 7B phù hợp cho máy RAM 8GB đến các mô hình 33B lớn hơn yêu cầu RAM 32GB, giúp AI tiên tiến có thể truy cập được cho các cấu hình phần cứng khác nhau.

Các Tính năng Chính của Ollama v0.7

Ollama v0.7 giới thiệu một engine mới đột phá, mang đến sự hỗ trợ hàng đầu cho các mô hình AI đa phương thức, cho phép thực thi cục bộ các mô hình ngôn ngữ-thị giác tiên tiến như Meta Llama 4, Google Gemma 3, Qwen 2.5 VL và Mistral Small 3.1. Bản cập nhật này có tính năng quản lý bộ nhớ được cải thiện, tính mô đun của mô hình và độ chính xác nâng cao để xử lý hình ảnh và văn bản cùng nhau, đồng thời duy trì sự dễ sử dụng đặc trưng của Ollama để chạy các mô hình ngôn ngữ lớn cục bộ.
Engine đa phương thức mới: Kiến trúc mô hình khép kín cho phép mỗi mô hình triển khai lớp chiếu riêng và xử lý các đầu vào đa phương thức một cách độc lập, cải thiện độ tin cậy và đơn giản hóa việc tích hợp mô hình
Quản lý bộ nhớ nâng cao: Hệ thống bộ nhớ đệm hình ảnh thông minh và bộ nhớ đệm KV được tối ưu hóa với các cấu hình dành riêng cho phần cứng để tối đa hóa hiệu quả bộ nhớ và hiệu suất
Xử lý độ chính xác nâng cao: Cải thiện khả năng xử lý hình ảnh và mã thông báo lớn với quản lý siêu dữ liệu thích hợp và các cơ chế chú ý cụ thể cho kiến trúc đào tạo của mỗi mô hình
Hỗ trợ nhiều mô hình: Tích hợp các mô hình ngôn ngữ-thị giác khác nhau bao gồm Llama 4, Gemma 3, Qwen 2.5 VL và Mistral Small 3.1, mỗi mô hình có các khả năng chuyên biệt riêng

Các Trường hợp Sử dụng của Ollama v0.7

Phân tích tài liệu: Xử lý và trích xuất thông tin từ tài liệu, bao gồm nhận dạng ký tự và dịch văn bản đa ngôn ngữ trong hình ảnh
Hỏi đáp bằng hình ảnh: Cho phép tương tác ngôn ngữ tự nhiên về hình ảnh, bao gồm mô tả chi tiết và trả lời các câu hỏi cụ thể về nội dung trực quan
Phân tích dựa trên vị trí: Phân tích và cung cấp thông tin về các địa điểm, địa danh và đặc điểm địa lý trong hình ảnh, bao gồm tính toán khoảng cách và đề xuất du lịch
So sánh nhiều hình ảnh: Phân tích các mối quan hệ và mẫu trên nhiều hình ảnh đồng thời, xác định các yếu tố chung và sự khác biệt

Ưu điểm

Thực thi cục bộ các mô hình đa phương thức tiên tiến mà không cần phụ thuộc vào đám mây
Độ tin cậy và độ chính xác được cải thiện trong quá trình xử lý mô hình
Hỗ trợ linh hoạt cho nhiều kiến trúc mô hình
Quản lý bộ nhớ hiệu quả và tối ưu hóa phần cứng

Nhược điểm

Yêu cầu tài nguyên phần cứng đáng kể cho các mô hình lớn hơn
Hỗ trợ Windows hạn chế (yêu cầu WSL2)
Một số tính năng vẫn đang trong giai đoạn thử nghiệm

Cách Sử dụng Ollama v0.7

Cài đặt Ollama: Cài đặt Ollama trên hệ thống của bạn (hỗ trợ MacOS, Linux và Windows thông qua WSL2). Đảm bảo bạn có đủ RAM - ít nhất 8GB cho mô hình 7B, 16GB cho mô hình 13B và 32GB cho mô hình 33B.
Khởi động Dịch vụ Ollama: Chạy lệnh 'ollama serve' để khởi động dịch vụ Ollama. Để tải xuống nhanh hơn, bạn có thể tùy chọn sử dụng: OLLAMA_EXPERIMENT=client2 ollama serve
Kéo Mô hình: Tải xuống mô hình đa phương thức mong muốn của bạn bằng cách sử dụng 'ollama pull <model_name>'. Các mô hình có sẵn bao gồm llama4:scout, gemma3, qwen2.5vl, mistral-small3.1, llava, bakllava và nhiều mô hình thị giác khác.
Chạy Mô hình: Khởi động mô hình bằng cách sử dụng 'ollama run <model_name>'. Ví dụ: 'ollama run llama4:scout' hoặc 'ollama run gemma3'
Nhập Hình ảnh: Bạn có thể nhập hình ảnh bằng cách cung cấp đường dẫn tệp hình ảnh sau lời nhắc văn bản của bạn. Nhiều hình ảnh có thể được thêm vào trong một lời nhắc duy nhất hoặc thông qua các câu hỏi tiếp theo. Hỗ trợ định dạng hình ảnh WebP.
Tương tác với Mô hình: Đặt câu hỏi về hình ảnh, yêu cầu phân tích hoặc trò chuyện tiếp theo. Mô hình sẽ xử lý cả văn bản và hình ảnh để cung cấp các phản hồi liên quan.
Tùy chọn: Sử dụng API/Thư viện: Bạn cũng có thể tương tác với Ollama thông qua API hoặc thư viện Python/JavaScript chính thức để truy cập theo chương trình. Các khả năng đa phương thức hoạt động trên CLI và thư viện.
Tùy chọn: Sử dụng Giao diện Web: Để có giao diện thân thiện với người dùng hơn, bạn có thể sử dụng nhiều giao diện và ứng dụng khách Web do cộng đồng xây dựng hỗ trợ các tính năng đa phương thức của Ollama.

Câu hỏi Thường gặp về Ollama v0.7

Ollama hiện đã hỗ trợ các mô hình đa phương thức với một công cụ mới có thể xử lý các khả năng thị giác. Nó hỗ trợ các mô hình như Meta Llama 4, Google Gemma 3, Qwen 2.5 VL và Mistral Small 3.1. Bản cập nhật bao gồm các tính năng như phân tích hình ảnh, xử lý nhiều hình ảnh, quét tài liệu và nhận dạng ký tự.

Phân tích Trang web Ollama v0.7

Lưu lượng truy cập & Xếp hạng của Ollama v0.7
5.1M
Lượt truy cập hàng tháng
#10016
Xếp hạng Toàn cầu
#247
Xếp hạng Danh mục
Xu hướng Lưu lượng truy cập: Mar 2025-May 2025
Thông tin chi tiết về Người dùng Ollama v0.7
00:04:16
Thời lượng Truy cập Trung bình
4.93
Số trang mỗi lần Truy cập
33.47%
Tỷ lệ Thoát của Người dùng
Khu vực Hàng đầu của Ollama v0.7
  1. CN: 32.76%

  2. US: 14.47%

  3. IN: 5.4%

  4. RU: 3.52%

  5. DE: 3.3%

  6. Others: 40.55%

Công cụ AI Mới nhất Tương tự Ollama v0.7

Athena AI
Athena AI
Athena AI là một nền tảng đa năng được hỗ trợ bởi AI cung cấp hỗ trợ học tập cá nhân hóa, giải pháp kinh doanh và huấn luyện cuộc sống thông qua các tính năng như phân tích tài liệu, tạo bài kiểm tra, thẻ ghi nhớ và khả năng trò chuyện tương tác.
Aguru AI
Aguru AI
Aguru AI là một giải pháp phần mềm tại chỗ cung cấp các công cụ giám sát, bảo mật và tối ưu hóa toàn diện cho các ứng dụng dựa trên LLM với các tính năng như theo dõi hành vi, phát hiện bất thường và tối ưu hóa hiệu suất.
GOAT AI
GOAT AI
GOAT AI là một nền tảng được hỗ trợ bởi AI cung cấp khả năng tóm tắt một cú nhấp chuột cho nhiều loại nội dung bao gồm bài báo, tài liệu nghiên cứu và video, đồng thời cũng cung cấp khả năng điều phối đại lý AI tiên tiến cho các nhiệm vụ cụ thể theo miền.
GiGOS
GiGOS
GiGOS là một nền tảng AI cung cấp quyền truy cập vào nhiều mô hình ngôn ngữ tiên tiến như Gemini, GPT-4, Claude và Grok với giao diện trực quan để người dùng tương tác và so sánh các mô hình AI khác nhau.