
Locally AI
Locally AI는 개인 정보 보호에 중점을 둔 AI 어시스턴트 앱으로, Apple 장치(iPhone, iPad 및 Mac)에서 완전히 오프라인으로 실행되어 사용자가 인터넷 연결이나 클라우드 처리 없이 강력한 AI 모델과 로컬로 상호 작용할 수 있습니다.
https://locallyai.app/?ref=producthunt&utm_source=aipure

제품 정보
업데이트됨:Mar 5, 2026
Locally AI이란?
Locally AI는 고급 AI 모델의 기능을 사용자 장치로 직접 가져오도록 설계된 기본 Apple 플랫폼 애플리케이션입니다. 인터넷 연결이나 사용자 로그인이 필요 없이 완전히 오프라인으로 작동하는 개인 AI 비서 역할을 합니다. 이 앱은 Apple Silicon 칩에 특별히 최적화되어 있으며 Meta의 Llama, Google의 Gemma, Qwen, DeepSeek 등 다양한 인기 오픈 소스 AI 모델을 지원합니다. 클라우드 기반 AI 서비스와 달리 Locally AI는 사용자 장치에서 모든 것을 처리하여 완전한 개인 정보 보호 및 데이터 보안을 보장합니다.
Locally AI의 주요 기능
Locally AI는 Apple 기기(iPhone, iPad, Mac) 전용으로 설계된 개인 정보 보호 중심의 AI 어시스턴트 애플리케이션으로, 완전한 오프라인으로 실행됩니다. 사용자는 Meta Llama, Google Gemma, Qwen, DeepSeek 등 다양한 AI 모델을 로컬에서 실행할 수 있으며, Apple Silicon 칩에 최적화되어 있습니다. 이 앱은 텍스트 및 이미지 처리, 음성 상호 작용, Siri 통합, 사용자 정의 가능한 시스템 프롬프트를 제공하며, 100% 로컬 처리를 통해 데이터 개인 정보를 보장합니다.
오프라인 처리: 모든 AI 처리는 인터넷 연결 없이 장치에서 로컬로 수행되어 완전한 데이터 개인 정보 보호 및 지속적인 가용성을 보장합니다.
Apple Silicon 최적화: MLX 프레임워크를 활용하여 Apple Silicon 칩의 성능을 극대화하여 효율적인 처리를 제공하면서 전력 소비를 줄입니다.
다중 모델 지원: Llama, Gemma, Qwen, DeepSeek 등 다양한 오픈 소스 AI 모델을 지원하며, 쉬운 모델 다운로드 및 전환 기능을 제공합니다.
시스템 통합: Siri, 제어 센터, 잠금 화면 액세스, 단축어 자동화를 포함한 Apple 생태계와의 긴밀한 통합을 제공합니다.
Locally AI의 사용 사례
개인 연구: 정보 보안 분석가 및 연구원은 데이터가 장치를 벗어나지 않고도 민감한 AI 연구를 수행할 수 있습니다.
오프라인 교육: 학생 및 전문가는 인터넷 연결 없이 학습 및 작업 과제에 대한 AI 지원을 받을 수 있습니다.
문서 처리: 고급 비전-언어 기능을 사용하여 문서, 이미지 및 텍스트를 로컬에서 처리하고 분석합니다.
음성 지원: 다양한 설정에서 핸즈프리 작동을 위해 AI 모델과 실시간 음성 대화를 수행합니다.
장점
데이터 수집 또는 클라우드 처리 없이 완전한 개인 정보 보호
작동에 인터넷 연결이 필요하지 않습니다.
Apple 생태계와의 기본 통합
구매 후 구독료 또는 추가 비용이 없습니다.
단점
Apple 기기만 해당
최적의 성능을 위해 Apple Silicon 칩이 탑재된 최신 기기가 필요합니다.
일부 모델은 클라우드 기반 대안에 비해 제한된 지식 기반을 가질 수 있습니다.
Locally AI 사용 방법
다운로드 및 설치: App Store(iOS/iPadOS) 또는 Mac App Store(macOS)에서 Locally AI를 다운로드합니다. 계정 생성 또는 로그인이 필요하지 않습니다.
모델 선택 및 다운로드: 사용 가능한 옵션(예: Llama, Gemma, Qwen, DeepSeek)에서 AI 모델을 선택하고 장치에 다운로드합니다. 앱은 장치 기능을 자동으로 감지하고 그에 따라 최적화합니다.
채팅 시작: 모델이 다운로드되면 즉시 AI와 채팅을 시작할 수 있습니다. 모든 처리는 장치에서 오프라인으로 이루어집니다.
음성 모드 사용(선택 사항): 음성 모드를 활성화하여 AI와 자연스러운 음성 대화를 나눌 수 있으며, 모든 처리는 장치에서 로컬로 이루어집니다.
시스템 프롬프트 사용자 정의(선택 사항): 특정 요구 사항에 맞게 시스템 프롬프트를 사용자 정의하여 AI의 동작과 응답을 조정합니다.
단축키 설정(선택 사항): 제어 센터, 잠금 화면 또는 액션 버튼을 통해 Locally AI에 액세스합니다. 사용자 정의 워크플로를 위해 Apple 단축키 앱과 통합할 수도 있습니다.
Siri 통합 사용(선택 사항): 'Hey, Locally AI'라고 말하여 Siri를 통해 장치 내 어시스턴트와 대화를 시작합니다.
Locally AI 자주 묻는 질문
Locally AI는 Meta Llama 3.2 및 Llama 3.1, Google Gemma 2, Gemma 3 및 Gemma 3n, Qwen 2 VL, Qwen 2.5 및 Qwen 3, DeepSeek R1 등과 같은 인기 있는 오픈 소스 모델을 지원합니다. 모든 모델은 장치에서 완전히 오프라인으로 실행됩니다.











