
Kuzco
Kuzco, gizlilik odaklı yapay zeka entegrasyonu için sıfır ağ bağımlılığı ile llama.cpp üzerine inşa edilmiş, doğrudan iOS ve macOS uygulamalarında yerel Büyük Dil Modeli (LLM) çıkarımını sağlayan güçlü bir Swift paketidir.
https://github.com/jaredcassoutt/Kuzco?ref=producthunt&utm_source=aipure

Ürün Bilgisi
Güncellendi:Aug 19, 2025
Kuzco Nedir
Kuzco, iOS, macOS ve Mac Catalyst uygulamalarına yerel Büyük Dil Modeli yetenekleri getirmek için tasarlanmış çok yönlü bir Swift paketidir. Savaşta test edilmiş llama.cpp motoru etrafında bir sarmalayıcı olarak inşa edilen bu paket, Apple'ın geliştirme ekosistemi ile gelişmiş yapay zeka işlevselliği arasında bir köprü görevi görür. Paket, LLaMA, Mistral, Phi, Gemma, Qwen ve diğerleri dahil olmak üzere birden çok popüler LLM mimarisini destekleyerek, bulut hizmetlerine güvenmeden uygulamalarında yapay zeka özellikleri uygulamak isteyen geliştiriciler için kapsamlı bir çözümdür.
Kuzco Temel Özellikleri
Kuzco, iOS, macOS ve Mac Catalyst uygulamaları için cihaz üzerinde Büyük Dil Modeli (LLM) çıkarımını sağlayan bir Swift paketidir. llama.cpp üzerine inşa edilmiş olup, sıfır ağ bağımlılığı ile yerel AI model yürütmesi sağlayarak gizlilik ve güvenilirliği garanti eder. Paket, birden fazla LLM mimarisini destekler, özelleştirilebilir konfigürasyonlar sunar ve akış yanıtlarıyla modern Swift eşzamanlılığına sahiptir.
Cihaz Üzerinde LLM İşleme: LLaMA, Mistral, Phi, Gemma ve Qwen gibi çeşitli mimarileri destekleyen llama.cpp kullanarak internet bağlantısı olmadan AI modellerini yerel olarak çalıştırır
Gelişmiş Konfigürasyon Seçenekleri: Farklı cihazlar için performansı optimize etmek üzere bağlam uzunluğu, toplu iş boyutu, GPU katmanları ve CPU iş parçacıkları için ince ayar yetenekleri sağlar
Modern Swift Entegrasyonu: Swift uygulamalarına sorunsuz entegrasyon için akış yanıtları ve kapsamlı hata işleme ile async/await yerel desteği içerir
Otomatik Mimari Algılama: Daha iyi uyumluluk ve kullanım kolaylığı için geri dönüş desteği ile dosya adlarından model mimarilerinin akıllıca algılanması
Kuzco Kullanım Alanları
Özel AI Sohbet Robotları: Kullanıcı konuşmalarını tamamen cihaz üzerinde işleyen, kullanıcı gizliliğini ve çevrimdışı işlevselliği sağlayan sohbet uygulamaları oluşturun
Kurumsal Veri Analizi: Hassas iş verilerini, bilgileri harici sunuculara maruz bırakmadan AI modellerini kullanarak yerel olarak işleyin
Mobil AI Uygulamaları: İnternet bağlantısından bağımsız olarak güvenilir bir şekilde çalışan AI özelliklerine sahip iOS uygulamaları oluşturun
Eğitim Araçları: Öğrenci gizliliğini korurken AI destekli özel ders ve geri bildirim sağlayabilen öğrenme uygulamaları geliştirin
Artıları
Cihaz üzerinde işleme ile tam gizlilik
Ağ bağımlılığı gerekmez
Apple cihazları için yüksek performans optimizasyonu
Kapsamlı geliştirici dostu API
Eksileri
Modelleri çalıştırmak için yeterli cihaz kaynağı gerektirir
Yalnızca iOS/macOS platformlarıyla sınırlıdır
Bulut tabanlı çözümlere kıyasla daha yavaş performansa sahip olabilir
Kuzco Nasıl Kullanılır
Kuzco'yu Swift Paket Yöneticisi aracılığıyla yükleyin: Paket URL'si 'https://github.com/jaredcassoutt/Kuzco.git' adresini ekleyerek ve 1.0.0+ sürümüyle 'Bir Sonraki Ana Sürüme Kadar' seçeneğini belirleyerek Kuzco'yu projenize ekleyin
İçe Aktar ve Başlat: Swift dosyanıza 'import Kuzco' ekleyin ve 'let kuzco = Kuzco.shared' ile başlatın
Model Profili Oluşturun: Modelinizin kimliği ve yolu ile bir ModelProfile oluşturun: let profile = ModelProfile(id: 'my-model', sourcePath: '/path/to/your/model.gguf')
Modeli Yükleyin: Şunu kullanarak model örneğini yükleyin: let (instance, loadStream) = await kuzco.instance(for: profile)
Yükleme İlerlemesini İzleyin: Yükleme ilerlemesini loadStream aracılığıyla izleyin ve devam etmeden önce .ready aşamasını bekleyin
Konuşma Dönüşleri Oluşturun: Diyaloğunuz için konuşma dönüşleri oluşturun: let turns = [Turn(role: .user, text: userMessage)]
Yanıt Oluşturun: İstediğiniz ayarlarla predict() kullanarak bir yanıt oluşturun: let stream = try await instance.predict(turns: turns, systemPrompt: 'You are a helpful assistant.')
Yanıtı İşleyin: Belirteçler arasında yineleyerek akış yanıtını işleyin: for try await (content, isComplete, _) in predictionStream { print(content) }
İsteğe Bağlı: Gelişmiş Ayarları Yapılandırın: Gerekirse InstanceSettings (contextLength, batchSize, gpuOffloadLayers, cpuThreads) ve PredictionConfig (temperature, topK, topP, repeatPenalty, maxTokens) ile performansı özelleştirin
Kuzco SSS
Kuzco, iOS, macOS ve Mac Catalyst uygulamalarında doğrudan Büyük Dil Modellerini (LLM'ler) çalıştırmayı sağlayan bir Swift paketidir. llama.cpp üzerine inşa edilmiştir ve ağ bağımlılığı olmadan cihaz üzerinde yapay zeka sağlayarak gizlilik ve hız sağlar.
Popüler Makaleler

Nano Banana Lmarena'yı Ücretsiz Kullanma Rehberi (2025): Hızlı ve Yaratıcı Yapay Zeka Görüntü Üretimi İçin Nihai Kılavuz
Aug 18, 2025

Nano-Banana: 2025'te Flux Kontext'ten Daha İyi Gizemli Bir Yapay Zeka Görüntü Üreticisi
Aug 15, 2025

GPT-5: OpenAI’ın En Gelişmiş Yapay Zekası—Çıkış Tarihi, Özellikler, Fiyatlandırma ve Daha Fazlası
Aug 14, 2025

Ağustos 2025'te Ücretsiz Midjourney Promosyon Kodları ve Nasıl Kullanılır
Aug 13, 2025