Guide Labs: Interpretable foundation models Nasıl Kullanılır
Guide Labs, mantığını güvenilir bir şekilde açıklayabilen, kolayca uyum sağlayabilen ve yönlendirilebilen, standart siyah kutu modelleri kadar iyi performans gösteren yorumlanabilir temel modeller geliştirir.
Daha Fazla GösterGuide Labs: Interpretable foundation models Nasıl Kullanılır
Erken erişim için kaydolun: Guide Labs' web sitesinde bekleme listesine katılarak yorumlanabilir temel modellerine özel erken erişim elde edin.
Guide Labs istemcisini yükleyin: Erişim sağladıktan sonra, Guide Labs Python istemci kütüphanesini yükleyin.
İstemciyi başlatın: Client sınıfını içe aktarın ve API anahtarınızla başlatın: gl = Client(api_key='your_secret_key')
İsteğinizi hazırlayın: Modelle kullanmak istediğiniz bir istem dizesi oluşturun, örneğin: prompt_poem = 'Bir zamanlar bir balkabağı vardı, '
Modeli çağırın: Bir yanıt oluşturmak için gl.chat.create() kullanın, modeli belirtin ve açıklamaları etkinleştirin: response, explanation = gl.chat.create(model='cb-llm-v1', prompt=prompt_poem, prompt_attribution=True, concept_importance=True, influential_points=10)
Açıklamaları analiz edin: Dönülen açıklama nesnesinden prompt_attribution, concept_importance ve influential_points gibi farklı açıklama türlerine erişin.
Modeli ince ayar yapın (isteğe bağlı): Modeli özelleştirmek için gl.files.create() kullanarak eğitim verilerini yükleyin ve ardından gl.fine_tuning.jobs.create() ile ince ayar yapın.
Guide Labs: Interpretable foundation models SSS
Yorumlanabilir temel modeller, geleneksel 'kara kutu' modellerinin aksine, akıl yürütme ve çıktıları açıklayabilen AI modelleridir. Guide Labs, yüksek performansı korurken kararları için açıklamalar sağlayabilen büyük dil modellerinin (LLM'ler), difüzyon modellerinin ve büyük ölçekli sınıflandırıcıların yorumlanabilir versiyonlarını geliştirmiştir.
Daha Fazla Göster