Guide Labs: Interpretable foundation models 使用方法
Guide Labs 開發的可解釋基礎模型能夠可靠地解釋其推理過程,易於對齊和引導,並且性能與標準黑箱模型相當。
查看更多如何使用 Guide Labs: Interpretable foundation models
註冊早期訪問: 在 Guide Labs 的網站上加入候補名單,以獲得對其可解釋基礎模型的獨家早期訪問權限。
安裝 Guide Labs 客戶端: 一旦獲得訪問權限,安裝 Guide Labs 的 Python 客戶端庫。
初始化客戶端: 導入 Client 類並使用您的 API 密鑰初始化它:gl = Client(api_key='your_secret_key')
準備您的提示: 創建一個您希望與模型一起使用的提示字符串,例如:prompt_poem = 'Once upon a time there was a pumpkin, '
調用模型: 使用 gl.chat.create() 生成回應,指定模型並啟用解釋:response, explanation = gl.chat.create(model='cb-llm-v1', prompt=prompt_poem, prompt_attribution=True, concept_importance=True, influential_points=10)
分析解釋: 從返回的解釋對象訪問不同類型的解釋,例如 prompt_attribution、concept_importance 和 influential_points。
微調模型(可選): 要定制模型,請使用 gl.files.create() 上傳訓練數據,然後使用 gl.fine_tuning.jobs.create() 進行微調
Guide Labs: Interpretable foundation models 常見問題
可解釋的基礎模型是能夠解釋其推理和輸出的AI模型,不同於傳統的「黑箱」模型。Guide Labs已開發出可解釋的大型語言模型(LLMs)、擴散模型和大規模分類器版本,這些模型在保持高性能的同時,能夠提供其決策的解釋。
查看更多