Guide Labs: Interpretable foundation models 使用方法
Guide Labs 开发的可解释基础模型能够可靠地解释其推理过程,易于对齐和引导,并且性能与标准黑箱模型相当。
查看更多如何使用 Guide Labs: Interpretable foundation models
注册早期访问: 在 Guide Labs 的网站上加入等待名单,以获得其可解释基础模型的独家早期访问权限。
安装 Guide Labs 客户端: 一旦获得访问权限,安装 Guide Labs 的 Python 客户端库。
初始化客户端: 导入 Client 类并使用您的 API 密钥初始化它:gl = Client(api_key='your_secret_key')
准备您的提示: 创建一个您希望与模型一起使用的提示字符串,例如 prompt_poem = '从前有一个南瓜,'
调用模型: 使用 gl.chat.create() 生成响应,指定模型并启用解释:response, explanation = gl.chat.create(model='cb-llm-v1', prompt=prompt_poem, prompt_attribution=True, concept_importance=True, influential_points=10)
分析解释: 从返回的解释对象中访问不同类型的解释,例如 prompt_attribution、concept_importance 和 influential_points。
微调模型(可选): 要定制模型,请使用 gl.files.create() 上传训练数据,然后使用 gl.fine_tuning.jobs.create() 进行微调
Guide Labs: Interpretable foundation models 常见问题
可解释的基础模型是能够解释其推理和输出的AI模型,与传统的'黑箱'模型不同。Guide Labs开发了可解释的大型语言模型(LLMs)、扩散模型和大规模分类器的版本,这些模型在保持高性能的同时,能够为其决策提供解释。
查看更多