Guide Labs: Interpretable foundation models Como Fazer
A Guide Labs desenvolve modelos fundamentais interpretáveis que podem explicar de forma confiável seu raciocínio, são fáceis de alinhar e direcionar, e têm desempenho equivalente aos modelos de caixa-preta padrão.
Ver MaisComo Usar o Guide Labs: Interpretable foundation models
Inscreva-se para acesso antecipado: Junte-se à lista de espera no site da Guide Labs para obter acesso exclusivo antecipado aos seus modelos fundamentais interpretáveis.
Instale o cliente da Guide Labs: Uma vez que você tenha acesso, instale a biblioteca cliente Python da Guide Labs.
Inicialize o cliente: Importe a classe Client e inicialize-a com sua chave da API: gl = Client(api_key='sua_chave_secreta')
Prepare seu prompt: Crie uma string de prompt que você deseja usar com o modelo, por exemplo, prompt_poem = 'Era uma vez uma abóbora, '
Chame o modelo: Use gl.chat.create() para gerar uma resposta, especificando o modelo e habilitando explicações: response, explanation = gl.chat.create(model='cb-llm-v1', prompt=prompt_poem, prompt_attribution=True, concept_importance=True, influential_points=10)
Analise as explicações: Acesse diferentes tipos de explicações do objeto de explicação retornado, como prompt_attribution, concept_importance e influential_points.
Ajuste fino do modelo (opcional): Para personalizar o modelo, faça o upload de dados de treinamento usando gl.files.create() e, em seguida, ajuste fino usando gl.fine_tuning.jobs.create()
Perguntas Frequentes do Guide Labs: Interpretable foundation models
Modelos de fundação interpretáveis são modelos de IA que podem explicar seu raciocínio e saídas, ao contrário dos modelos tradicionais de 'caixa preta'. A Guide Labs desenvolveu versões interpretáveis de grandes modelos de linguagem (LLMs), modelos de difusão e classificadores em larga escala que podem fornecer explicações para suas decisões enquanto mantêm alto desempenho.
Ver Mais