Guide Labs: Interpretable foundation models 使い方
Guide Labsは、その推論を信頼性を持って説明でき、整合性を持ちやすく、標準のブラックボックスモデルと同等のパフォーマンスを発揮する解釈可能な基盤モデルを開発しています。
もっと見るGuide Labs: Interpretable foundation modelsの使い方
早期アクセスにサインアップ: Guide Labsのウェブサイトでウェイトリストに参加し、解釈可能な基盤モデルへの独占的な早期アクセスを取得します。
Guide Labsクライアントをインストール: アクセスを取得したら、Guide LabsのPythonクライアントライブラリをインストールします。
クライアントを初期化: Clientクラスをインポートし、APIキーで初期化します: gl = Client(api_key='your_secret_key')
プロンプトを準備: モデルで使用するプロンプト文字列を作成します。例: prompt_poem = '昔々、かぼちゃがありました、 '
モデルを呼び出す: gl.chat.create()を使用して応答を生成し、モデルを指定して説明を有効にします: response, explanation = gl.chat.create(model='cb-llm-v1', prompt=prompt_poem, prompt_attribution=True, concept_importance=True, influential_points=10)
説明を分析: 返された説明オブジェクトから、prompt_attribution、concept_importance、influential_pointsなどの異なるタイプの説明にアクセスします。
モデルをファインチューニング(オプション): モデルをカスタマイズするには、gl.files.create()を使用してトレーニングデータをアップロードし、その後gl.fine_tuning.jobs.create()を使用してファインチューニングします。
Guide Labs: Interpretable foundation modelsのよくある質問
解釈可能な基盤モデルは、従来の「ブラックボックス」モデルとは異なり、自らの推論と出力を説明できるAIモデルです。Guide Labsは、高性能を維持しながら、決定に対する説明を提供できる大規模言語モデル(LLM)、拡散モデル、及び大規模分類器の解釈可能なバージョンを開発しました。
もっと見る