LLMWare.ai 使い方
LLMWare.aiは、プライベートクラウド環境における金融、法律、規制集中的な業界向けに特別に設計された専門の小型言語モデルとRAG機能を備えた、エンタープライズグレードのLLMアプリケーションを構築するためのエンドツーエンドソリューションを提供するオープンソースのAIフレームワークです
もっと見るLLMWare.aiの使い方
インストール: 最小インストールの場合は 'pip install llmware' を使用してLLMWareをインストールするか、一般的に使用されるライブラリを含む完全インストールの場合は 'pip install llmware[full]' を使用します
ライブラリの作成: 知識ベースコンテナとして機能する新しいライブラリを作成するには、lib = Library().create_new_library('my_library') を使用します
ドキュメントの追加: ライブラリにドキュメント(PDF、PPTX、DOCX、XLSX、TXTなど)を追加して解析とテキストチャンク化を行います。ライブラリは知識コレクションを整理し、インデックス化します
モデルの選択: Hugging FaceからのBLING、SLIM、DRAGON、またはIndustry-BERTのようなLLMWareの専門モデルから選択するか、自分のモデルを持ち込むことができます。モデルは1-7Bパラメータの範囲で、CPU使用に最適化されています
ベクターデータベースの設定: FAISS、Milvus、MongoDB Atlas、Pinecone、Postgres、Qdrant、Redis、Neo4j、LanceDB、またはChromaを含むサポートされているオプションから好みのベクターデータベースを選択し、構成します
RAGパイプラインの構築: クエリモジュールを使用して取得を行い、プロンプトクラスを使用してモデル推論を行います。RAGワークフローのために知識ベースと組み合わせます
エージェントワークフローの設定: より複雑なアプリケーションのために、機能呼び出しと構造化された出力のためにSLIMモデルを使用してマルチモデルエージェントワークフローを設定します
推論の実行: 直接モデル呼び出しを通じて、またはFlaskを使用してLLMWareInferenceServerクラスを使用して推論サーバーを設定することで、LLMアプリケーションを実行します
例の探索: 解析、埋め込み、カスタムテーブル、モデル推論、エージェントワークフローをカバーするGitHubリポジトリの広範な例ファイルをチェックして、より高度な機能を学びます
サポートを受ける: GitHub Discussions、Discordチャンネルを通じてLLMWareコミュニティに参加するか、YouTubeチャンネルでチュートリアル動画を視聴して追加のガイダンスを受けます
LLMWare.aiのよくある質問
LLMWare.aiは、プライベートクラウド環境において、金融、法務、コンプライアンス、規制集約型産業向けに特別に設計されたエンタープライズグレードのLLMベースの開発フレームワーク、ツール、およびファインチューニングされたモデルを提供するオープンソースのAIプラットフォームです。
もっと見る