LLMWare.ai 사용법
LLMWare.ai는 기업 수준의 LLM 애플리케이션을 구축하기 위한 엔드 투 엔드 솔루션을 제공하는 오픈 소스 AI 프레임워크로, 개인 클라우드 환경에서 금융, 법률 및 규제 집약 산업을 위해 특별히 설계된 전문화된 소형 언어 모델과 RAG 기능을 특징으로 합니다.
더 보기LLMWare.ai 사용 방법
설치: 최소 설치를 위해 'pip install llmware'를 사용하여 LLMWare를 설치하거나 일반적으로 사용되는 라이브러리와 함께 전체 설치를 위해 'pip install llmware[full]'를 사용하십시오.
라이브러리 생성: 지식 기반 컨테이너로 사용할 새 라이브러리를 생성하려면: lib = Library().create_new_library('my_library')를 사용하십시오.
문서 추가: 파싱 및 텍스트 청크 처리를 위해 라이브러리에 문서(PDF, PPTX, DOCX, XLSX, TXT 등)를 추가하십시오. 라이브러리는 귀하의 지식 컬렉션을 조직하고 색인화합니다.
모델 선택: Hugging Face의 BLING, SLIM, DRAGON 또는 Industry-BERT와 같은 LLMWare의 전문 모델 중에서 선택하거나 자체 모델을 가져오십시오. 모델은 1-7B 매개변수 범위이며 CPU 사용에 최적화되어 있습니다.
벡터 데이터베이스 설정: FAISS, Milvus, MongoDB Atlas, Pinecone, Postgres, Qdrant, Redis, Neo4j, LanceDB 또는 Chroma와 같은 지원되는 옵션 중에서 선호하는 벡터 데이터베이스를 선택하고 구성하십시오.
RAG 파이프라인 구축: 검색을 위한 Query 모듈과 모델 추론을 위한 Prompt 클래스를 사용하십시오. RAG 워크플로우를 위해 귀하의 지식 기반과 결합하십시오.
에이전트 워크플로우 구성: 더 복잡한 애플리케이션의 경우 SLIM 모델을 사용하여 기능 호출 및 구조화된 출력을 위한 다중 모델 에이전트 워크플로우를 설정하십시오.
추론 실행: 직접 모델 호출을 통해 또는 Flask와 함께 LLMWareInferenceServer 클래스를 사용하여 추론 서버를 설정하여 LLM 애플리케이션을 실행하십시오.
예제 탐색: 파싱, 임베딩, 사용자 지정 테이블, 모델 추론 및 에이전트 워크플로우를 다루는 GitHub 리포지토리의 광범위한 예제 파일을 확인하여 더 고급 기능을 배우십시오.
지원 받기: 추가 지침을 위해 GitHub Discussions, Discord 채널을 통해 LLMWare 커뮤니티에 참여하거나 YouTube 채널에서 튜토리얼 비디오를 시청하십시오.
LLMWare.ai 자주 묻는 질문
LLMWare.ai는 기업 수준의 LLM 기반 개발 프레임워크, 도구 및 금융, 법률, 준수 및 규제 집약 산업을 위해 특별히 설계된 미세 조정된 모델을 제공하는 오픈 소스 AI 플랫폼입니다.
더 보기