Guide Labs: Interpretable foundation models 사용법
Guide Labs는 신뢰할 수 있는 이유를 설명할 수 있는 해석 가능한 기초 모델을 개발하며, 쉽게 정렬하고 조정할 수 있고, 표준 블랙 박스 모델만큼 성능을 발휘합니다.
더 보기Guide Labs: Interpretable foundation models 사용 방법
조기 액세스 신청: Guide Labs 웹사이트에서 대기자 명단에 가입하여 해석 가능한 기초 모델에 대한 독점적인 조기 액세스를 받으세요.
Guide Labs 클라이언트 설치: 액세스 권한을 얻으면 Guide Labs Python 클라이언트 라이브러리를 설치하세요.
클라이언트 초기화: Client 클래스를 가져오고 API 키로 초기화하세요: gl = Client(api_key='your_secret_key')
프롬프트 준비: 모델과 함께 사용하려는 프롬프트 문자열을 만드세요. 예: prompt_poem = '옛날 옛적에 호박이 있었어요, '
모델 호출: gl.chat.create()를 사용하여 응답을 생성하고 모델을 지정하며 설명을 활성화하세요: response, explanation = gl.chat.create(model='cb-llm-v1', prompt=prompt_poem, prompt_attribution=True, concept_importance=True, influential_points=10)
설명 분석: 반환된 설명 객체에서 prompt_attribution, concept_importance 및 influential_points와 같은 다양한 유형의 설명에 액세스하세요.
모델 미세 조정 (선택 사항): 모델을 사용자 정의하려면 gl.files.create()를 사용하여 훈련 데이터를 업로드한 다음 gl.fine_tuning.jobs.create()를 사용하여 미세 조정하세요.
Guide Labs: Interpretable foundation models 자주 묻는 질문
해석 가능한 기초 모델은 전통적인 '블랙 박스' 모델과 달리 자신의 추론과 결과를 설명할 수 있는 AI 모델입니다. Guide Labs는 높은 성능을 유지하면서 결정에 대한 설명을 제공할 수 있는 대형 언어 모델(LLM), 확산 모델 및 대규모 분류기의 해석 가능한 버전을 개발했습니다.
더 보기