如何使用 ChatGLM
安裝所需套件: 通過運行以下命令安裝必要的 Python 套件:pip install protobuf transformers==4.30.2 cpm_kernels torch>=2.0 gradio mdtex2html sentencepiece accelerate
導入模型和分詞器: 使用以下代碼導入 ChatGLM:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
生成回應: 通過調用 chat 方法生成回應:
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
繼續對話: 要繼續對話,將歷史記錄傳遞給後續調用:
response, history = model.chat(tokenizer, "晚上睡不着應該怎麼辦", history=history)
print(response)
使用網頁界面: 為了更用戶友好的體驗,訪問 https://chatglm.cn 使用更大的 ChatGLM 模型的網頁界面
下載移動應用: 掃描 ChatGLM 網站上的二維碼下載 iOS 或 Android 的移動應用
ChatGLM 常見問題
ChatGLM 是一個基於通用語言模型(GLM)框架的開放式雙語語言模型。它在中文和英文數據上進行訓練,並針對問答和對話任務進行了優化。
查看更多