如何使用 ChatGLM
安裝所需套件: 通過運行以下命令安裝必要的 Python 套件:pip install protobuf transformers==4.30.2 cpm_kernels torch>=2.0 gradio mdtex2html sentencepiece accelerate
導入模型和分詞器: 使用以下代碼導入 ChatGLM:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
生成回應: 通過調用 chat 方法生成回應:
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
繼續對話: 要繼續對話,將歷史記錄傳遞給後續調用:
response, history = model.chat(tokenizer, "晚上睡不着應該怎麼辦", history=history)
print(response)
使用網頁界面: 為了更用戶友好的體驗,訪問 https://chatglm.cn 使用更大的 ChatGLM 模型的網頁界面
下載移動應用: 掃描 ChatGLM 網站上的二維碼下載 iOS 或 Android 的移動應用
ChatGLM 常見問題
ChatGLM 是一個基於通用語言模型(GLM)框架的開放式雙語語言模型。它在中文和英文數據上進行訓練,並針對問答和對話任務進行了優化。
ChatGLM 每月流量趨勢
ChatGLM 的流量出現了輕微 0.0% 的下降,減少了401 次訪問。儘管沒有直接的產品更新,但該模型的先進功能和在 10 萬億個標記上的多語言預訓練表明它仍然是一個強大的人工智能產品。然而,最近缺乏更新或顯著的市場活動可能表明這是一個穩定期而非積極增長期。
查看歷史流量
查看更多