如何使用ChatGLM
安装所需包: 通过运行以下命令安装必要的 Python 包:pip install protobuf transformers==4.30.2 cpm_kernels torch>=2.0 gradio mdtex2html sentencepiece accelerate
导入模型和分词器: 使用以下代码导入 ChatGLM:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
生成响应: 通过调用 chat 方法生成响应:
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
继续对话: 要继续对话,将历史记录传递给后续调用:
response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
print(response)
使用网页界面: 为了获得更友好的用户体验,访问 https://chatglm.cn 以使用更大的 ChatGLM 模型的网页界面
下载移动应用: 扫描 ChatGLM 网站上的二维码,下载适用于 iOS 或 Android 的移动应用
ChatGLM 常见问题解答
ChatGLM 是一个基于通用语言模型(GLM)框架的开源双语语言模型。它在中英文数据上进行训练,并针对问答和对话任务进行了优化。
查看更多