https://chatglm.cn/?utm_source=aipure
產品資訊
已更新:12/11/2024
什麼是ChatGLM
ChatGLM 是一系列開源的大型語言模型,專為對話任務設計,參數範圍從60億到1300億。由智譜AI和清華大學知識工程組(KEG)共同開發,ChatGLM 模型在大量中文和英文語料庫上進行訓練,針對問答和對話交互進行優化。該系列包括 ChatGLM-6B、ChatGLM2-6B 和最新的 ChatGLM3-6B,每一代都在性能、上下文理解和推理效率方面有所提升。
ChatGLM 的主要功能
ChatGLM 是一個基於通用語言模型(GLM)框架的開源雙語(中文和英文)對話語言模型。它使用類似於 ChatGPT 的技術,針對中文問答和對話進行了優化。經過約 1T 個中英文語料的訓練,它結合了監督微調、反饋引導和基於人類反饋的強化學習。該模型有多種尺寸,其中 ChatGLM-6B 是一個較小、更易於訪問的版本,可以在消費級硬件上本地部署。
雙語支援: 針對中文和英文語言處理進行了優化,適用於多語言應用。
低部署門檻: 可以在消費級顯卡上本地部署,INT4 量化僅需 6GB GPU 內存。
全面的模型系列: 提供各種尺寸和專業化的模型,包括基礎模型、對話模型和長文本模型,如 ChatGLM3-6B-32K。
先進的訓練技術: 利用監督微調、反饋引導和基於人類反饋的強化學習來提高性能。
開源: 完全開放供學術研究,註冊後可免費用於商業用途,促進社區驅動的開發。
ChatGLM 的用例
自然語言處理: 可用於各種 NLP 任務,如文本生成、摘要和問答,支援中文和英文。
聊天機器人和虛擬助手: 適合創建能夠進行多輪對話的對話式 AI 系統。
內容創建: 協助生成創意內容、文章和其他書面材料,支援中文和英文。
代碼生成和輔助: 借助 CodeGeeX 等模型,可以幫助編程任務和代碼生成。
教育工具: 可用於創建互動學習體驗並回答學生查詢,支援多種語言。
優點
雙語能力使其適用於中文和英文應用
低硬件要求允許廣泛的可訪問性和本地部署
開源性質鼓勵社區貢獻和改進
缺點
較小的模型尺寸可能限制性能,相比大型語言模型
與所有 AI 模型一樣,可能生成不準確或有偏見的信息
需要謹慎使用和監控,以防止誤用或意外後果
如何使用 ChatGLM
安裝所需套件: 通過運行以下命令安裝必要的 Python 套件:pip install protobuf transformers==4.30.2 cpm_kernels torch>=2.0 gradio mdtex2html sentencepiece accelerate
導入模型和分詞器: 使用以下代碼導入 ChatGLM:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
生成回應: 通過調用 chat 方法生成回應:
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
繼續對話: 要繼續對話,將歷史記錄傳遞給後續調用:
response, history = model.chat(tokenizer, "晚上睡不着應該怎麼辦", history=history)
print(response)
使用網頁界面: 為了更用戶友好的體驗,訪問 https://chatglm.cn 使用更大的 ChatGLM 模型的網頁界面
下載移動應用: 掃描 ChatGLM 網站上的二維碼下載 iOS 或 Android 的移動應用
ChatGLM 常見問題
ChatGLM 是一個基於通用語言模型(GLM)框架的開放式雙語語言模型。它在中文和英文數據上進行訓練,並針對問答和對話任務進行了優化。
ChatGLM 網站分析
ChatGLM 流量和排名
3.6M
每月訪問量
#22191
全球排名
#506
類別排名
流量趨勢:Jun 2024-Oct 2024
ChatGLM 用戶洞察
00:02:20
平均訪問時長
2.41
每次訪問的頁面數
52.47%
用戶跳出率
ChatGLM 的主要地區
CN: 89.97%
US: 3.84%
HK: 2.14%
TW: 1.24%
KR: 0.52%
Others: 2.28%