ChatGLM 使い方
ChatGLMは、Zhipu AIと清華KEGによって開発されたオープンソースの双方向(中国語-英語)大規模言語モデルシリーズで、スムーズな対話機能と低い展開閾値を特徴としています。
もっと見るChatGLMの使い方
必要なパッケージをインストール: 以下のコマンドを実行して必要なPythonパッケージをインストールします: pip install protobuf transformers==4.30.2 cpm\_kernels torch>=2.0 gradio mdtex2html sentencepiece accelerate
モデルとトークナイザーをインポート: 以下のコードを使用してChatGLMをインポートします:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from\_pretrained("THUDM/chatglm-6b", trust\_remote\_code=True)
model = AutoModel.from\_pretrained("THUDM/chatglm-6b", trust\_remote\_code=True).half().cuda()
応答を生成: chatメソッドを呼び出して応答を生成します:
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
会話を続ける: 会話を続けるには、historyを後続の呼び出しに渡します:
response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
print(response)
ウェブインターフェースを使用: よりユーザーフレンドリーな体験のために、https://chatglm.cn にアクセスして大規模なChatGLMモデルのウェブインターフェースを使用します
モバイルアプリをダウンロード: ChatGLMのウェブサイトにあるQRコードをスキャンして、iOSまたはAndroid用のモバイルアプリをダウンロードします
ChatGLMのよくある質問
ChatGLMは、General Language Model(GLM)フレームワークに基づくオープンな双言語言語モデルです。中国語と英語のデータでトレーニングされ、質問応答と対話タスクに最適化されています。
ChatGLM の月間トラフィック傾向
ChatGLMは、わずか0.0%の減少で、401件の訪問数減少を記録しました。直接的な製品アップデートはありませんでしたが、10兆トークンに及ぶ高度な機能と多言語事前学習により、依然として堅牢なAI製品であることを示しています。しかし、最近のアップデートや注目すべき市場活動がないことは、積極的な成長というよりも安定期にあることを示唆しているかもしれません。
過去のトラフィックを表示
もっと見る