Meta Llama 3.3 70B 使い方
MetaのLlama 3.3 70Bは、より大きなLlama 3.1 405Bモデルに匹敵するパフォーマンスを提供しながら、計算コストは5分の1で、高品質なAIをよりアクセスしやすくします。
もっと見るMeta Llama 3.3 70Bの使い方
アクセスを取得: HuggingFaceのアクセスリクエストフォームに記入して、Llama 3.3 70Bのゲート付きリポジトリへのアクセスを取得します。無料で作成できるHuggingFace READトークンを生成します。
依存関係をインストール: transformersライブラリやPyTorchなど、必要な依存関係をインストールします
モデルをロード: 次のコードを使用してモデルをインポートしロードします:
import transformers
import torch
model_id = 'meta-llama/Llama-3.3-70B-Instruct'
pipeline = transformers.pipeline('text-generation', model=model_id, model_kwargs={'torch_dtype': torch.bfloat16}, device_map='auto')
入力メッセージをフォーマット: 'role'と'content'キーを持つ辞書のリストとして入力メッセージを構造化します。例えば:
messages = [
{'role': 'system', 'content': 'あなたは役立つアシスタントです'},
{'role': 'user', 'content': 'あなたの質問はこちら'}
]
出力を生成: メッセージをパイプラインに渡してテキストを生成します:
outputs = pipeline(messages, max_new_tokens=256)
print(outputs[0]['generated_text'])
ハードウェア要件: 十分なGPUメモリがあることを確認してください。このモデルは、Llama 3.1 405Bと比較して、同様のパフォーマンスを提供しながら、はるかに少ない計算リソースを必要とします。
使用ポリシーに従う: https://www.llama.com/llama3_3/use-policyで入手可能なMetaの受け入れ可能な使用ポリシーに従い、使用が適用される法律や規制に準拠していることを確認してください
Meta Llama 3.3 70Bのよくある質問
Meta Llama 3.3 70Bは、Meta AIによって作成された事前学習済みで指示調整された生成的な大規模言語モデル(LLM)です。これは、多言語モデルであり、テキストを処理および生成することができます。
関連記事
もっと見る