DeepSeek-R1
DeepSeek-R1は、数学、コード、推論タスクにおいてOpenAIのo1に匹敵するパフォーマンスを達成する高度なオープンソースAI推論モデルで、革新的な強化学習技術と広範なアクセスのための複数の蒸留版を特徴としています
https://github.com/deepseek-ai/DeepSeek-R1?ref=aipure&utm_source=aipure
製品情報
更新日:2025年01月22日
DeepSeek-R1とは
DeepSeek-R1は、DeepSeek AIによって開発された第一世代の推論モデルで、DeepSeek-R1-ZeroとDeepSeek-R1の2つの主要なバリアントがあります。671Bの総パラメータと37Bのアクティブパラメータを持つMixture-of-Experts (MoE)アーキテクチャに基づいており、AI推論能力における重要なブレークスルーを表しています。このモデルは、思考の連鎖プロセスを通じて複雑な推論タスクを処理するように設計されており、128Kトークンのコンテキスト長で機能します。DeepSeekのチャットプラットフォームを通じて、またはオープンソースモデルとして利用可能で、LlamaおよびQwenアーキテクチャに基づく1.5Bから70Bのパラメータを持つ複数の蒸留版があります。
DeepSeek-R1の主な機能
DeepSeek-R1は、数学、コード、および推論タスクにおいてOpenAIのo1モデルに匹敵する性能を達成する高度なオープンソースAI推論モデルです。大規模な強化学習を使用して訓練されており、段階的な推論、自己検証、反省機能を可能にする独自のアーキテクチャを特徴としています。このモデルは、LlamaおよびQwenに基づいて小型化されており、強力な性能を維持しながら、よりアクセスしやすくなっています。
高度な推論機能: 自己検証と反省パターンを用いた思考の連鎖推論を採用し、透明な段階的問題解決を可能にします
大規模RLトレーニング: 推論能力が監視された微調整なしで純粋に強化学習を通じて開発できることを検証する初のオープンリサーチです
柔軟なモデルオプション: 蒸留を通じて複数のサイズ(1.5Bから70Bパラメータ)で利用可能で、強力な性能を維持しながら異なる計算要件に対応するオプションを提供します
拡張されたコンテキスト長: 最大128Kトークンのコンテキスト長をサポートし、より長い入力を処理し、より詳細な応答を生成します
DeepSeek-R1のユースケース
高度な数学問題解決: AIMEやMATH-500ベンチマークを含む複雑な数学問題を段階的な推論で解決するのに優れています
ソフトウェア開発とコーディング: 高レベルのコーディングタスク、競技プログラミング問題、およびソフトウェア工学の課題を高い精度で実行します
教育支援: さまざまな科目にわたって詳細な説明と段階的な問題解決アプローチを提供することで、学生や教育者を支援します
多言語推論タスク: 英語と中国語の両方で複雑な推論タスクを処理し、国際的なアプリケーションにとって価値があります
メリット
MITライセンスの下でオープンソースで商業利用可能です
OpenAIのo1のような専有モデルに匹敵する性能
異なる計算ニーズに対応するために複数のサイズで利用可能です
デメリット
大きなモデルにはかなりの計算リソースが必要です
温度設定は繰り返しを防ぐために慎重に調整する必要があります
システムプロンプトはサポートされていない - すべての指示はユーザープロンプト内にある必要があります
DeepSeek-R1の使い方
アクセス方法を選択: DeepSeek-R1にアクセスするための3つのオプションがあります: ウェブインターフェース、API、またはローカルインストール
ウェブインターフェースアクセス: chat.deepseek.comにアクセスし、ログインして、DeepSeek-R1と対話するために'DeepThink'ボタンを有効にします。注意: 高度なモードでは1日50メッセージに制限されています
APIアクセス: 1. platform.deepseek.comでサインアップしてAPIキーを取得します 2. model='deepseek-reasoner'を指定してOpenAI互換APIを使用します 3. base_urlをhttps://api.deepseek.com/v1に設定します
ローカルインストール(蒸留モデル): vLLMまたはSGLangをインストールして、ローカルで小さな蒸留版を実行します。vLLMを使用する場合は、'vllm serve deepseek-ai/DeepSeek-R1-Distill-Qwen-32B --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager'を使用します
使用設定を構成: 温度を0.5-0.7の範囲に設定(0.6を推奨)、システムプロンプトを避け、ユーザープロンプトに指示を含め、数学の問題には'\boxed{}'ディレクティブを追加します
モデルバージョンを選択: 計算リソースに基づいて、DeepSeek-R1-Zero(純粋なRLモデル)、DeepSeek-R1(フルモデル)、または蒸留版(Qwen/Llamaベース)を選択します
プロンプトをフォーマット: システムプロンプトなしで、ユーザープロンプトにすべての指示を含めます。数学の問題については、最終的な回答を\boxed{}内で要求します
複数の応答を生成: 最良の結果を得るために、複数の応答を生成し、モデルのパフォーマンスを評価する際に結果を平均化します
DeepSeek-R1のよくある質問
DeepSeek-R1は、DeepSeek-AIによって開発された第一世代の推論モデルで、数学、コード、推論タスクにおいてOpenAI-o1に匹敵するパフォーマンスを達成します。大規模な強化学習を使用して訓練されており、DeepSeek-R1-ZeroとDeepSeek-R1の2つのバージョンがあります。