DeepSeekをローカルでオフライン実行する方法

この包括的なステップバイステップガイドで、DeepSeek R1をローカルでオフライン実行する方法を学びましょう。Ollamaを介してランタイム環境を設定し、DeepSeekモデルをインストールし、ユーザーフレンドリーなインターフェースのためにPage Assistブラウザ拡張機能を使用することで、サーバーの過負荷を避け、シームレスなアクセスを楽しむことができます。信頼性の高いオフラインAIモデル実行を求めるAI愛好家に最適です。

Rock Smith
更新日 2025年02月10日
目次

    AIコミュニティーに大きな衝撃が走りました—DeepSeekが世界中で話題になっているのです!無料でオープンソースであることと、OpenAIのO1モデルに匹敵する出力品質により、多くのフォロワーを獲得しています。GitHubを見てみましょう—スター数が前回確認時の16Kから60K以上に急上昇しています。これは驚異的です!

    DeepSeek-R1
    DeepSeek-R1
    DeepSeek-R1は、数学、コード、推論タスクにおいてOpenAIのo1に匹敵するパフォーマンスを達成する高度なオープンソースAI推論モデルで、革新的な強化学習技術と広範なアクセスのための複数の蒸留版を特徴としています
    ウェブサイトを訪問

    しかし、DeepSeekのオンラインバージョンはサーバーの過負荷により、アクセスが困難になることがあります。そこで今日は、DeepSeek R1をローカルでオフラインで実行する方法を、ステップバイステップで解説していきます。早速始めましょう!

    How to Run Deepseek

    ステップ1:Ollamaのインストール

    まず、ローカル実行を可能にするランタイム環境をインストールする必要があります。私たちはOllamaをお勧めします。これはDeepSeek R1モデルのすべてのバージョンを無料で実行できます。

    公式サイトにアクセスし、ダウンロードボタンをクリックして、お使いのコンピューターに対応したバージョンを選択します。今回はWindowsパソコンを例に説明します。ファイルサイズは約700MBです。ダウンロード後、ダブルクリックしてインストールします。インストール完了後、システムトレイに表示されれば準備完了です!

    Ollama

    ステップ2:DeepSeek R1モデルコードのコピー

    次に、DeepSeek R1モデルを入手しましょう:

    • Ollamaの公式サイトに戻り、左上の「Models」タブをクリックします。
    • 最初のオプションとしてDeepSeek R1が表示されるはずです—そうです、すでに統合されているのです!

    Ollama

    • モデルをクリックすると、コンピューターのVRAM容量に基づいて異なるバージョンが表示されます。
    • どれを選べばよいか迷った場合は、以下の一般的な推奨事項を参考にしてください:VRAMが少ない場合は、小さいモデルを選択。
    • 推論速度が遅い場合は、下位バージョンにダウングレード。
    • このチュートリアルでは、最も一般的に使用されている7Bバージョンを使用します。
    • 横にあるコピーボタンをクリックします—これにより、モデルを自動的にダウンロードするために必要なコマンドがコピーされます。

    DeepSeek R1

    ステップ3:Windows PowerShellを開く

    では、モデルをインストールしましょう:

    • システムの検索バーでWindows PowerShellを見つけて開きます。(または、WIN + Rを押し、cmdと入力してEnterを押してコマンドプロンプトを開きます。)

    Windows PowerShell

    • 先ほどコピーしたコマンドを貼り付けてEnterを押します。

    Deepseek

    • OllamaがDeepSeek R1を自動的にダウンロードしてインストールします。
    • インストールが完了したら、直接質問を始めることができます!
    • 質問を入力してEnterを押してみてください—「Think」と表示されれば、DeepSeek R1があなたの質問を処理していることを意味します。

    ただし、このコマンドラインインターフェースは初心者には使いづらいかもしれません。ChatGPTのようなクリーンで直感的なUIをお好みの方は、次のステップに進みましょう。

    Deepseek

    ステップ4:Page Assist拡張機能を使用してDeepSeek R1を実行する

    より良い体験のために、ブラウザベースのインターフェースをセットアップしましょう:

    • Chrome ウェブストアを開き、「Page Assist」を検索します。

    Page Assist

    • Chromeに追加」をクリックします—最初の検索結果が目的のものです。
    • インストール後、左上隅にPage Assistアイコンが表示されます。開くと、先ほど設定したモデルとOllamaにすでにリンクされていることがわかります。
    • 先ほどインストールしたモデルを選択します。使用する前に、基本設定を調整する必要があります。
    • 右上の設定アイコンをクリックし、「RAG設定」を有効にし、「Embedding Model」でモデルを選択します。

    DeepSeek R1

    • 変更を保存すれば準備完了です!試しに以下のような質問をしてみましょう:
    「一昨日の次の日は何曜日ですか?」

    すぐに答えが表示されます!

    DeepSeek R1

    さらに、左下のインターネット検索機能を有効にすることで、最新のニュースについても質問できます。とても簡単ですよね?インストールされている他のモデルに切り替えることもできます!

    AIPURE
    AIPURE
    AIPUREは、使いやすい検索インターフェースを通じて2024年の最高のAIツールとサービスを発見し探求するのを助ける包括的なプラットフォームです
    ウェブサイトを訪問

    DeepSeekについての最後の考察

    以上が、OllamaとPage Assist拡張機能を使用してDeepSeek R1をローカルでオフラインで実行する方法です。質問がある場合は、AIPURE YouTubeにコメントを残してください!そして、今後のチュートリアルを見逃さないように、チャンネルの「いいね!」、登録、通知設定をお忘れなく。

    あなたに最適なAIツールを簡単に見つけられます。
    今すぐ探す!
    製品データ統合
    豊富な選択肢
    豊富な情報