Wie man DeepSeek offline lokal ausführt

Erfahren Sie in dieser umfassenden Schritt-für-Schritt-Anleitung, wie Sie DeepSeek R1 offline lokal ausführen können. Vermeiden Sie Serverüberlastungen und genießen Sie einen nahtlosen Zugriff, indem Sie eine Laufzeitumgebung über Ollama einrichten, das DeepSeek-Modell installieren und die Page Assist Browser-Erweiterung für eine benutzerfreundliche Oberfläche verwenden. Perfekt für KI-Enthusiasten, die eine zuverlässige offline KI-Modellausführung suchen.

Rock Smith
Aktualisiert am Feb 10, 2025
Inhaltsverzeichnis

    Ein großes Ereignis hat die KI-Gemeinschaft gerade erschüttert—DeepSeek ist weltweit viral geworden! Dank seiner freien und quelloffenen Natur und einer Ausgabequalität, die mit dem O1-Modell von OpenAI mithalten kann, hat es eine riesige Fangemeinde gewonnen. Schauen Sie sich nur auf GitHub an—die Anzahl der Sterne ist auf über 60.000 gestiegen, im Vergleich zu 16.000 beim letzten Mal, als wir nachgeschaut haben. Das ist unglaublich!

    DeepSeek-R1
    DeepSeek-R1
    DeepSeek-R1 ist ein fortschrittliches Open-Source-KI-Denkmodell, das eine Leistung erreicht, die mit OpenAI's o1 bei Mathematik-, Code- und Denkaufgaben vergleichbar ist und innovative Techniken des Reinforcement Learning sowie mehrere destillierte Versionen für eine breitere Zugänglichkeit bietet.
    Website besuchen

    Wie man Deepseek ausführt

    Schritt 1: Ollama installieren

    Zuerst müssen wir eine Laufzeitumgebung installieren, die die lokale Ausführung ermöglicht. Wir empfehlen Ollama, das die kostenlose Ausführung aller Versionen des DeepSeek R1-Modells unterstützt.

    Gehen Sie auf die offizielle Website, klicken Sie auf den Download-Button und wählen Sie die Version, die mit Ihrem Computer kompatibel ist. Für dieses Beispiel verwenden wir einen Windows-PC. Die Dateigröße beträgt etwa 700 MB. Sobald der Download abgeschlossen ist, doppelklicken Sie darauf, um die Installation zu starten. Nach der Installation sehen Sie es in der Systemleiste—das bedeutet, Sie sind bereit loszulegen!!

    Ollama

    Schritt 2: Den DeepSeek R1-Modellcode kopieren

    Nun holen wir uns das DeepSeek R1-Modell:

    • Gehen Sie zurück auf die offizielle Website von Ollama und klicken Sie auf den "Modelle"-Tab links oben.
    • Die erste Option, die Sie sehen, sollte DeepSeek R1 sein—genau, es ist bereits integriert!

    Ollama

    • Klicken Sie auf das Modell, und Sie sehen verschiedene Versionen je nach VRAM-Kapazität Ihres Computers.
    • Falls Sie unsicher sind, welche Version Sie wählen sollen, hier ist eine allgemeine Empfehlung: Weniger VRAM? Wählen Sie ein kleineres Modell.
    • Langsamer Inferenzgeschwindigkeit? Downgraden Sie auf eine niedrigere Version.
    • Für dieses Tutorial verwenden wir die 7B-Version, die am häufigsten verwendet wird.
    • Klicken Sie auf den Kopier-Button daneben—dies kopiert den Befehl, den wir benötigen, um das Modell automatisch herunterzuladen.

    DeepSeek R1

    Schritt 3: Windows PowerShell öffnen

    Nun installieren wir das Modell:

    • Suchen Sie Windows PowerShell in der Suchleiste Ihres Systems und öffnen Sie es. (Oder drücken Sie WIN + R, geben Sie cmd ein und drücken Sie Enter, um das Eingabeaufforderungsfenster zu öffnen.)

    Windows PowerShell

    • Fügen Sie den zuvor kopierten Befehl ein und drücken Sie Enter.

    DeepSeek R1

    • Ollama wird nun automatisch DeepSeek R1 für Sie herunterladen und installieren.
    • Sobald die Installation abgeschlossen ist, können Sie direkt Fragen stellen!
    • Probieren Sie es aus, indem Sie eine Frage eingeben und Enter drücken—Sie sollten "Denke" erscheinen sehen, was bedeutet, dass DeepSeek R1 Ihre Anfrage verarbeitet.

    Wir verstehen jedoch, dass diese Eingabeaufforderung für Anfänger möglicherweise nicht benutzerfreundlich ist. Wenn Sie eine saubere und intuitive Benutzeroberfläche bevorzugen—etwas wie ChatGPT—gehen wir zum nächsten Schritt über.

    DeepSeek R1

    Schritt 4: DeepSeek R1 mit der Page Assist-Erweiterung ausführen

    Um Ihre Erfahrung zu verbessern, setzen wir eine browserbasierte Benutzeroberfläche ein:

    • Öffnen Sie den Chrome Web Store und suchen Sie nach "Page Assist."

    Page Assist

    • Klicken Sie auf "Zu Chrome hinzufügen."—Das erste Ergebnis ist das, das Sie benötigen.
    • Nach der Installation finden Sie das Page Assist-Symbol in der oberen linken Ecke. Öffnen Sie es, und Sie sehen, dass es bereits mit dem Modell und Ollama verlinkt ist, das wir gerade eingerichtet haben.
    • Wählen Sie das Modell, das Sie zuvor installiert haben. Bevor Sie es verwenden, müssen wir einige grundlegende Einstellungen anpassen.
    • Klicken Sie auf das Einstellungs-Symbol in der oberen rechten Ecke, aktivieren Sie "RAG-Einstellungen," und wählen Sie Ihr Modell unter "Einbettungsmodell."

    DeepSeek R1

    • Speichern Sie Ihre Änderungen, und Sie sind bereit loszulegen! Probieren Sie jetzt eine Beispielfrage aus:
    "Welcher Tag folgt auf den Tag vor gestern?"

    Wumms! Die Antwort erscheint sofort.

    DeepSeek R1

    Zusätzlich können Sie auch die Internet-Suchfunktion in der unteren linken Ecke aktivieren, um nach neuesten Nachrichten zu fragen. Ziemlich einfach, oder? Sie können sogar zwischen anderen Modellen wechseln, wenn Sie diese installiert haben!

    AIPURE
    AIPURE
    AIPURE ist eine umfassende Plattform, die Nutzern hilft, die besten KI-Tools und -Dienste des Jahres 2024 durch eine benutzerfreundliche Suchoberfläche zu entdecken und zu erkunden.
    Website besuchen

    Abschließende Gedanken zu DeepSeek

    So können Sie DeepSeek R1 lokal und offline mit Ollama und der Page Assist-Erweiterung ausführen. Wenn Sie Fragen haben, hinterlassen Sie einen Kommentar auf AIPURE YouTube! Und vergessen Sie nicht, unser Kanal zu liken, abzuschreiben und Benachrichtigungen zu aktivieren, damit Sie unsere zukünftigen Tutorials nicht verpassen.

    Finden Sie einfach das KI-Tool, das am besten zu Ihnen passt.
    Jetzt finden!
    Integrierte Produktdaten
    Große Auswahl
    Umfangreiche Informationen