Ein großes Ereignis hat die KI-Gemeinschaft gerade erschüttert—DeepSeek ist weltweit viral geworden! Dank seiner freien und quelloffenen Natur und einer Ausgabequalität, die mit dem O1-Modell von OpenAI mithalten kann, hat es eine riesige Fangemeinde gewonnen. Schauen Sie sich nur auf GitHub an—die Anzahl der Sterne ist auf über 60.000 gestiegen, im Vergleich zu 16.000 beim letzten Mal, als wir nachgeschaut haben. Das ist unglaublich!
Schritt 1: Ollama installieren
Zuerst müssen wir eine Laufzeitumgebung installieren, die die lokale Ausführung ermöglicht. Wir empfehlen Ollama, das die kostenlose Ausführung aller Versionen des DeepSeek R1-Modells unterstützt.
Gehen Sie auf die offizielle Website, klicken Sie auf den Download-Button und wählen Sie die Version, die mit Ihrem Computer kompatibel ist. Für dieses Beispiel verwenden wir einen Windows-PC. Die Dateigröße beträgt etwa 700 MB. Sobald der Download abgeschlossen ist, doppelklicken Sie darauf, um die Installation zu starten. Nach der Installation sehen Sie es in der Systemleiste—das bedeutet, Sie sind bereit loszulegen!!
Schritt 2: Den DeepSeek R1-Modellcode kopieren
Nun holen wir uns das DeepSeek R1-Modell:
- Gehen Sie zurück auf die offizielle Website von Ollama und klicken Sie auf den "Modelle"-Tab links oben.
- Die erste Option, die Sie sehen, sollte DeepSeek R1 sein—genau, es ist bereits integriert!
- Klicken Sie auf das Modell, und Sie sehen verschiedene Versionen je nach VRAM-Kapazität Ihres Computers.
- Falls Sie unsicher sind, welche Version Sie wählen sollen, hier ist eine allgemeine Empfehlung: Weniger VRAM? Wählen Sie ein kleineres Modell.
- Langsamer Inferenzgeschwindigkeit? Downgraden Sie auf eine niedrigere Version.
- Für dieses Tutorial verwenden wir die 7B-Version, die am häufigsten verwendet wird.
- Klicken Sie auf den Kopier-Button daneben—dies kopiert den Befehl, den wir benötigen, um das Modell automatisch herunterzuladen.
Schritt 3: Windows PowerShell öffnen
Nun installieren wir das Modell:
- Suchen Sie Windows PowerShell in der Suchleiste Ihres Systems und öffnen Sie es. (Oder drücken Sie WIN + R, geben Sie cmd ein und drücken Sie Enter, um das Eingabeaufforderungsfenster zu öffnen.)
- Fügen Sie den zuvor kopierten Befehl ein und drücken Sie Enter.
- Ollama wird nun automatisch DeepSeek R1 für Sie herunterladen und installieren.
- Sobald die Installation abgeschlossen ist, können Sie direkt Fragen stellen!
- Probieren Sie es aus, indem Sie eine Frage eingeben und Enter drücken—Sie sollten "Denke" erscheinen sehen, was bedeutet, dass DeepSeek R1 Ihre Anfrage verarbeitet.
Wir verstehen jedoch, dass diese Eingabeaufforderung für Anfänger möglicherweise nicht benutzerfreundlich ist. Wenn Sie eine saubere und intuitive Benutzeroberfläche bevorzugen—etwas wie ChatGPT—gehen wir zum nächsten Schritt über.
Schritt 4: DeepSeek R1 mit der Page Assist-Erweiterung ausführen
Um Ihre Erfahrung zu verbessern, setzen wir eine browserbasierte Benutzeroberfläche ein:
- Öffnen Sie den Chrome Web Store und suchen Sie nach "Page Assist."
- Klicken Sie auf "Zu Chrome hinzufügen."—Das erste Ergebnis ist das, das Sie benötigen.
- Nach der Installation finden Sie das Page Assist-Symbol in der oberen linken Ecke. Öffnen Sie es, und Sie sehen, dass es bereits mit dem Modell und Ollama verlinkt ist, das wir gerade eingerichtet haben.
- Wählen Sie das Modell, das Sie zuvor installiert haben. Bevor Sie es verwenden, müssen wir einige grundlegende Einstellungen anpassen.
- Klicken Sie auf das Einstellungs-Symbol in der oberen rechten Ecke, aktivieren Sie "RAG-Einstellungen," und wählen Sie Ihr Modell unter "Einbettungsmodell."
- Speichern Sie Ihre Änderungen, und Sie sind bereit loszulegen! Probieren Sie jetzt eine Beispielfrage aus:
Wumms! Die Antwort erscheint sofort.
Zusätzlich können Sie auch die Internet-Suchfunktion in der unteren linken Ecke aktivieren, um nach neuesten Nachrichten zu fragen. Ziemlich einfach, oder? Sie können sogar zwischen anderen Modellen wechseln, wenn Sie diese installiert haben!
Abschließende Gedanken zu DeepSeek
So können Sie DeepSeek R1 lokal und offline mit Ollama und der Page Assist-Erweiterung ausführen. Wenn Sie Fragen haben, hinterlassen Sie einen Kommentar auf AIPURE YouTube! Und vergessen Sie nicht, unser Kanal zu liken, abzuschreiben und Benachrichtigungen zu aktivieren, damit Sie unsere zukünftigen Tutorials nicht verpassen.