Tipps & Tricks

Alte Laptops für KI nutzen: Anleitung zur lokalen Einrichtung von Qwen3.5

6 min Lesezeit
Alte Laptops für KI nutzen: Anleitung zur lokalen Einrichtung von Qwen3.5

Die Nutzung eines leistungsstarken KI-Modells auf einem älteren Laptop erfordert nicht mehr zwingend eine hochmoderne Arbeitsstation oder teure Cloud-Dienste. Mit leichten Tools und kleineren Open-Source-Modellen ist es nun möglich, selbst ein älteres Gerät in eine praktische lokale KI-Umgebung für Programmierung, Experimente und agentenbasierte Arbeitsabläufe zu verwandeln.

Einführung

In diesem Tutorial erfahren Sie, wie Sie Qwen3.5 lokal mit Ollama ausführen und es mit OpenCode verbinden, um eine einfache lokale agentenbasierte Einrichtung zu schaffen. Ziel ist es, alles einfach, zugänglich und anfängerfreundlich zu gestalten, sodass Sie einen funktionierenden lokalen KI-Assistenten erhalten, ohne sich mit einer komplizierten Softwarearchitektur auseinandersetzen zu müssen.

Ollama installieren

Der erste Schritt besteht darin, Ollama zu installieren, das die Ausführung großer Sprachmodelle auf Ihrem Computer erleichtert.

Wenn Sie Windows verwenden, können Sie Ollama entweder direkt von der offiziellen Download-Seite herunterladen und wie jede andere Anwendung installieren oder den folgenden Befehl in PowerShell ausführen:

irm https://ollama.com/install.ps1 | iex

Die Ollama-Downloadseite enthält auch Installationsanweisungen für Linux und macOS, sodass Sie die Schritte dort befolgen können, wenn Sie ein anderes Betriebssystem verwenden.

Sobald die Installation abgeschlossen ist, sind Sie bereit, Ollama zu starten und Ihr erstes lokales Modell herunterzuladen.

Ollama starten

In den meisten Fällen startet Ollama automatisch nach der Installation, insbesondere wenn Sie es zum ersten Mal starten. Das bedeutet, dass Sie möglicherweise nichts weiter tun müssen, bevor Sie ein Modell lokal ausführen.

Falls der Ollama-Server nicht bereits läuft, können Sie ihn manuell mit folgendem Befehl starten:

ollama serve

Qwen3.5 lokal ausführen

Sobald Ollama läuft, besteht der nächste Schritt darin, Qwen3.5 auf Ihrem Computer herunterzuladen und zu starten.

Wenn Sie die Qwen3.5-Modellseite in Ollama besuchen, sehen Sie mehrere Modellgrößen, die von größeren Varianten bis hin zu kleineren, leichteren Optionen reichen.

Für dieses Tutorial verwenden wir die 4B-Version, da sie ein gutes Gleichgewicht zwischen Leistung und Hardwareanforderungen bietet. Sie ist eine praktische Wahl für ältere Laptops und benötigt typischerweise etwa 3,5 GB Arbeitsspeicher (RAM).

Um das Modell über Ihr Terminal herunterzuladen und auszuführen, verwenden Sie den folgenden Befehl:

ollama run qwen3.5:4b

Beim ersten Ausführen dieses Befehls wird Ollama die Modell-Dateien auf Ihren Computer herunterladen. Je nach Internetgeschwindigkeit kann dies einige Minuten in Anspruch nehmen.

Nachdem der Download abgeschlossen ist, benötigt Ollama möglicherweise einen Moment, um das Modell zu laden und alles vorzubereiten, was erforderlich ist, um es lokal auszuführen. Sobald alles bereit ist, sehen Sie eine interaktive Terminal-Chat-Oberfläche, in der Sie das Modell direkt ansprechen können.

Zu diesem Zeitpunkt können Sie Qwen3.5 bereits im Terminal für einfache lokale Gespräche, schnelle Tests und leichte Programmierhilfe verwenden, bevor Sie es mit OpenCode für einen umfassenderen agentenbasierten Workflow verbinden.

OpenCode installieren

Nachdem Sie Ollama und Qwen3.5 eingerichtet haben, besteht der nächste Schritt darin, OpenCode zu installieren, einen lokalen Programmieragenten, der mit Modellen auf Ihrem eigenen Computer arbeiten kann.

Sie können die OpenCode-Website besuchen, um die verfügbaren Installationsoptionen zu erkunden und mehr darüber zu erfahren, wie es funktioniert. Für dieses Tutorial verwenden wir die Schnellinstallationsmethode, da dies der einfachste Weg ist, um zu beginnen.

Führen Sie den folgenden Befehl in Ihrem Terminal aus:

curl -fsSL https://opencode.ai/install | bash

Dieser Installer übernimmt den Einrichtungsprozess für Sie und installiert die erforderlichen Abhängigkeiten, einschließlich Node.js, wenn nötig, sodass Sie nicht alles manuell konfigurieren müssen.

OpenCode mit Qwen3.5 starten

Jetzt, da sowohl Ollama als auch OpenCode installiert sind, können Sie OpenCode mit Ihrem lokalen Qwen3.5-Modell verbinden und es als leichten Programmieragenten nutzen.

Wenn Sie die Qwen3.5-Seite in Ollama betrachten, werden Sie feststellen, dass Ollama nun einfache Integrationen mit externen KI-Tools und Programmieragenten unterstützt. Dies erleichtert die Nutzung lokaler Modelle in einem praktischeren Workflow, anstatt nur im Terminal mit ihnen zu chatten.

Um OpenCode mit dem Qwen3.5 4B-Modell zu starten, führen Sie den folgenden Befehl aus:

ollama launch opencode –model qwen3.5:4b

Dieser Befehl weist Ollama an, OpenCode mit Ihrem lokal verfügbaren Qwen3.5-Modell zu starten. Nach der Ausführung gelangen Sie in die OpenCode-Oberfläche, in der Qwen3.5 4B bereits verbunden und bereit zur Nutzung ist.

Ein einfaches Python-Projekt mit Qwen3.5 erstellen

Sobald OpenCode mit Qwen3.5 läuft, können Sie ihm einfache Aufforderungen geben, um Software direkt aus Ihrem Terminal zu erstellen.

Für dieses Tutorial haben wir es gebeten, ein kleines Python-Spielprojekt von Grund auf zu erstellen, mit folgendem Prompt:

Erstellen Sie ein neues Python-Projekt und entwickeln Sie ein modernes Ratespiel mit sauberem Code, einfachem Gameplay, Punktverfolgung und einer benutzerfreundlichen Terminaloberfläche.

Nach einigen Minuten generierte OpenCode die Projektstruktur, schrieb den Code und erledigte die erforderlichen Vorbereitungen, um das Spiel zum Laufen zu bringen.

Wir baten es auch, alle erforderlichen Abhängigkeiten zu installieren und das Projekt zu testen, was den Workflow viel näher an der Arbeit mit einem leichten lokalen Programmieragenten als an einem einfachen Chatbot erscheinen ließ.

Das Endergebnis war ein voll funktionsfähiges Python-Spiel, das reibungslos im Terminal lief. Das Gameplay war einfach, die Code-Struktur war klar, und die Punktverfolgung funktionierte wie erwartet.

Wenn Sie beispielsweise ein korrektes Zeichen eingeben, zeigt das Spiel sofort den passenden Buchstaben im versteckten Wort an, was beweist, dass die Logik direkt aus der Box funktioniert.

Fazit

Ich war wirklich beeindruckt, wie einfach es ist, eine lokale agentenbasierte Einrichtung auf einem älteren Laptop mit Ollama, Qwen3.5 und OpenCode zum Laufen zu bringen. Für eine leichte, kostengünstige Einrichtung funktioniert es überraschend gut und macht lokale KI viel praktischer, als viele Menschen erwarten.

Dennoch gibt es einige Herausforderungen.

Da diese Einrichtung auf einem kleineren und quantisierten Modell basiert, sind die Ergebnisse nicht immer stark genug für komplexere Programmieraufgaben. Meiner Erfahrung nach kann es einfache Projekte, grundlegende Skripting-Aufgaben, Forschungsunterstützung und allgemeine Aufgaben recht gut bewältigen, aber es beginnt Schwierigkeiten zu haben, wenn die Softwareentwicklung anspruchsvoller oder mehrstufig wird.

Ein Problem, das ich wiederholt hatte, war, dass das Modell manchmal mitten in einer Aufgabe stoppte. In solchen Fällen musste ich manuell „weiter“ eingeben, um es dazu zu bringen, weiterzumachen und die Aufgabe zu beenden. Das ist für Experimente handhabbar, macht den Workflow jedoch weniger zuverlässig, wenn Sie konsistente Ergebnisse für größere Programmieraufgaben wünschen.

Abid Ali Awan (@1abidaliawan) ist ein zertifizierter Datenwissenschaftler, der es liebt, Maschinenlernmodelle zu entwickeln. Derzeit konzentriert er sich auf die Erstellung von Inhalten und das Schreiben technischer Blogs über Technologien im Bereich Maschinenlernen und Datenwissenschaft. Abid hat einen Master-Abschluss in Technologiemanagement und einen Bachelor-Abschluss in Telekommunikationsengineering. Seine Vision ist es, ein KI-Produkt mit einem graphbasierten neuronalen Netzwerk für Studenten zu entwickeln, die mit psychischen Erkrankungen kämpfen.

Erhalten Sie das kostenlose E-Book ‚KDnuggets Künstliche Intelligenz Taschenwörterbuch‘ zusammen mit dem führenden Newsletter zu Datenwissenschaft, Maschinenlernen, KI und Analytik direkt in Ihr Postfach.

„`

Bildquelle: ai-generated-gemini

KI Snack