Google Colab ist eine Cloud-basierte Jupyter-Pocket book-Umgebung, mit der Sie den Python-Code effizient schreiben und ausführen können. Es wird auf Cloud-basierten virtuellen Maschinen ausgeführt, sodass Benutzer lokale Umgebungen nicht konfigurieren müssen. Dies macht es zu einer ausgezeichneten Wahl für Datenwissenschaft, maschinelles Lernen und allgemeine Python -Skripten. Manchmal müssen Sie jedoch möglicherweise direkt Shell-Befehle ausführen, z. B. das Installieren von Paketen, das Verwalten von Dateien oder das Ausführen von Dienstprogrammen auf Systemebene. Während Colab eine Möglichkeit bietet, Shell -Befehle in Notebooks auszuführen, ermöglicht dies auch Zugriff auf eine vollständige terminale Umgebung. In diesem Handbuch zeigen wir Ihnen, wie Sie in Google Colab auf das Terminal zugreifen, installieren und verwenden Sie OLLAMA, um maschinelles Lernmodelle zu ziehen, und führen dann die Schlussfolgerung mit Langchain und Ollama.
Schritt 1: Installieren und Laden Colab-× TERM
Um auf das Terminal in Google Colab zuzugreifen, müssen Sie die Colab-Xterm-Erweiterung installieren und aktivieren. Führen Sie die folgenden Befehle in einer Colab -Zelle aus:
!pip set up colab-xterm
%load_ext colabxterm
Sobald Sie installiert und geladen sind, können Sie das Terminal durch Ausführen starten:
%xterm
Dadurch wird eine Terminalschnittstelle direkt in Ihrer Colab -Umgebung geöffnet.
Installieren Sie das Ollama im Terminal mit Linux -Befehl.
curl -fsSL https://ollama.com/set up.sh | sh
Schritt 2: Ziehen eines Modells mit Ollama
Sobald Sie Zugriff auf das Terminal haben, können Sie maschinelles Lernmodelle herunterladen und verwenden. Um das Deepseek-R1: 7B- oder LLAMA3-Modell mit Ollama zu ziehen, führen Sie beispielsweise den folgenden Befehl im Terminal aus:
!ollama pull deepseek-r1:7b
oder
!ollama pull llama3
Dadurch wird das Modell heruntergeladen und für die Verwendung in Ihrem Colab -Notizbuch vorbereitet.
Schritt 3: Set up der erforderlichen Bibliotheken
Installieren Sie nach dem Herunterladen des Modells die erforderlichen Python -Bibliotheken, um mit dem Modell zu interagieren. Führen Sie diese Befehle in einer neuen Colab -Zelle aus:
!pip set up langchain
!pip set up langchain-core
!pip set up langchain-community
Diese Bibliotheken sind für strukturierte Arbeiten mit großer Sprachmodellen unerlässlich.
Schritt 4: Inferenz mit Langchain und Ollama lief
Sobald alle Abhängigkeiten installiert sind, können Sie Langchain verwenden, um mit dem Modell zu interagieren. Fügen Sie den folgenden Code in eine Colab -Zelle hinzu:
from langchain_community.llms import Ollama
# Load the mannequin
llm = Ollama(mannequin="llama3")
# Make a request to the mannequin
from langchain_community.llms import Ollama
llm = Ollama(mannequin = "llama3")
llm.invoke("inform me about Analytics Vidhya")
Analytics Vidhya!nnAnalytics Vidhya is a well-liked on-line neighborhood and
platform that focuses on information science, machine studying, and analytics
competitions. The platform was based in 2012 by three information fanatics:
Vivek Kumar, Ashish Thottumkal, and Pratik Jain.nnHere's what makes
Analytics Vidhya particular:nn1. **Competitions**: The platform hosts common
competitions (known as "challenges") which might be open to anybody enthusiastic about
information science, machine studying, or analytics. Contributors can select from a
number of challenges throughout numerous domains, reminiscent of finance, advertising and marketing,
healthcare, and extra.n2. **Actual-world datasets**: Challenges usually characteristic
real-world datasets from well-known organizations or firms, which
contributors should analyze and remedy utilizing their abilities in information science and
machine studying.n3. **Judging standards**: Every problem has a set of
judging standards, which ensures that submissions are evaluated primarily based on
particular metrics (e.g., accuracy, precision, r
Dadurch wird das LLAMA3 -Modell geladen und eine Antwort für die angegebene Eingabeaufforderung generiert.
Lesen Sie auch: Wie laufe ich Openai’s O3-Mini auf Google Colab?
Abschluss
Wenn Sie diese Schritte ausführen, können Sie problemlos auf ein Terminal in Google Colab zugreifen, sodass Sie Abhängigkeiten installieren, maschinelles Lernen mit OLLAMAME herunterladen und über Langchain mit ihnen interagieren können. Dies verwandelt Colab in eine vielseitige KI-Entwicklungsumgebung, mit der Sie mit modernsten Modellen experimentieren, Workflows automatisieren und Ihre maschinelle Lernforschung rationalisieren können-alle innerhalb eines Cloud-basierten Notebooks.
Häufig gestellte Fragen
A. Um auf das Terminal in Colab zuzugreifen, installieren Sie die Colab-× TERM Erweiterung mit !pip set up colab-xterm
und starten Sie dann das Terminal mithilfe %xterm
in einer Colab -Zelle.
A. Installieren Sie Ollama im Terminal durch Laufen curl -fsSL https://ollama.com/set up.sh | sh
dann verwenden !ollama pull
Modelle wie herunterladen wie !ollama pull llama3
.
A. Ja, nach der Set up von Langchain und dem Herunterladen eines Modells können Sie verwenden Ollama
in Langchain zu Inferenz. Zum Beispiel, llm.invoke("inform me about Analytics Vidhya")
erzeugt eine Antwort.
A. Ja, Google Colab unterstützt Deep Studying und große Datensätze, insbesondere mit GPUs/TPUs. Colab Professional bietet zusätzliche Ressourcen für eine schnellere Verarbeitung und größere Modelle, splendid für Deep -Lern -Aufgaben.