Google Colab ist eine Cloud-basierte Jupyter-Pocket book-Umgebung, mit der Sie den Python-Code effizient schreiben und ausführen können. Es wird auf Cloud-basierten virtuellen Maschinen ausgeführt, sodass Benutzer lokale Umgebungen nicht konfigurieren müssen. Dies macht es zu einer ausgezeichneten Wahl für Datenwissenschaft, maschinelles Lernen und allgemeine Python -Skripten. Manchmal müssen Sie jedoch möglicherweise direkt Shell-Befehle ausführen, z. B. das Installieren von Paketen, das Verwalten von Dateien oder das Ausführen von Dienstprogrammen auf Systemebene. Während Colab eine Möglichkeit bietet, Shell -Befehle in Notebooks auszuführen, ermöglicht dies auch Zugriff auf eine vollständige terminale Umgebung. In diesem Handbuch zeigen wir Ihnen, wie Sie in Google Colab auf das Terminal zugreifen, installieren und verwenden Sie OLLAMA, um maschinelles Lernmodelle zu ziehen, und führen dann die Schlussfolgerung mit Langchain und Ollama.

Schritt 1: Installieren und Laden Colab-× TERM

Um auf das Terminal in Google Colab zuzugreifen, müssen Sie die Colab-Xterm-Erweiterung installieren und aktivieren. Führen Sie die folgenden Befehle in einer Colab -Zelle aus:

!pip set up colab-xterm
%load_ext colabxterm

Sobald Sie installiert und geladen sind, können Sie das Terminal durch Ausführen starten:

%xterm

Dadurch wird eine Terminalschnittstelle direkt in Ihrer Colab -Umgebung geöffnet.

Installieren Sie das Ollama im Terminal mit Linux -Befehl.

curl -fsSL https://ollama.com/set up.sh | sh

Schritt 2: Ziehen eines Modells mit Ollama

Sobald Sie Zugriff auf das Terminal haben, können Sie maschinelles Lernmodelle herunterladen und verwenden. Um das Deepseek-R1: 7B- oder LLAMA3-Modell mit Ollama zu ziehen, führen Sie beispielsweise den folgenden Befehl im Terminal aus:

!ollama pull deepseek-r1:7b

oder

!ollama pull llama3

Dadurch wird das Modell heruntergeladen und für die Verwendung in Ihrem Colab -Notizbuch vorbereitet.

Schritt 3: Set up der erforderlichen Bibliotheken

Installieren Sie nach dem Herunterladen des Modells die erforderlichen Python -Bibliotheken, um mit dem Modell zu interagieren. Führen Sie diese Befehle in einer neuen Colab -Zelle aus:

!pip set up langchain
!pip set up langchain-core
!pip set up langchain-community

Diese Bibliotheken sind für strukturierte Arbeiten mit großer Sprachmodellen unerlässlich.

Schritt 4: Inferenz mit Langchain und Ollama lief

Sobald alle Abhängigkeiten installiert sind, können Sie Langchain verwenden, um mit dem Modell zu interagieren. Fügen Sie den folgenden Code in eine Colab -Zelle hinzu:

from langchain_community.llms import Ollama
# Load the mannequin

llm = Ollama(mannequin="llama3")

# Make a request to the mannequin

from langchain_community.llms import Ollama

llm = Ollama(mannequin = "llama3")

llm.invoke("inform me about Analytics Vidhya")
Analytics Vidhya!nnAnalytics Vidhya is a well-liked on-line neighborhood and
platform that focuses on information science, machine studying, and analytics
competitions. The platform was based in 2012 by three information fanatics:
Vivek Kumar, Ashish Thottumkal, and Pratik Jain.nnHere's what makes
Analytics Vidhya particular:nn1. **Competitions**: The platform hosts common
competitions (known as "challenges") which might be open to anybody enthusiastic about
information science, machine studying, or analytics. Contributors can select from a
number of challenges throughout numerous domains, reminiscent of finance, advertising and marketing,
healthcare, and extra.n2. **Actual-world datasets**: Challenges usually characteristic
real-world datasets from well-known organizations or firms, which
contributors should analyze and remedy utilizing their abilities in information science and
machine studying.n3. **Judging standards**: Every problem has a set of
judging standards, which ensures that submissions are evaluated primarily based on
particular metrics (e.g., accuracy, precision, r

Dadurch wird das LLAMA3 -Modell geladen und eine Antwort für die angegebene Eingabeaufforderung generiert.

Lesen Sie auch: Wie laufe ich Openai’s O3-Mini auf Google Colab?

Abschluss

Wenn Sie diese Schritte ausführen, können Sie problemlos auf ein Terminal in Google Colab zugreifen, sodass Sie Abhängigkeiten installieren, maschinelles Lernen mit OLLAMAME herunterladen und über Langchain mit ihnen interagieren können. Dies verwandelt Colab in eine vielseitige KI-Entwicklungsumgebung, mit der Sie mit modernsten Modellen experimentieren, Workflows automatisieren und Ihre maschinelle Lernforschung rationalisieren können-alle innerhalb eines Cloud-basierten Notebooks.

Häufig gestellte Fragen

Q1. Wie greife ich auf das Terminal in Google Colab auf?

A. Um auf das Terminal in Colab zuzugreifen, installieren Sie die Colab-× TERM Erweiterung mit !pip set up colab-xterm und starten Sie dann das Terminal mithilfe %xterm in einer Colab -Zelle.

Q2. Wie kann ich Ollama in Google Colab installieren und verwenden?

A. Installieren Sie Ollama im Terminal durch Laufen curl -fsSL https://ollama.com/set up.sh | shdann verwenden !ollama pull Modelle wie herunterladen wie !ollama pull llama3.

Q3. Kann ich in einem Modell Schluss mit Langchain und Ollama führen?

A. Ja, nach der Set up von Langchain und dem Herunterladen eines Modells können Sie verwenden Ollama in Langchain zu Inferenz. Zum Beispiel, llm.invoke("inform me about Analytics Vidhya") erzeugt eine Antwort.

This fall. Ist es möglich, Google Colab für Deep Studying -Modelle mit großen Datensätzen zu verwenden?

A. Ja, Google Colab unterstützt Deep Studying und große Datensätze, insbesondere mit GPUs/TPUs. Colab Professional bietet zusätzliche Ressourcen für eine schnellere Verarbeitung und größere Modelle, splendid für Deep -Lern -Aufgaben.

Hallo, ich bin Pankaj Singh Negi – Senior Content material Editor | Leidenschaftlich über das Geschichtenerzählen und das Erstellen überzeugender Erzählungen, die Ideen in einen wirkungsvollen Inhalt verwandeln. Ich liebe es, über die Technologie zu lesen, die unseren Lebensstil revolutioniert.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert