

Bild von Editor | Chatgpt
In der aktuellen Ära von LLM -Produkten (Langual Language Mannequin) wie Chatgpt oder Gemini haben wir uns auf diese Instruments verlassen, um unsere Produktivität zu steigern, indem wir bei verschiedenen Aufgaben helfen, z. B. die Beantwortung von Fragen, die Zusammenfassung von Dokumenten, Planungsaktivitäten und vieles mehr. Diese Werkzeuge sind zu einem Teil unseres täglichen Lebens geworden.
Viele dieser Produkte werden jedoch in der Cloud gehostet, und wir müssen über ihre Plattform auf sie zugreifen. Darüber hinaus ist jede Plattform in der Regel auf ihre eigenen proprietären Modelle beschränkt und erlaubt nicht die Verwendung anderer LLMs. Aus diesem Grund wurde die Ollama -Anwendung entwickelt, um Benutzern zu helfen, die verschiedene LLMs in ihrer lokalen Umgebung implementieren möchten.
Ollama gibt es schon seit einiger Zeit und hat vielen Benutzern bereits geholfen, Sprachmodelle lokal auszuführen. Das neueste Replace hat es noch leistungsfähiger gemacht.
Lassen Sie uns untersuchen, warum Ollamas neue Anwendung für viele Benutzer zu einem wesentlichen Software wird.
# Ollamas neue App
Wie erwähnt, Ollama ist ein Open-Supply-Software, das LLMs in einer lokalen Umgebung ausführt, ohne sich auf Cloud-Internet hosting zu verlassen. Wir können erforschen Welche Modelle sind verfügbar Laden Sie sie auf Ollamas Web site herunter und führen Sie sie direkt mit der Anwendungsschnittstelle aus. Die Anwendung fungiert als lokaler Modellmanager, der verschiedene Modelle für uns zur Verfügung stellt. Eine lokale Anwendung wie diese kommt dem Benutzer zugute, indem er ihnen Freiheit ermöglicht, gleichzeitig die Datenschutzdatenschutz zu erhalten und eine Latenz zu verringern.
Die größte Entwicklung ist, dass Ollama jetzt als eigenständige GUI -App läuft, im Gegensatz zur Befehlszeile. Vorbei sind die Tage von unbedingt suchen, installieren und konfigurieren eine UI -App von Drittanbietern (oder schreiben Sie Ihre eigenen), die Ollama zu einer angenehmeren Erfahrung machen könnte. Natürlich können Sie das alles immer noch tun, aber es besteht keine Notwendigkeit, länger zu sein.
Mit dem neuen Replace ist die Ollama -Anwendung nützlicher als je zuvor geworden, und wir werden jede seiner Funktionen einzeln untersuchen.
Mit der Ollama -Anwendung können Benutzer ein LLM lokal verwenden, indem das Modell in ihre lokale Umgebung heruntergeladen wird. Sie können mit einem Modell interagieren, indem Sie es auswählen und eine Eingabeaufforderung anstellen, um ein Ergebnis zu erzielen.

Ollama behält Ihre Gesprächsgeschichte und ermöglicht es Ihnen, das Gespräch nachzuverfolgen.

Wenn ein Modell lokal noch nicht verfügbar ist, wird die neue Ollama -Anwendung automatisch heruntergeladen, bevor die Eingabeaufforderung ausgeführt wird. Dies vereinfacht die Benutzererfahrung, da sie vor der Verwendung keine Modelle mehr separat herunterladen müssen.
Eine weitere neue Funktion ist die Möglichkeit, mit Ihren Dateien zu chatten. Durch das Ziehen und Ablegen einer Datei in die Ollama -App können wir Fragen zu ihren Inhalten stellen.

Das Ergebnis ist unten gezeigt, wobei das Modell auf die Datei zugreift und die Eingabeaufforderung basierend auf dem angegebenen Dokument ausführt.

Wenn Sie viele größere Dokumente verarbeiten müssen, können Sie die Kontextlänge von Ollama durch die Einstellungen erhöhen. Eine Erhöhung der Kontextlänge erfordert jedoch mehr Speicher, um eine stabile Leistung zu gewährleisten.

Die neuen Funktionen von Ollama beschränken sich nicht auf Textdokumente wie PDF und Phrase. Es bietet auch multimodale Unterstützung, sofern das ausgewählte Modell verschiedene Datentypen verarbeiten kann. Zum Beispiel können wir ein Modell wie Lama verwenden, um ein Bild zu verarbeiten, wie unten gezeigt.

Das Ergebnis ist unten gezeigt.

Schließlich kann die neue Ollama -Anwendung Codedateien verarbeiten, um Dokumentation zu erstellen. Diese Funktion ist für Entwickler besonders vorteilhaft.

Das Ergebnis ist unten gezeigt.

Dies sind die wichtigsten neuen Funktionen, die Ollama bietet, um Ihre Produktivität zu verbessern. Wir ermutigen Sie, sie in Ihrer Arbeit zu nutzen.
# Einpacken
Ollama ist eine Anwendung, mit der Benutzer LLMs in einer lokalen Umgebung ausführen können. Es ist ein wertvolles Software für jeden Benutzer, der verschiedene Modelle testen und seine Daten privat halten möchte. Die neue Model bietet leistungsfähigere Funktionen, einschließlich einer nutzbaren Chat -Benutzeroberfläche, dem einfachen Modell -Herunterladen, der Möglichkeit, mit Ihren Dateien, multimodaler Unterstützung und Codeverarbeitung zu chatten.
Ich hoffe das hat geholfen!
Cornellius Yudha Wijaya ist ein Knowledge Science Assistant Supervisor und Datenautor. Während er in Vollzeit bei Allianz Indonesien arbeitet, liebt er es, Python- und Datentipps über soziale Medien und das Schreiben von Medien zu teilen. Cornellius schreibt über eine Vielzahl von KI- und maschinellen Lernthemen.
