So installieren Sie GPT4All unter Ubuntu

GPT4All ist das Open-Source-Chatbot-Modell für große Sprachen, das wir auf unseren Laptops oder dem Desktop ausführen können, um einfacher und schneller auf die Tools zuzugreifen, die Sie im Gegensatz zu den cloudbasierten Modellen erhalten. Es funktioniert ähnlich wie das am meisten diskutierte „ChatGPT“-Modell. Der Vorteil von GPT4All besteht jedoch möglicherweise darin, dass es keine Such- und Antwortverzögerungszeiten gibt. Außerdem müssen wir uns nicht auf der Plattform registrieren, um Zugriff darauf zu erhalten.

GPT4All basiert auf LLaMa und GPT-J. Es bietet die flexiblen und leistungsstarken Werkzeuge der KI für verschiedene Anwendungen. Die Trainingsdaten für GPT4All sind kleiner als die Trainingsdaten der GPT3- und GPT4-Modelle, was bedeutet, dass diese Einschränkung die Fähigkeiten dieses Modells im Vergleich zu anderen Modellen einschränkt. Darüber hinaus läuft dieses Modell auf lokalen Computern, sodass es möglicherweise langsamer ist. Dies hängt von den Verarbeitungskapazitäten und der Geschwindigkeit (CPU) des Systems ab.

Arbeiten am GPT4All-Modell

GPT4All verfügt über Python-Bindungen für GPU- und CPU-Schnittstellen, die den Benutzern helfen, mithilfe der Python-Skripte eine Interaktion mit dem GPT4All-Modell zu erstellen und die Integration dieses Modells in mehrere Anwendungen zu ermöglichen. Dieses Modell trägt auch zur Reichweitenerweiterung der verfügbaren bestehenden Sprachmodelle und der kompatiblen Spitzenmodelle bei. Um diese Community noch größer zu machen, sind die Entwickler willkommen, Pull-Requests für einen indirekten Beitrag zum Projekt einzureichen.

Dieser Artikel enthält eine schrittweise Anleitung zur Installation von GPT4All unter Ubuntu und zur Installation der anderen erforderlichen Pakete für die Generierung von Antworten mithilfe des GPT4All-Modells. Um mit dem GPT4All-Modell zu beginnen, müssen zunächst die obligatorischen Komponenten installiert werden. Stellen Sie sicher, dass Python bereits auf Ihren Systemen installiert ist. Die empfohlene Version von Python ist Version 3.7 oder die späteren Versionen. Danach müssen wir die folgenden Schritte ausführen:

Installationsschritte

  • Beginnen Sie zunächst damit, das GPT4All-Repository von GitHub herunterzuladen. Der Link zu dieser Website wird hier erwähnt: https://github.com/nomic-ai/gpt4all.git“. Im Anschluss an diesen Schritt laden wir das GPT4All-Installationsprogramm für unsere jeweiligen Betriebssysteme von der offiziellen Website von GPT4All herunter.
  • Extrahieren Sie die heruntergeladenen Dateien in ein beliebiges Dateiverzeichnis auf unserem System.
  • Öffnen Sie die Eingabeaufforderung oder das Terminalfenster und navigieren Sie zum GPT4All-Verzeichnis, wo wir die heruntergeladenen Dateien extrahieren.
  • Führen Sie dann den Befehl zur Installation des erforderlichen Python-Pakets aus.

Schritt 1: Installation

Um die Anforderungen für die Python-Pakete herunterzuladen und zu installieren und GPT4All zu installieren, führen Sie den folgenden Befehl aus, um mit der Installation zu beginnen:

$ python -m pip install -r Anforderungen.txt

Schritt 2: Laden Sie das GPT4All-Modell herunter

Entweder können wir das GitHub-Repository über den Link zur GPT4All-Website herunterladen oder klonen. Um das Repository zu klonen, führen Sie den folgenden Befehl aus:

$ Git-Klon https://github.com/nomic-ai/gpt4all.git

Dieser Befehl klont das GPT4All-Repository auf unsere lokalen Computer, wie im folgenden Snippet gezeigt:

Wenn wir den bereitgestellten Link zum Herunterladen des GPT4All-Installationsprogramms verwendet haben, müssen wir sicherstellen, dass die Modelldatei die Erweiterung „.bin“ hat. Dann müssen wir diese heruntergeladene Datei im Chat-Verzeichnisordner ablegen, in den GPT4All heruntergeladen wird.

Schritt 3: Modellprüfpunkt (optional und nur anwendbar, wenn wir das Repository geklont haben)

Wenn wir das GPT4All-Repository über das Befehlsfenster (Ubuntu) geklont haben, müssen wir die Datei mit der Erweiterung „.bin“ herunterladen. Zu diesem Zweck laden wir die Erweiterung direkt über diesen Link herunter „https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin“.

Sobald diese heruntergeladen ist, verschieben Sie diese Datei in den Chat-Ordner, der im geklonten Repository vorhanden ist.

Schritt 4: Verschieben Sie die Datei in den Chat-Ordner

Jetzt müssen wir zum Chat-Ordner navigieren. Wenn wir unter Ubuntu arbeiten, müssen wir den folgenden Befehl ausführen, der uns zum Chat-Ordner navigiert. Der Befehl wird wie folgt erwähnt:

$ cd gpt4all/chat

Entweder haben wir das GPT4ll-Installationsprogramm direkt von der GPT4All-Website heruntergeladen oder das Repository geklont. An diesem Punkt sollten wir uns im selben Schritt befinden, in dem wir das GPT4ALL-Repository erfolgreich heruntergeladen und seine Download-Datei mit der Erweiterung „.bin“ im Chat-Verzeichnis im Ordner „GPT4All“ abgelegt haben.

Schritt 5: Führen Sie das Modell aus

Sobald wir in den Chat-Ordner verschoben sind, ist es nun an der Zeit, das Modell auszuführen. Wir führen den folgenden Befehl auf dem Linux-Terminal aus:

$ Linux: ./gpt4all-lora-quantized-linux-x86

Der Befehl startet die Ausführung des Modells für GPT4All. Wir können dieses Modell nun für die Textgenerierung verwenden, indem wir mit diesem Modell über die Eingabeaufforderung oder das Terminalfenster interagieren, oder wir geben einfach beliebige Textabfragen ein und warten darauf, dass das Modell darauf antwortet. Abhängig von den Spezifikationen unseres Systems kann die Verarbeitung dieses Modells etwas Zeit in Anspruch nehmen. Der Vorteil dieses Desktop-Modells gegenüber den in der Cloud verfügbaren Modellen besteht jedoch darin, dass wir uns keine Gedanken über Netzwerkprobleme machen müssen, da wir dieses Modell jetzt auf lokaler Hardware ausführen.

Wir haben GPT4all erfolgreich auf unserem lokalen Computer ausgeführt. Bedenken Sie, dass sich GPT4All noch in der Verbesserungsphase befindet, sodass wir unsere Raten auf dem neuesten Stand halten müssen. Das GPT4All-Repository kann jederzeit problemlos aktualisiert werden. Alles, was wir tun müssen, ist, in den Hauptinstallationsordner des GPT4All-Modells zu wechseln und einfach „Git Pull“ anzufordern. Dieses Modell hat noch nicht die Leistungsgenauigkeit von ChatGPT erreicht, hebt sich jedoch dennoch von diesen Modellen ab, indem es seinen Benutzern eine Desktop-Schnittstelle bietet.

Abschluss

Die groß angelegte, leicht zugängliche und Open-Source-Alternative zum KI-Modell, das GPT3 ähnelt, ist „GPT4ALL“. Mit der Schritt-für-Schritt-Anleitung, die wir in diesem Leitfaden erläutert haben, können Sie die Leistungsfähigkeit dieses Modells für unsere Anwendungen und Projekte nutzen. Dieser Artikel beleuchtet die Installationsmethode des GPT4All-Modells in Ubuntu. Wir haben die Arbeitsmethodik dieses Modells mit den damit verbundenen Vor- und Nachteilen ausführlich besprochen.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen