So verbinden Sie LocalAI mit ONLYOFFICE unter Linux
Die verbesserte KI-Funktionalität in ONLYOFFICE ermöglicht es Ihnen, jedes KI-Modell mit den Editoren zu verbinden, auch ein lokales. In diesem Artikel untersuchen wir das Beispiel der Verbindung von LocalAI unter Linux.
Schritt 1: LocalAI installieren
curl https://localai.io/install.sh | sh
Sie können auch diese Anleitung zur Installation von LocalAI lesen. Die Installation über Docker ist möglich.
Bitte beachten Sie die Hardwarevoraussetzungen:
CPU: Es empfiehlt sich, einen Mehrkernprozessor zu verwenden.
RAM: Für grundlegende Aufgaben sind mindestens 8 GB RAM erforderlich. Um größere Modelle reibungslos zu verarbeiten und Speicherproblemen vorzubeugen, werden 16 GB oder mehr empfohlen.
Speicher: Für einen schnelleren Datenzugriff entscheiden Sie sich für SSD-Speicher. Stellen Sie sicher, dass mindestens 20 GB Speicherplatz zum Speichern des Modells und zur Verwaltung temporärer Dateien verfügbar sind.
Netzwerk: LocalAI funktioniert ohne Internetverbindung. Zum Herunterladen von Modellen und Anwenden von Updates wird jedoch eine zuverlässige Verbindung empfohlen.
Schritt 2: Das erforderliche Modell installieren
Zum Beispiel dieses Modell:
local-ai models install hermes-2-theta-llama-3-8b
Schritt 3: LocalAI mit dem Flag ‘cors’ starten
Damit es nicht nur lokal, sondern auch im Web verwendet werden kann.
local-ai run --cors
Alternativ können Sie der Datei /etc/localai.env
die folgende Zeile hinzufügen:
CORSALLOWEDORIGINS = "*"
Schritt 4: KI-Plugin in ONLYOFFICE konfigurieren
- Starten Sie einen beliebigen Web-Editor, je nachdem, welche ONLYOFFICE-Lösung Sie verwenden.
- Gehen Sie zur Registerkarte Plugins und klicken Sie auf die Plugin-Verwaltung. Klicken Sie neben dem KI-Plugin auf Installieren. Öffnen Sie die Plugins im Hintergrund und aktivieren Sie den Umschalter für KI. Wenn Sie das KI-Plugin bereits installiert haben, überspringen Sie diesen Schritt einfach.
- Greifen Sie auf die angezeigte KI-Registerkarte zu. Klicken Sie auf Einstellungen, um das Konfigurationsfenster zu öffnen. Klicken Sie auf KI-Modelle bearbeiten -> Hinzufügen.
- Geben Sie hier LocalAI als Anbieternamen an. Und geben Sie die URL http://127.0.0.1:8080 ein (sofern Sie sie beim Starten von local-ai nicht geändert haben).
- Die Modelle werden automatisch in die Liste geladen – wählen Sie hermes-2-theta-llama-3-8b.
- Klicken Sie auf OK, um die Einstellungen zu speichern.
Bereit! Sie können LocalAI verwenden, um die KI-bezogenen Aufgaben in Ihren Dokumenten zu erledigen.
Erstellen Sie Ihr kostenloses ONLYOFFICE-Konto
Öffnen und bearbeiten Sie gemeinsam Dokumente, Tabellen, Folien, Formulare und PDF-Dateien online.