So verbinden Sie LocalAI mit ONLYOFFICE unter Linux

6 Januar 2025Nach Ksenija

Die verbesserte KI-Funktionalität in ONLYOFFICE ermöglicht es Ihnen, jedes KI-Modell mit den Editoren zu verbinden, auch ein lokales. In diesem Artikel untersuchen wir das Beispiel der Verbindung von LocalAI unter Linux.

How to connect LocalAI to ONLYOFFICE on Linux

Schritt 1: LocalAI installieren

curl https://localai.io/install.sh | sh

Sie können auch diese Anleitung zur Installation von LocalAI lesen. Die Installation über Docker ist möglich.

Bitte beachten Sie die Hardwarevoraussetzungen:

CPU: Es empfiehlt sich, einen Mehrkernprozessor zu verwenden.

RAM: Für grundlegende Aufgaben sind mindestens 8 GB RAM erforderlich. Um größere Modelle reibungslos zu verarbeiten und Speicherproblemen vorzubeugen, werden 16 GB oder mehr empfohlen.

Speicher: Für einen schnelleren Datenzugriff entscheiden Sie sich für SSD-Speicher. Stellen Sie sicher, dass mindestens 20 GB Speicherplatz zum Speichern des Modells und zur Verwaltung temporärer Dateien verfügbar sind.

Netzwerk: LocalAI funktioniert ohne Internetverbindung. Zum Herunterladen von Modellen und Anwenden von Updates wird jedoch eine zuverlässige Verbindung empfohlen.

Schritt 2: Das erforderliche Modell installieren

Zum Beispiel dieses Modell:

local-ai models install hermes-2-theta-llama-3-8b

Schritt 3: LocalAI mit dem Flag ‘cors’ starten

Damit es nicht nur lokal, sondern auch im Web verwendet werden kann.

local-ai run --cors

Alternativ können Sie der Datei /etc/localai.env die folgende Zeile hinzufügen:

CORSALLOWEDORIGINS = "*"

Schritt 4: KI-Plugin in ONLYOFFICE konfigurieren

  • Starten Sie einen beliebigen Web-Editor, je nachdem, welche ONLYOFFICE-Lösung Sie verwenden.
  • Gehen Sie zur Registerkarte Plugins und klicken Sie auf die Plugin-Verwaltung. Klicken Sie neben dem KI-Plugin auf Installieren. Öffnen Sie die Plugins im Hintergrund und aktivieren Sie den Umschalter für KI. Wenn Sie das KI-Plugin bereits installiert haben, überspringen Sie diesen Schritt einfach.
  • Greifen Sie auf die angezeigte KI-Registerkarte zu. Klicken Sie auf Einstellungen, um das Konfigurationsfenster zu öffnen. Klicken Sie auf KI-Modelle bearbeiten -> Hinzufügen.
  • Geben Sie hier LocalAI als Anbieternamen an. Und geben Sie die URL http://127.0.0.1:8080 ein (sofern Sie sie beim Starten von local-ai nicht geändert haben).
  • Die Modelle werden automatisch in die Liste geladen – wählen Sie hermes-2-theta-llama-3-8b.
  • Klicken Sie auf OK, um die Einstellungen zu speichern.

How to connect LocalAI to ONLYOFFICE on Linux

Bereit! Sie können LocalAI verwenden, um die KI-bezogenen Aufgaben in Ihren Dokumenten zu erledigen.

Erstellen Sie Ihr kostenloses ONLYOFFICE-Konto

Öffnen und bearbeiten Sie gemeinsam Dokumente, Tabellen, Folien, Formulare und PDF-Dateien online.