Comment connecter LocalAI à ONLYOFFICE sous Linux
La fonctionnalité d’IA améliorée dans ONLYOFFICE vous permet de connecter n’importe quel modèle d’IA aux éditeurs, y compris un modèle local. Dans cet article, nous allons explorer l’exemple de la connexion de LocalAI sur Linux.
Étape 1. Installer LocalAI
curl https://localai.io/install.sh | sh
Vous pouvez également consulter cette instruction sur l’installation de LocalAI. L’installation via Docker est possible.
Veuillez noter les exigences en matière de matériel :
PROCESSEUR : il est conseillé d’utiliser un processeur multicœur.
RAM : un minimum de 8 Go de RAM est nécessaire pour les tâches de base. Pour gérer en douceur les modèles plus importants et éviter les problèmes de mémoire, il est recommandé de disposer d’au moins 16 Go.
Stockage : pour un accès plus rapide aux données, optez pour un stockage SSD. Veillez à disposer d’un minimum de 20 Go d’espace disponible pour stocker le modèle et gérer les fichiers temporaires.
Réseau : LocalAI fonctionne sans connexion internet. Cependant, une connexion fiable est conseillée pour le téléchargement des modèles et l’application des mises à jour.
Étape 2. Installer le modèle requis
Par exemple, celle-ci :
local-ai models install hermes-2-theta-llama-3-8b
Étape 3. Lancer LocalAI avec le drapeau cors
Il peut donc être utilisé non seulement localement, mais aussi sur le web.
local-ai run --cors
Vous pouvez également ajouter la ligne suivante au fichier /etc/localai.env
:
CORSALLOWEDORIGINS = "*"
Étape 4. Configurer les paramètres du plugin AI dans ONLYOFFICE
- Lancez n’importe quel éditeur web en fonction de la solution ONLYOFFICE que vous utilisez.
- Allez dans l’onglet Modules complémentaires et cliquez sur l’icône Gestionnaire de plugins. Cliquez sur Installer à côté du plugin IA. Ouvrez Plugins d’arrière-plan et activez le commutateur pour IA. Si le plugin AI est déjà installé, sautez cette étape.
- Accédez à l’onglet IA apparu. Cliquez sur Paramètres pour ouvrir la fenêtre de configuration. Cliquez sur Modifier les modèles d’IA -> Ajouter.
- Ici, indiquez LocalAI comme nom de fournisseur. Et entrez l’URL http://127.0.0.1:8080 (si vous ne l’avez pas modifiée lors du lancement de local-ai).
- Les modèles se chargeront automatiquement dans la liste – sélectionnez hermes-2-theta-llama-3-8b.
- Cliquez sur OK pour enregistrer les paramètres.
Fini ! Vous pouvez commencer à utiliser LocalAI pour gérer les tâches liées à l’IA dans vos documents.
Créez votre compte ONLYOFFICE gratuit
Affichez, modifiez et coéditez des documents texte, feuilles de calcul, diapositives, formulaires et fichiers PDF en ligne.