如何在 Linux 系统上将 LocalAI 连接至 ONLYOFFICE

2025年01月07日作者:Mona

ONLYOFFICE 最新升级AI 功能允许您将任意 AI 模型连接至编辑器,本地 AI 模型也不例外。在本文中,我们将探讨在 Linux 系统上连接 LocalAI 的示例。

(no title)

步骤 1安装 LocalAI

curl https://localai.io/install.sh | sh

您还可以查看指引了解如何安装。LocalAI 也支持通过 Docker 安装。

请注意如下硬件要求:

CPU建议使用多核处理器。

RAM执行基础任务至少需要 8 GB 的 RAM。如需顺畅使用更大规模的模型,避免内存问题,建议 RAM 大小达到 16 GB 或以上。

存储:为加快数据访问速度,请选择固态硬盘(SSD)存储。确保存储模型和处理临时文件至少有 20 GB 的可用空间。

网络LocalAI 可以离线运行,但仍建议有一个稳定的网络以下载模型和进行更新。

步骤 2安装所需模型

例如:

local-ai models install hermes-2-theta-llama-3-8b

步骤 3使用 CORS 标志启动 LocalAI

即可在本地和网页中使用 LocalAI。

local-ai run --cors

或者,您可以将下列命令添加至 /etc/localai.env 文件:

CORSALLOWEDORIGINS = "*"

步骤 4ONLYOFFICE 配置 AI 插件设置

  • 根据您正在使用的 ONLYOFFICE 解决方案启动任意网页编辑器。
  • 前往“插件”选项卡并点击“插件管理器”图标。点击 AI 插件旁边的“安装”按钮。打开“后台插件”并启用 AI。如果您已经安装 AI 插件,跳过此步骤即可。
  • 访问 AI 选项卡。点击“设置”,打开配置窗口。点击“编辑 AI 模型-> 添加”。
  • 这里将 LocalAI 指定为提供者名称。输入 URL:http://127.0.0.1:8080(默认 URL)。
  • 该模型将自动加载至列表中,并选择 hermes-2-theta-llama-3-8b
  • 点击“确定”保存设置。

在办公套件中使用 AI 工具:探索 ONLYOFFICE 的 AI 功能

完成!您现在可以在文档中使用 LocalAI 来处理相关任务啦!

创建免费的 ONLYOFFICE 账户

在线查看并协作编辑文本文档、电子表格、幻灯片、表单和 PDF 文件。