如何在 Linux 系统上将 LocalAI 连接至 ONLYOFFICE
2025年01月07日作者:Mona
ONLYOFFICE 最新升级的 AI 功能允许您将任意 AI 模型连接至编辑器,本地 AI 模型也不例外。在本文中,我们将探讨在 Linux 系统上连接 LocalAI 的示例。
步骤 1:安装 LocalAI
curl https://localai.io/install.sh | sh
您还可以查看此指引了解如何安装。LocalAI 也支持通过 Docker 安装。
请注意如下硬件要求:
CPU:建议使用多核处理器。
RAM:执行基础任务至少需要 8 GB 的 RAM。如需顺畅使用更大规模的模型,避免内存问题,建议 RAM 大小达到 16 GB 或以上。
存储:为加快数据访问速度,请选择固态硬盘(SSD)存储。确保存储模型和处理临时文件至少有 20 GB 的可用空间。
网络:LocalAI 可以离线运行,但仍建议有一个稳定的网络以下载模型和进行更新。
步骤 2:安装所需模型
例如:
local-ai models install hermes-2-theta-llama-3-8b
步骤 3:使用 CORS 标志启动 LocalAI
即可在本地和网页中使用 LocalAI。
local-ai run --cors
或者,您可以将下列命令添加至 /etc/localai.env 文件:
CORSALLOWEDORIGINS = "*"
步骤 4:在 ONLYOFFICE 中配置 AI 插件设置
- 根据您正在使用的 ONLYOFFICE 解决方案启动任意网页编辑器。
- 前往“插件”选项卡并点击“插件管理器”图标。点击 AI 插件旁边的“安装”按钮。打开“后台插件”并启用 AI。如果您已经安装 AI 插件,跳过此步骤即可。
- 访问 AI 选项卡。点击“设置”,打开配置窗口。点击“编辑 AI 模型-> 添加”。
- 这里将 LocalAI 指定为提供者名称。输入 URL:http://127.0.0.1:8080(默认 URL)。
- 该模型将自动加载至列表中,并选择 hermes-2-theta-llama-3-8b。
- 点击“确定”保存设置。
完成!您现在可以在文档中使用 LocalAI 来处理相关任务啦!
创建免费的 ONLYOFFICE 账户
在线查看并协作编辑文本文档、电子表格、幻灯片、表单和 PDF 文件。