Skip to content

LocalAI

LocalAI 是一个本地运行开源模型的开源 Docker 镜像,支持大部份开源模型。相对于 Ollama,它更适合部署到局域网服务器供小团体使用。

本指南介绍如何在 Aide 中配置和使用 LocalAI 模型。

您可以在 LocalAI 官网文档 获取更多详细信息。

安装 LocalAI

在使用 LocalAI 之前,请确保已参考 LocalAI 官网文档 安装并运行 Docker 镜像。

接口基础路径配置

您需要配置 aide.openaiBaseUrlhttp://localhost:8080/v1(假设您的服务运行在 8080 端口)

密钥配置

您可以随意填写以配置 aide.openaiKey。例如,填入 sk-LocalAI

模型配置

您需要配置 aide.openaiModelLocalAI 模型,我们推荐使用 llama3-instruct 模型。更多模型请参考 支持的模型列表

示例配置文件

以下是一个完整的配置示例:

json
{
  "aide.openaiBaseUrl": "http://localhost:8080/v1",
  "aide.openaiKey": "sk-LocalAI",
  "aide.openaiModel": "llama3-instruct"
}

相关链接

基于 MIT 许可发布