You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

172 lines
6.0 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

---
title: 在 LobeChat 中使用 Ollama
description: 了解如何在 LobeChat 中使用 Ollama ,在你的本地运行大型语言模型,获得最前沿的 AI 使用体验。
tags:
- Ollama
- Web UI
- API Key
- Local LLM
- Ollama WebUI
---
# 在 LobeChat 中使用 Ollama
<Image alt={'在 LobeChat 中使用 Ollama'} borderless cover src={'https://github.com/lobehub/lobe-chat/assets/17870709/f579b39b-e771-402c-a1d1-620e57a10c75'} />
Ollama 是一款强大的本地运行大型语言模型LLM的框架支持多种语言模型包括 Llama 2, Mistral 等。现在LobeChat 已经支持与 Ollama 的集成,这意味着你可以在 LobeChat 中轻松使用 Ollama 提供的语言模型来增强你的应用。
本文档将指导你如何在 LobeChat 中使用 Ollama
<Video alt={'在 LobeChat 中使用 Ollama的完整演示'} height={580} src="https://github.com/lobehub/lobe-chat/assets/28616219/c32b56db-c6a1-4876-9bc3-acbd37ec0c0c" />
## 在 macOS 下使用 Ollama
<Steps>
### 本地安装 Ollama
[下载 Ollama for macOS](https://ollama.com/download?utm_source=lobehub\&utm_medium=docs\&utm_campaign=download-macos) 并解压、安装。
### 配置 Ollama 允许跨域访问
由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 `OLLAMA_ORIGINS`。使用 `launchctl` 设置环境变量:
```bash
launchctl setenv OLLAMA_ORIGINS "*"
```
完成设置后,需要重启 Ollama 应用程序。
### 在 LobeChat 中与本地大模型对话
接下来,你就可以使用 LobeChat 与本地 LLM 对话了。
<Image alt="在 LobeChat 中与 llama3 对话" height="573" src="https://github.com/lobehub/lobe-chat/assets/28616219/7f9a9a9f-fd91-4f59-aac9-3f26c6d49a1e" />
</Steps>
## 在 windows 下使用 Ollama
<Steps>
### 本地安装 Ollama
[下载 Ollama for Windows](https://ollama.com/download?utm_source=lobehub\&utm_medium=docs\&utm_campaign=download-windows) 并安装。
### 配置 Ollama 允许跨域访问
由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 `OLLAMA_ORIGINS`
在 Windows 上Ollama 继承了您的用户和系统环境变量。
1. 首先通过 Windows 任务栏点击 Ollama 退出程序。
2. 从控制面板编辑系统环境变量。
3. 为您的用户账户编辑或新建 Ollama 的环境变量 `OLLAMA_ORIGINS`,值设为 `*`
4. 点击`OK/应用`保存后重启系统。
5. 重新运行`Ollama`。
### 在 LobeChat 中与本地大模型对话
接下来,你就可以使用 LobeChat 与本地 LLM 对话了。
</Steps>
## 在 linux 下使用 Ollama
<Steps>
### 本地安装 Ollama
通过以下命令安装:
```bash
curl -fsSL https://ollama.com/install.sh | sh
```
或者,你也可以参考 [Linux 手动安装指南](https://github.com/ollama/ollama/blob/main/docs/linux.md)。
### 配置 Ollama 允许跨域访问
由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 `OLLAMA_ORIGINS`。如果 Ollama 作为 systemd 服务运行,应该使用`systemctl`设置环境变量:
1. 通过调用`sudo systemctl edit ollama.service`编辑 systemd 服务。
```bash
sudo systemctl edit ollama.service
```
2. 对于每个环境变量,在`[Service]`部分下添加`Environment`
```bash
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
```
3. 保存并退出。
4. 重载 `systemd` 并重启 Ollama
```bash
sudo systemctl daemon-reload
sudo systemctl restart ollama
```
### 在 LobeChat 中与本地大模型对话
接下来,你就可以使用 LobeChat 与本地 LLM 对话了。
</Steps>
## 使用 docker 部署使用 Ollama
<Steps>
### 拉取 Ollama 镜像
如果你更倾向于使用 DockerOllama 也提供了官方 Docker 镜像,你可以通过以下命令拉取:
```bash
docker pull ollama/ollama
```
### 配置 Ollama 允许跨域访问
由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 `OLLAMA_ORIGINS`
如果 Ollama 作为 Docker 容器运行,你可以将环境变量添加到 `docker run` 命令中。
```bash
docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11434:11434 --name ollama ollama/ollama
```
### 在 LobeChat 中与本地大模型对话
接下来,你就可以使用 LobeChat 与本地 LLM 对话了。
</Steps>
## 安装 Ollama 模型
Ollama 支持多种模型,你可以在 [Ollama Library](https://ollama.com/library) 中查看可用的模型列表,并根据需求选择合适的模型。
### LobeChat 中安装
在 LobeChat 中,我们默认开启了一些常用的大语言模型,例如 llama3、 Gemma 、 Mistral 等。当你选中模型进行对话时,我们会提示你需要下载该模型。
<Image alt="LobeChat 提示安装 Ollama 模型" height="460" src="https://github.com/lobehub/lobe-chat/assets/28616219/4e81decc-776c-43b8-9a54-dfb43e9f601a" />
下载完成后即可开始对话。
### 用 Ollama 拉取模型到本地
当然,你也可以通过在终端执行以下命令安装模型,以 llama3 为例:
```bash
ollama pull llama3
```
<Video height={524} src="https://github.com/lobehub/lobe-chat/assets/28616219/95828c11-0ae5-4dfa-84ed-854124e927a6" />
## 自定义配置
你可以在 `设置` -> `语言模型` 中找到 Ollama 的配置选项,你可以在这里配置 Ollama 的代理、模型名称等。
<Image alt={'Ollama 服务商设置'} height={274} src={'https://github.com/lobehub/lobe-chat/assets/28616219/54b3696b-5b13-4761-8c1b-1e664867b2dd'} />
<Callout type={'info'}>
你可以前往 [与 Ollama 集成](/zh/docs/self-hosting/examples/ollama) 了解如何部署 LobeChat
,以满足与 Ollama 的集成需求。
</Callout>