---
title: 在 LobeChat 中使用本地通义千问 Qwen 模型
description: 通过 LobeChat 与 Ollama 的集成,轻松在本地部署的通义千问 Qwen 模型中进行对话。学习如何安装和选择 Qwen 模型。
tags:
- 通义千问
- Qwen模型
- LobeChat集成
- Ollama
- 本地部署
---
# 使用本地通义千问 Qwen 模型
[通义千问](https://github.com/QwenLM/Qwen1.5) 是阿里云开源的一款大语言模型(LLM),官方定义是一个不断进化的 AI 大模型,并通过更多的训练集内容达到更精准的中文识别能力。
现在,通过 LobeChat 与 [Ollama](https://ollama.com/) 的集成,你可以轻松地在 LobeChat 中使用 通义千问。
本文档将指导你如何在 LobeChat 中使用通义千问本地部署版:
### 本地安装 Ollama
首先,你需要安装 Ollama,安装过程请查阅 [Ollama 使用文件](/zh/docs/usage/providers/ollama)。
### 用 Ollama 拉取 Qwen 模型到本地
在安装完成 Ollama 后,你可以通过以下命令安装 Qwen 模型,以 14b 模型为例:
```bash
ollama pull qwen:14b
```
### 选择 Qwen 模型
在会话页面中,选择模型面板打开,然后选择 Qwen 模型。
如果你没有在模型选择面板中看到 Ollama 服务商,请查阅 [与 Ollama
集成](/zh/docs/self-hosting/examples/ollama) 了解如何在 LobeChat 中开启 Ollama 服务商。
接下来,你就可以使用 LobeChat 与本地 Qwen 模型对话了。