You cannot select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
26 lines
1.3 KiB
Markdown
26 lines
1.3 KiB
Markdown
---
|
|
title: LobeChat 支持多模态交互:视觉识别助力智能对话
|
|
description: LobeChat 支持多种具有视觉识别能力的大语言模型,用户可上传或拖拽图片,助手将识别内容并展开智能对话,打造更智能、多元化的聊天场景。
|
|
tags:
|
|
- LobeChat
|
|
- 多模态交互
|
|
- 视觉识别
|
|
- 智能对话
|
|
- 大语言模型
|
|
---
|
|
|
|
# 模型视觉识别
|
|
|
|
<Image
|
|
alt={'模型视觉识别'}
|
|
borderless
|
|
cover
|
|
src={
|
|
'https://github-production-user-asset-6210df.s3.amazonaws.com/17870709/284072129-382bdf30-e3d6-4411-b5a0-249710b8ba08.png'
|
|
}
|
|
/>
|
|
|
|
LobeChat 已经支持 OpenAI 的 [`gpt-4-vision`](https://platform.openai.com/docs/guides/vision) 、Google Gemini Pro vision、智谱 GLM-4 Vision 等具有视觉识别能力的大语言模型,这使得 LobeChat 具备了多模态交互的能力。用户可以轻松上传图片或者拖拽图片到对话框中,助手将能够识别图片内容,并在此基础上进行智能对话,构建更智能、更多元化的聊天场景。
|
|
|
|
这一特性打开了新的互动方式,使得交流不再局限于文字,而是可以涵盖丰富的视觉元素。无论是日常使用中的图片分享,还是在特定行业内的图像解读,助手都能提供出色的对话体验。
|