You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

1797 lines
130 KiB
JSON

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

{
"01-ai/Yi-1.5-34B-Chat-16K": {
"description": "Yi-1.5 34B以豐富的訓練樣本在行業應用中提供優越表現。"
},
"01-ai/Yi-1.5-6B-Chat": {
"description": "Yi-1.5-6B-Chat 是 Yi-1.5 系列的一個變體屬於開源聊天模型。Yi-1.5 是 Yi 的升級版本,在 500B 個高質量語料上進行了持續預訓練,並在 3M 多樣化的微調樣本上進行了微調。相比於 YiYi-1.5 在編碼、數學、推理和指令遵循能力方面表現更強,同時保持了出色的語言理解、常識推理和閱讀理解能力。該模型具有 4K、16K 和 32K 的上下文長度版本,預訓練總量達到 3.6T 個 token"
},
"01-ai/Yi-1.5-9B-Chat-16K": {
"description": "Yi-1.5 9B 支持16K Tokens提供高效、流暢的語言生成能力。"
},
"01-ai/yi-1.5-34b-chat": {
"description": "零一萬物最新開源微調模型340億參數微調支持多種對話場景高質量訓練數據對齊人類偏好。"
},
"01-ai/yi-1.5-9b-chat": {
"description": "零一萬物最新開源微調模型90億參數微調支持多種對話場景高質量訓練數據對齊人類偏好。"
},
"360gpt-pro": {
"description": "360GPT Pro 作為 360 AI 模型系列的重要成員,以高效的文本處理能力滿足多樣化的自然語言應用場景,支持長文本理解和多輪對話等功能。"
},
"360gpt-turbo": {
"description": "360GPT Turbo 提供強大的計算和對話能力,具備出色的語義理解和生成效率,是企業和開發者理想的智能助理解決方案。"
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K 強調語義安全和責任導向,專為對內容安全有高度要求的應用場景設計,確保用戶體驗的準確性與穩健性。"
},
"360gpt2-o1": {
"description": "360gpt2-o1 使用樹搜索構建思維鏈,並引入了反思機制,使用強化學習訓練,模型具備自我反思與糾錯的能力。"
},
"360gpt2-pro": {
"description": "360GPT2 Pro 是 360 公司推出的高級自然語言處理模型,具備卓越的文本生成和理解能力,尤其在生成與創作領域表現出色,能夠處理複雜的語言轉換和角色演繹任務。"
},
"360zhinao2-o1": {
"description": "360zhinao2-o1 使用樹搜索構建思維鏈,並引入了反思機制,使用強化學習訓練,模型具備自我反思與糾錯的能力。"
},
"4.0Ultra": {
"description": "Spark4.0 Ultra 是星火大模型系列中最為強大的版本,在升級聯網搜索鏈路同時,提升對文本內容的理解和總結能力。它是用於提升辦公生產力和準確響應需求的全方位解決方案,是引領行業的智能產品。"
},
"Baichuan2-Turbo": {
"description": "採用搜索增強技術實現大模型與領域知識、全網知識的全面連結。支持PDF、Word等多種文檔上傳及網址輸入信息獲取及時、全面輸出結果準確、專業。"
},
"Baichuan3-Turbo": {
"description": "針對企業高頻場景優化效果大幅提升高性價比。相對於Baichuan2模型內容創作提升20%知識問答提升17%角色扮演能力提升40%。整體效果比GPT3.5更優。"
},
"Baichuan3-Turbo-128k": {
"description": "具備 128K 超長上下文窗口針對企業高頻場景優化效果大幅提升高性價比。相對於Baichuan2模型內容創作提升20%知識問答提升17%角色扮演能力提升40%。整體效果比GPT3.5更優。"
},
"Baichuan4": {
"description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
},
"Baichuan4-Air": {
"description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
},
"Baichuan4-Turbo": {
"description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
},
"DeepSeek-R1": {
"description": "最先進的高效 LLM擅長推理、數學和程式設計。"
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸餾到 Llama 70B 架構中。基於基準測試和人工評估,該模型比原始 Llama 70B 更智能,尤其在需要數學和事實精確性的任務上表現出色。"
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "基於 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "基於 Qwen2.5-14B 的 DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1 系列通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆,超越 OpenAI-o1-mini 水平。"
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "基於 Qwen2.5-Math-7B 的 DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"Doubao-1.5-vision-pro-32k": {
"description": "Doubao-1.5-vision-pro 全新升級的多模態大模型,支持任意解析度和極端長寬比圖像識別,增強視覺推理、文檔識別、細節信息理解和指令遵循能力。"
},
"Doubao-lite-128k": {
"description": "Doubao-lite 擁有極致的回應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持 128k 上下文窗口的推理和精調。"
},
"Doubao-lite-32k": {
"description": "Doubao-lite 擁有極致的回應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持 32k 上下文窗口的推理和精調。"
},
"Doubao-lite-4k": {
"description": "Doubao-lite 擁有極致的回應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持 4k 上下文窗口的推理和精調。"
},
"Doubao-pro-128k": {
"description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持 128k 上下文窗口的推理和精調。"
},
"Doubao-pro-256k": {
"description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持 256k 上下文窗口的推理和精調。"
},
"Doubao-pro-32k": {
"description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持 32k 上下文窗口的推理和精調。"
},
"Doubao-pro-4k": {
"description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持 4k 上下文窗口的推理和精調。"
},
"Doubao-vision-lite-32k": {
"description": "Doubao-vision 模型是豆包推出的多模態大模型,具備強大的圖片理解與推理能力,以及精準的指令理解能力。模型在圖像文本信息抽取、基於圖像的推理任務上展現出強大的性能,能夠應用於更複雜、更廣泛的視覺問答任務。"
},
"Doubao-vision-pro-32k": {
"description": "Doubao-vision 模型是豆包推出的多模態大模型,具備強大的圖片理解與推理能力,以及精準的指令理解能力。模型在圖像文本信息抽取、基於圖像的推理任務上展現出強大的性能,能夠應用於更複雜、更廣泛的視覺問答任務。"
},
"ERNIE-3.5-128K": {
"description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-3.5-8K": {
"description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-3.5-8K-Preview": {
"description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-4.0-8K-Latest": {
"description": "百度自研的旗艦級超大規模語言模型相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-4.0-8K-Preview": {
"description": "百度自研的旗艦級超大規模語言模型相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "百度自研的旗艦級超大規模大語言模型,綜合效果表現優異,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於 ERNIE 4.0 在性能表現上更為優秀。"
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "百度自研的旗艦級超大規模語言模型綜合效果表現出色廣泛適用於各領域複雜任務場景支持自動對接百度搜索插件保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀。"
},
"ERNIE-Character-8K": {
"description": "百度自研的垂直場景大語言模型適合遊戲NPC、客服對話、對話角色扮演等應用場景人設風格更為鮮明、一致指令遵循能力更強推理性能更優。"
},
"ERNIE-Lite-Pro-128K": {
"description": "百度自研的輕量級大語言模型兼顧優異的模型效果與推理性能效果比ERNIE Lite更優適合低算力AI加速卡推理使用。"
},
"ERNIE-Speed-128K": {
"description": "百度2024年最新發布的自研高性能大語言模型通用能力優異適合作為基座模型進行精調更好地處理特定場景問題同時具備極佳的推理性能。"
},
"ERNIE-Speed-Pro-128K": {
"description": "百度2024年最新發布的自研高性能大語言模型通用能力優異效果比ERNIE Speed更優適合作為基座模型進行精調更好地處理特定場景問題同時具備極佳的推理性能。"
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) 是一種創新模型,適合多領域應用和複雜任務。"
},
"InternVL2-8B": {
"description": "InternVL2-8B 是一款強大的視覺語言模型,支持圖像與文本的多模態處理,能夠精確識別圖像內容並生成相關描述或回答。"
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B 是一款強大的視覺語言模型,支持圖像與文本的多模態處理,能夠精確識別圖像內容並生成相關描述或回答。"
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "在高解析度圖像上表現出色的圖像推理能力,適用於視覺理解應用。"
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "適用於視覺理解代理應用的高級圖像推理能力。"
},
"LoRA/Qwen/Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 72B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON方面都有顯著提升"
},
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 7B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON方面都有顯著提升"
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "Llama 3.1指令調優的文本模型,針對多語言對話用例進行了優化,在許多可用的開源和封閉聊天模型中,在常見行業基準上表現優異。"
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "Llama 3.1指令調優的文本模型,針對多語言對話用例進行了優化,在許多可用的開源和封閉聊天模型中,在常見行業基準上表現優異。"
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1指令調優的文本模型,針對多語言對話用例進行了優化,在許多可用的開源和封閉聊天模型中,在常見行業基準上表現優異。"
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 是 Llama 系列最先進的多語言開源大型語言模型,以極低成本體驗媲美 405B 模型的性能。基於 Transformer 結構並透過監督微調SFT和人類反饋強化學習RLHF提升有用性和安全性。其指令調優版本專為多語言對話優化在多項行業基準上表現優於眾多開源和封閉聊天模型。知識截止日期為 2023 年 12 月"
},
"MiniMax-Text-01": {
"description": "在 MiniMax-01系列模型中我們做了大膽創新首次大規模實現線性注意力機制傳統 Transformer架構不再是唯一的選擇。這個模型的參數量高達4560億其中單次激活459億。模型綜合性能比肩海外頂尖模型同時能夠高效處理全球最長400萬token的上下文是GPT-4o的32倍Claude-3.5-Sonnet的20倍。"
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,適用於複雜計算。"
},
"OpenGVLab/InternVL2-26B": {
"description": "InternVL2在各種視覺語言任務上展現出了卓越的性能包括文檔和圖表理解、場景文本理解、OCR、科學和數學問題解決等。"
},
"Phi-3-medium-128k-instruct": {
"description": "相同的Phi-3-medium模型但具有更大的上下文大小適用於RAG或少量提示。"
},
"Phi-3-medium-4k-instruct": {
"description": "一個14B參數模型質量優於Phi-3-mini專注於高質量、推理密集型數據。"
},
"Phi-3-mini-128k-instruct": {
"description": "相同的Phi-3-mini模型但具有更大的上下文大小適用於RAG或少量提示。"
},
"Phi-3-mini-4k-instruct": {
"description": "Phi-3系列中最小的成員。優化了質量和低延遲。"
},
"Phi-3-small-128k-instruct": {
"description": "相同的Phi-3-small模型但具有更大的上下文大小適用於RAG或少量提示。"
},
"Phi-3-small-8k-instruct": {
"description": "一個7B參數模型質量優於Phi-3-mini專注於高質量、推理密集型數據。"
},
"Phi-3.5-mini-instruct": {
"description": "Phi-3-mini模型的更新版。"
},
"Phi-3.5-vision-instrust": {
"description": "Phi-3-vision模型的更新版。"
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2在各種視覺語言任務上展現出了卓越的性能包括文檔和圖表理解、場景文本理解、OCR、科學和數學問題解決等。"
},
"Pro/Qwen/Qwen2-1.5B-Instruct": {
"description": "Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微調大語言模型,參數規模為 1.5B。該模型基於 Transformer 架構,採用了 SwiGLU 激活函數、注意力 QKV 偏置和組查詢注意力等技術。它在語言理解、生成、多語言能力、編碼、數學和推理等多個基準測試中表現出色,超越了大多數開源模型。與 Qwen1.5-1.8B-Chat 相比Qwen2-1.5B-Instruct 在 MMLU、HumanEval、GSM8K、C-Eval 和 IFEval 等測試中均顯示出顯著的性能提升,儘管參數量略少"
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct 是 Qwen2 系列中的指令微調大語言模型,參數規模為 7B。該模型基於 Transformer 架構,採用了 SwiGLU 激活函數、注意力 QKV 偏置和組查詢注意力等技術。它能夠處理大規模輸入。該模型在語言理解、生成、多語言能力、編碼、數學和推理等多個基準測試中表現出色超越了大多數開源模型並在某些任務上展現出與專有模型相當的競爭力。Qwen2-7B-Instruct 在多項評測中均優於 Qwen1.5-7B-Chat顯示出顯著的性能提升"
},
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
"description": "Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在視覺理解基準測試中達到了最先進的性能。"
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 7B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON方面都有顯著提升"
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct 是阿里雲發布的代碼特定大語言模型系列的最新版本。該模型在 Qwen2.5 的基礎上,通過 5.5 萬億個 tokens 的訓練,顯著提升了代碼生成、推理和修復能力。它不僅增強了編碼能力,還保持了數學和通用能力的優勢。模型為代碼智能體等實際應用提供了更全面的基礎"
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat 是智譜 AI 推出的 GLM-4 系列預訓練模型中的開源版本。該模型在語義、數學、推理、代碼和知識等多個方面表現出色。除了支持多輪對話外GLM-4-9B-Chat 還具備網頁瀏覽、代碼執行、自定義工具調用Function Call和長文本推理等高級功能。模型支持 26 種語言包括中文、英文、日文、韓文和德文等。在多項基準測試中GLM-4-9B-Chat 展現了優秀的性能,如 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等。該模型支持最大 128K 的上下文長度,適用於學術研究和商業應用"
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 是一款強化學習RL驅動的推理模型解決了模型中的重複性和可讀性問題。在 RL 之前DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、代碼和推理任務中與 OpenAI-o1 表現相當,並且透過精心設計的訓練方法,提升了整體效果。"
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 是一款擁有 6710 億參數的混合專家MoE語言模型採用多頭潛在注意力MLA和 DeepSeekMoE 架構,結合無輔助損失的負載平衡策略,優化推理和訓練效率。透過在 14.8 萬億高質量tokens上預訓練並進行監督微調和強化學習DeepSeek-V3 在性能上超越其他開源模型,接近領先閉源模型。"
},
"Pro/google/gemma-2-9b-it": {
"description": "Gemma 是 Google 開發的輕量級、最先進的開放模型系列之一。它是一個僅解碼器的大型語言模型支持英語提供開放權重、預訓練變體和指令微調變體。Gemma 模型適用於各種文本生成任務,包括問答、摘要和推理。該 9B 模型是通過 8 萬億個 tokens 訓練而成。其相對較小的規模使其可以在資源有限的環境中部署,如筆記本電腦、桌面電腦或您自己的雲基礎設施,從而使更多人能夠訪問最先進的 AI 模型並促進創新"
},
"Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
"description": "Meta Llama 3.1 是由 Meta 開發的多語言大型語言模型家族,包括 8B、70B 和 405B 三種參數規模的預訓練和指令微調變體。該 8B 指令微調模型針對多語言對話場景進行了優化,在多項行業基準測試中表現優異。模型訓練使用了超過 15 萬億個 tokens 的公開數據並採用了監督微調和人類反饋強化學習等技術來提升模型的有用性和安全性。Llama 3.1 支持文本生成和代碼生成,知識截止日期為 2023 年 12 月"
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview 是一款獨具創新的自然語言處理模型,能夠高效處理複雜的對話生成與上下文理解任務。"
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview 是由 Qwen 團隊開發的專注於視覺推理能力的研究型模型,其在複雜場景理解和解決視覺相關的數學問題方面具有獨特優勢。"
},
"Qwen/QwQ-32B": {
"description": "QwQ 是 Qwen 系列的推理模型。與傳統的指令調優模型相比QwQ 具備思考和推理能力能夠在下游任務中實現顯著增強的性能尤其是在解決困難問題方面。QwQ-32B 是中型推理模型,能夠在與最先進的推理模型(如 DeepSeek-R1、o1-mini的對比中取得有競爭力的性能。該模型採用 RoPE、SwiGLU、RMSNorm 和 Attention QKV bias 等技術,具有 64 層網絡結構和 40 個 Q 注意力頭GQA 架構中 KV 為 8 個)。"
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview是Qwen 最新的實驗性研究模型專注於提升AI推理能力。通過探索語言混合、遞歸推理等複雜機制主要優勢包括強大的推理分析能力、數學和編程能力。與此同時也存在語言切換問題、推理循環、安全性考量、其他能力方面的差異。"
},
"Qwen/Qwen2-1.5B-Instruct": {
"description": "Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微調大語言模型,參數規模為 1.5B。該模型基於 Transformer 架構,採用了 SwiGLU 激活函數、注意力 QKV 偏置和組查詢注意力等技術。它在語言理解、生成、多語言能力、編碼、數學和推理等多個基準測試中表現出色,超越了大多數開源模型。與 Qwen1.5-1.8B-Chat 相比Qwen2-1.5B-Instruct 在 MMLU、HumanEval、GSM8K、C-Eval 和 IFEval 等測試中均顯示出顯著的性能提升,儘管參數量略少"
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen2 是先進的通用語言模型,支持多種指令類型。"
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-72B-Instruct 是 Qwen2 系列中的指令微調大語言模型,參數規模為 72B。該模型基於 Transformer 架構,採用了 SwiGLU 激活函數、注意力 QKV 偏置和組查詢注意力等技術。它能夠處理大規模輸入。該模型在語言理解、生成、多語言能力、編碼、數學和推理等多個基準測試中表現出色,超越了大多數開源模型,並在某些任務上展現出與專有模型相當的競爭力"
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在視覺理解基準測試中達到了最先進的性能。"
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "阿里雲通義千問團隊開發的大型語言模型"
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5 是全新的大型語言模型系列,具有更強的理解和生成能力。"
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5 是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5 是全新的大型語言模型系列,旨在優化指令式任務的處理。"
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder 專注於代碼編寫。"
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct 是阿里雲發布的代碼特定大語言模型系列的最新版本。該模型在 Qwen2.5 的基礎上,通過 5.5 萬億個 tokens 的訓練,顯著提升了代碼生成、推理和修復能力。它不僅增強了編碼能力,還保持了數學和通用能力的優勢。模型為代碼智能體等實際應用提供了更全面的基礎"
},
"Qwen2-72B-Instruct": {
"description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文對比當前最優的開源模型Qwen2-72B 在自然語言理解、知識、代碼、數學及多語言等多項能力上均顯著超越當前領先的模型。"
},
"Qwen2-7B-Instruct": {
"description": "Qwen2 是 Qwen 模型的最新系列能夠超越同等規模的最優開源模型甚至更大規模的模型Qwen2 7B 在多個評測上取得顯著的優勢,尤其是在代碼及中文理解上。"
},
"Qwen2-VL-72B": {
"description": "Qwen2-VL-72B是一款強大的視覺語言模型支持圖像與文本的多模態處理能夠精確識別圖像內容並生成相關描述或回答。"
},
"Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct 是一款140億參數的大語言模型性能表現優秀優化中文和多語言場景支持智能問答、內容生成等應用。"
},
"Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct 是一款320億參數的大語言模型性能表現均衡優化中文和多語言場景支持智能問答、內容生成等應用。"
},
"Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct 支持 16k 上下文,生成長文本超過 8K。支持 function call 與外部系統無縫互動,極大提升了靈活性和擴展性。模型知識明顯增加,並且大幅提高了編碼和數學能力,多語言支持超過 29 種。"
},
"Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct 是一款70億參數的大語言模型支持函數調用與外部系統無縫互動極大提升了靈活性和擴展性。優化中文和多語言場景支持智能問答、內容生成等應用。"
},
"Qwen2.5-Coder-14B-Instruct": {
"description": "Qwen2.5-Coder-14B-Instruct 是一款基於大規模預訓練的程式指令模型,具備強大的程式理解和生成能力,能夠高效地處理各種程式任務,特別適合智能程式編寫、自動化腳本生成和程式問題解答。"
},
"Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder-32B-Instruct 是一款專為代碼生成、代碼理解和高效開發場景設計的大型語言模型採用了業界領先的32B參數規模能夠滿足多樣化的程式需求。"
},
"SenseChat": {
"description": "基礎版本模型 (V4)4K上下文長度通用能力強大"
},
"SenseChat-128K": {
"description": "基礎版本模型 (V4)128K上下文長度在長文本理解及生成等任務中表現出色"
},
"SenseChat-32K": {
"description": "基礎版本模型 (V4)32K上下文長度靈活應用於各類場景"
},
"SenseChat-5": {
"description": "最新版本模型 (V5.5)128K上下文長度在數學推理、英文對話、指令跟隨以及長文本理解等領域能力顯著提升比肩GPT-4o"
},
"SenseChat-5-1202": {
"description": "是基於V5.5的最新版本,較上版本在中英文基礎能力、聊天、理科知識、文科知識、寫作、數理邏輯、字數控制等幾個維度的表現有顯著提升。"
},
"SenseChat-5-Cantonese": {
"description": "32K上下文長度在粵語的對話理解上超越了GPT-4在知識、推理、數學及程式編寫等多個領域均能與GPT-4 Turbo相媲美"
},
"SenseChat-Character": {
"description": "標準版模型8K上下文長度高響應速度"
},
"SenseChat-Character-Pro": {
"description": "高級版模型32K上下文長度能力全面提升支持中/英文對話"
},
"SenseChat-Turbo": {
"description": "適用於快速問答、模型微調場景"
},
"SenseChat-Turbo-1202": {
"description": "是最新的輕量版本模型達到全量模型90%以上能力,顯著降低推理成本。"
},
"SenseChat-Vision": {
"description": "最新版本模型 (V5.5),支持多圖的輸入,全面實現模型基礎能力優化,在對象屬性識別、空間關係、動作事件識別、場景理解、情感識別、邏輯常識推理和文本理解生成上都實現了較大提升。"
},
"Skylark2-lite-8k": {
"description": "雲雀Skylark第二代模型Skylark2-lite 模型有較高的回應速度,適用於實時性要求高、成本敏感、對模型精度要求不高的場景,上下文窗口長度為 8k。"
},
"Skylark2-pro-32k": {
"description": "雲雀Skylark第二代模型Skylark2-pro 版本有較高的模型精度,適用於較為複雜的文本生成場景,如專業領域文案生成、小說創作、高品質翻譯等,上下文窗口長度為 32k。"
},
"Skylark2-pro-4k": {
"description": "雲雀Skylark第二代模型Skylark2-pro 模型有較高的模型精度,適用於較為複雜的文本生成場景,如專業領域文案生成、小說創作、高品質翻譯等,上下文窗口長度為 4k。"
},
"Skylark2-pro-character-4k": {
"description": "雲雀Skylark第二代模型Skylark2-pro-character 模型具有優秀的角色扮演和聊天能力,擅長根據用戶 prompt 要求扮演不同角色與用戶展開聊天,角色風格突出,對話內容自然流暢,適用於構建聊天機器人、虛擬助手和在線客服等場景,有較高的回應速度。"
},
"Skylark2-pro-turbo-8k": {
"description": "雲雀Skylark第二代模型Skylark2-pro-turbo-8k 推理更快,成本更低,上下文窗口長度為 8k。"
},
"THUDM/chatglm3-6b": {
"description": "ChatGLM3-6B 是 ChatGLM 系列的開源模型,由智譜 AI 開發。該模型保留了前代模型的優秀特性,如對話流暢和部署門檻低,同時引入了新的特性。它採用了更多樣的訓練數據、更充分的訓練步數和更合理的訓練策略,在 10B 以下的預訓練模型中表現出色。ChatGLM3-6B 支持多輪對話、工具調用、代碼執行和 Agent 任務等複雜場景。除對話模型外,還開源了基礎模型 ChatGLM-6B-Base 和長文本對話模型 ChatGLM3-6B-32K。該模型對學術研究完全開放在登記後也允許免費商業使用"
},
"THUDM/glm-4-9b-chat": {
"description": "GLM-4 9B 開放源碼版本,為會話應用提供優化後的對話體驗。"
},
"TeleAI/TeleChat2": {
"description": "TeleChat2大模型是由中國電信從0到1自主研發的生成式語義大模型支持百科問答、代碼生成、長文生成等功能為用戶提供對話諮詢服務能夠與用戶進行對話互動回答問題協助創作高效便捷地幫助用戶獲取信息、知識和靈感。模型在幻覺問題、長文生成、邏輯理解等方面均有較出色表現。"
},
"TeleAI/TeleMM": {
"description": "TeleMM多模態大模型是由中國電信自主研發的多模態理解大模型能夠處理文本、圖像等多種模態輸入支持圖像理解、圖表分析等功能為用戶提供跨模態的理解服務。模型能夠與用戶進行多模態互動準確理解輸入內容回答問題、協助創作並高效提供多模態信息和靈感支持。在細粒度感知邏輯推理等多模態任務上有出色表現"
},
"Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 72B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON方面都有顯著提升"
},
"Yi-34B-Chat": {
"description": "Yi-1.5-34B 在保持原系列模型優秀的通用語言能力的前提下,通過增量訓練 5 千億高質量 token大幅提高了數學邏輯和代碼能力。"
},
"abab5.5-chat": {
"description": "面向生產力場景,支持複雜任務處理和高效文本生成,適用於專業領域應用。"
},
"abab5.5s-chat": {
"description": "專為中文人設對話場景設計,提供高質量的中文對話生成能力,適用於多種應用場景。"
},
"abab6.5g-chat": {
"description": "專為多語種人設對話設計,支持英文及其他多種語言的高質量對話生成。"
},
"abab6.5s-chat": {
"description": "適用於廣泛的自然語言處理任務,包括文本生成、對話系統等。"
},
"abab6.5t-chat": {
"description": "針對中文人設對話場景優化,提供流暢且符合中文表達習慣的對話生成能力。"
},
"accounts/fireworks/models/deepseek-r1": {
"description": "DeepSeek-R1 是一款最先進的大型語言模型,經過強化學習和冷啟動數據的優化,具有出色的推理、數學和編程性能。"
},
"accounts/fireworks/models/deepseek-v3": {
"description": "Deepseek 提供的強大 Mixture-of-Experts (MoE) 語言模型,總參數量為 671B每個標記激活 37B 參數。"
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B 指令模型,專為多語言對話和自然語言理解優化,性能優於多數競爭模型。"
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B 指令模型,優化用於對話及多語言任務,表現卓越且高效。"
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
"description": "Llama 3 8B 指令模型HF 版本),與官方實現結果一致,具備高度一致性和跨平台兼容性。"
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
"description": "Llama 3.1 405B 指令模型,具備超大規模參數,適合複雜任務和高負載場景下的指令跟隨。"
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
"description": "Llama 3.1 70B 指令模型,提供卓越的自然語言理解和生成能力,是對話及分析任務的理想選擇。"
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
"description": "Llama 3.1 8B 指令模型,專為多語言對話優化,能夠在常見行業基準上超越多數開源及閉源模型。"
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Meta的11B參數指令調整圖像推理模型。該模型針對視覺識別、圖像推理、圖像描述和回答關於圖像的一般性問題進行了優化。該模型能夠理解視覺數據如圖表和圖形並通過生成文本描述圖像細節來弥合視覺與語言之間的差距。"
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Llama 3.2 3B 指令模型是Meta推出的一款輕量級多語言模型。該模型旨在提高效率與更大型的模型相比在延遲和成本方面提供了顯著的改進。該模型的示例用例包括查詢和提示重寫以及寫作輔助。"
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Meta的90B參數指令調整圖像推理模型。該模型針對視覺識別、圖像推理、圖像描述和回答關於圖像的一般性問題進行了優化。該模型能夠理解視覺數據如圖表和圖形並通過生成文本描述圖像細節來弥合視覺與語言之間的差距。"
},
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
"description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。該模型在 Llama 3.1 70B於 2024 年 7 月發布)的基礎上進行了改進,增強了工具調用、多語言文本支持、數學和編程能力。該模型在推理、數學和指令遵循方面達到了行業領先水平,並且能夠提供與 3.1 405B 相似的性能,同時在速度和成本上具有顯著優勢。"
},
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
"description": "24B 參數模型,具備與更大型模型相當的最先進能力。"
},
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B 指令模型,大規模參數和多專家架構,全方位支持複雜任務的高效處理。"
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B 指令模型,多專家架構提供高效的指令跟隨及執行。"
},
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B 模型,結合新穎的合併技術,擅長敘事和角色扮演。"
},
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
"description": "Phi 3 Vision 指令模型,輕量級多模態模型,能夠處理複雜的視覺和文本信息,具備較強的推理能力。"
},
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "QwQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於增強 AI 推理能力。"
},
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
"description": "Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的創新。"
},
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 是由阿里雲 Qwen 團隊開發的一系列僅包含解碼器的語言模型。這些模型提供不同的大小,包括 0.5B、1.5B、3B、7B、14B、32B 和 72B並且有基礎版base和指令版instruct兩種變體。"
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct 是阿里雲發布的代碼特定大語言模型系列的最新版本。該模型在 Qwen2.5 的基礎上,通過 5.5 萬億個 tokens 的訓練,顯著提升了代碼生成、推理和修復能力。它不僅增強了編碼能力,還保持了數學和通用能力的優勢。模型為代碼智能體等實際應用提供了更全面的基礎"
},
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large 模型,具備卓越的多語言處理能力,可用於各類語言生成和理解任務。"
},
"ai21-jamba-1.5-large": {
"description": "一個398B參數94B活躍多語言模型提供256K長上下文窗口、函數調用、結構化輸出和基於實體的生成。"
},
"ai21-jamba-1.5-mini": {
"description": "一個52B參數12B活躍多語言模型提供256K長上下文窗口、函數調用、結構化輸出和基於實體的生成。"
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet提升了行業標準性能超過競爭對手模型和Claude 3 Opus在廣泛的評估中表現出色同時具有我們中等層級模型的速度和成本。"
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet 提升了行業標準,性能超越競爭對手模型和 Claude 3 Opus在廣泛的評估中表現出色同時具備我們中等層級模型的速度和成本。"
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku是Anthropic最快、最緊湊的模型提供近乎即時的響應速度。它可以快速回答簡單的查詢和請求。客戶將能夠構建模仿人類互動的無縫AI體驗。Claude 3 Haiku可以處理圖像並返回文本輸出具有200K的上下文窗口。"
},
"anthropic.claude-3-opus-20240229-v1:0": {
"description": "Claude 3 Opus是Anthropic最強大的AI模型具有在高度複雜任務上的最先進性能。它可以處理開放式提示和未見過的場景具有出色的流暢性和類人的理解能力。Claude 3 Opus展示了生成AI可能性的前沿。Claude 3 Opus可以處理圖像並返回文本輸出具有200K的上下文窗口。"
},
"anthropic.claude-3-sonnet-20240229-v1:0": {
"description": "Anthropic的Claude 3 Sonnet在智能和速度之間達到了理想的平衡——特別適合企業工作負載。它以低於競爭對手的價格提供最大的效用並被設計成為可靠的、高耐用的主力機適用於規模化的AI部署。Claude 3 Sonnet可以處理圖像並返回文本輸出具有200K的上下文窗口。"
},
"anthropic.claude-instant-v1": {
"description": "一款快速、經濟且仍然非常有能力的模型,可以處理包括日常對話、文本分析、總結和文檔問答在內的一系列任務。"
},
"anthropic.claude-v2": {
"description": "Anthropic在從複雜對話和創意內容生成到詳細指令跟隨的廣泛任務中都表現出高度能力的模型。"
},
"anthropic.claude-v2:1": {
"description": "Claude 2的更新版具有雙倍的上下文窗口以及在長文檔和RAG上下文中的可靠性、幻覺率和基於證據的準確性的改進。"
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。"
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。"
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。與 Claude 3 Haiku 相比Claude 3.5 Haiku 在各項技能上都有所提升,並在許多智力基準測試中超越了上一代最大的模型 Claude 3 Opus。"
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長程式設計、數據科學、視覺處理、代理任務。"
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet 是 Anthropic 迄今為止最智能的模型也是市場上首個混合推理模型。Claude 3.7 Sonnet 可以產生近乎即時的回應或延長的逐步思考使用者可以清晰地看到這些過程。Sonnet 特別擅長程式設計、數據科學、視覺處理、代理任務。"
},
"aya": {
"description": "Aya 23 是 Cohere 推出的多語言模型,支持 23 種語言,為多元化語言應用提供便利。"
},
"aya:35b": {
"description": "Aya 23 是 Cohere 推出的多語言模型,支持 23 種語言,為多元化語言應用提供便利。"
},
"baichuan/baichuan2-13b-chat": {
"description": "Baichuan-13B百川智能開發的包含130億參數的開源可商用的大規模語言模型在權威的中文和英文benchmark上均取得同尺寸最好的效果。"
},
"charglm-3": {
"description": "CharGLM-3專為角色扮演與情感陪伴設計支持超長多輪記憶與個性化對話應用廣泛。"
},
"chatgpt-4o-latest": {
"description": "ChatGPT-4o是一款動態模型實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力適合於大規模應用場景包括客戶服務、教育和技術支持。"
},
"claude-2.0": {
"description": "Claude 2 為企業提供了關鍵能力的進步,包括業界領先的 200K token 上下文、大幅降低模型幻覺的發生率、系統提示以及一個新的測試功能:工具調用。"
},
"claude-2.1": {
"description": "Claude 2 為企業提供了關鍵能力的進步,包括業界領先的 200K token 上下文、大幅降低模型幻覺的發生率、系統提示以及一個新的測試功能:工具調用。"
},
"claude-3-5-haiku-20241022": {
"description": "Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。與 Claude 3 Haiku 相比Claude 3.5 Haiku 在各項技能上都有所提升,並在許多智力基準測試中超越了上一代最大的模型 Claude 3 Opus。"
},
"claude-3-5-sonnet-20240620": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務。"
},
"claude-3-5-sonnet-20241022": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務。"
},
"claude-3-7-sonnet-20250219": {
"description": "Claude 3.7 Sonnet 提升了行業標準,性能超越競爭對手模型和 Claude 3 Opus在廣泛的評估中表現出色同時具備我們中等層級模型的速度和成本。"
},
"claude-3-haiku-20240307": {
"description": "Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。"
},
"claude-3-opus-20240229": {
"description": "Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。"
},
"claude-3-sonnet-20240229": {
"description": "Claude 3 Sonnet 在智能和速度方面為企業工作負載提供了理想的平衡。它以更低的價格提供最大效用,可靠且適合大規模部署。"
},
"codegeex-4": {
"description": "CodeGeeX-4是一個強大的AI編程助手支持多種編程語言的智能問答與代碼補全提升開發效率。"
},
"codegeex4-all-9b": {
"description": "CodeGeeX4-ALL-9B 是一個多語言代碼生成模型,支持包括代碼補全和生成、代碼解釋器、網絡搜索、函數調用、倉庫級代碼問答在內的全面功能,覆蓋軟件開發的各種場景。是參數少於 10B 的頂尖代碼生成模型。"
},
"codegemma": {
"description": "CodeGemma 專用于不同編程任務的輕量級語言模型,支持快速迭代和集成。"
},
"codegemma:2b": {
"description": "CodeGemma 專用于不同編程任務的輕量級語言模型,支持快速迭代和集成。"
},
"codellama": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM結合廣泛的編程語言支持適用於開發者環境。"
},
"codellama/CodeLlama-34b-Instruct-hf": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM結合廣泛的編程語言支持適用於開發者環境。"
},
"codellama:13b": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM結合廣泛的編程語言支持適用於開發者環境。"
},
"codellama:34b": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM結合廣泛的編程語言支持適用於開發者環境。"
},
"codellama:70b": {
"description": "Code Llama 是一款專注於代碼生成和討論的 LLM結合廣泛的編程語言支持適用於開發者環境。"
},
"codeqwen": {
"description": "CodeQwen1.5 是基於大量代碼數據訓練的大型語言模型,專為解決複雜編程任務。"
},
"codestral": {
"description": "Codestral 是 Mistral AI 的首款代碼模型,為代碼生成任務提供優異支持。"
},
"codestral-latest": {
"description": "Codestral 是專注於代碼生成的尖端生成模型,優化了中間填充和代碼補全任務。"
},
"cognitivecomputations/dolphin-mixtral-8x22b": {
"description": "Dolphin Mixtral 8x22B 是一款為指令遵循、對話和編程設計的模型。"
},
"cohere-command-r": {
"description": "Command R是一個可擴展的生成模型針對RAG和工具使用旨在為企業提供生產級AI。"
},
"cohere-command-r-plus": {
"description": "Command R+是一個最先進的RAG優化模型旨在應對企業級工作負載。"
},
"command-r": {
"description": "Command R 是優化用於對話和長上下文任務的 LLM特別適合動態交互與知識管理。"
},
"command-r-plus": {
"description": "Command R+ 是一款高性能的大型語言模型,專為真實企業場景和複雜應用而設計。"
},
"dall-e-2": {
"description": "第二代 DALL·E 模型支持更真實、準確的圖像生成解析度是第一代的4倍"
},
"dall-e-3": {
"description": "最新的 DALL·E 模型於2023年11月發布。支持更真實、準確的圖像生成具有更強的細節表現力"
},
"databricks/dbrx-instruct": {
"description": "DBRX Instruct 提供高可靠性的指令處理能力,支持多行業應用。"
},
"deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 是一款強化學習RL驅動的推理模型解決了模型中的重複性和可讀性問題。在 RL 之前DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且通過精心設計的訓練方法,提升了整體效果。"
},
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
"description": "DeepSeek-R1-Distill-Llama-8B 是基於 Llama-3.1-8B 開發的蒸餾模型。該模型使用 DeepSeek-R1 生成的樣本進行微調,展現出優秀的推理能力。在多個基準測試中表現不俗,其中在 MATH-500 上達到了 89.1% 的準確率,在 AIME 2024 上達到了 50.4% 的通過率,在 CodeForces 上獲得了 1205 的評分,作為 8B 規模的模型展示了較強的數學和編程能力。"
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
"description": "DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1-Distill-Qwen-32B 是基於 Qwen2.5-32B 通過知識蒸餾得到的模型。該模型使用 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,在數學、編程和推理等多個領域展現出卓越的性能。在 AIME 2024、MATH-500、GPQA Diamond 等多個基準測試中都取得了優異成績,其中在 MATH-500 上達到了 94.3% 的準確率,展現出強大的數學推理能力。"
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B 是基於 Qwen2.5-Math-7B 通過知識蒸餾得到的模型。該模型使用 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,展現出優秀的推理能力。在多個基準測試中表現出色,其中在 MATH-500 上達到了 92.8% 的準確率,在 AIME 2024 上達到了 55.5% 的通過率,在 CodeForces 上獲得了 1189 的評分,作為 7B 規模的模型展示了較強的數學和編程能力。"
},
"deepseek-ai/DeepSeek-V2.5": {
"description": "DeepSeek V2.5 集合了先前版本的優秀特徵,增強了通用和編碼能力。"
},
"deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 是一款擁有 6710 億參數的混合專家MoE語言模型採用多頭潛在注意力MLA和 DeepSeekMoE 架構,結合無輔助損失的負載平衡策略,優化推理和訓練效率。通過在 14.8 萬億高品質 tokens 上預訓練並進行監督微調和強化學習DeepSeek-V3 在性能上超越其他開源模型,接近領先閉源模型。"
},
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B 是為高複雜性對話訓練的先進模型。"
},
"deepseek-ai/deepseek-r1": {
"description": "最先進的高效 LLM擅長推理、數學和編程。"
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 是一個基於 DeepSeekMoE-27B 開發的混合專家MoE視覺語言模型採用稀疏激活的 MoE 架構,在僅激活 4.5B 參數的情況下實現了卓越性能。該模型在視覺問答、光學字符識別、文檔/表格/圖表理解和視覺定位等多個任務中表現優異。"
},
"deepseek-chat": {
"description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力還更好地對齊了人類偏好。此外DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。"
},
"deepseek-coder-33B-instruct": {
"description": "DeepSeek Coder 33B 是一個代碼語言模型,基於 2 萬億數據訓練而成,其中 87% 為代碼13% 為中英文語言。模型引入 16K 窗口大小和填空任務,提供項目級別的代碼補全和片段填充功能。"
},
"deepseek-coder-v2": {
"description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。"
},
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。"
},
"deepseek-r1": {
"description": "DeepSeek-R1 是一款強化學習RL驅動的推理模型解決了模型中的重複性和可讀性問題。在 RL 之前DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且通過精心設計的訓練方法,提升了整體效果。"
},
"deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸餾到 Llama 70B 架構中。基於基準測試和人工評估,該模型比原始 Llama 70B 更智能,尤其在需要數學和事實精確性的任務上表現出色。"
},
"deepseek-r1-distill-llama-8b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-r1-distill-qwen-1.5b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-r1-distill-qwen-7b": {
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
},
"deepseek-reasoner": {
"description": "DeepSeek 推出的推理模型。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek-v2": {
"description": "DeepSeek V2 是高效的 Mixture-of-Experts 語言模型,適用於經濟高效的處理需求。"
},
"deepseek-v2:236b": {
"description": "DeepSeek V2 236B 是 DeepSeek 的設計代碼模型,提供強大的代碼生成能力。"
},
"deepseek-v3": {
"description": "DeepSeek-V3 為杭州深度求索人工智能基礎技術研究有限公司自研的 MoE 模型其多項評測成績突出在主流榜單中位列開源模型榜首。V3 相較 V2.5 模型生成速度實現 3 倍提升,為用戶帶來更加迅速流暢的使用體驗。"
},
"deepseek/deepseek-chat": {
"description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力還更好地對齊了人類偏好。此外DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。"
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B是基於Llama3.3 70B的大型語言模型該模型利用DeepSeek R1輸出的微調實現了與大型前沿模型相當的競爭性能。"
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B是一種基於Llama-3.1-8B-Instruct的蒸餾大語言模型通過使用DeepSeek R1的輸出進行訓練而得。"
},
"deepseek/deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek R1 Distill Qwen 14B是一種基於Qwen 2.5 14B的蒸餾大語言模型通過使用DeepSeek R1的輸出進行訓練而得。該模型在多個基準測試中超越了OpenAI的o1-mini取得了密集模型dense models的最新技術領先成果state-of-the-art。以下是一些基準測試的結果\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\n該模型通過從DeepSeek R1的輸出中進行微調展現了與更大規模的前沿模型相當的競爭性能。"
},
"deepseek/deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek R1 Distill Qwen 32B是一種基於Qwen 2.5 32B的蒸餾大語言模型通過使用DeepSeek R1的輸出進行訓練而得。該模型在多個基準測試中超越了OpenAI的o1-mini取得了密集模型dense models的最新技術領先成果state-of-the-art。以下是一些基準測試的結果\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\n該模型通過從DeepSeek R1的輸出中進行微調展現了與更大規模的前沿模型相當的競爭性能。"
},
"deepseek/deepseek-r1/community": {
"description": "DeepSeek R1是DeepSeek團隊發布的最新開源模型具備非常強悍的推理性能尤其在數學、編程和推理任務上達到了與OpenAI的o1模型相當的水平。"
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3在推理速度方面實現了比之前模型的重大突破。在開源模型中排名第一並可與全球最先進的閉源模型相媲美。DeepSeek-V3 采用了多頭潛在注意力MLA和DeepSeekMoE架構這些架構在DeepSeek-V2中得到了全面驗證。此外DeepSeek-V3開創了一種用於負載均衡的輔助無損策略並設定了多標記預測訓練目標以獲得更強的性能。"
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3在推理速度方面實現了比之前模型的重大突破。在開源模型中排名第一並可與全球最先進的閉源模型相媲美。DeepSeek-V3 采用了多頭潛在注意力MLA和DeepSeekMoE架構這些架構在DeepSeek-V2中得到了全面驗證。此外DeepSeek-V3開創了一種用於負載均衡的輔助無損策略並設定了多標記預測訓練目標以獲得更強的性能。"
},
"doubao-1.5-lite-32k": {
"description": "Doubao-1.5-lite 全新一代輕量版模型,極致響應速度,效果與時延均達到全球一流水平。"
},
"doubao-1.5-pro-256k": {
"description": "Doubao-1.5-pro-256k 基於 Doubao-1.5-Pro 全面升級版,整體效果大幅提升 10%。支持 256k 上下文窗口的推理,輸出長度支持最大 12k tokens。更高性能、更大窗口、超高性價比適用於更廣泛的應用場景。"
},
"doubao-1.5-pro-32k": {
"description": "Doubao-1.5-pro 全新一代主力模型,性能全面升級,在知識、程式碼、推理等方面表現卓越。"
},
"emohaa": {
"description": "Emohaa是一個心理模型具備專業諮詢能力幫助用戶理解情感問題。"
},
"ernie-3.5-128k": {
"description": "百度自研的旗艦級大規模大語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-3.5-8k": {
"description": "百度自研的旗艦級大規模大語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-3.5-8k-preview": {
"description": "百度自研的旗艦級大規模大語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-4.0-8k-latest": {
"description": "百度自研的旗艦級超大規模大語言模型相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-4.0-8k-preview": {
"description": "百度自研的旗艦級超大規模大語言模型相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。"
},
"ernie-4.0-turbo-128k": {
"description": "百度自研的旗艦級超大規模大語言模型綜合效果表現出色廣泛適用於各領域複雜任務場景支持自動對接百度搜索插件保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀"
},
"ernie-4.0-turbo-8k-latest": {
"description": "百度自研的旗艦級超大規模大語言模型綜合效果表現出色廣泛適用於各領域複雜任務場景支持自動對接百度搜索插件保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀"
},
"ernie-4.0-turbo-8k-preview": {
"description": "百度自研的旗艦級超大規模大語言模型綜合效果表現出色廣泛適用於各領域複雜任務場景支持自動對接百度搜索插件保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀"
},
"ernie-char-8k": {
"description": "百度自研的垂直場景大語言模型適合遊戲NPC、客服對話、對話角色扮演等應用場景人設風格更為鮮明、一致指令遵循能力更強推理性能更優。"
},
"ernie-char-fiction-8k": {
"description": "百度自研的垂直場景大語言模型適合遊戲NPC、客服對話、對話角色扮演等應用場景人設風格更為鮮明、一致指令遵循能力更強推理性能更優。"
},
"ernie-lite-8k": {
"description": "ERNIE Lite是百度自研的輕量級大語言模型兼顧優異的模型效果與推理性能適合低算力AI加速卡推理使用。"
},
"ernie-lite-pro-128k": {
"description": "百度自研的輕量級大語言模型兼顧優異的模型效果與推理性能效果比ERNIE Lite更優適合低算力AI加速卡推理使用。"
},
"ernie-novel-8k": {
"description": "百度自研通用大語言模型,在小說續寫能力上有明顯優勢,也可用在短劇、電影等場景。"
},
"ernie-speed-128k": {
"description": "百度2024年最新發布的自研高性能大語言模型通用能力優異適合作為基座模型進行精調更好地處理特定場景問題同時具備極佳的推理性能。"
},
"ernie-speed-pro-128k": {
"description": "百度2024年最新發布的自研高性能大語言模型通用能力優異效果比ERNIE Speed更優適合作為基座模型進行精調更好地處理特定場景問題同時具備極佳的推理性能。"
},
"ernie-tiny-8k": {
"description": "ERNIE Tiny是百度自研的超高性能大語言模型部署與精調成本在文心系列模型中最低。"
},
"gemini-1.0-pro-001": {
"description": "Gemini 1.0 Pro 001 (Tuning) 提供穩定並可調優的性能,是複雜任務解決方案的理想選擇。"
},
"gemini-1.0-pro-002": {
"description": "Gemini 1.0 Pro 002 (Tuning) 提供出色的多模態支持,專注於複雜任務的有效解決。"
},
"gemini-1.0-pro-latest": {
"description": "Gemini 1.0 Pro 是 Google 的高性能 AI 模型,專為廣泛任務擴展而設計。"
},
"gemini-1.5-flash": {
"description": "Gemini 1.5 Flash 是 Google 最新的多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。"
},
"gemini-1.5-flash-001": {
"description": "Gemini 1.5 Flash 001 是一款高效的多模態模型,支持廣泛應用的擴展。"
},
"gemini-1.5-flash-002": {
"description": "Gemini 1.5 Flash 002 是一款高效的多模態模型,支持廣泛應用的擴展。"
},
"gemini-1.5-flash-8b": {
"description": "Gemini 1.5 Flash 8B 是一款高效的多模態模型,支持廣泛應用的擴展。"
},
"gemini-1.5-flash-8b-exp-0924": {
"description": "Gemini 1.5 Flash 8B 0924 是最新的實驗性模型,在文本和多模態用例中都有顯著的性能提升。"
},
"gemini-1.5-flash-exp-0827": {
"description": "Gemini 1.5 Flash 0827 提供了優化後的多模態處理能力,適用多種複雜任務場景。"
},
"gemini-1.5-flash-latest": {
"description": "Gemini 1.5 Flash 是 Google 最新的多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。"
},
"gemini-1.5-pro-001": {
"description": "Gemini 1.5 Pro 001 是可擴展的多模態 AI 解決方案,支持廣泛的複雜任務。"
},
"gemini-1.5-pro-002": {
"description": "Gemini 1.5 Pro 002 是最新的生產就緒模型,提供更高品質的輸出,特別在數學、長上下文和視覺任務方面有顯著提升。"
},
"gemini-1.5-pro-exp-0801": {
"description": "Gemini 1.5 Pro 0801 提供出色的多模態處理能力,為應用開發帶來更大靈活性。"
},
"gemini-1.5-pro-exp-0827": {
"description": "Gemini 1.5 Pro 0827 結合最新優化技術,帶來更高效的多模態數據處理能力。"
},
"gemini-1.5-pro-latest": {
"description": "Gemini 1.5 Pro 支持高達 200 萬個 tokens是中型多模態模型的理想選擇適用於複雜任務的多方面支持。"
},
"gemini-2.0-flash": {
"description": "Gemini 2.0 Flash 提供下一代功能和改進包括卓越的速度、原生工具使用、多模態生成和1M令牌上下文窗口。"
},
"gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash 提供下一代功能和改進包括卓越的速度、原生工具使用、多模態生成和1M令牌上下文窗口。"
},
"gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash 模型變體,針對成本效益和低延遲等目標進行了優化。"
},
"gemini-2.0-flash-lite-001": {
"description": "Gemini 2.0 Flash 模型變體,針對成本效益和低延遲等目標進行了優化。"
},
"gemini-2.0-flash-lite-preview-02-05": {
"description": "一個 Gemini 2.0 Flash 模型,針對成本效益和低延遲等目標進行了優化。"
},
"gemini-2.0-flash-thinking-exp": {
"description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型擁有下一代特性卓越的速度原生工具調用以及多模態生成。"
},
"gemini-2.0-flash-thinking-exp-01-21": {
"description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型擁有下一代特性卓越的速度原生工具調用以及多模態生成。"
},
"gemini-2.0-pro-exp-02-05": {
"description": "Gemini 2.0 Pro Experimental 是 Google 最新的實驗性多模態AI模型與歷史版本相比有一定的質量提升特別是對於世界知識、代碼和長上下文。"
},
"gemma-7b-it": {
"description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。"
},
"gemma2": {
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
},
"gemma2-9b-it": {
"description": "Gemma 2 9B 是一款優化用於特定任務和工具整合的模型。"
},
"gemma2:27b": {
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
},
"gemma2:2b": {
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
},
"generalv3": {
"description": "Spark Pro 是一款為專業領域優化的高性能大語言模型,專注數學、編程、醫療、教育等多個領域,並支持聯網搜索及內置天氣、日期等插件。其優化後模型在複雜知識問答、語言理解及高層次文本創作中展現出色表現和高效性能,是適合專業應用場景的理想選擇。"
},
"generalv3.5": {
"description": "Spark3.5 Max 為功能最為全面的版本,支持聯網搜索及眾多內置插件。其全面優化的核心能力以及系統角色設定和函數調用功能,使其在各種複雜應用場景中的表現極為優異和出色。"
},
"glm-4": {
"description": "GLM-4是發布於2024年1月的舊旗艦版本目前已被更強的GLM-4-0520取代。"
},
"glm-4-0520": {
"description": "GLM-4-0520是最新模型版本專為高度複雜和多樣化任務設計表現卓越。"
},
"glm-4-9b-chat": {
"description": "GLM-4-9B-Chat 在語義、數學、推理、代碼和知識等多方面均表現出較高性能。還具備網頁瀏覽、代碼執行、自定義工具調用和長文本推理。支持包括日語、韓語、德語在內的 26 種語言。"
},
"glm-4-air": {
"description": "GLM-4-Air是性價比高的版本性能接近GLM-4提供快速度和實惠的價格。"
},
"glm-4-airx": {
"description": "GLM-4-AirX提供GLM-4-Air的高效版本推理速度可達其2.6倍。"
},
"glm-4-alltools": {
"description": "GLM-4-AllTools是一個多功能智能體模型優化以支持複雜指令規劃與工具調用如網絡瀏覽、代碼解釋和文本生成適用於多任務執行。"
},
"glm-4-flash": {
"description": "GLM-4-Flash是處理簡單任務的理想選擇速度最快且價格最優惠。"
},
"glm-4-flashx": {
"description": "GLM-4-FlashX 是 Flash 的增強版本,具備超快的推理速度。"
},
"glm-4-long": {
"description": "GLM-4-Long支持超長文本輸入適合記憶型任務與大規模文檔處理。"
},
"glm-4-plus": {
"description": "GLM-4-Plus作為高智能旗艦具備強大的處理長文本和複雜任務的能力性能全面提升。"
},
"glm-4v": {
"description": "GLM-4V提供強大的圖像理解與推理能力支持多種視覺任務。"
},
"glm-4v-flash": {
"description": "GLM-4V-Flash 專注於高效的單一圖像理解,適用於快速圖像解析的場景,例如即時圖像分析或批量圖像處理。"
},
"glm-4v-plus": {
"description": "GLM-4V-Plus具備對視頻內容及多圖片的理解能力適合多模態任務。"
},
"glm-zero-preview": {
"description": "GLM-Zero-Preview具備強大的複雜推理能力在邏輯推理、數學、程式設計等領域表現優異。"
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash 提供下一代功能和改進包括卓越的速度、原生工具使用、多模態生成和1M令牌上下文窗口。"
},
"google/gemini-2.0-pro-exp-02-05:free": {
"description": "Gemini 2.0 Pro Experimental 是 Google 最新的實驗性多模態AI模型與歷史版本相比有一定的質量提升特別是對於世界知識、代碼和長上下文。"
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash 提供了優化後的多模態處理能力,適用於多種複雜任務場景。"
},
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro 結合最新的優化技術,帶來更高效的多模態數據處理能力。"
},
"google/gemma-2-27b": {
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 延續了輕量化與高效的設計理念。"
},
"google/gemma-2-2b-it": {
"description": "Google的輕量級指令調優模型"
},
"google/gemma-2-9b": {
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 是 Google 輕量化的開源文本模型系列。"
},
"google/gemma-2-9b-it:free": {
"description": "Gemma 2 是Google輕量化的開源文本模型系列。"
},
"google/gemma-2b-it": {
"description": "Gemma Instruct (2B) 提供基本的指令處理能力,適合輕量級應用。"
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo適用於各種文本生成和理解任務Currently points to gpt-3.5-turbo-0125"
},
"gpt-3.5-turbo-0125": {
"description": "GPT 3.5 Turbo適用於各種文本生成和理解任務Currently points to gpt-3.5-turbo-0125"
},
"gpt-3.5-turbo-1106": {
"description": "GPT 3.5 Turbo適用於各種文本生成和理解任務Currently points to gpt-3.5-turbo-0125"
},
"gpt-3.5-turbo-instruct": {
"description": "GPT 3.5 Turbo適用於各種文本生成和理解任務Currently points to gpt-3.5-turbo-0125"
},
"gpt-35-turbo": {
"description": "GPT 3.5 TurboOpenAI 提供的高效模型,適用於聊天和文本生成任務,支持並行函數調用。"
},
"gpt-35-turbo-16k": {
"description": "GPT 3.5 Turbo 16k高容量文本生成模型適合複雜任務。"
},
"gpt-4": {
"description": "GPT-4提供了一個更大的上下文窗口能夠處理更長的文本輸入適用於需要廣泛信息整合和數據分析的場景。"
},
"gpt-4-0125-preview": {
"description": "最新的GPT-4 Turbo模型具備視覺功能。現在視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡適合需要進行實時交互的應用程序場景。"
},
"gpt-4-0613": {
"description": "GPT-4提供了一個更大的上下文窗口能夠處理更長的文本輸入適用於需要廣泛信息整合和數據分析的場景。"
},
"gpt-4-1106-preview": {
"description": "最新的GPT-4 Turbo模型具備視覺功能。現在視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡適合需要進行實時交互的應用程序場景。"
},
"gpt-4-32k": {
"description": "GPT-4提供了一個更大的上下文窗口能夠處理更長的文本輸入適用於需要廣泛信息整合和數據分析的場景。"
},
"gpt-4-32k-0613": {
"description": "GPT-4提供了一個更大的上下文窗口能夠處理更長的文本輸入適用於需要廣泛信息整合和數據分析的場景。"
},
"gpt-4-turbo": {
"description": "最新的GPT-4 Turbo模型具備視覺功能。現在視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡適合需要進行實時交互的應用程序場景。"
},
"gpt-4-turbo-2024-04-09": {
"description": "最新的GPT-4 Turbo模型具備視覺功能。現在視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡適合需要進行實時交互的應用程序場景。"
},
"gpt-4-turbo-preview": {
"description": "最新的GPT-4 Turbo模型具備視覺功能。現在視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡適合需要進行實時交互的應用程序場景。"
},
"gpt-4-vision-preview": {
"description": "最新的GPT-4 Turbo模型具備視覺功能。現在視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡適合需要進行實時交互的應用程序場景。"
},
"gpt-4.5-preview": {
"description": "GPT-4.5 的研究預覽版,它是我們迄今為止最大、最強大的 GPT 模型。它擁有廣泛的世界知識並能更好地理解用戶意圖使其在創造性任務和自主規劃方面表現出色。GPT-4.5 可接受文本和圖像輸入,並生成文本輸出(包括結構化輸出)。支持關鍵的開發者功能,如函數調用、批量 API 和串流輸出。在需要創造性、開放式思考和對話的任務如寫作、學習或探索新想法GPT-4.5 表現尤為出色。知識截止日期為 2023 年 10 月。"
},
"gpt-4o": {
"description": "ChatGPT-4o是一款動態模型實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力適合於大規模應用場景包括客戶服務、教育和技術支持。"
},
"gpt-4o-2024-05-13": {
"description": "ChatGPT-4o是一款動態模型實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力適合於大規模應用場景包括客戶服務、教育和技術支持。"
},
"gpt-4o-2024-08-06": {
"description": "ChatGPT-4o是一款動態模型實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力適合於大規模應用場景包括客戶服務、教育和技術支持。"
},
"gpt-4o-2024-11-20": {
"description": "ChatGPT-4o 是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。"
},
"gpt-4o-audio-preview": {
"description": "GPT-4o Audio 模型,支持音頻輸入輸出"
},
"gpt-4o-mini": {
"description": "GPT-4o mini是OpenAI在GPT-4 Omni之後推出的最新模型支持圖文輸入並輸出文本。作為他們最先進的小型模型它比其他近期的前沿模型便宜很多並且比GPT-3.5 Turbo便宜超過60%。它保持了最先進的智能同時具有顯著的性價比。GPT-4o mini在MMLU測試中獲得了82%的得分目前在聊天偏好上排名高於GPT-4。"
},
"gpt-4o-mini-realtime-preview": {
"description": "GPT-4o-mini 實時版本,支持音頻和文本實時輸入輸出"
},
"gpt-4o-realtime-preview": {
"description": "GPT-4o 實時版本,支持音頻和文本實時輸入輸出"
},
"gpt-4o-realtime-preview-2024-10-01": {
"description": "GPT-4o 實時版本,支持音頻和文本實時輸入輸出"
},
"gpt-4o-realtime-preview-2024-12-17": {
"description": "GPT-4o 實時版本,支持音頻和文本實時輸入輸出"
},
"grok-2-1212": {
"description": "該模型在準確性、指令遵循和多語言能力方面有所改進。"
},
"grok-2-vision-1212": {
"description": "該模型在準確性、指令遵循和多語言能力方面有所改進。"
},
"grok-beta": {
"description": "擁有與 Grok 2 相當的性能,但具備更高的效率、速度和功能。"
},
"grok-vision-beta": {
"description": "最新的圖像理解模型,可以處理各種各樣的視覺信息,包括文檔、圖表、截圖和照片等。"
},
"gryphe/mythomax-l2-13b": {
"description": "MythoMax l2 13B 是一款合併了多個頂尖模型的創意與智能相結合的語言模型。"
},
"hunyuan-code": {
"description": "混元最新代碼生成模型,經過 200B 高質量代碼數據增訓基座模型,迭代半年高質量 SFT 數據訓練,上下文長窗口長度增大到 8K五大語言代碼生成自動評測指標上位居前列五大語言 10 項考量各方面綜合代碼任務人工高質量評測上,性能處於第一梯隊。"
},
"hunyuan-functioncall": {
"description": "混元最新 MOE 架構 FunctionCall 模型,經過高質量的 FunctionCall 數據訓練,上下文窗口達 32K在多個維度的評測指標上處於領先。"
},
"hunyuan-large": {
"description": "Hunyuan-large 模型總參數量約 389B激活參數量約 52B是當前業界參數規模最大、效果最好的 Transformer 架構的開源 MoE 模型。"
},
"hunyuan-large-longcontext": {
"description": "擅長處理長文任務如文檔摘要和文檔問答等,同時也具備處理通用文本生成任務的能力。在長文本的分析和生成上表現優異,能有效應對複雜和詳盡的長文內容處理需求。"
},
"hunyuan-lite": {
"description": "升級為 MOE 結構,上下文窗口為 256k在 NLP、代碼、數學、行業等多項評測集上領先眾多開源模型。"
},
"hunyuan-lite-vision": {
"description": "混元最新7B多模態模型上下文窗口32K支持中英文場景的多模態對話、圖像物體識別、文檔表格理解、多模態數學等在多個維度上評測指標優於7B競品模型。"
},
"hunyuan-pro": {
"description": "萬億級參數規模 MOE-32K 長文模型。在各種 benchmark 上達到絕對領先的水平,具備複雜指令和推理能力,支持 functioncall在多語言翻譯、金融法律醫療等領域應用重點優化。"
},
"hunyuan-role": {
"description": "混元最新版角色扮演模型,混元官方精調訓練推出的角色扮演模型,基於混元模型結合角色扮演場景數據集進行增訓,在角色扮演場景具有更好的基礎效果。"
},
"hunyuan-standard": {
"description": "採用更優的路由策略,同時緩解了負載均衡和專家趨同的問題。長文方面,大海撈針指標達到 99.9%。MOE-32K 性價比相對更高,在平衡效果和價格的同時,可實現對長文本輸入的處理。"
},
"hunyuan-standard-256K": {
"description": "採用更優的路由策略,同時緩解了負載均衡和專家趨同的問題。長文方面,大海撈針指標達到 99.9%。MOE-256K 在長度和效果上進一步突破,極大地擴展了可輸入長度。"
},
"hunyuan-standard-vision": {
"description": "混元最新多模態模型,支持多語種作答,中英文能力均衡。"
},
"hunyuan-translation": {
"description": "支持中文和英語、日語、法語、葡萄牙語、西班牙語、土耳其語、俄語、阿拉伯語、韓語、義大利語、德語、越南語、馬來語、印尼語15種語言互譯基於多場景翻譯評測集自動化評估COMET評分在十餘種常用語種中外互譯能力上整體優於市場同規模模型。"
},
"hunyuan-translation-lite": {
"description": "混元翻譯模型支持自然語言對話式翻譯支持中文和英語、日語、法語、葡萄牙語、西班牙語、土耳其語、俄語、阿拉伯語、韓語、義大利語、德語、越南語、馬來語、印尼語15種語言互譯。"
},
"hunyuan-turbo": {
"description": "混元全新一代大語言模型的預覽版採用全新的混合專家模型MoE結構相較於 hunyuan-pro 推理效率更快,效果表現更強。"
},
"hunyuan-turbo-20241120": {
"description": "hunyuan-turbo 2024 年 11 月 20 日固定版本,介於 hunyuan-turbo 和 hunyuan-turbo-latest 之間的一個版本。"
},
"hunyuan-turbo-20241223": {
"description": "本版本優化數據指令scaling大幅提升模型通用泛化能力大幅提升數學、程式碼、邏輯推理能力優化文本理解字詞理解相關能力優化文本創作內容生成質量"
},
"hunyuan-turbo-latest": {
"description": "通用體驗優化包括NLP理解、文本創作、閒聊、知識問答、翻譯、領域等提升擬人性優化模型情商提升意圖模糊時模型主動澄清能力提升字詞解析類問題的處理能力提升創作的質量和可互動性提升多輪體驗。"
},
"hunyuan-turbo-vision": {
"description": "混元新一代視覺語言旗艦大模型採用全新的混合專家模型MoE結構在圖文理解相關的基礎識別、內容創作、知識問答、分析推理等能力上相比前一代模型全面提升。"
},
"hunyuan-vision": {
"description": "混元最新多模態模型,支持圖片 + 文本輸入生成文本內容。"
},
"internlm/internlm2_5-20b-chat": {
"description": "創新的開源模型InternLM2.5,通過大規模的參數提高了對話智能。"
},
"internlm/internlm2_5-7b-chat": {
"description": "InternLM2.5 提供多場景下的智能對話解決方案。"
},
"internlm2-pro-chat": {
"description": "我們仍在維護的舊版本模型,有 7B、20B 多種模型參數量可選。"
},
"internlm2.5-latest": {
"description": "我們最新的模型系列,有著卓越的推理性能,支持 1M 的上下文長度以及更強的指令跟隨和工具調用能力。"
},
"internlm3-latest": {
"description": "我們最新的模型系列,有著卓越的推理性能,領跑同量級開源模型。默認指向我們最新發布的 InternLM3 系列模型"
},
"jina-deepsearch-v1": {
"description": "深度搜索結合了網路搜索、閱讀和推理,可進行全面調查。您可以將其視為一個代理,接受您的研究任務 - 它會進行廣泛搜索並經過多次迭代,然後才能給出答案。這個過程涉及持續的研究、推理和從各個角度解決問題。這與直接從預訓練數據生成答案的標準大模型以及依賴一次性表面搜索的傳統 RAG 系統有著根本的不同。"
},
"kimi-latest": {
"description": "Kimi 智能助手產品使用最新的 Kimi 大模型,可能包含尚未穩定的特性。支持圖片理解,同時會自動根據請求的上下文長度選擇 8k/32k/128k 模型作為計費模型"
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM 是一個實驗性的、特定於任務的語言模型,經過訓練以符合學習科學原則,可在教學和學習場景中遵循系統指令,充當專家導師等。"
},
"lite": {
"description": "Spark Lite 是一款輕量級大語言模型,具備極低的延遲與高效的處理能力,完全免費開放,支持即時在線搜索功能。其快速響應的特性使其在低算力設備上的推理應用和模型微調中表現出色,為用戶帶來出色的成本效益和智能體驗,尤其在知識問答、內容生成及搜索場景下表現不俗。"
},
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B 提供更強大的 AI 推理能力,適合複雜應用,支持超多的計算處理並保證高效和準確率。"
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常適合需要大規模效率和成本效益的應用場景。"
},
"llama-3.2-11b-vision-instruct": {
"description": "在高解析度圖像上表現優異的圖像推理能力,適用於視覺理解應用。"
},
"llama-3.2-11b-vision-preview": {
"description": "Llama 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。"
},
"llama-3.2-90b-vision-instruct": {
"description": "適合視覺理解代理應用的高階圖像推理能力。"
},
"llama-3.2-90b-vision-preview": {
"description": "Llama 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。"
},
"llama-3.3-70b-instruct": {
"description": "Llama 3.3 是 Llama 系列最先進的多語言開源大型語言模型,以極低成本體驗媲美 405B 模型的性能。基於 Transformer 結構並透過監督微調SFT和人類反饋強化學習RLHF提升有用性和安全性。其指令調優版本專為多語言對話優化在多項行業基準上表現優於眾多開源和封閉聊天模型。知識截止日期為 2023 年 12 月"
},
"llama-3.3-70b-versatile": {
"description": "Meta Llama 3.3 多語言大語言模型 (LLM) 是 70B文本輸入/文本輸出中的預訓練和指令調整生成模型。Llama 3.3 指令調整的純文本模型針對多語言對話用例進行了優化,並且在常見行業基準上優於許多可用的開源和封閉式聊天模型。"
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B 提供無與倫比的複雜性處理能力,為高要求項目量身定制。"
},
"llama3-8b-8192": {
"description": "Meta Llama 3 8B 帶來優質的推理效能,適合多場景應用需求。"
},
"llama3-groq-70b-8192-tool-use-preview": {
"description": "Llama 3 Groq 70B Tool Use 提供強大的工具調用能力,支持複雜任務的高效處理。"
},
"llama3-groq-8b-8192-tool-use-preview": {
"description": "Llama 3 Groq 8B Tool Use 是針對高效工具使用優化的模型,支持快速並行計算。"
},
"llama3.1": {
"description": "Llama 3.1 是 Meta 推出的領先模型,支持高達 405B 參數,可應用於複雜對話、多語言翻譯和數據分析領域。"
},
"llama3.1:405b": {
"description": "Llama 3.1 是 Meta 推出的領先模型,支持高達 405B 參數,可應用於複雜對話、多語言翻譯和數據分析領域。"
},
"llama3.1:70b": {
"description": "Llama 3.1 是 Meta 推出的領先模型,支持高達 405B 參數,可應用於複雜對話、多語言翻譯和數據分析領域。"
},
"llava": {
"description": "LLaVA 是結合視覺編碼器和 Vicuna 的多模態模型,用於強大的視覺和語言理解。"
},
"llava-v1.5-7b-4096-preview": {
"description": "LLaVA 1.5 7B 提供視覺處理能力融合,通過視覺信息輸入生成複雜輸出。"
},
"llava:13b": {
"description": "LLaVA 是結合視覺編碼器和 Vicuna 的多模態模型,用於強大的視覺和語言理解。"
},
"llava:34b": {
"description": "LLaVA 是結合視覺編碼器和 Vicuna 的多模態模型,用於強大的視覺和語言理解。"
},
"mathstral": {
"description": "MathΣtral 專為科學研究和數學推理設計,提供有效的計算能力和結果解釋。"
},
"max-32k": {
"description": "Spark Max 32K 配置了大上下文處理能力更強的上下文理解和邏輯推理能力支持32K tokens的文本輸入適用於長文檔閱讀、私有知識問答等場景。"
},
"meta-llama-3-70b-instruct": {
"description": "一個強大的70億參數模型在推理、編碼和廣泛的語言應用中表現出色。"
},
"meta-llama-3-8b-instruct": {
"description": "一個多功能的8億參數模型優化了對話和文本生成任務。"
},
"meta-llama-3.1-405b-instruct": {
"description": "Llama 3.1指令調整的文本模型,針對多語言對話用例進行優化,並在許多可用的開源和封閉聊天模型中超越了常見行業基準。"
},
"meta-llama-3.1-70b-instruct": {
"description": "Llama 3.1指令調整的文本模型,針對多語言對話用例進行優化,並在許多可用的開源和封閉聊天模型中超越了常見行業基準。"
},
"meta-llama-3.1-8b-instruct": {
"description": "Llama 3.1指令調整的文本模型,針對多語言對話用例進行優化,並在許多可用的開源和封閉聊天模型中超越了常見行業基準。"
},
"meta-llama/Llama-2-13b-chat-hf": {
"description": "LLaMA-2 Chat (13B) 提供優秀的語言處理能力和出色的互動體驗。"
},
"meta-llama/Llama-2-70b-hf": {
"description": "LLaMA-2 提供優秀的語言處理能力和出色的互動體驗。"
},
"meta-llama/Llama-3-70b-chat-hf": {
"description": "LLaMA-3 Chat (70B) 是功能強大的聊天模型,支持複雜的對話需求。"
},
"meta-llama/Llama-3-8b-chat-hf": {
"description": "LLaMA-3 Chat (8B) 提供多語言支持,涵蓋豐富的領域知識。"
},
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
"description": "LLaMA 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。"
},
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
"description": "LLaMA 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。"
},
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
"description": "LLaMA 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。"
},
"meta-llama/Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 是 Llama 系列最先進的多語言開源大型語言模型,以極低成本體驗媲美 405B 模型的性能。基於 Transformer 結構並通過監督微調SFT和人類反饋強化學習RLHF提升有用性和安全性。其指令調優版本專為多語言對話優化在多項行業基準上表現優於眾多開源和封閉聊天模型。知識截止日期為 2023 年 12 月"
},
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
"description": "Meta Llama 3.3 多語言大語言模型 ( LLM ) 是 70B文本輸入/文本輸出)中的預訓練和指令調整生成模型。 Llama 3.3 指令調整的純文本模型針對多語言對話用例進行了優化,並且在常見行業基準上優於許多可用的開源和封閉式聊天模型。"
},
"meta-llama/Llama-Vision-Free": {
"description": "LLaMA 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。"
},
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
"description": "Llama 3 70B Instruct Lite 適合需要高效能和低延遲的環境。"
},
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
"description": "Llama 3 70B Instruct Turbo 提供卓越的語言理解和生成能力,適合最苛刻的計算任務。"
},
"meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
"description": "Llama 3 8B Instruct Lite 適合資源受限的環境,提供出色的平衡性能。"
},
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
"description": "Llama 3 8B Instruct Turbo 是一款高效能的大語言模型,支持廣泛的應用場景。"
},
"meta-llama/Meta-Llama-3.1-405B-Instruct": {
"description": "LLaMA 3.1 405B 是預訓練和指令調整的強大機型。"
},
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "405B 的 Llama 3.1 Turbo 模型,為大數據處理提供超大容量的上下文支持,在超大規模的人工智慧應用中表現突出。"
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 是 Meta 推出的領先模型,支持高達 405B 參數,可應用於複雜對話、多語言翻譯和數據分析領域。"
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B 提供多語言的高效對話支持。"
},
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
"description": "Llama 3.1 70B 模型經過精細調整,適用於高負載應用,量化至 FP8 提供更高效的計算能力和準確性,確保在複雜場景中的卓越表現。"
},
"meta-llama/Meta-Llama-3.1-8B-Instruct": {
"description": "LLaMA 3.1 提供多語言支持,是業界領先的生成模型之一。"
},
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
"description": "Llama 3.1 8B 模型採用 FP8 量化,支持高達 131,072 個上下文標記,是開源模型中的佼佼者,適合複雜任務,表現優異於許多行業基準。"
},
"meta-llama/llama-3-70b-instruct": {
"description": "Llama 3 70B Instruct 優化用於高品質對話場景,在各類人類評估中表現優異。"
},
"meta-llama/llama-3-8b-instruct": {
"description": "Llama 3 8B Instruct 優化了高品質對話場景,性能優於許多閉源模型。"
},
"meta-llama/llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct 專為高品質對話而設計,在人類評估中表現突出,特別適合高互動場景。"
},
"meta-llama/llama-3.1-8b-instruct": {
"description": "Llama 3.1 8B Instruct 是 Meta 推出的最新版本,優化了高品質對話場景,表現優於許多領先的閉源模型。"
},
"meta-llama/llama-3.1-8b-instruct:free": {
"description": "LLaMA 3.1 提供多語言支持,是業界領先的生成模型之一。"
},
"meta-llama/llama-3.2-11b-vision-instruct": {
"description": "LLaMA 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。"
},
"meta-llama/llama-3.2-3b-instruct": {
"description": "meta-llama/llama-3.2-3b-instruct"
},
"meta-llama/llama-3.2-90b-vision-instruct": {
"description": "LLaMA 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。"
},
"meta-llama/llama-3.3-70b-instruct": {
"description": "Llama 3.3 是 Llama 系列最先進的多語言開源大型語言模型,以極低成本體驗媲美 405B 模型的性能。基於 Transformer 結構並透過監督微調SFT和人類反饋強化學習RLHF提升有用性和安全性。其指令調優版本專為多語言對話優化在多項行業基準上表現優於眾多開源和封閉聊天模型。知識截止日期為 2023 年 12 月"
},
"meta-llama/llama-3.3-70b-instruct:free": {
"description": "Llama 3.3 是 Llama 系列最先進的多語言開源大型語言模型,以極低成本體驗媲美 405B 模型的性能。基於 Transformer 結構並透過監督微調SFT和人類反饋強化學習RLHF提升有用性和安全性。其指令調優版本專為多語言對話優化在多項行業基準上表現優於眾多開源和封閉聊天模型。知識截止日期為 2023 年 12 月"
},
"meta.llama3-1-405b-instruct-v1:0": {
"description": "Meta Llama 3.1 405B Instruct 是 Llama 3.1 Instruct 模型中最大、最強大的模型是一款高度先進的對話推理和合成數據生成模型也可以用作在特定領域進行專業持續預訓練或微調的基礎。Llama 3.1 提供的多語言大型語言模型 (LLMs) 是一組預訓練的、指令調整的生成模型,包括 8B、70B 和 405B 大小 (文本輸入/輸出)。Llama 3.1 指令調整的文本模型 (8B、70B、405B) 專為多語言對話用例進行了優化並在常見的行業基準測試中超過了許多可用的開源聊天模型。Llama 3.1 旨在用於多種語言的商業和研究用途。指令調整的文本模型適用於類似助手的聊天而預訓練模型可以適應各種自然語言生成任務。Llama 3.1 模型還支持利用其模型的輸出來改進其他模型包括合成數據生成和精煉。Llama 3.1 是使用優化的變壓器架構的自回歸語言模型。調整版本使用監督微調 (SFT) 和帶有人類反饋的強化學習 (RLHF) 來符合人類對幫助性和安全性的偏好。"
},
"meta.llama3-1-70b-instruct-v1:0": {
"description": "Meta Llama 3.1 70B Instruct的更新版包括擴展的128K上下文長度、多語言性和改進的推理能力。Llama 3.1提供的多語言大型語言模型(LLMs)是一組預訓練的、指令調整的生成模型包括8B、70B和405B大小(文本輸入/輸出)。Llama 3.1指令調整的文本模型(8B、70B、405B)專為多語言對話用例進行了優化並在常見的行業基準測試中超過了許多可用的開源聊天模型。Llama 3.1旨在用於多種語言的商業和研究用途。指令調整的文本模型適用於類似助手的聊天而預訓練模型可以適應各種自然語言生成任務。Llama 3.1模型還支持利用其模型的輸出來改進其他模型包括合成數據生成和精煉。Llama 3.1是使用優化的變壓器架構的自回歸語言模型。調整版本使用監督微調(SFT)和帶有人類反饋的強化學習(RLHF)來符合人類對幫助性和安全性的偏好。"
},
"meta.llama3-1-8b-instruct-v1:0": {
"description": "Meta Llama 3.1 8B Instruct的更新版包括擴展的128K上下文長度、多語言性和改進的推理能力。Llama 3.1提供的多語言大型語言模型(LLMs)是一組預訓練的、指令調整的生成模型包括8B、70B和405B大小(文本輸入/輸出)。Llama 3.1指令調整的文本模型(8B、70B、405B)專為多語言對話用例進行了優化並在常見的行業基準測試中超過了許多可用的開源聊天模型。Llama 3.1旨在用於多種語言的商業和研究用途。指令調整的文本模型適用於類似助手的聊天而預訓練模型可以適應各種自然語言生成任務。Llama 3.1模型還支持利用其模型的輸出來改進其他模型包括合成數據生成和精煉。Llama 3.1是使用優化的變壓器架構的自回歸語言模型。調整版本使用監督微調(SFT)和帶有人類反饋的強化學習(RLHF)來符合人類對幫助性和安全性的偏好。"
},
"meta.llama3-70b-instruct-v1:0": {
"description": "Meta Llama 3 是一款面向開發者、研究人員和企業的開放大型語言模型 (LLM),旨在幫助他們構建、實驗並負責任地擴展他們的生成 AI 想法。作為全球社區創新的基礎系統的一部分,它非常適合內容創建、對話 AI、語言理解、研發和企業應用。"
},
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 是一款面向開發者、研究人員和企業的開放大型語言模型 (LLM),旨在幫助他們構建、實驗並負責任地擴展他們的生成 AI 想法。作為全球社區創新的基礎系統的一部分,它非常適合計算能力和資源有限、邊緣設備和更快的訓練時間。"
},
"meta/llama-3.1-405b-instruct": {
"description": "高級 LLM支持合成數據生成、知識蒸餾和推理適用於聊天機器人、編程和特定領域任務。"
},
"meta/llama-3.1-70b-instruct": {
"description": "賦能複雜對話,具備卓越的上下文理解、推理能力和文本生成能力。"
},
"meta/llama-3.1-8b-instruct": {
"description": "先進的最尖端模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "尖端的視覺-語言模型,擅長從圖像中進行高品質推理。"
},
"meta/llama-3.2-1b-instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-3b-instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "尖端的視覺-語言模型,擅長從圖像中進行高品質推理。"
},
"meta/llama-3.3-70b-instruct": {
"description": "先進的 LLM擅長推理、數學、常識和函數調用。"
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 是微軟AI提供的語言模型在複雜對話、多語言、推理和智能助手領域表現尤為出色。"
},
"microsoft/wizardlm-2-8x22b": {
"description": "WizardLM-2 8x22B 是微軟 AI 最先進的 Wizard 模型,顯示出極其競爭力的表現。"
},
"minicpm-v": {
"description": "MiniCPM-V 是 OpenBMB 推出的新一代多模態大模型,具備卓越的 OCR 識別和多模態理解能力,支持廣泛的應用場景。"
},
"ministral-3b-latest": {
"description": "Ministral 3B 是 Mistral 的全球頂尖邊緣模型。"
},
"ministral-8b-latest": {
"description": "Ministral 8B 是 Mistral 的性價比極高的邊緣模型。"
},
"mistral": {
"description": "Mistral 是 Mistral AI 發布的 7B 模型,適合多變的語言處理需求。"
},
"mistral-large": {
"description": "Mixtral Large 是 Mistral 的旗艦模型,結合代碼生成、數學和推理的能力,支持 128k 上下文窗口。"
},
"mistral-large-latest": {
"description": "Mistral Large 是旗艦大模型,擅長多語言任務、複雜推理和代碼生成,是高端應用的理想選擇。"
},
"mistral-nemo": {
"description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。"
},
"mistral-small": {
"description": "Mistral Small可用於任何需要高效率和低延遲的語言任務。"
},
"mistral-small-latest": {
"description": "Mistral Small是一個成本效益高、快速且可靠的選擇適用於翻譯、摘要和情感分析等用例。"
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct 以高性能著稱,適用於多種語言任務。"
},
"mistralai/Mistral-7B-Instruct-v0.2": {
"description": "Mistral 7B 是按需 fine-tuning 的模型,為任務提供優化解答。"
},
"mistralai/Mistral-7B-Instruct-v0.3": {
"description": "Mistral (7B) Instruct v0.3 提供高效的計算能力和自然語言理解,適合廣泛的應用。"
},
"mistralai/Mistral-7B-v0.1": {
"description": "Mistral 7B 是一款緊湊但高效能的模型,擅長批次處理和簡單任務,如分類和文本生成,具有良好的推理能力。"
},
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
"description": "Mixtral-8x22B Instruct (141B) 是一款超級大語言模型,支持極高的處理需求。"
},
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
"description": "Mixtral 8x7B 是預訓練的稀疏混合專家模型,用於通用性文本任務。"
},
"mistralai/Mixtral-8x7B-v0.1": {
"description": "Mixtral 8x7B 是一個稀疏專家模型,利用多個參數提高推理速度,適合處理多語言和代碼生成任務。"
},
"mistralai/mistral-7b-instruct": {
"description": "Mistral 7B Instruct 是一款兼具速度優化和長上下文支持的高性能行業標準模型。"
},
"mistralai/mistral-nemo": {
"description": "Mistral Nemo 是多語言支持和高性能編程的7.3B參數模型。"
},
"mixtral": {
"description": "Mixtral 是 Mistral AI 的專家模型,具有開源權重,並在代碼生成和語言理解方面提供支持。"
},
"mixtral-8x7b-32768": {
"description": "Mixtral 8x7B 提供高容錯的並行計算能力,適合複雜任務。"
},
"mixtral:8x22b": {
"description": "Mixtral 是 Mistral AI 的專家模型,具有開源權重,並在代碼生成和語言理解方面提供支持。"
},
"moonshot-v1-128k": {
"description": "Moonshot V1 128K 是一款擁有超長上下文處理能力的模型,適用於生成超長文本,滿足複雜的生成任務需求,能夠處理多達 128,000 個 tokens 的內容,非常適合科研、學術和大型文檔生成等應用場景。"
},
"moonshot-v1-128k-vision-preview": {
"description": "Kimi 視覺模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能夠理解圖片內容,包括圖片文字、圖片顏色和物體形狀等內容。"
},
"moonshot-v1-32k": {
"description": "Moonshot V1 32K 提供中等長度的上下文處理能力,能夠處理 32,768 個 tokens特別適合生成各種長文檔和複雜對話應用於內容創作、報告生成和對話系統等領域。"
},
"moonshot-v1-32k-vision-preview": {
"description": "Kimi 視覺模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能夠理解圖片內容,包括圖片文字、圖片顏色和物體形狀等內容。"
},
"moonshot-v1-8k": {
"description": "Moonshot V1 8K 專為生成短文本任務設計,具有高效的處理性能,能夠處理 8,192 個 tokens非常適合簡短對話、速記和快速內容生成。"
},
"moonshot-v1-8k-vision-preview": {
"description": "Kimi 視覺模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能夠理解圖片內容,包括圖片文字、圖片顏色和物體形狀等內容。"
},
"moonshot-v1-auto": {
"description": "Moonshot V1 Auto 可以根據當前上下文佔用的 Tokens 數量來選擇合適的模型"
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2 的升級版本,包含最新的內部開發的數據集。"
},
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B 是由 NVIDIA 定制的大型語言模型,旨在提高 LLM 生成的回應對用戶查詢的幫助程度。該模型在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 等基準測試中表現出色,截至 2024 年 10 月 1 日,在所有三個自動對齊基準測試中排名第一。該模型使用 RLHF特別是 REINFORCE、Llama-3.1-Nemotron-70B-Reward 和 HelpSteer2-Preference 提示在 Llama-3.1-70B-Instruct 模型基礎上進行訓練"
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "獨特的語言模型,提供無與倫比的準確性和效率表現。"
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct 是 NVIDIA 定制的大型語言模型,旨在提高 LLM 生成的響應的幫助性。"
},
"o1": {
"description": "專注於高級推理和解決複雜問題,包括數學和科學任務。非常適合需要深入上下文理解和代理工作流程的應用程序。"
},
"o1-mini": {
"description": "o1-mini是一款針對程式設計、數學和科學應用場景而設計的快速、經濟高效的推理模型。該模型具有128K上下文和2023年10月的知識截止日期。"
},
"o1-preview": {
"description": "o1是OpenAI新的推理模型適用於需要廣泛通用知識的複雜任務。該模型具有128K上下文和2023年10月的知識截止日期。"
},
"o3-mini": {
"description": "o3-mini 是我們最新的小型推理模型,在與 o1-mini 相同的成本和延遲目標下提供高智能。"
},
"open-codestral-mamba": {
"description": "Codestral Mamba 是專注於代碼生成的 Mamba 2 語言模型,為先進的代碼和推理任務提供強力支持。"
},
"open-mistral-7b": {
"description": "Mistral 7B 是一款緊湊但高性能的模型,擅長批量處理和簡單任務,如分類和文本生成,具有良好的推理能力。"
},
"open-mistral-nemo": {
"description": "Mistral Nemo 是一個與 Nvidia 合作開發的 12B 模型,提供出色的推理和編碼性能,易於集成和替換。"
},
"open-mixtral-8x22b": {
"description": "Mixtral 8x22B 是一個更大的專家模型,專注於複雜任務,提供出色的推理能力和更高的吞吐量。"
},
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B 是一個稀疏專家模型,利用多個參數提高推理速度,適合處理多語言和代碼生成任務。"
},
"openai/gpt-4o": {
"description": "ChatGPT-4o 是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。"
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini是OpenAI在GPT-4 Omni之後推出的最新模型支持圖文輸入並輸出文本。作為他們最先進的小型模型它比其他近期的前沿模型便宜很多並且比GPT-3.5 Turbo便宜超過60%。它保持了最先進的智能同時具有顯著的性價比。GPT-4o mini在MMLU測試中獲得了82%的得分目前在聊天偏好上排名高於GPT-4。"
},
"openai/o1-mini": {
"description": "o1-mini是一款針對程式設計、數學和科學應用場景而設計的快速、經濟高效的推理模型。該模型具有128K上下文和2023年10月的知識截止日期。"
},
"openai/o1-preview": {
"description": "o1是OpenAI新的推理模型適用於需要廣泛通用知識的複雜任務。該模型具有128K上下文和2023年10月的知識截止日期。"
},
"openchat/openchat-7b": {
"description": "OpenChat 7B 是經過“C-RLFT條件強化學習微調”策略精調的開源語言模型庫。"
},
"openrouter/auto": {
"description": "根據上下文長度、主題和複雜性,你的請求將發送到 Llama 3 70B Instruct、Claude 3.5 Sonnet自我調節或 GPT-4o。"
},
"phi3": {
"description": "Phi-3 是微軟推出的輕量級開放模型,適用於高效集成和大規模知識推理。"
},
"phi3:14b": {
"description": "Phi-3 是微軟推出的輕量級開放模型,適用於高效集成和大規模知識推理。"
},
"pixtral-12b-2409": {
"description": "Pixtral模型在圖表和圖理解、文檔問答、多模態推理和指令遵循等任務上表現出強大的能力能夠以自然分辨率和寬高比攝入圖像還能夠在長達128K令牌的長上下文窗口中處理任意數量的圖像。"
},
"pixtral-large-latest": {
"description": "Pixtral Large 是一款擁有 1240 億參數的開源多模態模型,基於 Mistral Large 2 構建。這是我們多模態家族中的第二款模型,展現了前沿水平的圖像理解能力。"
},
"pro-128k": {
"description": "Spark Pro 128K 配置了特大上下文處理能力能夠處理多達128K的上下文信息特別適合需通篇分析和長期邏輯關聯處理的長文內容可在複雜文本溝通中提供流暢一致的邏輯與多樣的引用支持。"
},
"qvq-72b-preview": {
"description": "QVQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於提升視覺推理能力,尤其在數學推理領域。"
},
"qwen-coder-plus-latest": {
"description": "通義千問代碼模型。"
},
"qwen-coder-turbo-latest": {
"description": "通義千問代碼模型。"
},
"qwen-long": {
"description": "通義千問超大規模語言模型,支持長文本上下文,以及基於長文檔、多文檔等多個場景的對話功能。"
},
"qwen-math-plus-latest": {
"description": "通義千問數學模型是專門用於數學解題的語言模型。"
},
"qwen-math-turbo-latest": {
"description": "通義千問數學模型是專門用於數學解題的語言模型。"
},
"qwen-max": {
"description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問 2.5 產品版本背後的 API 模型。"
},
"qwen-max-latest": {
"description": "通義千問千億級別超大規模語言模型支持中文、英文等不同語言輸入當前通義千問2.5產品版本背後的API模型。"
},
"qwen-omni-turbo-latest": {
"description": "Qwen-Omni 系列模型支持輸入多種模態的數據,包括視頻、音頻、圖片、文本,並輸出音頻與文本。"
},
"qwen-plus": {
"description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入。"
},
"qwen-plus-latest": {
"description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入。"
},
"qwen-turbo": {
"description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入。"
},
"qwen-turbo-latest": {
"description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入。"
},
"qwen-vl-chat-v1": {
"description": "通義千問VL支持靈活的交互方式包括多圖、多輪問答、創作等能力的模型。"
},
"qwen-vl-max-latest": {
"description": "通義千問超大規模視覺語言模型。相比增強版,再次提升視覺推理能力和指令遵循能力,提供更高的視覺感知和認知水平。"
},
"qwen-vl-ocr-latest": {
"description": "通義千問OCR是文字提取專有模型專注於文檔、表格、試題、手寫體文字等類型圖像的文字提取能力。它能夠識別多種文字目前支持的語言有漢語、英語、法語、日語、韓語、德語、俄語、意大利語、越南語、阿拉伯語。"
},
"qwen-vl-plus-latest": {
"description": "通義千問大規模視覺語言模型增強版。大幅提升細節識別能力和文字識別能力,支持超百萬像素解析度和任意長寬比規格的圖像。"
},
"qwen-vl-v1": {
"description": "以Qwen-7B語言模型初始化添加圖像模型圖像輸入分辨率為448的預訓練模型。"
},
"qwen/qwen-2-7b-instruct": {
"description": "Qwen2是全新的Qwen大型語言模型系列。Qwen2 7B是一個基於transformer的模型在語言理解、多語言能力、編程、數學和推理方面表現出色。"
},
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 是全新的大型語言模型系列,具有更強的理解和生成能力。"
},
"qwen/qwen-2-vl-72b-instruct": {
"description": "Qwen2-VL是Qwen-VL模型的最新迭代版本在視覺理解基準測試中達到了最先進的性能包括MathVista、DocVQA、RealWorldQA和MTVQA等。Qwen2-VL能夠理解超過20分鐘的視頻用於高質量的基於視頻的問答、對話和內容創作。它還具備複雜推理和決策能力可以與移動設備、機器人等集成基於視覺環境和文本指令進行自動操作。除了英語和中文Qwen2-VL現在還支持理解圖像中不同語言的文本包括大多數歐洲語言、日語、韓語、阿拉伯語和越南語等。"
},
"qwen/qwen-2.5-72b-instruct": {
"description": "Qwen2.5-72B-Instruct是阿里雲發布的最新大語言模型系列之一。該72B模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持覆蓋超過29種語言包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出尤其是JSON方面都有顯著提升。"
},
"qwen/qwen2.5-32b-instruct": {
"description": "Qwen2.5-32B-Instruct是阿里雲發布的最新大語言模型系列之一。該32B模型在編碼和數學等領域具有顯著改進的能力。該模型提供了多語言支持覆蓋超過29種語言包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出尤其是JSON方面都有顯著提升。"
},
"qwen/qwen2.5-7b-instruct": {
"description": "面向中文和英文的 LLM針對語言、編程、數學、推理等領域。"
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "高級 LLM支持代碼生成、推理和修復涵蓋主流編程語言。"
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "強大的中型代碼模型,支持 32K 上下文長度,擅長多語言編程。"
},
"qwen2": {
"description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
"qwen2.5": {
"description": "Qwen2.5 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
"qwen2.5-14b-instruct": {
"description": "通義千問2.5對外開源的14B規模的模型。"
},
"qwen2.5-14b-instruct-1m": {
"description": "通義千問2.5對外開源的72B規模的模型。"
},
"qwen2.5-32b-instruct": {
"description": "通義千問2.5對外開源的32B規模的模型。"
},
"qwen2.5-72b-instruct": {
"description": "通義千問2.5對外開源的72B規模的模型。"
},
"qwen2.5-7b-instruct": {
"description": "通義千問2.5對外開源的7B規模的模型。"
},
"qwen2.5-coder-1.5b-instruct": {
"description": "通義千問代碼模型開源版。"
},
"qwen2.5-coder-32b-instruct": {
"description": "通義千問代碼模型開源版。"
},
"qwen2.5-coder-7b-instruct": {
"description": "通義千問代碼模型開源版。"
},
"qwen2.5-math-1.5b-instruct": {
"description": "Qwen-Math 模型具有強大的數學解題能力。"
},
"qwen2.5-math-72b-instruct": {
"description": "Qwen-Math模型具有強大的數學解題能力。"
},
"qwen2.5-math-7b-instruct": {
"description": "Qwen-Math模型具有強大的數學解題能力。"
},
"qwen2.5-vl-72b-instruct": {
"description": "指令跟隨、數學、解題、代碼整體提升萬物識別能力提升支持多樣格式直接精準定位視覺元素支持對長視頻文件最長10分鐘進行理解和秒級別的事件時刻定位能理解時間先後和快慢基於解析和定位能力支持操控OS或Mobile的Agent關鍵信息抽取能力和Json格式輸出能力強此版本為72B版本本系列能力最強的版本。"
},
"qwen2.5-vl-7b-instruct": {
"description": "指令跟隨、數學、解題、代碼整體提升萬物識別能力提升支持多樣格式直接精準定位視覺元素支持對長視頻文件最長10分鐘進行理解和秒級別的事件時刻定位能理解時間先後和快慢基於解析和定位能力支持操控OS或Mobile的Agent關鍵信息抽取能力和Json格式輸出能力強此版本為72B版本本系列能力最強的版本。"
},
"qwen2.5:0.5b": {
"description": "Qwen2.5 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
"qwen2.5:1.5b": {
"description": "Qwen2.5 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
"qwen2.5:72b": {
"description": "Qwen2.5 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
"qwen2:0.5b": {
"description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
"qwen2:1.5b": {
"description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
"qwen2:72b": {
"description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
"qwq": {
"description": "QwQ 是一個實驗研究模型,專注於提高 AI 推理能力。"
},
"qwq-32b": {
"description": "基於 Qwen2.5-32B 模型訓練的 QwQ 推理模型通過強化學習大幅度提升了模型推理能力。模型數學代碼等核心指標AIME 24/25、LiveCodeBench以及部分通用指標IFEval、LiveBench等達到 DeepSeek-R1 滿血版水平,各指標均顯著超過同樣基於 Qwen2.5-32B 的 DeepSeek-R1-Distill-Qwen-32B。"
},
"qwq-32b-preview": {
"description": "QwQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於增強 AI 推理能力。"
},
"qwq-plus-latest": {
"description": "基於 Qwen2.5 模型訓練的 QwQ 推理模型通過強化學習大幅度提升了模型推理能力。模型數學代碼等核心指標AIME 24/25、LiveCodeBench以及部分通用指標IFEval、LiveBench等達到 DeepSeek-R1 滿血版水平。"
},
"r1-1776": {
"description": "R1-1776 是 DeepSeek R1 模型的一個版本,經過後訓練,可提供未經審查、無偏見的事實資訊。"
},
"solar-mini": {
"description": "Solar Mini 是一種緊湊型 LLM性能優於 GPT-3.5,具備強大的多語言能力,支持英語和韓語,提供高效小巧的解決方案。"
},
"solar-mini-ja": {
"description": "Solar Mini (Ja) 擴展了 Solar Mini 的能力,專注於日語,同時在英語和韓語的使用中保持高效和卓越性能。"
},
"solar-pro": {
"description": "Solar Pro 是 Upstage 推出的一款高智能LLM專注於單GPU的指令跟隨能力IFEval得分80以上。目前支持英語正式版本計劃於2024年11月推出將擴展語言支持和上下文長度。"
},
"sonar": {
"description": "基於搜索上下文的輕量級搜索產品,比 Sonar Pro 更快、更便宜。"
},
"sonar-deep-research": {
"description": "Deep Research 進行全面的專家級研究,並將其綜合成可訪問、可行的報告。"
},
"sonar-pro": {
"description": "支持搜索上下文的高級搜索產品,支持高級查詢和跟進。"
},
"sonar-reasoning": {
"description": "由 DeepSeek 推理模型提供支持的新 API 產品。"
},
"sonar-reasoning-pro": {
"description": "由 DeepSeek 推理模型提供支援的新 API 產品。"
},
"step-1-128k": {
"description": "平衡性能與成本,適合一般場景。"
},
"step-1-256k": {
"description": "具備超長上下文處理能力,尤其適合長文檔分析。"
},
"step-1-32k": {
"description": "支持中等長度的對話,適用於多種應用場景。"
},
"step-1-8k": {
"description": "小型模型,適合輕量級任務。"
},
"step-1-flash": {
"description": "高速模型,適合實時對話。"
},
"step-1.5v-mini": {
"description": "該模型擁有強大的視頻理解能力。"
},
"step-1o-turbo-vision": {
"description": "該模型擁有強大的圖像理解能力在數理、代碼領域強於1o。模型比1o更小輸出速度更快。"
},
"step-1o-vision-32k": {
"description": "該模型擁有強大的圖像理解能力。相比於 step-1v 系列模型,擁有更強的視覺性能。"
},
"step-1v-32k": {
"description": "支持視覺輸入,增強多模態交互體驗。"
},
"step-1v-8k": {
"description": "小型視覺模型,適合基本的圖文任務。"
},
"step-2-16k": {
"description": "支持大規模上下文交互,適合複雜對話場景。"
},
"step-2-mini": {
"description": "基於新一代自研Attention架構MFA的極速大模型用極低成本達到和step1類似的效果同時保持了更高的吞吐和更快響應時延。能夠處理通用任務在程式碼能力上具備特長。"
},
"taichu_llm": {
"description": "紫東太初語言大模型具備超強語言理解能力以及文本創作、知識問答、代碼編程、數學計算、邏輯推理、情感分析、文本摘要等能力。創新性地將大數據預訓練與多源豐富知識相結合,通過持續打磨算法技術,並不斷吸收海量文本數據中詞彙、結構、語法、語義等方面的新知識,實現模型效果不斷進化。為用戶提供更加便捷的信息和服務以及更為智能化的體驗。"
},
"taichu_vl": {
"description": "融合了圖像理解、知識遷移、邏輯歸因等能力,在圖文問答領域表現突出。"
},
"text-embedding-3-large": {
"description": "最強大的向量化模型,適用於英文和非英文任務"
},
"text-embedding-3-small": {
"description": "高效且經濟的新一代 Embedding 模型適用於知識檢索、RAG 應用等場景"
},
"thudm/glm-4-9b-chat": {
"description": "智譜AI發布的GLM-4系列最新一代預訓練模型的開源版本。"
},
"togethercomputer/StripedHyena-Nous-7B": {
"description": "StripedHyena Nous (7B) 通過高效的策略和模型架構,提供增強的計算能力。"
},
"tts-1": {
"description": "最新的文本轉語音模型,針對即時場景優化速度"
},
"tts-1-hd": {
"description": "最新的文本轉語音模型,針對品質進行優化"
},
"upstage/SOLAR-10.7B-Instruct-v1.0": {
"description": "Upstage SOLAR Instruct v1 (11B) 適用於精細化指令任務,提供出色的語言處理能力。"
},
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet 提升了行業標準,性能超越競爭對手模型和 Claude 3 Opus在廣泛的評估中表現出色同時具備我們中等層級模型的速度和成本。"
},
"us.anthropic.claude-3-7-sonnet-20250219-v1:0": {
"description": "Claude 3.7 sonnet 是 Anthropic 最快速的下一代模型。與 Claude 3 Haiku 相比Claude 3.7 Sonnet 在各項技能上都有所提升,並在許多智力基準測試中超越了上一代最大的模型 Claude 3 Opus。"
},
"whisper-1": {
"description": "通用語音識別模型,支持多語言語音識別、語音翻譯和語言識別"
},
"wizardlm2": {
"description": "WizardLM 2 是微軟 AI 提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。"
},
"wizardlm2:8x22b": {
"description": "WizardLM 2 是微軟 AI 提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。"
},
"yi-large": {
"description": "全新千億參數模型,提供超強問答及文本生成能力。"
},
"yi-large-fc": {
"description": "在 yi-large 模型的基礎上支持並強化了工具調用的能力,適用於各種需要搭建 agent 或 workflow 的業務場景。"
},
"yi-large-preview": {
"description": "初期版本,推薦使用 yi-large新版本"
},
"yi-large-rag": {
"description": "基於 yi-large 超強模型的高階服務,結合檢索與生成技術提供精準答案,實時全網檢索信息服務。"
},
"yi-large-turbo": {
"description": "超高性價比、卓越性能。根據性能和推理速度、成本,進行平衡性高精度調優。"
},
"yi-lightning": {
"description": "最新高性能模型,保證高品質輸出同時,推理速度大幅提升。"
},
"yi-lightning-lite": {
"description": "輕量化版本,推薦使用 yi-lightning。"
},
"yi-medium": {
"description": "中型尺寸模型升級微調,能力均衡,性價比高。深度優化指令遵循能力。"
},
"yi-medium-200k": {
"description": "200K 超長上下文窗口,提供長文本深度理解和生成能力。"
},
"yi-spark": {
"description": "小而精悍,輕量极速模型。提供強化數學運算和代碼編寫能力。"
},
"yi-vision": {
"description": "複雜視覺任務模型,提供高性能圖片理解、分析能力。"
},
"yi-vision-v2": {
"description": "複雜視覺任務模型,提供基於多張圖片的高性能理解、分析能力。"
}
}