You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

1797 lines
251 KiB
JSON

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

{
"01-ai/Yi-1.5-34B-Chat-16K": {
"description": "Yi-1.5 34B предлага отлични резултати в индустриалните приложения с богат набор от обучителни примери."
},
"01-ai/Yi-1.5-6B-Chat": {
"description": "Yi-1.5-6B-Chat е вариант на Yi-1.5, който принадлежи към отворените модели за разговори. Yi-1.5 е подобрена версия на Yi, която е била предварително обучена на 500B висококачествени корпуси и е била фино настроена на 3M разнообразни примери. В сравнение с Yi, Yi-1.5 показва по-силни способности в кодирането, математиката, разсъжденията и следването на инструкции, като същевременно запазва отлични способности за разбиране на езика, разсъждения на общи познания и разбиране на текст. Моделът предлага версии с контекстна дължина от 4K, 16K и 32K, с общо количество предварително обучение от 3.6T токена."
},
"01-ai/Yi-1.5-9B-Chat-16K": {
"description": "Yi-1.5 9B поддържа 16K токена, предоставяйки ефективни и плавни способности за генериране на език."
},
"01-ai/yi-1.5-34b-chat": {
"description": "零一万物, най-новият отворен модел с фина настройка, с 34 милиарда параметри, който поддържа множество диалогови сценарии, с висококачествени обучителни данни, съобразени с човешките предпочитания."
},
"01-ai/yi-1.5-9b-chat": {
"description": "零一万物, най-новият отворен модел с фина настройка, с 9 милиарда параметри, който поддържа множество диалогови сценарии, с висококачествени обучителни данни, съобразени с човешките предпочитания."
},
"360gpt-pro": {
"description": "360GPT Pro, като важен член на серията AI модели на 360, отговаря на разнообразни приложения на естествения език с ефективни способности за обработка на текст, поддържайки разбиране на дълги текстове и многостепенни диалози."
},
"360gpt-turbo": {
"description": "360GPT Turbo предлага мощни изчислителни и диалогови способности, с отлична семантична разбираемост и ефективност на генериране, идеално решение за интелигентни асистенти за предприятия и разработчици."
},
"360gpt-turbo-responsibility-8k": {
"description": "360GPT Turbo Responsibility 8K акцентира на семантичната безопасност и отговорността, проектиран специално за приложения с високи изисквания за безопасност на съдържанието, осигурявайки точност и стабилност на потребителското изживяване."
},
"360gpt2-o1": {
"description": "360gpt2-o1 използва дървесно търсене за изграждане на вериги от мисли и въвежда механизъм за размисъл, обучен чрез подсилено учене, моделът притежава способността за саморазмисъл и корекция на грешки."
},
"360gpt2-pro": {
"description": "360GPT2 Pro е усъвършенстван модел за обработка на естествен език, пуснат от компания 360, с изключителни способности за генериране и разбиране на текст, особено в областта на генерирането и творчеството, способен да обработва сложни езикови трансформации и ролеви игри."
},
"360zhinao2-o1": {
"description": "360zhinao2-o1 използва дървесно търсене за изграждане на мисловни вериги и въвежда механизъм за саморазмисъл, обучавайки се чрез подсилено учене, моделът притежава способността за саморазмисъл и корекция на грешки."
},
"4.0Ultra": {
"description": "Spark4.0 Ultra е най-мощната версия в серията Starfire, която подобрява разбирането и обобщаването на текстовото съдържание, докато надгражда свързаните търсения. Това е всестранно решение за повишаване на производителността в офиса и точно отговаряне на нуждите, водещо в индустрията интелигентно решение."
},
"Baichuan2-Turbo": {
"description": "Използва технологии за подобряване на търсенето, за да свърже голям модел с областни знания и знания от интернет. Поддържа качване на различни документи като PDF, Word и вход на уебсайтове, с бърз и цялостен достъп до информация, предоставяйки точни и професионални резултати."
},
"Baichuan3-Turbo": {
"description": "Оптимизиран за често срещани корпоративни сценарии, с значително подобрени резултати и висока цена-качество. В сравнение с модела Baichuan2, генерирането на съдържание е увеличено с 20%, отговорите на знания с 17%, а способността за ролеви игри с 40%. Общите резултати са по-добри от тези на GPT3.5."
},
"Baichuan3-Turbo-128k": {
"description": "С 128K свръхдълъг контекстен прозорец, оптимизиран за често срещани корпоративни сценарии, с значително подобрени резултати и висока цена-качество. В сравнение с модела Baichuan2, генерирането на съдържание е увеличено с 20%, отговорите на знания с 17%, а способността за ролеви игри с 40%. Общите резултати са по-добри от тези на GPT3.5."
},
"Baichuan4": {
"description": "Моделът е с най-добри способности в страната, надминаващ чуждестранните водещи модели в задачи като енциклопедични знания, дълги текстове и генериране на съдържание. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни тестови стандарти."
},
"Baichuan4-Air": {
"description": "Моделът е лидер в страната по способности, надминавайки чуждестранните основни модели в задачи на китайски език, като знания, дълги текстове и генериране на творби. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни оценки."
},
"Baichuan4-Turbo": {
"description": "Моделът е лидер в страната по способности, надминавайки чуждестранните основни модели в задачи на китайски език, като знания, дълги текстове и генериране на творби. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни оценки."
},
"DeepSeek-R1": {
"description": "Най-напредналият ефективен LLM, специализиран в разсъждения, математика и програмиране."
},
"DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek R1 - по-голям и по-умен модел в комплекта DeepSeek - е дестилиран в архитектурата Llama 70B. На базата на бенчмаркове и човешка оценка, този модел е по-умен от оригиналния Llama 70B, особено в задачи, изискващи математическа и фактическа точност."
},
"DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "DeepSeek-R1 дестилиран модел, базиран на Qwen2.5-Math-1.5B, оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт."
},
"DeepSeek-R1-Distill-Qwen-14B": {
"description": "DeepSeek-R1 дестилиран модел, базиран на Qwen2.5-14B, оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт."
},
"DeepSeek-R1-Distill-Qwen-32B": {
"description": "Серията DeepSeek-R1 оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт, надминавайки нивото на OpenAI-o1-mini."
},
"DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1 дестилиран модел, базиран на Qwen2.5-Math-7B, оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт."
},
"Doubao-1.5-vision-pro-32k": {
"description": "Doubao-1.5-vision-pro е ново обновен мултимодален голям модел, който поддържа разпознаване на изображения с произволна резолюция и екстремни съотношения на страните, подобрявайки способностите за визуално разсъждение, разпознаване на документи, разбиране на детайлна информация и следване на инструкции."
},
"Doubao-lite-128k": {
"description": "Doubao-lite предлага изключителна скорост на отговор и по-добра цена, предоставяйки на клиентите гъвкави опции за различни сценарии. Поддържа извеждане и фин настройка на контекстов прозорец от 128k."
},
"Doubao-lite-32k": {
"description": "Doubao-lite предлага изключителна скорост на отговор и по-добра цена, предоставяйки на клиентите гъвкави опции за различни сценарии. Поддържа извеждане и фин настройка на контекстов прозорец от 32k."
},
"Doubao-lite-4k": {
"description": "Doubao-lite предлага изключителна скорост на отговор и по-добра цена, предоставяйки на клиентите гъвкави опции за различни сценарии. Поддържа извеждане и фин настройка на контекстов прозорец от 4k."
},
"Doubao-pro-128k": {
"description": "Най-добрият модел за основни задачи, подходящ за работа с комплексни задачи, с много добри резултати в справочния отговор, обобщение, творчество, текстова класификация и ролеви игри. Поддържа извеждане и фин настройка на контекстов прозорец от 128k."
},
"Doubao-pro-256k": {
"description": "Най-добрият основен модел, подходящ за обработка на сложни задачи, с отлични резултати в сценарии като отговори на въпроси, резюмиране, творчество, текстова класификация и ролеви игри. Поддържа разсъждения и фина настройка с контекстен прозорец от 256k."
},
"Doubao-pro-32k": {
"description": "Най-добрият модел за основни задачи, подходящ за работа с комплексни задачи, с много добри резултати в справочния отговор, обобщение, творчество, текстова класификация и ролеви игри. Поддържа извеждане и фин настройка на контекстов прозорец от 32k."
},
"Doubao-pro-4k": {
"description": "Най-добрият модел за основни задачи, подходящ за работа с комплексни задачи, с много добри резултати в справочния отговор, обобщение, творчество, текстова класификация и ролеви игри. Поддържа извеждане и фин настройка на контекстов прозорец от 4k."
},
"Doubao-vision-lite-32k": {
"description": "Doubao-vision моделът е мултимодален голям модел, представен от Doubao, който притежава мощни способности за разбиране и разсъждение на изображения, както и прецизно разбиране на инструкции. Моделът показва силни резултати в извличането на текстова информация от изображения и в задачи за разсъждение, базирани на изображения, и може да се прилага в по-сложни и по-широки визуални въпроси."
},
"Doubao-vision-pro-32k": {
"description": "Doubao-vision моделът е мултимодален голям модел, представен от Doubao, който притежава мощни способности за разбиране и разсъждение на изображения, както и прецизно разбиране на инструкции. Моделът показва силни резултати в извличането на текстова информация от изображения и в задачи за разсъждение, базирани на изображения, и може да се прилага в по-сложни и по-широки визуални въпроси."
},
"ERNIE-3.5-128K": {
"description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите."
},
"ERNIE-3.5-8K": {
"description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите."
},
"ERNIE-3.5-8K-Preview": {
"description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите."
},
"ERNIE-4.0-8K-Latest": {
"description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, е напълно обновен в сравнение с ERNIE 3.5 и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори."
},
"ERNIE-4.0-8K-Preview": {
"description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, е напълно обновен в сравнение с ERNIE 3.5 и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори."
},
"ERNIE-4.0-Turbo-8K-Latest": {
"description": "Патентованият флагмански модул на Baidu, изключително мащабен езиков модел, показващ отлични резултати и широко приложение в сложни сценарии. Поддържа автоматично свързване с плъгини на Baidu Search, гарантирайки актуалността на информацията. В сравнение с ERNIE 4.0, той представя по-добри резултати."
},
"ERNIE-4.0-Turbo-8K-Preview": {
"description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, показва отлични резултати и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори. В сравнение с ERNIE 4.0, представянето му е по-добро."
},
"ERNIE-Character-8K": {
"description": "Специализиран модел на Baidu за големи езикови модели, разработен самостоятелно, подходящ за приложения като NPC в игри, клиентски разговори и ролеви игри, с по-изразителен и последователен стил на персонажите, по-силна способност за следване на инструкции и по-добра производителност при извеждане."
},
"ERNIE-Lite-Pro-128K": {
"description": "Лек модел на Baidu за големи езикови модели, разработен самостоятелно, който съчетава отлични резултати с производителност при извеждане, с по-добри резултати в сравнение с ERNIE Lite, подходящ за използване с AI ускорителни карти с ниска изчислителна мощ."
},
"ERNIE-Speed-128K": {
"description": "Най-новият модел на Baidu за големи езикови модели с висока производителност, разработен самостоятелно, с отлични общи способности, подходящ за основен модел за фина настройка, за по-добро справяне с конкретни проблеми, като същевременно предлага отлична производителност при извеждане."
},
"ERNIE-Speed-Pro-128K": {
"description": "Най-новият модел на Baidu за големи езикови модели с висока производителност, разработен самостоятелно, с отлични общи способности, по-добри резултати в сравнение с ERNIE Speed, подходящ за основен модел за фина настройка, за по-добро справяне с конкретни проблеми, като същевременно предлага отлична производителност при извеждане."
},
"Gryphe/MythoMax-L2-13b": {
"description": "MythoMax-L2 (13B) е иновативен модел, подходящ за приложения в множество области и сложни задачи."
},
"InternVL2-8B": {
"description": "InternVL2-8B е мощен визуален езиков модел, който поддържа многомодално обработване на изображения и текст, способен да разпознава точно съдържанието на изображения и да генерира свързани описания или отговори."
},
"InternVL2.5-26B": {
"description": "InternVL2.5-26B е мощен визуален езиков модел, който поддържа многомодално обработване на изображения и текст, способен да разпознава точно съдържанието на изображения и да генерира свързани описания или отговори."
},
"Llama-3.2-11B-Vision-Instruct": {
"description": "Изключителни способности за визуално разсъждение върху изображения с висока резолюция, подходящи за приложения за визуално разбиране."
},
"Llama-3.2-90B-Vision-Instruct\t": {
"description": "Напреднали способности за визуално разсъждение, подходящи за приложения на агенти за визуално разбиране."
},
"LoRA/Qwen/Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct е един от най-новите големи езикови модели, публикувани от Alibaba Cloud. Този 72B модел показва значителни подобрения в областите на кодирането и математиката. Моделът предлага многоезична поддръжка, обхващаща над 29 езика, включително китайски, английски и др. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
},
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct е един от най-новите големи езикови модели, публикувани от Alibaba Cloud. Този 7B модел показва значителни подобрения в областите на кодирането и математиката. Моделът предлага многоезична поддръжка, обхващаща над 29 езика, включително китайски, английски и др. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
},
"Meta-Llama-3.1-405B-Instruct": {
"description": "Текстов модел с оптимизация за инструкции на Llama 3.1, проектиран за многоезични диалогови случаи, който показва отлични резултати на много налични отворени и затворени чат модели на общи индустриални бенчмаркове."
},
"Meta-Llama-3.1-70B-Instruct": {
"description": "Текстов модел с оптимизация за инструкции на Llama 3.1, проектиран за многоезични диалогови случаи, който показва отлични резултати на много налични отворени и затворени чат модели на общи индустриални бенчмаркове."
},
"Meta-Llama-3.1-8B-Instruct": {
"description": "Текстов модел с оптимизация за инструкции на Llama 3.1, проектиран за многоезични диалогови случаи, който показва отлични резултати на много налични отворени и затворени чат модели на общи индустриални бенчмаркове."
},
"Meta-Llama-3.2-1B-Instruct": {
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"Meta-Llama-3.2-3B-Instruct": {
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"Meta-Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 е най-напредналият многоезичен отворен голям езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия с оптимизация за инструкции е специално проектирана за многоезични диалози и показва по-добри резултати от много от наличните отворени и затворени чат модели на множество индустриални бенчмаркове. Краен срок за знанията е декември 2023 г."
},
"MiniMax-Text-01": {
"description": "В серията модели MiniMax-01 направихме смели иновации: за първи път реализирахме мащабно линейно внимание, традиционната архитектура на Transformer вече не е единственият избор. Параметрите на този модел достигат 4560 милиарда, с единична активация от 45.9 милиарда. Общата производителност на модела е на нивото на водещите модели в чужбина, като същевременно ефективно обработва глобалния контекст от 4 милиона токена, което е 32 пъти повече от GPT-4o и 20 пъти повече от Claude-3.5-Sonnet."
},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) е модел с висока точност за инструкции, подходящ за сложни изчисления."
},
"OpenGVLab/InternVL2-26B": {
"description": "InternVL2 демонстрира изключителни резултати в различни визуално-языкови задачи, включително разбиране на документи и графики, разбиране на текст в сцени, OCR, решаване на научни и математически проблеми."
},
"Phi-3-medium-128k-instruct": {
"description": "Същият модел Phi-3-medium, но с по-голям размер на контекста за RAG или малко подканване."
},
"Phi-3-medium-4k-instruct": {
"description": "Модел с 14B параметри, предлагащ по-добро качество от Phi-3-mini, с акцент върху висококачествени, плътни на разсъждения данни."
},
"Phi-3-mini-128k-instruct": {
"description": "Същият модел Phi-3-mini, но с по-голям размер на контекста за RAG или малко подканване."
},
"Phi-3-mini-4k-instruct": {
"description": "Най-малкият член на семейството Phi-3. Оптимизиран както за качество, така и за ниска латентност."
},
"Phi-3-small-128k-instruct": {
"description": "Същият модел Phi-3-small, но с по-голям размер на контекста за RAG или малко подканване."
},
"Phi-3-small-8k-instruct": {
"description": "Модел с 7B параметри, предлагащ по-добро качество от Phi-3-mini, с акцент върху висококачествени, плътни на разсъждения данни."
},
"Phi-3.5-mini-instruct": {
"description": "Актуализирана версия на модела Phi-3-mini."
},
"Phi-3.5-vision-instrust": {
"description": "Актуализирана версия на модела Phi-3-vision."
},
"Pro/OpenGVLab/InternVL2-8B": {
"description": "InternVL2 демонстрира изключителни резултати в различни визуално-языкови задачи, включително разбиране на документи и графики, разбиране на текст в сцени, OCR, решаване на научни и математически проблеми."
},
"Pro/Qwen/Qwen2-1.5B-Instruct": {
"description": "Qwen2-1.5B-Instruct е голям езиков модел с параметри 1.5B от серията Qwen2, специално настроен за инструкции. Моделът е базиран на архитектурата Transformer и използва технологии като SwiGLU активационна функция, QKV отклонение за внимание и групова внимание. Той показва отлични резултати в множество бенчмаркове за разбиране на езика, генериране, многоезични способности, кодиране, математика и разсъждения, надминавайки повечето отворени модели. В сравнение с Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct показва значителни подобрения в тестовете MMLU, HumanEval, GSM8K, C-Eval и IFEval, въпреки че параметрите са малко по-малко."
},
"Pro/Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-7B-Instruct е голям езиков модел с параметри 7B от серията Qwen2, специално настроен за инструкции. Моделът е базиран на архитектурата Transformer и използва технологии като SwiGLU активационна функция, QKV отклонение за внимание и групова внимание. Той може да обработва големи входни данни. Моделът показва отлични резултати в множество бенчмаркове за разбиране на езика, генериране, многоезични способности, кодиране, математика и разсъждения, надминавайки повечето отворени модели и показвайки конкурентоспособност на определени задачи в сравнение с патентовани модели. Qwen2-7B-Instruct показва значителни подобрения в множество оценки в сравнение с Qwen1.5-7B-Chat."
},
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
"description": "Qwen2-VL е най-новата итерация на модела Qwen-VL, който е постигнал водещи резултати в тестовете за визуално разбиране."
},
"Pro/Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct е един от най-новите големи езикови модели, публикувани от Alibaba Cloud. Този 7B модел показва значителни подобрения в областите на кодирането и математиката. Моделът предлага многоезична поддръжка, обхващаща над 29 езика, включително китайски, английски и др. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
},
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct е най-новата версия на серията големи езикови модели, специфични за код, публикувана от Alibaba Cloud. Моделът значително подобрява способностите за генериране на код, разсъждения и корекции, след като е обучен с 55 трилиона токена на базата на Qwen2.5. Той не само подобрява кодовите умения, но и запазва предимствата в математиката и общите способности. Моделът предоставя по-пълна основа за практическите приложения като кодови интелигентни агенти."
},
"Pro/THUDM/glm-4-9b-chat": {
"description": "GLM-4-9B-Chat е отворената версия на предварително обучен модел от серията GLM-4, пусната от Zhizhu AI. Моделът показва отлични резултати в семантика, математика, разсъждения, код и знания. Освен че поддържа многократни разговори, GLM-4-9B-Chat предлага и напреднали функции като уеб браузинг, изпълнение на код, извикване на персонализирани инструменти (Function Call) и разсъждения с дълги текстове. Моделът поддържа 26 езика, включително китайски, английски, японски, корейски и немски. В множество бенчмаркове, GLM-4-9B-Chat показва отлична производителност, като AlignBench-v2, MT-Bench, MMLU и C-Eval. Моделът поддържа максимална контекстна дължина от 128K, подходящ за академични изследвания и търговски приложения."
},
"Pro/deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 е модел за инференция, управляван от обучение с подсилване (RL), който решава проблемите с повторяемостта и четимостта в моделите. Преди RL, DeepSeek-R1 въвежда данни за студен старт, за да оптимизира допълнително производителността на инференцията. Той показва сравними резултати с OpenAI-o1 в математически, кодови и инференционни задачи и подобрява общата ефективност чрез внимателно проектирани методи на обучение."
},
"Pro/deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 е модел на езика с 6710 милиарда параметри, който използва архитектура на смесени експерти (MoE) с много глави на потенциално внимание (MLA) и стратегия за баланс на натоварването без помощни загуби, оптимизираща производителността на инференцията и обучението. Чрез предварително обучение на 14.8 трилиона висококачествени токени и последващо супервизирано фино настройване и обучение с подсилване, DeepSeek-V3 надминава производителността на други отворени модели и е близо до водещите затворени модели."
},
"Pro/google/gemma-2-9b-it": {
"description": "Gemma е един от най-новите леки, авангардни отворени модели, разработени от Google. Това е голям езиков модел с един декодер, който поддържа английски и предлага отворени тегла, предварително обучени варианти и варианти с фино настройване на инструкции. Моделът Gemma е подходящ за различни задачи по генериране на текст, включително въпроси и отговори, резюмиране и разсъждения. Този 9B модел е обучен с 8 трилиона токена. Неговият относително малък размер позволява внедряване в среди с ограничени ресурси, като лаптопи, настолни компютри или собствена облачна инфраструктура, което позволява на повече хора да имат достъп до авангардни AI модели и да насърчават иновации."
},
"Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
"description": "Meta Llama 3.1 е семейство от многоезични големи езикови модели, разработени от Meta, включващо предварително обучени и модели с фино настройване с параметри 8B, 70B и 405B. Този 8B модел с фино настройване на инструкции е оптимизиран за многоезични разговорни сценарии и показва отлични резултати в множество индустриални бенчмаркове. Моделът е обучен с над 15 трилиона токена от публични данни и използва технологии като наблюдавано фино настройване и обучение с човешка обратна връзка, за да подобри полезността и безопасността на модела. Llama 3.1 поддържа генериране на текст и генериране на код, с дата на прекратяване на знанията до декември 2023 г."
},
"QwQ-32B-Preview": {
"description": "QwQ-32B-Preview е иновативен модел за обработка на естествен език, способен да обработва ефективно сложни задачи за генериране на диалог и разбиране на контекста."
},
"Qwen/QVQ-72B-Preview": {
"description": "QVQ-72B-Preview е изследователски модел, разработен от екипа на Qwen, който се фокусира върху визуалните способности за извеждане и притежава уникални предимства в разбирането на сложни сцени и решаването на визуално свързани математически проблеми."
},
"Qwen/QwQ-32B": {
"description": "QwQ е моделът за изводи от серията Qwen. В сравнение с традиционните модели за оптимизация на инструкции, QwQ притежава способности за разсъждение и извод, което позволява значително подобряване на производителността в задачи от по-ниско ниво, особено при решаване на трудни проблеми. QwQ-32B е среден модел за изводи, който постига конкурентоспособна производителност в сравнение с най-съвременните модели за изводи (като DeepSeek-R1, o1-mini). Този модел използва технологии като RoPE, SwiGLU, RMSNorm и Attention QKV bias, с 64 слоя в мрежовата структура и 40 Q внимание глави (в архитектурата GQA KV е 8)."
},
"Qwen/QwQ-32B-Preview": {
"description": "QwQ-32B-Preview е най-новият експериментален изследователски модел на Qwen, който се фокусира върху подобряване на AI разсъдъчните способности. Чрез изследване на сложни механизми като езикови смеси и рекурсивно разсъждение, основните предимства включват мощни аналитични способности, математически и програмистки умения. В същото време съществуват проблеми с езиковото превключване, цикли на разсъждение, съображения за безопасност и разлики в други способности."
},
"Qwen/Qwen2-1.5B-Instruct": {
"description": "Qwen2-1.5B-Instruct е голям езиков модел с параметри 1.5B от серията Qwen2, специално настроен за инструкции. Моделът е базиран на архитектурата Transformer и използва технологии като SwiGLU активационна функция, QKV отклонение за внимание и групова внимание. Той показва отлични резултати в множество бенчмаркове за разбиране на езика, генериране, многоезични способности, кодиране, математика и разсъждения, надминавайки повечето отворени модели. В сравнение с Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct показва значителни подобрения в тестовете MMLU, HumanEval, GSM8K, C-Eval и IFEval, въпреки че параметрите са малко по-малко."
},
"Qwen/Qwen2-72B-Instruct": {
"description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции."
},
"Qwen/Qwen2-7B-Instruct": {
"description": "Qwen2-72B-Instruct е голям езиков модел с параметри 72B от серията Qwen2, специално настроен за инструкции. Моделът е базиран на архитектурата Transformer и използва технологии като SwiGLU активационна функция, QKV отклонение за внимание и групова внимание. Той може да обработва големи входни данни. Моделът показва отлични резултати в множество бенчмаркове за разбиране на езика, генериране, многоезични способности, кодиране, математика и разсъждения, надминавайки повечето отворени модели и показвайки конкурентоспособност на определени задачи в сравнение с патентовани модели."
},
"Qwen/Qwen2-VL-72B-Instruct": {
"description": "Qwen2-VL е най-новата итерация на модела Qwen-VL, който е постигнал водещи резултати в тестовете за визуално разбиране."
},
"Qwen/Qwen2.5-14B-Instruct": {
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
},
"Qwen/Qwen2.5-32B-Instruct": {
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
},
"Qwen/Qwen2.5-72B-Instruct": {
"description": "Голям езиков модел, разработен от екипа на Alibaba Cloud Tongyi Qianwen"
},
"Qwen/Qwen2.5-72B-Instruct-128K": {
"description": "Qwen2.5 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране."
},
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкти."
},
"Qwen/Qwen2.5-7B-Instruct": {
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
},
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкти."
},
"Qwen/Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder се фокусира върху писането на код."
},
"Qwen/Qwen2.5-Coder-7B-Instruct": {
"description": "Qwen2.5-Coder-7B-Instruct е най-новата версия на серията големи езикови модели, специфични за код, публикувана от Alibaba Cloud. Моделът значително подобрява способностите за генериране на код, разсъждения и корекции, след като е обучен с 55 трилиона токена на базата на Qwen2.5. Той не само подобрява кодовите умения, но и запазва предимствата в математиката и общите способности. Моделът предоставя по-пълна основа за практическите приложения като кодови интелигентни агенти."
},
"Qwen2-72B-Instruct": {
"description": "Qwen2 е най-новата серия на модела Qwen, поддържаща 128k контекст. В сравнение с текущите най-добри отворени модели, Qwen2-72B значително надминава водещите модели в области като разбиране на естествен език, знания, код, математика и многоезичност."
},
"Qwen2-7B-Instruct": {
"description": "Qwen2 е най-новата серия на модела Qwen, способен да надмине оптималните отворени модели с равен размер или дори по-големи модели. Qwen2 7B постига значителни предимства в множество тестове, особено в разбирането на код и китайския език."
},
"Qwen2-VL-72B": {
"description": "Qwen2-VL-72B е мощен визуален езиков модел, който поддържа многомодално обработване на изображения и текст, способен точно да разпознава съдържанието на изображения и да генерира свързани описания или отговори."
},
"Qwen2.5-14B-Instruct": {
"description": "Qwen2.5-14B-Instruct е голям езиков модел с 14 милиарда параметри, с отлично представяне, оптимизиран за китайски и многоезични сценарии, поддържа интелигентни въпроси и отговори, генериране на съдържание и други приложения."
},
"Qwen2.5-32B-Instruct": {
"description": "Qwen2.5-32B-Instruct е голям езиков модел с 32 милиарда параметри, с балансирано представяне, оптимизиран за китайски и многоезични сценарии, поддържа интелигентни въпроси и отговори, генериране на съдържание и други приложения."
},
"Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct поддържа 16k контекст, генерира дълги текстове над 8K. Поддържа функция за извикване и безпроблемна интеграция с външни системи, значително увеличаваща гъвкавостта и разширяемостта. Моделът има значително увеличени знания и значително подобрени способности в кодиране и математика, с поддръжка на над 29 езика."
},
"Qwen2.5-7B-Instruct": {
"description": "Qwen2.5-7B-Instruct е голям езиков модел с 7 милиарда параметри, който поддържа безпроблемно взаимодействие с функции и външни системи, значително увеличавайки гъвкавостта и разширяемостта. Оптимизиран за китайски и многоезични сценарии, поддържа интелигентни въпроси и отговори, генериране на съдържание и други приложения."
},
"Qwen2.5-Coder-14B-Instruct": {
"description": "Qwen2.5-Coder-14B-Instruct е модел за програмиране, базиран на мащабно предварително обучение, с мощни способности за разбиране и генериране на код, способен ефективно да обработва различни програмни задачи, особено подходящ за интелигентно писане на код, автоматично генериране на скриптове и отговори на програмни въпроси."
},
"Qwen2.5-Coder-32B-Instruct": {
"description": "Qwen2.5-Coder-32B-Instruct е голям езиков модел, проектиран специално за генериране на код, разбиране на код и ефективни сценарии за разработка, с водеща в индустрията параметрична стойност от 32B, способен да отговори на разнообразни програмни нужди."
},
"SenseChat": {
"description": "Основна версия на модела (V4), с контекстна дължина 4K, с мощни общи способности."
},
"SenseChat-128K": {
"description": "Основна версия на модела (V4), с контекстна дължина 128K, показваща отлични резултати в задачи за разбиране и генериране на дълги текстове."
},
"SenseChat-32K": {
"description": "Основна версия на модела (V4), с контекстна дължина 32K, гъвкаво приложима в различни сцени."
},
"SenseChat-5": {
"description": "Най-новата версия на модела (V5.5), с контекстна дължина 128K, значително подобрена способност в области като математическо разсъждение, английски разговори, следване на инструкции и разбиране на дълги текстове, сравнима с GPT-4o."
},
"SenseChat-5-1202": {
"description": "Това е най-новата версия, базирана на V5.5, която показва значителни подобрения в основните способности на китайски и английски, чат, научни знания, хуманитарни знания, писане, математическа логика и контрол на броя на думите в сравнение с предишната версия."
},
"SenseChat-5-Cantonese": {
"description": "С контекстна дължина 32K, надминава GPT-4 в разбирането на разговори на кантонски, сравним с GPT-4 Turbo в множество области като знания, разсъждение, математика и писане на код."
},
"SenseChat-Character": {
"description": "Стандартна версия на модела, с контекстна дължина 8K, с висока скорост на отговор."
},
"SenseChat-Character-Pro": {
"description": "Премиум версия на модела, с контекстна дължина 32K, с напълно подобрени способности, поддържаща разговори на китайски/английски."
},
"SenseChat-Turbo": {
"description": "Подходящ за бързи въпроси и отговори, сцени на фино настройване на модела."
},
"SenseChat-Turbo-1202": {
"description": "Това е най-новият лек модел, който достига над 90% от способностите на пълния модел, значително намалявайки разходите за изчисление."
},
"SenseChat-Vision": {
"description": "Най-новата версия на модела (V5.5) поддържа вход с множество изображения и напълно реализира оптимизация на основните способности на модела, с голямо подобрение в разпознаването на свойства на обекти, пространствени отношения, разпознаване на действия и събития, разбиране на сцени, разпознаване на емоции, логическо разсъждение и генериране на текст."
},
"Skylark2-lite-8k": {
"description": "Cloud Lark (Skylark) второ поколение модел, Skylark2-lite предлага висока скорост на отговор, подходяща за сценарии с високи изисквания за реално време, чувствителни към разходите и с по-ниски изисквания за прецизност, с дължина на контекстовия прозорец 8k."
},
"Skylark2-pro-32k": {
"description": "Cloud Lark (Skylark) второ поколение модел, версията Skylark2-pro предлага висока прецизност на модела, подходяща за по-сложни текстови генерации, като например генериране на текстове за специализирани области, писане на романи и висококачествени преводи, с дължина на контекстовия прозорец 32k."
},
"Skylark2-pro-4k": {
"description": "Cloud Lark (Skylark) второ поколение модел, версията Skylark2-pro предлага висока прецизност на модела, подходяща за по-сложни текстови генерации, като например генериране на текстове за специализирани области, писане на романи и висококачествени преводи, с дължина на контекстовия прозорец 4k."
},
"Skylark2-pro-character-4k": {
"description": "Cloud Lark (Skylark) второ поколение модел, Skylark2-pro-character предоставя отлични способности за ролеви игри и чат, специализирани в адаптиране на стилове на персонажи, които естествено взаимодействат с потребителите, идеален за изграждане на чат-ботове, виртуални асистенти и онлайн обслужване с висока скорост на отговор."
},
"Skylark2-pro-turbo-8k": {
"description": "Cloud Lark (Skylark) второ поколение модел, Skylark2-pro-turbo-8k предлага по-бърза обработка и по-ниски разходи, с дължина на контекстовия прозорец 8k."
},
"THUDM/chatglm3-6b": {
"description": "ChatGLM3-6B е отворен модел от серията ChatGLM, разработен от Zhizhu AI. Моделът запазва отличителните характеристики на предшествениците си, като плавност на разговора и ниски изисквания за внедряване, докато въвежда нови функции. Той използва по-разнообразни тренировъчни данни, по-пълноценни тренировъчни стъпки и по-разумни тренировъчни стратегии, показвайки отлични резултати сред предварително обучените модели под 10B. ChatGLM3-6B поддържа многократни разговори, извикване на инструменти, изпълнение на код и сложни сценарии на задачи на агенти. Освен модела за разговори, са отворени и основният модел ChatGLM-6B-Base и моделът за дълги текстови разговори ChatGLM3-6B-32K. Моделът е напълно отворен за академични изследвания и позволява безплатна търговска употреба след регистрация."
},
"THUDM/glm-4-9b-chat": {
"description": "GLM-4 9B е отворен код версия, предоставяща оптимизирано изживяване в разговорните приложения."
},
"TeleAI/TeleChat2": {
"description": "TeleChat2 е голям модел, разработен от China Telecom, който предлага генеративен семантичен модел, поддържащ функции като енциклопедични въпроси и отговори, генериране на код и генериране на дълги текстове, предоставяйки услуги за консултации на потребителите, способни да взаимодействат с потребителите, да отговарят на въпроси и да помагат в творчеството, ефективно и удобно помагайки на потребителите да получат информация, знания и вдъхновение. Моделът показва отлични резултати в проблеми с илюзии, генериране на дълги текстове и логическо разбиране."
},
"TeleAI/TeleMM": {
"description": "TeleMM е многомодален голям модел, разработен от China Telecom, способен да обработва текст, изображения и други видове входни данни, поддържащ функции като разбиране на изображения и анализ на графики, предоставяйки услуги за разбиране на потребителите в различни модалности. Моделът може да взаимодейства с потребителите в многомодални сценарии, точно разбирайки входното съдържание, отговаряйки на въпроси, помагайки в творчеството и ефективно предоставяйки многомодална информация и вдъхновение. Моделът показва отлични резултати в задачи с фина перцепция и логическо разсъждение."
},
"Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
"description": "Qwen2.5-72B-Instruct е един от най-новите големи езикови модели, публикувани от Alibaba Cloud. Този 72B модел показва значителни подобрения в областите на кодирането и математиката. Моделът предлага многоезична поддръжка, обхващаща над 29 езика, включително китайски, английски и др. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
},
"Yi-34B-Chat": {
"description": "Yi-1.5-34B значително подобрява математическата логика и способностите в кодирането, като запазва отличните общи езикови способности на оригиналната серия модели, чрез инкрементално обучение с 500 милиарда висококачествени токени."
},
"abab5.5-chat": {
"description": "Насочена към производствени сценарии, поддържаща обработка на сложни задачи и ефективно генериране на текст, подходяща за професионални приложения."
},
"abab5.5s-chat": {
"description": "Специално проектирана за диалогови сценарии на китайски, предлагаща висококачествено генериране на диалози на китайски, подходяща за множество приложения."
},
"abab6.5g-chat": {
"description": "Специално проектирана за многоезични диалогови системи, поддържаща висококачествено генериране на диалози на английски и много други езици."
},
"abab6.5s-chat": {
"description": "Подходяща за широк спектър от задачи за обработка на естествен език, включително генериране на текст, диалогови системи и др."
},
"abab6.5t-chat": {
"description": "Оптимизирана за диалогови сценарии на китайски, предлагаща плавно и съответстващо на китайските изразни навици генериране на диалози."
},
"accounts/fireworks/models/deepseek-r1": {
"description": "DeepSeek-R1 е авангарден голям езиков модел, оптимизиран чрез подсилено обучение и данни за студен старт, с отлични способности в разсъжденията, математиката и програмирането."
},
"accounts/fireworks/models/deepseek-v3": {
"description": "Мощен езиков модел Mixture-of-Experts (MoE) от Deepseek, с общ брой параметри 671B, активиращи 37B параметри на всеки токен."
},
"accounts/fireworks/models/llama-v3-70b-instruct": {
"description": "Llama 3 70B модел за инструкции, специално оптимизиран за многоезични диалози и разбиране на естествен език, с производителност, превъзхождаща повечето конкурентни модели."
},
"accounts/fireworks/models/llama-v3-8b-instruct": {
"description": "Llama 3 8B модел за инструкции, оптимизиран за диалози и многоезични задачи, с изключителна производителност и ефективност."
},
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
"description": "Llama 3 8B модел за инструкции (HF версия), с резултати, съвпадащи с официалната реализация, предлагаща висока последователност и съвместимост между платформите."
},
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
"description": "Llama 3.1 405B модел за инструкции, с огромен брой параметри, подходящ за сложни задачи и следване на инструкции в сценарии с високо натоварване."
},
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
"description": "Llama 3.1 70B модел за инструкции, предлагащ изключителни способности за разбиране и генериране на естествен език, идеален за диалогови и аналитични задачи."
},
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
"description": "Llama 3.1 8B модел за инструкции, оптимизиран за многоезични диалози, способен да надмине повечето отворени и затворени модели на общи индустриални стандарти."
},
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
"description": "Моделът за разсъждение по изображения с 11B параметри на Meta е оптимизиран за визуално разпознаване, разсъждение по изображения, описание на изображения и отговаряне на общи въпроси относно изображения. Моделът може да разбира визуални данни, като графики и таблици, и свързва визуалните данни с текстовите описания на детайлите на изображенията."
},
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
"description": "Моделът Llama 3.2 3B е лека многоезична разработка от Meta. Този модел е проектиран да подобри ефективността, предоставяйки значителни подобрения в забавянето и разходите в сравнение с по-големи модели. Примерни случаи на ползване включват заявки, пренаписване на подканвания и подпомагане на писането."
},
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
"description": "Моделът за разсъждение по изображения с 90B параметри на Meta е оптимизиран за визуално разпознаване, разсъждение по изображения, описание на изображения и отговаряне на общи въпроси относно изображения. Моделът може да разбира визуални данни, като графики и таблици, и свързва визуалните данни с текстовите описания на детайлите на изображенията."
},
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
"description": "Llama 3.3 70B Instruct е актуализирана версия на Llama 3.1 70B от декември. Този модел е подобрен на базата на Llama 3.1 70B (пуснат през юли 2024 г.), с подобрени възможности за извикване на инструменти, поддръжка на многоезичен текст, математика и програмиране. Моделът постига водещи в индустрията резултати в области като разсъждение, математика и следване на инструкции, и предлага производителност, подобна на 3.1 405B, с значителни предимства в скоростта и разходите."
},
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
"description": "Модел с 24B параметри, предлагащ водещи в индустрията способности, сравними с по-големите модели."
},
"accounts/fireworks/models/mixtral-8x22b-instruct": {
"description": "Mixtral MoE 8x22B модел за инструкции, с голям брой параметри и архитектура с множество експерти, осигуряваща всестранна поддръжка за ефективна обработка на сложни задачи."
},
"accounts/fireworks/models/mixtral-8x7b-instruct": {
"description": "Mixtral MoE 8x7B модел за инструкции, архитектура с множество експерти, предлагаща ефективно следване и изпълнение на инструкции."
},
"accounts/fireworks/models/mythomax-l2-13b": {
"description": "MythoMax L2 13B модел, комбиниращ новаторски технологии за интеграция, специализиран в разказване на истории и ролеви игри."
},
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
"description": "Phi 3 Vision модел за инструкции, лек мултимодален модел, способен да обработва сложна визуална и текстова информация, с високи способности за разсъждение."
},
"accounts/fireworks/models/qwen-qwq-32b-preview": {
"description": "QwQ моделът е експериментален изследователски модел, разработен от екипа на Qwen, който се фокусира върху подобряване на AI разсъдъчните способности."
},
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
"description": "72B версия на модела Qwen-VL е последната итерация на Alibaba, представляваща иновации от последната година."
},
"accounts/fireworks/models/qwen2p5-72b-instruct": {
"description": "Qwen2.5 е серия от езикови модели, разработени от екипа на Alibaba Cloud Qwen, които съдържат само декодери. Тези модели предлагат различни размери, включително 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, и разполагат с базови (base) и инструкти (instruct) варианти."
},
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
"description": "Qwen2.5 Coder 32B Instruct е най-новата версия на серията големи езикови модели, специфични за код, публикувана от Alibaba Cloud. Моделът значително подобрява способностите за генериране на код, разсъждения и корекции, след като е обучен с 55 трилиона токена на базата на Qwen2.5. Той не само подобрява кодовите умения, но и запазва предимствата в математиката и общите способности. Моделът предоставя по-пълна основа за практическите приложения като кодови интелигентни агенти."
},
"accounts/yi-01-ai/models/yi-large": {
"description": "Yi-Large модел, предлагащ изключителни способности за многоезична обработка, подходящ за различни задачи по генериране и разбиране на език."
},
"ai21-jamba-1.5-large": {
"description": "Многоезичен модел с 398B параметри (94B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа."
},
"ai21-jamba-1.5-mini": {
"description": "Многоезичен модел с 52B параметри (12B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво."
},
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надминаваща конкурентните модели и Claude 3 Opus, показвайки отлични резултати в широки оценки, като същевременно предлага скорост и разходи, характерни за нашите модели от среден клас."
},
"anthropic.claude-3-haiku-20240307-v1:0": {
"description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, предлагащ почти мигновена скорост на отговор. Той може бързо да отговаря на прости запитвания и заявки. Клиентите ще могат да изградят безпроблемно AI изживяване, имитиращо човешко взаимодействие. Claude 3 Haiku може да обработва изображения и да връща текстови изходи, с контекстуален прозорец от 200K."
},
"anthropic.claude-3-opus-20240229-v1:0": {
"description": "Claude 3 Opus е най-мощният AI модел на Anthropic, с най-съвременна производителност при високо сложни задачи. Той може да обработва отворени подсказки и непознати сценарии, с отлична плавност и човешко разбиране. Claude 3 Opus демонстрира предимствата на генериращия AI. Claude 3 Opus може да обработва изображения и да връща текстови изходи, с контекстуален прозорец от 200K."
},
"anthropic.claude-3-sonnet-20240229-v1:0": {
"description": "Claude 3 Sonnet на Anthropic постига идеален баланс между интелигентност и скорост - особено подходящ за корпоративни работни натоварвания. Той предлага максимална полезност на цена под конкурентите и е проектиран да бъде надежден и издръжлив основен модел, подходящ за мащабируеми AI внедрения. Claude 3 Sonnet може да обработва изображения и да връща текстови изходи, с контекстуален прозорец от 200K."
},
"anthropic.claude-instant-v1": {
"description": "Бърз, икономичен и все пак много способен модел, който може да обработва редица задачи, включително ежедневни разговори, текстов анализ, обобщение и въпроси и отговори на документи."
},
"anthropic.claude-v2": {
"description": "Anthropic демонстрира висока способност в широк спектър от задачи, от сложни разговори и генериране на креативно съдържание до следване на подробни инструкции."
},
"anthropic.claude-v2:1": {
"description": "Актуализирана версия на Claude 2, с двойно по-голям контекстуален прозорец и подобрения в надеждността, процента на халюцинации и точността, основана на доказателства, в контексти с дълги документи и RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, проектиран за почти мигновени отговори. Той предлага бърза и точна насочена производителност."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus е най-мощният модел на Anthropic, предназначен за обработка на изключително сложни задачи. Той се отличава с изключителна производителност, интелигентност, гладкост и разбиране."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku е най-бързият следващ модел на Anthropic. В сравнение с Claude 3 Haiku, Claude 3.5 Haiku показва подобрения в различни умения и надминава предишното поколение най-голям модел Claude 3 Opus в много интелектуални бенчмаркове."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet предлага способности, надхвърлящи Opus, и по-бърза скорост в сравнение с Sonnet, като същевременно запазва същата цена. Sonnet е особено силен в програмирането, науката за данни, визуалната обработка и агентските задачи."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic до момента и е първият хибриден модел за разсъждение на пазара. Claude 3.7 Sonnet може да генерира почти мигновени отговори или удължено стъпково мислене, което позволява на потребителите ясно да видят тези процеси. Sonnet е особено добър в програмирането, науката за данни, визуалната обработка и агентските задачи."
},
"aya": {
"description": "Aya 23 е многозначен модел, представен от Cohere, поддържащ 23 езика, предоставяйки удобство за многоезични приложения."
},
"aya:35b": {
"description": "Aya 23 е многозначен модел, представен от Cohere, поддържащ 23 езика, предоставяйки удобство за многоезични приложения."
},
"baichuan/baichuan2-13b-chat": {
"description": "Baichuan-13B е отворен, комерсиален голям езиков модел, разработен от Baichuan Intelligence, с 13 милиарда параметри, който постига най-добрите резултати в своя размер на авторитетни бенчмаркове на китайски и английски."
},
"charglm-3": {
"description": "CharGLM-3 е проектиран за ролеви игри и емоционално придружаване, поддържаща дълга многократна памет и персонализиран диалог, с широко приложение."
},
"chatgpt-4o-latest": {
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
},
"claude-2.0": {
"description": "Claude 2 предлага напредък в ключовите способности за бизнеса, включително водещи в индустрията 200K токена контекст, значително намаляване на честотата на илюзии на модела, системни подсказки и нова тестова функция: извикване на инструменти."
},
"claude-2.1": {
"description": "Claude 2 предлага напредък в ключовите способности за бизнеса, включително водещи в индустрията 200K токена контекст, значително намаляване на честотата на илюзии на модела, системни подсказки и нова тестова функция: извикване на инструменти."
},
"claude-3-5-haiku-20241022": {
"description": "Claude 3.5 Haiku е най-бързият следващ модел на Anthropic. В сравнение с Claude 3 Haiku, Claude 3.5 Haiku е подобрен във всички умения и надминава предишния най-голям модел Claude 3 Opus в много интелектуални тестове."
},
"claude-3-5-sonnet-20240620": {
"description": "Claude 3.5 Sonnet предлага способности, надминаващи Opus и по-бърза скорост от Sonnet, като същевременно поддържа същата цена. Sonnet е особено силен в програмирането, науката за данни, визуалната обработка и задачи с агенти."
},
"claude-3-5-sonnet-20241022": {
"description": "Claude 3.5 Sonnet предлага възможности, които надминават Opus и скорости, които са по-бързи от Sonnet, като същевременно поддържа същата цена като Sonnet. Sonnet е специално силен в програмирането, науката за данни, визуалната обработка и задачи, свързани с代理."
},
"claude-3-7-sonnet-20250219": {
"description": "Claude 3.7 Sonnet предлага индустриални стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи, характерни за нашите модели от среден клас."
},
"claude-3-haiku-20240307": {
"description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, проектиран за почти мигновени отговори. Той предлага бърза и точна насочена производителност."
},
"claude-3-opus-20240229": {
"description": "Claude 3 Opus е най-мощният модел на Anthropic за обработка на високо сложни задачи. Той показва изключителна производителност, интелигентност, гладкост и разбиране."
},
"claude-3-sonnet-20240229": {
"description": "Claude 3 Sonnet предлага идеален баланс между интелигентност и скорост за корпоративни работни натоварвания. Той предлага максимална полезност на по-ниска цена, надежден и подходящ за мащабно внедряване."
},
"codegeex-4": {
"description": "CodeGeeX-4 е мощен AI помощник за програмиране, който поддържа интелигентни въпроси и отговори и автоматично допълване на код за различни програмни езици, повишавайки ефективността на разработката."
},
"codegeex4-all-9b": {
"description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който предлага пълни функции, включително попълване и генериране на код, интерпретатор на код, уеб търсене, извикване на функции и въпроси и отговори на ниво хранилище, обхващащ различни сценарии на софтуерна разработка. Това е водещ модел за генериране на код с по-малко от 10B параметри."
},
"codegemma": {
"description": "CodeGemma е лек езиков модел, специализиран в различни програмни задачи, поддържащ бърза итерация и интеграция."
},
"codegemma:2b": {
"description": "CodeGemma е лек езиков модел, специализиран в различни програмни задачи, поддържащ бърза итерация и интеграция."
},
"codellama": {
"description": "Code Llama е LLM, фокусиран върху генерирането и обсъждането на код, комбиниращ широк спектър от поддръжка на програмни езици, подходящ за среда на разработчици."
},
"codellama/CodeLlama-34b-Instruct-hf": {
"description": "Code Llama е LLM, фокусиран върху генерирането и обсъждането на код, с широка поддръжка на програмни езици, подходящ за среда на разработчици."
},
"codellama:13b": {
"description": "Code Llama е LLM, фокусиран върху генерирането и обсъждането на код, комбиниращ широк спектър от поддръжка на програмни езици, подходящ за среда на разработчици."
},
"codellama:34b": {
"description": "Code Llama е LLM, фокусиран върху генерирането и обсъждането на код, комбиниращ широк спектър от поддръжка на програмни езици, подходящ за среда на разработчици."
},
"codellama:70b": {
"description": "Code Llama е LLM, фокусиран върху генерирането и обсъждането на код, комбиниращ широк спектър от поддръжка на програмни езици, подходящ за среда на разработчици."
},
"codeqwen": {
"description": "CodeQwen1.5 е голям езиков модел, обучен на основата на обширни кодови данни, специално проектиран за решаване на сложни програмни задачи."
},
"codestral": {
"description": "Codestral е първият кодов модел на Mistral AI, предоставящ отлична поддръжка за задачи по генериране на код."
},
"codestral-latest": {
"description": "Codestral е авангарден генеративен модел, фокусиран върху генерирането на код, оптимизиран за междинно попълване и задачи за допълване на код."
},
"cognitivecomputations/dolphin-mixtral-8x22b": {
"description": "Dolphin Mixtral 8x22B е модел, проектиран за следване на инструкции, диалози и програмиране."
},
"cohere-command-r": {
"description": "Command R е мащабируем генеративен модел, насочен към RAG и използване на инструменти, за да позволи AI на производствено ниво за предприятия."
},
"cohere-command-r-plus": {
"description": "Command R+ е модел, оптимизиран за RAG, проектиран да се справя с натоварвания на ниво предприятие."
},
"command-r": {
"description": "Command R е LLM, оптимизиран за диалогови и дълги контекстуални задачи, особено подходящ за динамично взаимодействие и управление на знания."
},
"command-r-plus": {
"description": "Command R+ е високопроизводителен голям езиков модел, проектиран за реални бизнес сценарии и сложни приложения."
},
"dall-e-2": {
"description": "Второ поколение модел DALL·E, поддържащ по-реалистично и точно генериране на изображения, с резолюция 4 пъти по-висока от първото поколение."
},
"dall-e-3": {
"description": "Най-новият модел DALL·E, пуснат през ноември 2023 г. Поддържа по-реалистично и точно генериране на изображения с по-силна детайлност."
},
"databricks/dbrx-instruct": {
"description": "DBRX Instruct предлага висока надеждност в обработката на инструкции, поддържаща приложения в множество индустрии."
},
"deepseek-ai/DeepSeek-R1": {
"description": "DeepSeek-R1 е модел за извеждане, управляван от подсилено обучение (RL), който решава проблемите с повторяемостта и четимостта в модела. Преди RL, DeepSeek-R1 въвежда данни за студен старт, за да оптимизира допълнително производителността на извеждане. Той показва сравнима производителност с OpenAI-o1 в математически, кодови и извеждащи задачи и подобрява общите резултати чрез внимателно проектирани методи на обучение."
},
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
"description": "DeepSeek-R1 дестилиран модел, оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт."
},
"deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
"description": "DeepSeek-R1-Distill-Llama-8B е дестилиран модел, базиран на Llama-3.1-8B. Този модел е финализиран с примери, генерирани от DeepSeek-R1, и показва отлична производителност на разсъжденията. Той постига добри резултати в множество бенчмаркове, включително 89.1% точност в MATH-500, 50.4% успеваемост в AIME 2024 и 1205 точки в CodeForces, демонстрирайки силни способности за математика и програмиране."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
"description": "DeepSeek-R1 дестилиран модел, оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
"description": "DeepSeek-R1 дестилиран модел, оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
"description": "DeepSeek-R1-Distill-Qwen-32B е модел, получен чрез знание дестилация на Qwen2.5-32B. Този модел е финализиран с 800 000 избрани примера, генерирани от DeepSeek-R1, и показва изключителна производителност в множество области, включително математика, програмиране и разсъждения. Той постига отлични резултати в множество бенчмаркове, включително 94.3% точност в MATH-500, демонстрирайки силни способности за математическо разсъждение."
},
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
"description": "DeepSeek-R1-Distill-Qwen-7B е модел, получен чрез знание дестилация на Qwen2.5-Math-7B. Този модел е финализиран с 800 000 избрани примера, генерирани от DeepSeek-R1, и показва отлична производителност на разсъжденията. Той постига отлични резултати в множество бенчмаркове, включително 92.8% точност в MATH-500, 55.5% успеваемост в AIME 2024 и 1189 точки в CodeForces, демонстрирайки силни способности за математика и програмиране."
},
"deepseek-ai/DeepSeek-V2.5": {
"description": "DeepSeek V2.5 обединява отличителните характеристики на предишните версии, подобрявайки общите и кодиращите способности."
},
"deepseek-ai/DeepSeek-V3": {
"description": "DeepSeek-V3 е езиков модел с 6710 милиарда параметри, базиран на смесени експерти (MoE), който използва многоглаво потенциално внимание (MLA) и архитектурата DeepSeekMoE, комбинирайки стратегии за баланс на натоварването без помощни загуби, за да оптимизира производителността на извеждане и обучение. Чрез предварително обучение на 14.8 трилиона висококачествени токени и последващо наблюдавано фино настройване и подсилено обучение, DeepSeek-V3 надминава производителността на други отворени модели и се приближава до водещите затворени модели."
},
"deepseek-ai/deepseek-llm-67b-chat": {
"description": "DeepSeek 67B е напреднал модел, обучен за диалози с висока сложност."
},
"deepseek-ai/deepseek-r1": {
"description": "Най-съвременен ефективен LLM, специализиран в разсъждения, математика и програмиране."
},
"deepseek-ai/deepseek-vl2": {
"description": "DeepSeek-VL2 е визуален езиков модел, разработен на базата на DeepSeekMoE-27B, който използва архитектура на смесени експерти (MoE) с рядка активация, постигайки изключителна производителност с активирани само 4.5B параметри. Моделът показва отлични резултати в множество задачи, включително визуални въпроси и отговори, оптично разпознаване на символи, разбиране на документи/таблици/графики и визуална локализация."
},
"deepseek-chat": {
"description": "Новооткритият отворен модел, който съчетава общи и кодови способности, не само запазва общата диалогова способност на оригиналния Chat модел и мощната способност за обработка на код на Coder модела, но също така по-добре се съгласува с човешките предпочитания. Освен това, DeepSeek-V2.5 постигна значителни подобрения в писателските задачи, следването на инструкции и много други области."
},
"deepseek-coder-33B-instruct": {
"description": "DeepSeek Coder 33B е модел за кодови езици, обучен на 20 трилиона данни, от които 87% са код и 13% са на китайски и английски. Моделът въвежда размер на прозореца от 16K и задачи за попълване, предоставяйки функции за попълване на код на проектно ниво и попълване на фрагменти."
},
"deepseek-coder-v2": {
"description": "DeepSeek Coder V2 е отворен хибриден експертен кодов модел, който се представя отлично в кодовите задачи, сравним с GPT4-Turbo."
},
"deepseek-coder-v2:236b": {
"description": "DeepSeek Coder V2 е отворен хибриден експертен кодов модел, който се представя отлично в кодовите задачи, сравним с GPT4-Turbo."
},
"deepseek-r1": {
"description": "DeepSeek-R1 е модел за извеждане, управляван от подсилено обучение (RL), който решава проблемите с повторяемостта и четимостта в модела. Преди RL, DeepSeek-R1 въвежда данни за студен старт, за да оптимизира допълнително производителността на извеждане. Той показва сравнима производителност с OpenAI-o1 в математически, кодови и извеждащи задачи и подобрява общите резултати чрез внимателно проектирани методи на обучение."
},
"deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 - по-голям и по-интелигентен модел в комплекта DeepSeek - е дестилиран в архитектурата Llama 70B. На базата на бенчмаркове и човешка оценка, този модел е по-интелигентен от оригиналния Llama 70B, особено в задачи, изискващи математическа и фактическа точност."
},
"deepseek-r1-distill-llama-8b": {
"description": "Моделите от серията DeepSeek-R1-Distill са получени чрез техника на знание дестилация, като се фино настройват образците, генерирани от DeepSeek-R1, спрямо отворени модели като Qwen и Llama."
},
"deepseek-r1-distill-qwen-1.5b": {
"description": "Моделите от серията DeepSeek-R1-Distill са получени чрез техника на знание дестилация, като се фино настройват образците, генерирани от DeepSeek-R1, спрямо отворени модели като Qwen и Llama."
},
"deepseek-r1-distill-qwen-14b": {
"description": "Моделите от серията DeepSeek-R1-Distill са получени чрез техника на знание дестилация, като се фино настройват образците, генерирани от DeepSeek-R1, спрямо отворени модели като Qwen и Llama."
},
"deepseek-r1-distill-qwen-32b": {
"description": "Моделите от серията DeepSeek-R1-Distill са получени чрез техника на знание дестилация, като се фино настройват образците, генерирани от DeepSeek-R1, спрямо отворени модели като Qwen и Llama."
},
"deepseek-r1-distill-qwen-7b": {
"description": "Моделите от серията DeepSeek-R1-Distill са получени чрез техника на знание дестилация, като се фино настройват образците, генерирани от DeepSeek-R1, спрямо отворени модели като Qwen и Llama."
},
"deepseek-reasoner": {
"description": "Модел за извеждане, разработен от DeepSeek. Преди да предостави окончателния отговор, моделът първо извежда част от веригата на мислене, за да повиши точността на крайния отговор."
},
"deepseek-v2": {
"description": "DeepSeek V2 е ефективен модел на Mixture-of-Experts, подходящ за икономически ефективни нужди от обработка."
},
"deepseek-v2:236b": {
"description": "DeepSeek V2 236B е кодовият модел на DeepSeek, предоставящ мощни способности за генериране на код."
},
"deepseek-v3": {
"description": "DeepSeek-V3 е MoE модел, разработен от Hangzhou DeepSeek AI Technology Research Co., Ltd., с отлични резултати в множество тестове, заемащ първото място в основните класации на отворените модели. V3 постига 3-кратно увеличение на скоростта на генериране в сравнение с V2.5, предоставяйки на потребителите по-бързо и гладко изживяване."
},
"deepseek/deepseek-chat": {
"description": "Новооткритият отворен модел, който съчетава общи и кодови способности, не само запазва общата диалогова способност на оригиналния Chat модел и мощната способност за обработка на код на Coder модела, но също така по-добре се съобразява с човешките предпочитания. Освен това, DeepSeek-V2.5 постигна значителни подобрения в задачи по писане, следване на инструкции и много други."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 значително подобри способността на модела за разсъждение при наличието на много малко маркирани данни. Преди да предостави окончателния отговор, моделът първо ще изведе част от съдържанието на веригата на мислене, за да повиши точността на окончателния отговор."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B е голям езиков модел, базиран на Llama3.3 70B, който използва фина настройка на изхода на DeepSeek R1, за да постигне конкурентна производителност, сравнима с големите водещи модели."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B е дестилиран голям езиков модел, базиран на Llama-3.1-8B-Instruct, обучен с изхода на DeepSeek R1."
},
"deepseek/deepseek-r1-distill-qwen-14b": {
"description": "DeepSeek R1 Distill Qwen 14B е дестилиран голям езиков модел, базиран на Qwen 2.5 14B, обучен с изхода на DeepSeek R1. Този модел надминава o1-mini на OpenAI в множество бенчмарков, постигащи най-съвременни резултати за плътни модели. Ето някои от резултатите от бенчмарковете:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\nТози модел демонстрира конкурентна производителност, сравнима с по-големи водещи модели, благодарение на фина настройка на изхода на DeepSeek R1."
},
"deepseek/deepseek-r1-distill-qwen-32b": {
"description": "DeepSeek R1 Distill Qwen 32B е дестилиран голям езиков модел, базиран на Qwen 2.5 32B, обучен с изхода на DeepSeek R1. Този модел надминава o1-mini на OpenAI в множество бенчмарков, постигащи най-съвременни резултати за плътни модели. Ето някои от резултатите от бенчмарковете:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\nТози модел демонстрира конкурентна производителност, сравнима с по-големи водещи модели, благодарение на фина настройка на изхода на DeepSeek R1."
},
"deepseek/deepseek-r1/community": {
"description": "DeepSeek R1 е най-новият отворен модел, публикуван от екипа на DeepSeek, който предлага изключителна производителност при извеждане, особено в математически, програмистки и логически задачи, достигайки ниво, сравнимо с модела o1 на OpenAI."
},
"deepseek/deepseek-r1:free": {
"description": "DeepSeek-R1 значително подобри способността на модела за разсъждение при наличието на много малко маркирани данни. Преди да предостави окончателния отговор, моделът първо ще изведе част от съдържанието на веригата на мислене, за да повиши точността на окончателния отговор."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 постига значителен напредък в скоростта на извеждане в сравнение с предишните модели. Той е на първо място сред отворените модели и може да се сравнява с най-съвременните затворени модели в света. DeepSeek-V3 използва архитектури с многоглаво внимание (MLA) и DeepSeekMoE, които бяха напълно валидирани в DeepSeek-V2. Освен това, DeepSeek-V3 въвежда помощна беззагубна стратегия за баланс на натоварването и задава цели за обучение с множество етикети, за да постигне по-силна производителност."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 постига значителен напредък в скоростта на извеждане в сравнение с предишните модели. Той е на първо място сред отворените модели и може да се сравнява с най-съвременните затворени модели в света. DeepSeek-V3 използва архитектури с многоглаво внимание (MLA) и DeepSeekMoE, които бяха напълно валидирани в DeepSeek-V2. Освен това, DeepSeek-V3 въвежда помощна беззагубна стратегия за баланс на натоварването и задава цели за обучение с множество етикети, за да постигне по-силна производителност."
},
"doubao-1.5-lite-32k": {
"description": "Doubao-1.5-lite е ново поколение лек модел, с изключителна скорост на отговор, който постига световно ниво както по отношение на ефективността, така и на времето за реакция."
},
"doubao-1.5-pro-256k": {
"description": "Doubao-1.5-pro-256k е напълно обновен вариант на Doubao-1.5-Pro, с общо подобрение на ефективността с 10%. Поддържа разсъждения с контекстен прозорец от 256k, а дължината на изхода поддържа максимум 12k токена. По-висока производителност, по-голям прозорец и изключителна цена-качество, подходящ за по-широк спектър от приложения."
},
"doubao-1.5-pro-32k": {
"description": "Doubao-1.5-pro е ново поколение основен модел, с напълно обновени характеристики, който показва отлични резултати в области като знания, код, разсъждения и др."
},
"emohaa": {
"description": "Emohaa е психологически модел с професионални консултантски способности, помагащ на потребителите да разберат емоционалните проблеми."
},
"ernie-3.5-128k": {
"description": "Флагманският голям езиков модел, разработен от Baidu, обхваща огромно количество китайски и английски текстове, притежаващ силни общи способности, способен да отговори на повечето изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения на плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията."
},
"ernie-3.5-8k": {
"description": "Флагманският голям езиков модел, разработен от Baidu, обхваща огромно количество китайски и английски текстове, притежаващ силни общи способности, способен да отговори на повечето изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения на плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията."
},
"ernie-3.5-8k-preview": {
"description": "Флагманският голям езиков модел, разработен от Baidu, обхваща огромно количество китайски и английски текстове, притежаващ силни общи способности, способен да отговори на повечето изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения на плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията."
},
"ernie-4.0-8k-latest": {
"description": "Флагманският голям езиков модел, разработен от Baidu, с изключителни подобрения в сравнение с ERNIE 3.5, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията."
},
"ernie-4.0-8k-preview": {
"description": "Флагманският голям езиков модел, разработен от Baidu, с изключителни подобрения в сравнение с ERNIE 3.5, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията."
},
"ernie-4.0-turbo-128k": {
"description": "Флагманският голям езиков модел, разработен от Baidu, с отлични общи резултати, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията. В сравнение с ERNIE 4.0, показва по-добри резултати."
},
"ernie-4.0-turbo-8k-latest": {
"description": "Флагманският голям езиков модел, разработен от Baidu, с отлични общи резултати, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията. В сравнение с ERNIE 4.0, показва по-добри резултати."
},
"ernie-4.0-turbo-8k-preview": {
"description": "Флагманският голям езиков модел, разработен от Baidu, с отлични общи резултати, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията. В сравнение с ERNIE 4.0, показва по-добри резултати."
},
"ernie-char-8k": {
"description": "Специализиран голям езиков модел, разработен от Baidu, подходящ за приложения като NPC в игри, диалози на клиентска поддръжка и ролеви игри, с по-изразителен и последователен стил на персонажите, по-силна способност за следване на инструкции и по-добра производителност на разсъжденията."
},
"ernie-char-fiction-8k": {
"description": "Специализиран голям езиков модел, разработен от Baidu, подходящ за приложения като NPC в игри, диалози на клиентска поддръжка и ролеви игри, с по-изразителен и последователен стил на персонажите, по-силна способност за следване на инструкции и по-добра производителност на разсъжденията."
},
"ernie-lite-8k": {
"description": "ERNIE Lite е лек голям езиков модел, разработен от Baidu, който съчетава отлични резултати с производителност на разсъжденията, подходящ за използване с AI ускорителни карти с ниска изчислителна мощ."
},
"ernie-lite-pro-128k": {
"description": "Лек голям езиков модел, разработен от Baidu, който съчетава отлични резултати с производителност на разсъжденията, с по-добри резултати в сравнение с ERNIE Lite, подходящ за използване с AI ускорителни карти с ниска изчислителна мощ."
},
"ernie-novel-8k": {
"description": "Общ голям езиков модел, разработен от Baidu, с очевидни предимства в продължаването на разкази, подходящ и за кратки пиеси и филми."
},
"ernie-speed-128k": {
"description": "Най-новият високопроизводителен голям езиков модел, разработен от Baidu през 2024 г., с отлични общи способности, подходящ за финализиране на специфични проблеми, с отлична производителност на разсъжденията."
},
"ernie-speed-pro-128k": {
"description": "Най-новият високопроизводителен голям езиков модел, разработен от Baidu през 2024 г., с отлични общи способности, с по-добри резултати в сравнение с ERNIE Speed, подходящ за финализиране на специфични проблеми, с отлична производителност на разсъжденията."
},
"ernie-tiny-8k": {
"description": "ERNIE Tiny е модел с изключителна производителност, разработен от Baidu, с най-ниски разходи за внедряване и фина настройка сред моделите от серията Wenxin."
},
"gemini-1.0-pro-001": {
"description": "Gemini 1.0 Pro 001 (Тунинг) предлага стабилна и настройваема производителност, идеален избор за решения на сложни задачи."
},
"gemini-1.0-pro-002": {
"description": "Gemini 1.0 Pro 002 (Тунинг) предлага отлична поддръжка на многомодални данни, фокусирайки се върху ефективното решаване на сложни задачи."
},
"gemini-1.0-pro-latest": {
"description": "Gemini 1.0 Pro е високопроизводителен AI модел на Google, проектиран за разширяване на широк спектър от задачи."
},
"gemini-1.5-flash": {
"description": "Gemini 1.5 Flash е най-новият мултимодален AI модел на Google, който предлага бърза обработка и поддържа текстови, изображенчески и видео входове, подходящ за ефективно разширяване на различни задачи."
},
"gemini-1.5-flash-001": {
"description": "Gemini 1.5 Flash 001 е ефективен многомодален модел, който поддържа разширяване на широк спектър от приложения."
},
"gemini-1.5-flash-002": {
"description": "Gemini 1.5 Flash 002 е ефективен мултимодален модел, който поддържа разширения за широко приложение."
},
"gemini-1.5-flash-8b": {
"description": "Gemini 1.5 Flash 8B е ефективен многомодален модел, който поддържа разширения за широко приложение."
},
"gemini-1.5-flash-8b-exp-0924": {
"description": "Gemini 1.5 Flash 8B 0924 е най-новият експериментален модел, който показва значителни подобрения в производителността както в текстови, така и в мултимодални приложения."
},
"gemini-1.5-flash-exp-0827": {
"description": "Gemini 1.5 Flash 0827 предлага оптимизирани мултимодални способности, подходящи за различни сложни задачи."
},
"gemini-1.5-flash-latest": {
"description": "Gemini 1.5 Flash е най-новият многомодален AI модел на Google, който предлага бърза обработка и поддържа текстови, изображенчески и видео входове, подходящ за ефективно разширяване на множество задачи."
},
"gemini-1.5-pro-001": {
"description": "Gemini 1.5 Pro 001 е разширяемо многомодално AI решение, което поддържа широк спектър от сложни задачи."
},
"gemini-1.5-pro-002": {
"description": "Gemini 1.5 Pro 002 е най-новият модел, готов за производство, който предлага по-високо качество на изхода, особено в математически, дълги контексти и визуални задачи."
},
"gemini-1.5-pro-exp-0801": {
"description": "Gemini 1.5 Pro 0801 предоставя отлична мултимодална обработка, давайки по-голяма гъвкавост при разработката на приложения."
},
"gemini-1.5-pro-exp-0827": {
"description": "Gemini 1.5 Pro 0827 комбинира най-новите оптимизационни технологии, предоставяйки по-ефективни мултимодални способности за обработка на данни."
},
"gemini-1.5-pro-latest": {
"description": "Gemini 1.5 Pro поддържа до 2 милиона токена и е идеален избор за среден многомодален модел, подходящ за многостранна поддръжка на сложни задачи."
},
"gemini-2.0-flash": {
"description": "Gemini 2.0 Flash предлага следващо поколение функции и подобрения, включително изключителна скорост, нативна употреба на инструменти, многомодално генериране и контекстен прозорец от 1M токена."
},
"gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash предлага следващо поколение функции и подобрения, включително изключителна скорост, нативна употреба на инструменти, многомодално генериране и контекстен прозорец от 1M токена."
},
"gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash е вариант на модела, оптимизиран за икономичност и ниска латентност."
},
"gemini-2.0-flash-lite-001": {
"description": "Gemini 2.0 Flash е вариант на модела, оптимизиран за икономичност и ниска латентност."
},
"gemini-2.0-flash-lite-preview-02-05": {
"description": "Модел на Gemini 2.0 Flash, оптимизиран за икономичност и ниска латентност."
},
"gemini-2.0-flash-thinking-exp": {
"description": "Gemini 2.0 Flash Exp е най-новият експериментален многомодален AI модел на Google, с ново поколение функции, изключителна скорост, нативно извикване на инструменти и многомодално генериране."
},
"gemini-2.0-flash-thinking-exp-01-21": {
"description": "Gemini 2.0 Flash Exp е най-новият експериментален многомодален AI модел на Google, с ново поколение функции, изключителна скорост, нативно извикване на инструменти и многомодално генериране."
},
"gemini-2.0-pro-exp-02-05": {
"description": "Gemini 2.0 Pro Experimental е най-новият експериментален многомодален AI модел на Google, който предлага значително подобрение в качеството в сравнение с предишните версии, особено по отношение на световни знания, код и дълги контексти."
},
"gemma-7b-it": {
"description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност."
},
"gemma2": {
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки до сложни обработки на данни."
},
"gemma2-9b-it": {
"description": "Gemma 2 9B е модел, оптимизиран за специфични задачи и интеграция на инструменти."
},
"gemma2:27b": {
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки до сложни обработки на данни."
},
"gemma2:2b": {
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки до сложни обработки на данни."
},
"generalv3": {
"description": "Spark Pro е високопроизводителен голям езиков модел, оптимизиран за професионални области, фокусирайки се върху математика, програмиране, медицина, образование и др., и поддържа свързано търсене и вградени плъгини за времето, датата и др. Оптимизираният модел показва отлични резултати и висока производителност в сложни отговори на знания, разбиране на езика и високо ниво на текстово генериране, което го прави идеален избор за професионални приложения."
},
"generalv3.5": {
"description": "Spark3.5 Max е най-пълната версия, поддържаща свързано търсене и множество вградени плъгини. Неговите напълно оптимизирани основни способности, системни роли и функции за извикване на функции осигуряват изключителни резултати в различни сложни приложения."
},
"glm-4": {
"description": "GLM-4 е старата флагманска версия, пусната през януари 2024 г., която в момента е заменена от по-силната GLM-4-0520."
},
"glm-4-0520": {
"description": "GLM-4-0520 е най-новата версия на модела, проектирана за високо сложни и разнообразни задачи, с отлични резултати."
},
"glm-4-9b-chat": {
"description": "GLM-4-9B-Chat показва висока производителност в множество области, включително семантика, математика, логическо разсъждение, код и знания. Също така предлага уеб браузинг, изпълнение на код, извикване на персонализирани инструменти и разсъждение върху дълги текстове. Поддържа 26 езика, включително японски, корейски и немски."
},
"glm-4-air": {
"description": "GLM-4-Air е икономичен вариант, с производителност близка до GLM-4, предлагаща бързина и достъпна цена."
},
"glm-4-airx": {
"description": "GLM-4-AirX предлага ефективна версия на GLM-4-Air, с скорост на извеждане до 2.6 пъти."
},
"glm-4-alltools": {
"description": "GLM-4-AllTools е многофункционален интелигентен модел, оптимизиран за поддръжка на сложни инструкции и извиквания на инструменти, като уеб браузинг, обяснение на код и генериране на текст, подходящ за изпълнение на множество задачи."
},
"glm-4-flash": {
"description": "GLM-4-Flash е идеалният избор за обработка на прости задачи, с най-бърза скорост и най-добра цена."
},
"glm-4-flashx": {
"description": "GLM-4-FlashX е подобрена версия на Flash с изключително бърза скорост на извеждане."
},
"glm-4-long": {
"description": "GLM-4-Long поддържа извеждане на много дълги текстове, подходящ за задачи, свързани с памет и обработка на големи документи."
},
"glm-4-plus": {
"description": "GLM-4-Plus, като флагман с висока интелигентност, разполага с мощни способности за обработка на дълги текстове и сложни задачи, с цялостно подобрена производителност."
},
"glm-4v": {
"description": "GLM-4V предлага мощни способности за разбиране и разсъждение на изображения, поддържаща множество визуални задачи."
},
"glm-4v-flash": {
"description": "GLM-4V-Flash се фокусира върху ефективното разбиране на единични изображения, подходящо за сцени с бърз анализ на изображения, като например анализ в реално време или обработка на партидни изображения."
},
"glm-4v-plus": {
"description": "GLM-4V-Plus разполага с разбиране на видео съдържание и множество изображения, подходящ за мултимодални задачи."
},
"glm-zero-preview": {
"description": "GLM-Zero-Preview притежава мощни способности за сложни разсъждения, показвайки отлични резултати в логическото разсъждение, математиката и програмирането."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash предлага следващо поколение функции и подобрения, включително изключителна скорост, нативна употреба на инструменти, многомодално генериране и контекстен прозорец от 1M токена."
},
"google/gemini-2.0-pro-exp-02-05:free": {
"description": "Gemini 2.0 Pro Experimental е най-новият експериментален многомодален AI модел на Google, който предлага значително подобрение в качеството в сравнение с предишните версии, особено по отношение на световни знания, код и дълги контексти."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash предлага оптимизирани мултимодални обработващи способности, подходящи за различни сложни задачи."
},
"google/gemini-pro-1.5": {
"description": "Gemini 1.5 Pro комбинира най-новите оптимизационни технологии, предоставяйки по-ефективна обработка на мултимодални данни."
},
"google/gemma-2-27b": {
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки приложения до сложна обработка на данни."
},
"google/gemma-2-27b-it": {
"description": "Gemma 2 продължава концепцията за лекота и ефективност."
},
"google/gemma-2-2b-it": {
"description": "Лек модел за настройка на инструкции от Google."
},
"google/gemma-2-9b": {
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки приложения до сложна обработка на данни."
},
"google/gemma-2-9b-it": {
"description": "Gemma 2 е серия от леки отворени текстови модели на Google."
},
"google/gemma-2-9b-it:free": {
"description": "Gemma 2 е лека отворена текстова моделна серия на Google."
},
"google/gemma-2b-it": {
"description": "Gemma Instruct (2B) предлага основни способности за обработка на инструкции, подходящи за леки приложения."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125."
},
"gpt-3.5-turbo-0125": {
"description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125."
},
"gpt-3.5-turbo-1106": {
"description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125."
},
"gpt-3.5-turbo-instruct": {
"description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125."
},
"gpt-35-turbo": {
"description": "GPT 3.5 Turbo е ефективен модел, предоставен от OpenAI, подходящ за чат и генериране на текст, поддържащ паралелни извиквания на функции."
},
"gpt-35-turbo-16k": {
"description": "GPT 3.5 Turbo 16k е модел с висока капацитет за генериране на текст, подходящ за сложни задачи."
},
"gpt-4": {
"description": "GPT-4 предлага по-голям контекстуален прозорец, способен да обработва по-дълги текстови входове, подходящ за сценарии, изискващи интеграция на обширна информация и анализ на данни."
},
"gpt-4-0125-preview": {
"description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време."
},
"gpt-4-0613": {
"description": "GPT-4 предлага по-голям контекстуален прозорец, способен да обработва по-дълги текстови входове, подходящ за сценарии, изискващи интеграция на обширна информация и анализ на данни."
},
"gpt-4-1106-preview": {
"description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време."
},
"gpt-4-32k": {
"description": "GPT-4 предлага по-голям контекстуален прозорец, способен да обработва по-дълги текстови входове, подходящ за сценарии, изискващи интеграция на обширна информация и анализ на данни."
},
"gpt-4-32k-0613": {
"description": "GPT-4 предлага по-голям контекстуален прозорец, способен да обработва по-дълги текстови входове, подходящ за сценарии, изискващи интеграция на обширна информация и анализ на данни."
},
"gpt-4-turbo": {
"description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време."
},
"gpt-4-turbo-2024-04-09": {
"description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време."
},
"gpt-4-turbo-preview": {
"description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време."
},
"gpt-4-vision-preview": {
"description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време."
},
"gpt-4.5-preview": {
"description": "Изследователската предварителна версия на GPT-4.5, която е нашият най-голям и мощен GPT модел до момента. Тя притежава обширни знания за света и може по-добре да разбира намеренията на потребителите, което я прави изключително ефективна в креативни задачи и автономно планиране. GPT-4.5 приема текстови и изображен вход и генерира текстови изход (включително структурирани изходи). Поддържа ключови функции за разработчици, като извикване на функции, пакетно API и потоков изход. В задачи, изискващи креативно, открито мислене и диалог (като писане, учене или изследване на нови идеи), GPT-4.5 показва особени способности. Крайната дата на знанията е октомври 2023."
},
"gpt-4o": {
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
},
"gpt-4o-2024-05-13": {
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
},
"gpt-4o-2024-08-06": {
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
},
"gpt-4o-2024-11-20": {
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той съчетава мощно разбиране и генериране на език и е подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
},
"gpt-4o-audio-preview": {
"description": "Модел GPT-4o Audio, поддържащ вход и изход на аудио."
},
"gpt-4o-mini": {
"description": "GPT-4o mini е най-новият модел на OpenAI, след GPT-4 Omni, който поддържа текстово и визуално въвеждане и генерира текст. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като същевременно предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 по предпочитания за чат."
},
"gpt-4o-mini-realtime-preview": {
"description": "Реален вариант на GPT-4o-mini, поддържащ вход и изход на аудио и текст в реално време."
},
"gpt-4o-realtime-preview": {
"description": "Реален вариант на GPT-4o, поддържащ вход и изход на аудио и текст в реално време."
},
"gpt-4o-realtime-preview-2024-10-01": {
"description": "Реален вариант на GPT-4o, поддържащ вход и изход на аудио и текст в реално време."
},
"gpt-4o-realtime-preview-2024-12-17": {
"description": "Реален вариант на GPT-4o, поддържащ вход и изход на аудио и текст в реално време."
},
"grok-2-1212": {
"description": "Този модел е подобрен по отношение на точност, спазване на инструкции и многоезични способности."
},
"grok-2-vision-1212": {
"description": "Този модел е подобрен по отношение на точност, спазване на инструкции и многоезични способности."
},
"grok-beta": {
"description": "С производителност, сравнима с Grok 2, но с по-висока ефективност, скорост и функции."
},
"grok-vision-beta": {
"description": "Най-новият модел за разбиране на изображения, способен да обработва разнообразна визуална информация, включително документи, графики, екранни снимки и снимки."
},
"gryphe/mythomax-l2-13b": {
"description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели."
},
"hunyuan-code": {
"description": "Най-новият модел за генериране на код на HunYuan, обучен с 200B висококачествени данни за код, с шестмесечно обучение на данни за SFT с високо качество, увеличен контекстен прозорец до 8K, и водещи резултати в автоматичните оценъчни показатели за генериране на код на пет основни езика; в комплексната оценка на кодови задачи на пет основни езика, представянето е в първата група."
},
"hunyuan-functioncall": {
"description": "Най-новият модел на HunYuan с MOE архитектура за извикване на функции, обучен с висококачествени данни за извикване на функции, с контекстен прозорец от 32K, водещ в множество измерения на оценъчните показатели."
},
"hunyuan-large": {
"description": "Моделът Hunyuan-large има общ брой параметри около 389B, активни параметри около 52B, и е най-голямият и най-добър в индустрията отворен MoE модел с архитектура Transformer."
},
"hunyuan-large-longcontext": {
"description": "Специализира в обработката на дълги текстови задачи, като резюмета на документи и отговори на въпроси, и също така притежава способността да обработва общи текстови генериращи задачи. Показва отлични резултати в анализа и генерирането на дълги текстове, ефективно справяйки се с комплексни и подробни изисквания за обработка на дълги текстове."
},
"hunyuan-lite": {
"description": "Актуализиран до MOE структура, контекстният прозорец е 256k, водещ в множество оценъчни набори в NLP, код, математика и индустрия, пред много от отворените модели."
},
"hunyuan-lite-vision": {
"description": "Най-новият 7B мултимодален модел на Hunyuan, с контекстен прозорец от 32K, поддържа мултимодални разговори на китайски и английски, разпознаване на обекти в изображения, разбиране на документи и таблици, мултимодална математика и др., с показатели, които надвишават 7B конкурентни модели в множество измерения."
},
"hunyuan-pro": {
"description": "Модел с параметри от триллион MOE-32K за дълги текстове. Постига абсолютни водещи нива в различни бенчмаркове, с комплексни инструкции и разсъждения, притежаващи сложни математически способности, поддържа функция за извикване, с акцент върху оптимизацията в области като многоезичен превод, финанси, право и медицина."
},
"hunyuan-role": {
"description": "Най-новият модел за ролеви игри на HunYuan, официално настроен и обучен от HunYuan, базиран на модела HunYuan и данни от набори за ролеви игри, с по-добри основни резултати в ролевите игри."
},
"hunyuan-standard": {
"description": "Използва по-добра стратегия за маршрутизиране, като същевременно облекчава проблемите с балансирането на натоварването и сближаването на експертите. За дълги текстове, показателят за откритие достига 99.9%. MOE-32K предлага по-добра цена-качество, балансирайки ефективността и цената, и позволява обработка на дълги текстови входове."
},
"hunyuan-standard-256K": {
"description": "Използва по-добра стратегия за маршрутизиране, като същевременно облекчава проблемите с балансирането на натоварването и сближаването на експертите. За дълги текстове, показателят за откритие достига 99.9%. MOE-256K прави допълнителен пробив в дължината и ефективността, значително разширявайки допустимата дължина на входа."
},
"hunyuan-standard-vision": {
"description": "Най-новият мултимодален модел на Hunyuan, поддържащ отговори на множество езици, с балансирани способности на китайски и английски."
},
"hunyuan-translation": {
"description": "Поддържа автоматичен превод между 15 езика, включително китайски, английски, японски, френски, португалски, испански, турски, руски, арабски, корейски, италиански, немски, виетнамски, малайски и индонезийски, базиран на автоматизирана оценка COMET, с цялостна преводна способност, която е по-добра от моделите на пазара с подобен мащаб."
},
"hunyuan-translation-lite": {
"description": "Моделът за превод HunYuan поддържа естествено езиково диалогово превеждане; поддържа автоматичен превод между 15 езика, включително китайски, английски, японски, френски, португалски, испански, турски, руски, арабски, корейски, италиански, немски, виетнамски, малайски и индонезийски."
},
"hunyuan-turbo": {
"description": "Предварителна версия на новото поколение голям езиков модел на HunYuan, използваща нова структура на смесен експертен модел (MoE), с по-бърза скорост на извеждане и по-силни резултати в сравнение с hunyuan-pro."
},
"hunyuan-turbo-20241120": {
"description": "Фиксирана версия на hunyuan-turbo от 20 ноември 2024 г., която е между hunyuan-turbo и hunyuan-turbo-latest."
},
"hunyuan-turbo-20241223": {
"description": "Оптимизация в тази версия: скалиране на данни и инструкции, значително повишаване на общата генерализационна способност на модела; значително повишаване на математическите, кодовите и логическите способности; оптимизиране на свързаните с разбирането на текста и думите способности; оптимизиране на качеството на генерираното съдържание при създаване на текст."
},
"hunyuan-turbo-latest": {
"description": "Оптимизация на общото изживяване, включително разбиране на NLP, създаване на текст, разговори, отговори на въпроси, превод и специфични области; повишаване на хуманността, оптимизиране на емоционалната интелигентност на модела; подобряване на способността на модела да изяснява при неясни намерения; повишаване на способността за обработка на въпроси, свързани с анализ на думи; подобряване на качеството и интерактивността на създаването; подобряване на многократното изживяване."
},
"hunyuan-turbo-vision": {
"description": "Новото поколение визуално езиково флагманско голямо модел на Hunyuan, използващо нова структура на смесен експертен модел (MoE), с цялостно подобрение на способностите за основно разпознаване, създаване на съдържание, отговори на въпроси и анализ и разсъждение в сравнение с предишното поколение модели."
},
"hunyuan-vision": {
"description": "Най-новият мултимодален модел на HunYuan, поддържащ генериране на текстово съдържание от изображения и текстови входове."
},
"internlm/internlm2_5-20b-chat": {
"description": "Иновативният отворен модел InternLM2.5 повишава интелигентността на диалога чрез голям брой параметри."
},
"internlm/internlm2_5-7b-chat": {
"description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии."
},
"internlm2-pro-chat": {
"description": "По-стара версия на модела, която все още поддържаме, с налични параметри от 7B и 20B."
},
"internlm2.5-latest": {
"description": "Нашата най-нова серия модели с изключителни способности за извеждане, поддържаща контекстна дължина от 1M и по-силни способности за следване на инструкции и извикване на инструменти."
},
"internlm3-latest": {
"description": "Нашата най-нова серия модели с изключителна производителност на разсъжденията, водеща в категорията на отворените модели. По подразбиране сочи към най-ново публикуваната серия модели InternLM3."
},
"jina-deepsearch-v1": {
"description": "Дълбокото търсене комбинира интернет търсене, четене и разсъждение, за да извърши обширно разследване. Можете да го разглеждате като агент, който приема вашата изследователска задача - той ще извърши широко търсене и ще премине през множество итерации, преди да предостави отговор. Този процес включва непрекъснато изследване, разсъждение и решаване на проблеми от различни ъгли. Това е коренно различно от стандартните големи модели, които генерират отговори директно от предварително обучени данни, и от традиционните RAG системи, които разчитат на еднократни повърхностни търсения."
},
"kimi-latest": {
"description": "Kimi интелигентен асистент използва най-новия Kimi голям модел, който може да съдържа нестабилни функции. Поддържа разбиране на изображения и автоматично избира 8k/32k/128k модел за таксуване в зависимост от дължината на контекста на заявката."
},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM е експериментален езиков модел, специфичен за задачи, обучен да отговаря на принципите на научното обучение, способен да следва системни инструкции в учебни и обучителни сценарии, да действа като експертен ментор и др."
},
"lite": {
"description": "Spark Lite е лек модел на голям език, с изключително ниска латентност и ефективна обработка, напълно безплатен и отворен, поддържащ функции за онлайн търсене в реално време. Неговите бързи отговори го правят отличен за приложения на нискомощни устройства и фина настройка на модели, предоставяйки на потребителите отлична рентабилност и интелигентно изживяване, особено в контекста на въпроси и отговори, генериране на съдържание и търсене."
},
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B предлага по-мощни способности за разсъждение на AI, подходящи за сложни приложения, поддържащи множество изчислителни обработки и осигуряващи ефективност и точност."
},
"llama-3.1-8b-instant": {
"description": "Llama 3.1 8B е модел с висока производителност, предлагащ бързи способности за генериране на текст, особено подходящ за приложения, изискващи мащабна ефективност и икономичност."
},
"llama-3.2-11b-vision-instruct": {
"description": "Изключителни способности за визуално разсъждение върху изображения с висока разделителна способност, подходящи за приложения за визуално разбиране."
},
"llama-3.2-11b-vision-preview": {
"description": "Llama 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
},
"llama-3.2-90b-vision-instruct": {
"description": "Разширени способности за визуално разсъждение, подходящи за приложения на визуални агенти."
},
"llama-3.2-90b-vision-preview": {
"description": "Llama 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
},
"llama-3.3-70b-instruct": {
"description": "Llama 3.3 е най-напредналият многоезичен отворен езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия, оптимизирана за инструкции, е специално проектирана за многоезични диалози и показва по-добри резултати от много от отворените и затворените чат модели в множество индустриални бенчмаркове. Краен срок за знания: декември 2023."
},
"llama-3.3-70b-versatile": {
"description": "Meta Llama 3.3 е многоезичен модел за генерация на език (LLM) с 70B (вход/изход на текст), който е предварително обучен и е пригоден за указания. Чистият текстов модел на Llama 3.3 е оптимизиран за многоезични диалогови случаи и надминава много налични отворени и затворени чат модели на стандартни индустриални тестове."
},
"llama3-70b-8192": {
"description": "Meta Llama 3 70B предлага ненадмината способност за обработка на сложност, проектирана за високи изисквания."
},
"llama3-8b-8192": {
"description": "Meta Llama 3 8B предлага качествени способности за разсъждение, подходящи за множество приложения."
},
"llama3-groq-70b-8192-tool-use-preview": {
"description": "Llama 3 Groq 70B Tool Use предлага мощни способности за извикване на инструменти, поддържащи ефективна обработка на сложни задачи."
},
"llama3-groq-8b-8192-tool-use-preview": {
"description": "Llama 3 Groq 8B Tool Use е модел, оптимизиран за ефективна употреба на инструменти, поддържащ бързо паралелно изчисление."
},
"llama3.1": {
"description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, приложим в области като сложни диалози, многоезичен превод и анализ на данни."
},
"llama3.1:405b": {
"description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, приложим в области като сложни диалози, многоезичен превод и анализ на данни."
},
"llama3.1:70b": {
"description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, приложим в области като сложни диалози, многоезичен превод и анализ на данни."
},
"llava": {
"description": "LLaVA е многомодален модел, комбиниращ визуален кодер и Vicuna, предназначен за мощно визуално и езиково разбиране."
},
"llava-v1.5-7b-4096-preview": {
"description": "LLaVA 1.5 7B предлага интегрирани способности за визуална обработка, генерирайки сложни изходи чрез визуална информация."
},
"llava:13b": {
"description": "LLaVA е многомодален модел, комбиниращ визуален кодер и Vicuna, предназначен за мощно визуално и езиково разбиране."
},
"llava:34b": {
"description": "LLaVA е многомодален модел, комбиниращ визуален кодер и Vicuna, предназначен за мощно визуално и езиково разбиране."
},
"mathstral": {
"description": "MathΣtral е проектиран за научни изследвания и математически разсъждения, предоставяйки ефективни изчислителни способности и интерпретация на резултати."
},
"max-32k": {
"description": "Spark Max 32K е конфигуриран с голяма способност за обработка на контекст, с по-силно разбиране на контекста и логическо разсъждение, поддържащ текстови входове до 32K токена, подходящ за четене на дълги документи, частни въпроси и отговори и други сценарии."
},
"meta-llama-3-70b-instruct": {
"description": "Мощен модел с 70 милиарда параметри, отличаващ се в разсъждения, кодиране и широки езикови приложения."
},
"meta-llama-3-8b-instruct": {
"description": "Универсален модел с 8 милиарда параметри, оптимизиран за диалогови и текстови генериращи задачи."
},
"meta-llama-3.1-405b-instruct": {
"description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти."
},
"meta-llama-3.1-70b-instruct": {
"description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти."
},
"meta-llama-3.1-8b-instruct": {
"description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти."
},
"meta-llama/Llama-2-13b-chat-hf": {
"description": "LLaMA-2 Chat (13B) предлага отлични способности за обработка на език и изключителен интерактивен опит."
},
"meta-llama/Llama-2-70b-hf": {
"description": "LLaMA-2 предлага отлични способности за обработка на език и невероятно потребителско изживяване."
},
"meta-llama/Llama-3-70b-chat-hf": {
"description": "LLaMA-3 Chat (70B) е мощен чат модел, поддържащ сложни изисквания за диалог."
},
"meta-llama/Llama-3-8b-chat-hf": {
"description": "LLaMA-3 Chat (8B) предлага многоезична поддръжка, обхващаща богати области на знание."
},
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
"description": "LLaMA 3.2 е проектирана да обработва задачи, комбиниращи визуални и текстови данни. Тя демонстрира отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на езици и визуалното разсъждение."
},
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
"description": "LLaMA 3.2 е проектирана да обработва задачи, комбиниращи визуални и текстови данни. Тя демонстрира отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на езици и визуалното разсъждение."
},
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
"description": "LLaMA 3.2 е проектирана да обработва задачи, комбиниращи визуални и текстови данни. Тя демонстрира отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на езици и визуалното разсъждение."
},
"meta-llama/Llama-3.3-70B-Instruct": {
"description": "Llama 3.3 е най-напредналият многоезичен отворен голям езиков модел от серията Llama, предлагащ производителност, сравнима с 405B моделите на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия за оптимизация на инструкции е специално проектирана за многоезични диалози и показва по-добри резултати от много от отворените и затворените чат модели в множество индустриални бенчмаркове. Краен срок за знания: декември 2023 г."
},
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
"description": "Meta Llama 3.3 многоезичен голям езиков модел (LLM) е предварително обучен и коригиран за инструкции в 70B (текстов вход/текстов изход). Моделът Llama 3.3, коригиран за инструкции, е оптимизиран за многоезични диалогови случаи и превъзхожда много налични отворени и затворени чат модели на общи индустриални бенчмаркове."
},
"meta-llama/Llama-Vision-Free": {
"description": "LLaMA 3.2 е проектирана да обработва задачи, комбиниращи визуални и текстови данни. Тя демонстрира отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на езици и визуалното разсъждение."
},
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
"description": "Llama 3 70B Instruct Lite е подходящ за среди, изискващи висока производителност и ниска латентност."
},
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
"description": "Llama 3 70B Instruct Turbo предлага изключителни способности за разбиране и генериране на език, подходящи за най-строги изчислителни задачи."
},
"meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
"description": "Llama 3 8B Instruct Lite е подходящ за среди с ограничени ресурси, предлагащи отличен баланс на производителност."
},
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
"description": "Llama 3 8B Instruct Turbo е високоефективен голям езиков модел, поддържащ широк спектър от приложения."
},
"meta-llama/Meta-Llama-3.1-405B-Instruct": {
"description": "LLaMA 3.1 405B е мощен модел за предварително обучение и настройка на инструкции."
},
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
"description": "405B Llama 3.1 Turbo моделът предлага огромна контекстова поддръжка за обработка на големи данни, с изключителна производителност в приложения с изкуствен интелект с много голям мащаб."
},
"meta-llama/Meta-Llama-3.1-70B": {
"description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, подходящ за сложни разговори, многоезичен превод и анализ на данни."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
"description": "LLaMA 3.1 70B предлага ефективна поддръжка за многоезични диалози."
},
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
"description": "Llama 3.1 70B моделът е прецизно настроен за приложения с високо натоварване, квантован до FP8, осигурявайки по-ефективна изчислителна мощ и точност, гарантиращи изключителна производителност в сложни сценарии."
},
"meta-llama/Meta-Llama-3.1-8B-Instruct": {
"description": "LLaMA 3.1 предлага многоезична поддръжка и е един от водещите генеративни модели в индустрията."
},
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
"description": "Llama 3.1 8B моделът използва FP8 квантоване, поддържа до 131,072 контекстови маркера и е сред най-добрите отворени модели, подходящи за сложни задачи, с производителност, превъзхождаща много индустриални стандарти."
},
"meta-llama/llama-3-70b-instruct": {
"description": "Llama 3 70B Instruct е оптимизирана за висококачествени диалогови сценарии и показва отлични резултати в различни човешки оценки."
},
"meta-llama/llama-3-8b-instruct": {
"description": "Llama 3 8B Instruct е оптимизирана за висококачествени диалогови сценарии, с представяне, надминаващо много затворени модели."
},
"meta-llama/llama-3.1-70b-instruct": {
"description": "Llama 3.1 70B Instruct е проектиран за висококачествени диалози и показва отлични резултати в човешките оценки, особено подходящ за сценарии с висока интерактивност."
},
"meta-llama/llama-3.1-8b-instruct": {
"description": "Llama 3.1 8B Instruct е най-новата версия, пусната от Meta, оптимизирана за висококачествени диалогови сценарии, с представяне, надминаващо много водещи затворени модели."
},
"meta-llama/llama-3.1-8b-instruct:free": {
"description": "LLaMA 3.1 предлага поддръжка на множество езици и е един от водещите генеративни модели в индустрията."
},
"meta-llama/llama-3.2-11b-vision-instruct": {
"description": "LLaMA 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
},
"meta-llama/llama-3.2-3b-instruct": {
"description": "meta-llama/llama-3.2-3b-instruct"
},
"meta-llama/llama-3.2-90b-vision-instruct": {
"description": "LLaMA 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
},
"meta-llama/llama-3.3-70b-instruct": {
"description": "Llama 3.3 е най-напредналият многоезичен отворен езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия, оптимизирана за инструкции, е специално проектирана за многоезични диалози и показва по-добри резултати от много от отворените и затворените чат модели в множество индустриални бенчмаркове. Краен срок за знания: декември 2023."
},
"meta-llama/llama-3.3-70b-instruct:free": {
"description": "Llama 3.3 е най-напредналият многоезичен отворен езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия, оптимизирана за инструкции, е специално проектирана за многоезични диалози и показва по-добри резултати от много от отворените и затворените чат модели в множество индустриални бенчмаркове. Краен срок за знания: декември 2023."
},
"meta.llama3-1-405b-instruct-v1:0": {
"description": "Meta Llama 3.1 405B Instruct е най-голямата и най-мощната версия на модела Llama 3.1 Instruct. Това е високо напреднал модел за диалогово разсъждение и генериране на синтетични данни, който може да се използва и като основа за професионално продължително предварително обучение или фино настройване в специфични области. Многоезичният голям езиков модел (LLMs), предоставен от Llama 3.1, е набор от предварително обучени, коригирани по инструкции генеративни модели, включително размери 8B, 70B и 405B (текстов вход/изход). Текстовите модели, коригирани по инструкции (8B, 70B, 405B), са оптимизирани за многоезични диалогови случаи и надминават много налични отворени чат модели в общи индустриални бенчмаркове. Llama 3.1 е проектиран за търговски и изследователски цели на множество езици. Моделите, коригирани по инструкции, са подходящи за чатове, подобни на асистенти, докато предварително обучените модели могат да се адаптират към различни задачи за генериране на естествен език. Моделите на Llama 3.1 също поддържат използването на изхода на модела за подобряване на други модели, включително генериране на синтетични данни и рафиниране. Llama 3.1 е саморегресивен езиков модел, използващ оптимизирана трансформаторна архитектура. Коригираните версии използват супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF), за да отговорят на предпочитанията на хората за полезност и безопасност."
},
"meta.llama3-1-70b-instruct-v1:0": {
"description": "Актуализирана версия на Meta Llama 3.1 70B Instruct, включваща разширен контекстуален прозорец от 128K, многоезичност и подобрени способности за разсъждение. Многоезичният голям езиков модел (LLMs) на Llama 3.1 е набор от предварително обучени, коригирани за инструкции генериращи модели, включващи размери 8B, 70B и 405B (текстово въвеждане/изход). Текстовите модели, коригирани за инструкции (8B, 70B, 405B), са оптимизирани за многоезични диалогови случаи и надминават много налични отворени чат модели в общи индустриални бенчмаркове. Llama 3.1 е проектиран за търговски и изследователски цели на множество езици. Текстовите модели, коригирани за инструкции, са подходящи за чат, подобен на асистент, докато предварително обучените модели могат да се адаптират за различни задачи по генериране на естествен език. Моделите на Llama 3.1 също поддържат използването на изхода на модела за подобряване на други модели, включително генериране на синтетични данни и рафиниране. Llama 3.1 е саморегресивен езиков модел, използващ оптимизирана архитектура на трансформатор. Коригираните версии използват наблюдавано фино настройване (SFT) и обучение с подсилване с човешка обратна връзка (RLHF), за да отговорят на предпочитанията на хората за полезност и безопасност."
},
"meta.llama3-1-8b-instruct-v1:0": {
"description": "Актуализирана версия на Meta Llama 3.1 8B Instruct, включваща разширен контекстуален прозорец от 128K, многоезичност и подобрени способности за разсъждение. Многоезичният голям езиков модел (LLMs) на Llama 3.1 е набор от предварително обучени, коригирани за инструкции генериращи модели, включващи размери 8B, 70B и 405B (текстово въвеждане/изход). Текстовите модели, коригирани за инструкции (8B, 70B, 405B), са оптимизирани за многоезични диалогови случаи и надминават много налични отворени чат модели в общи индустриални бенчмаркове. Llama 3.1 е проектиран за търговски и изследователски цели на множество езици. Текстовите модели, коригирани за инструкции, са подходящи за чат, подобен на асистент, докато предварително обучените модели могат да се адаптират за различни задачи по генериране на естествен език. Моделите на Llama 3.1 също поддържат използването на изхода на модела за подобряване на други модели, включително генериране на синтетични данни и рафиниране. Llama 3.1 е саморегресивен езиков модел, използващ оптимизирана архитектура на трансформатор. Коригираните версии използват наблюдавано фино настройване (SFT) и обучение с подсилване с човешка обратна връзка (RLHF), за да отговорят на предпочитанията на хората за полезност и безопасност."
},
"meta.llama3-70b-instruct-v1:0": {
"description": "Meta Llama 3 е отворен голям езиков модел (LLM), насочен към разработчици, изследователи и предприятия, предназначен да им помогне да изградят, експериментират и отговорно разширят своите идеи за генеративен ИИ. Като част от основната система на глобалната общност за иновации, той е особено подходящ за създаване на съдържание, диалогов ИИ, разбиране на езика, научноизследователска и развойна дейност и бизнес приложения."
},
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 е отворен голям езиков модел (LLM), насочен към разработчици, изследователи и предприятия, предназначен да им помогне да изградят, експериментират и отговорно разширят своите идеи за генеративен ИИ. Като част от основната система на глобалната общност за иновации, той е особено подходящ за устройства с ограничени изчислителни ресурси и по-бързо време за обучение."
},
"meta/llama-3.1-405b-instruct": {
"description": "Напреднал LLM, поддържащ генериране на синтетични данни, дестилация на знания и разсъждение, подходящ за чатботове, програмиране и специфични задачи."
},
"meta/llama-3.1-70b-instruct": {
"description": "Улеснява сложни разговори, с изключителни способности за разбиране на контекста, разсъждение и генериране на текст."
},
"meta/llama-3.1-8b-instruct": {
"description": "Напреднал, водещ модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Водещ визуално-езиков модел, специализиран в извършване на висококачествени разсъждения от изображения."
},
"meta/llama-3.2-1b-instruct": {
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"meta/llama-3.2-3b-instruct": {
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Водещ визуално-езиков модел, специализиран в извършване на висококачествени разсъждения от изображения."
},
"meta/llama-3.3-70b-instruct": {
"description": "Напреднал LLM, специализиран в разсъждения, математика, общи познания и извикване на функции."
},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който показва особени способности в сложни разговори, многоезичност, разсъждения и интелигентни асистенти."
},
"microsoft/wizardlm-2-8x22b": {
"description": "WizardLM-2 8x22B е най-напредналият Wizard модел на Microsoft AI, показващ изключителна конкурентоспособност."
},
"minicpm-v": {
"description": "MiniCPM-V е новото поколение мултимодален голям модел, представен от OpenBMB, който притежава изключителни способности за OCR разпознаване и мултимодално разбиране, поддържащ широк спектър от приложения."
},
"ministral-3b-latest": {
"description": "Ministral 3B е световен лидер сред моделите на Mistral."
},
"ministral-8b-latest": {
"description": "Ministral 8B е модел на Mistral с отлична цена-качество."
},
"mistral": {
"description": "Mistral е 7B модел, представен от Mistral AI, подходящ за променливи нужди в обработката на език."
},
"mistral-large": {
"description": "Mixtral Large е флагманският модел на Mistral, комбиниращ способности за генериране на код, математика и разсъждение, поддържащ контекстен прозорец от 128k."
},
"mistral-large-latest": {
"description": "Mistral Large е флагманският модел, специализиран в многоезични задачи, сложни разсъждения и генериране на код, идеален за висококачествени приложения."
},
"mistral-nemo": {
"description": "Mistral Nemo е 12B модел, разработен в сътрудничество между Mistral AI и NVIDIA, предлагащ ефективна производителност."
},
"mistral-small": {
"description": "Mistral Small може да се използва за всяка езикова задача, която изисква висока ефективност и ниска латентност."
},
"mistral-small-latest": {
"description": "Mistral Small е икономически ефективен, бърз и надежден вариант, подходящ за случаи на употреба като превод, резюме и анализ на настроението."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct е известен с високата си производителност, подходящ за множество езикови задачи."
},
"mistralai/Mistral-7B-Instruct-v0.2": {
"description": "Mistral 7B е модел с фино настройване по заявка, предлагащ оптимизирани отговори за задачи."
},
"mistralai/Mistral-7B-Instruct-v0.3": {
"description": "Mistral (7B) Instruct v0.3 предлага ефективна изчислителна мощ и разбиране на естествения език, подходяща за широк спектър от приложения."
},
"mistralai/Mistral-7B-v0.1": {
"description": "Mistral 7B е компактен, но високопроизводителен модел, специализиран в обработка на партиди и основни задачи, като класификация и генериране на текст с добри способности за разсъждение."
},
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
"description": "Mixtral-8x22B Instruct (141B) е супер голям езиков модел, поддържащ изключително високи изисквания за обработка."
},
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
"description": "Mixtral 8x7B е предварително обучен модел на разредени смесени експерти, предназначен за универсални текстови задачи."
},
"mistralai/Mixtral-8x7B-v0.1": {
"description": "Mixtral 8x7B е модел с рядък експерт, който използва множество параметри, за да подобри скоростта на разсъждение, подходящ за обработка на многоезични и генериращи код задачи."
},
"mistralai/mistral-7b-instruct": {
"description": "Mistral 7B Instruct е високопроизводителен индустриален стандартен модел, оптимизиран за бързина и поддръжка на дълги контексти."
},
"mistralai/mistral-nemo": {
"description": "Mistral Nemo е модел с 7.3B параметри, предлагащ многоезична поддръжка и висока производителност."
},
"mixtral": {
"description": "Mixtral е експертен модел на Mistral AI, с отворени тегла, предоставящ поддръжка в генерирането на код и разбиране на езика."
},
"mixtral-8x7b-32768": {
"description": "Mixtral 8x7B предлага висока толерантност на грешки при паралелно изчисление, подходяща за сложни задачи."
},
"mixtral:8x22b": {
"description": "Mixtral е експертен модел на Mistral AI, с отворени тегла, предоставящ поддръжка в генерирането на код и разбиране на езика."
},
"moonshot-v1-128k": {
"description": "Moonshot V1 128K е модел с изключителна способност за обработка на дълги контексти, подходящ за генериране на много дълги текстове, отговарящи на сложни изисквания за генериране, способен да обработва до 128,000 токена, особено подходящ за научни изследвания, академични и генериране на големи документи."
},
"moonshot-v1-128k-vision-preview": {
"description": "Визуалният модел Kimi (включително moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview и др.) може да разбира съдържанието на изображения, включително текст в изображения, цветове и форми на обекти."
},
"moonshot-v1-32k": {
"description": "Moonshot V1 32K предлага средна дължина на контекста, способен да обработва 32,768 токена, особено подходящ за генериране на различни дълги документи и сложни диалози, използван в области като създаване на съдържание, генериране на отчети и диалогови системи."
},
"moonshot-v1-32k-vision-preview": {
"description": "Визуалният модел Kimi (включително moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview и др.) може да разбира съдържанието на изображения, включително текст в изображения, цветове и форми на обекти."
},
"moonshot-v1-8k": {
"description": "Moonshot V1 8K е проектиран за генериране на кратки текстови задачи, с ефективна производителност, способен да обработва 8,192 токена, особено подходящ за кратки диалози, бележки и бързо генериране на съдържание."
},
"moonshot-v1-8k-vision-preview": {
"description": "Визуалният модел Kimi (включително moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview и др.) може да разбира съдържанието на изображения, включително текст в изображения, цветове и форми на обекти."
},
"moonshot-v1-auto": {
"description": "Moonshot V1 Auto може да избере подходящ модел в зависимост от количеството токени, заето от текущия контекст."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2, включваща най-новите вътрешно разработени набори от данни."
},
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
"description": "Llama 3.1 Nemotron 70B е голям езиков модел, персонализиран от NVIDIA, предназначен да увеличи полезността на отговорите, генерирани от LLM на потребителските запитвания. Моделът показва отлични резултати в бенчмаркове като Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, като заема първо място в трите автоматизирани теста за подравняване към 1 октомври 2024 г. Моделът е обучен с RLHF (по-специално REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference подсказки на базата на Llama-3.1-70B-Instruct модела."
},
"nvidia/llama-3.1-nemotron-51b-instruct": {
"description": "Уникален езиков модел, предлагащ ненадмината точност и ефективност."
},
"nvidia/llama-3.1-nemotron-70b-instruct": {
"description": "Llama-3.1-Nemotron-70B-Instruct е персонализиран голям езиков модел на NVIDIA, предназначен да подобри полезността на отговорите, генерирани от LLM."
},
"o1": {
"description": "Фокусиран върху напреднали изводи и решаване на сложни проблеми, включително математически и научни задачи. Изключително подходящ за приложения, изискващи дълбочинно разбиране на контекста и управление на работни потоци."
},
"o1-mini": {
"description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
},
"o1-preview": {
"description": "o1 е новият модел за изводи на OpenAI, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
},
"o3-mini": {
"description": "o3-mini е нашият най-нов малък модел за инференция, който предлага висока интелигентност при същите разходи и цели за закъснение като o1-mini."
},
"open-codestral-mamba": {
"description": "Codestral Mamba е модел на езика Mamba 2, специализиран в генерирането на код, предоставящ мощна поддръжка за напреднали кодови и разсъждателни задачи."
},
"open-mistral-7b": {
"description": "Mistral 7B е компактен, но високопроизводителен модел, специализиран в обработка на партиди и прости задачи, като класификация и генериране на текст, с добра способност за разсъждение."
},
"open-mistral-nemo": {
"description": "Mistral Nemo е 12B модел, разработен в сътрудничество с Nvidia, предлагащ отлични способности за разсъждение и кодиране, лесен за интеграция и замяна."
},
"open-mixtral-8x22b": {
"description": "Mixtral 8x22B е по-голям експертен модел, фокусиран върху сложни задачи, предлагащ отлични способности за разсъждение и по-висока производителност."
},
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B е рядък експертен модел, който използва множество параметри за увеличаване на скоростта на разсъждение, подходящ за обработка на многоезични и кодови генериращи задачи."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и способности за генериране, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini е най-новият модел на OpenAI, пуснат след GPT-4 Omni, който поддържа вход и изход на текст и изображения. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 в предпочитанията за чат."
},
"openai/o1-mini": {
"description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
},
"openai/o1-preview": {
"description": "o1 е новият модел за изводи на OpenAI, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
},
"openchat/openchat-7b": {
"description": "OpenChat 7B е отворен езиков модел, прецизно настроен с помощта на стратегията „C-RLFT (условно подсилващо обучение)“."
},
"openrouter/auto": {
"description": "В зависимост от дължината на контекста, темата и сложността, вашето запитване ще бъде изпратено до Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулиращ) или GPT-4o."
},
"phi3": {
"description": "Phi-3 е лек отворен модел, представен от Microsoft, подходящ за ефективна интеграция и мащабно знание разсъждение."
},
"phi3:14b": {
"description": "Phi-3 е лек отворен модел, представен от Microsoft, подходящ за ефективна интеграция и мащабно знание разсъждение."
},
"pixtral-12b-2409": {
"description": "Моделът Pixtral демонстрира силни способности в задачи като разбиране на графики и изображения, отговори на документи, многомодално разсъждение и следване на инструкции, способен да приема изображения с естествено разрешение и съотношение на страните, както и да обработва произволен брой изображения в контекстен прозорец с дължина до 128K токена."
},
"pixtral-large-latest": {
"description": "Pixtral Large е отворен многомодален модел с 1240 милиарда параметри, базиран на Mistral Large 2. Това е вторият модел в нашето многомодално семейство, който демонстрира авангардни способности за разбиране на изображения."
},
"pro-128k": {
"description": "Spark Pro 128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочна логическа свързаност, предоставяйки гладка и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
},
"qvq-72b-preview": {
"description": "QVQ моделът е експериментален изследователски модел, разработен от екипа на Qwen, фокусиран върху повишаване на визуалните способности за разсъждение, особено в областта на математическото разсъждение."
},
"qwen-coder-plus-latest": {
"description": "Модел за кодиране Qwen с общо предназначение."
},
"qwen-coder-turbo-latest": {
"description": "Моделът на кода Qwen."
},
"qwen-long": {
"description": "Qwen е мащабен езиков модел, който поддържа дълги текстови контексти и диалогови функции, базирани на дълги документи и множество документи."
},
"qwen-math-plus-latest": {
"description": "Математическият модел Qwen е специално проектиран за решаване на математически задачи."
},
"qwen-math-turbo-latest": {
"description": "Математическият модел Qwen е специално проектиран за решаване на математически задачи."
},
"qwen-max": {
"description": "通义千问Qwen е моделиран на база багатограмния езиков модел с хипотетично ниво на милярд, поддържащ различни езици, включително китайски и английски, и в момента служи като API на продукта версия 2.5 на 通义千问."
},
"qwen-max-latest": {
"description": "Qwen Max е езиков модел с мащаб от стотици милиарди параметри, който поддържа вход на различни езици, включително китайски и английски. В момента е основният API модел зад версията на продукта Qwen 2.5."
},
"qwen-omni-turbo-latest": {
"description": "Моделите от серията Qwen-Omni поддържат входни данни от множество модалности, включително видео, аудио, изображения и текст, и генерират аудио и текст."
},
"qwen-plus": {
"description": "通义千问Qwen е подобрена версия на мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
},
"qwen-plus-latest": {
"description": "Разширената версия на Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
},
"qwen-turbo": {
"description": "通义千问Qwen е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
},
"qwen-turbo-latest": {
"description": "Моделът на езика Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
},
"qwen-vl-chat-v1": {
"description": "Qwen VL поддържа гъвкави интерактивни методи, включително множество изображения, многократни въпроси и отговори, творчество и др."
},
"qwen-vl-max-latest": {
"description": "Qwen-VL Max е модел за визуален език с изключително голям мащаб. В сравнение с подобрената версия, той отново подобрява способността за визуално разсъждение и следване на инструкции, предоставяйки по-високо ниво на визуално възприятие и познание."
},
"qwen-vl-ocr-latest": {
"description": "Qwen OCR е специализиран модел за извличане на текст, фокусиран върху способността за извличане на текст от изображения на документи, таблици, тестови въпроси, ръкописен текст и др. Той може да разпознава множество езици, включително: китайски, английски, френски, японски, корейски, немски, руски, италиански, виетнамски и арабски."
},
"qwen-vl-plus-latest": {
"description": "Моделят за визуален език Qwen-VL Plus е подобрена версия с голям мащаб. Значително подобрява способността за разпознаване на детайли и текст, поддържа резолюция над милион пиксела и изображения с произволно съотношение на страните."
},
"qwen-vl-v1": {
"description": "Инициализиран с езиковия модел Qwen-7B, добавя модел за изображения, предтренировъчен модел с резолюция на входа от 448."
},
"qwen/qwen-2-7b-instruct": {
"description": "Qwen2 е новата серия големи езикови модели Qwen. Qwen2 7B е модел, базиран на трансформатор, който показва отлични резултати в разбирането на езика, многоезичните способности, програмирането, математиката и разсъжденията."
},
"qwen/qwen-2-7b-instruct:free": {
"description": "Qwen2 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране."
},
"qwen/qwen-2-vl-72b-instruct": {
"description": "Qwen2-VL е най-новата итерация на модела Qwen-VL, постигайки най-съвременни резултати в бенчмарковете за визуално разбиране, включително MathVista, DocVQA, RealWorldQA и MTVQA. Qwen2-VL може да разбира видеа с продължителност над 20 минути, за висококачествени въпроси и отговори, диалози и създаване на съдържание, базирани на видео. Той също така притежава сложни способности за разсъждение и вземане на решения, които могат да се интегрират с мобилни устройства, роботи и др., за автоматични операции на базата на визуална среда и текстови инструкции. Освен английски и китайски, Qwen2-VL сега поддържа и разбиране на текст на различни езици в изображения, включително повечето европейски езици, японски, корейски, арабски и виетнамски."
},
"qwen/qwen-2.5-72b-instruct": {
"description": "Qwen2.5-72B-Instruct е една от най-новите серии големи езикови модели, публикувани от Alibaba Cloud. Този 72B модел има значителни подобрения в области като кодиране и математика. Моделът предлага и многоезична поддръжка, обхващаща над 29 езика, включително китайски и английски. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
},
"qwen/qwen2.5-32b-instruct": {
"description": "Qwen2.5-32B-Instruct е една от най-новите серии големи езикови модели, публикувани от Alibaba Cloud. Този 32B модел има значителни подобрения в области като кодиране и математика. Моделът предлага и многоезична поддръжка, обхващаща над 29 езика, включително китайски и английски. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
},
"qwen/qwen2.5-7b-instruct": {
"description": "LLM, насочен към китайски и английски, за области като език, програмиране, математика и разсъждение."
},
"qwen/qwen2.5-coder-32b-instruct": {
"description": "Напреднал LLM, поддържащ генериране на код, разсъждение и корекции, обхващащ основните програмни езици."
},
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Мощен среден модел за код, поддържащ 32K дължина на контекста, специализиран в многоезично програмиране."
},
"qwen2": {
"description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
},
"qwen2.5": {
"description": "Qwen2.5 е новото поколение мащабен езиков модел на Alibaba, който предлага отлична производителност, за да отговори на разнообразни приложни нужди."
},
"qwen2.5-14b-instruct": {
"description": "Модел с мащаб 14B, отворен за обществеността от Qwen 2.5."
},
"qwen2.5-14b-instruct-1m": {
"description": "Qwen2.5 е отворен модел с мащаб 72B."
},
"qwen2.5-32b-instruct": {
"description": "Модел с мащаб 32B, отворен за обществеността от Qwen 2.5."
},
"qwen2.5-72b-instruct": {
"description": "Модел с мащаб 72B, отворен за обществеността от Qwen 2.5."
},
"qwen2.5-7b-instruct": {
"description": "Модел с мащаб 7B, отворен за обществеността от Qwen 2.5."
},
"qwen2.5-coder-1.5b-instruct": {
"description": "通义千问Qwen е отворен код модел за програмиране."
},
"qwen2.5-coder-32b-instruct": {
"description": "Отворена версия на модела за кодиране Qwen с общо предназначение."
},
"qwen2.5-coder-7b-instruct": {
"description": "Отворената версия на модела на кода Qwen."
},
"qwen2.5-math-1.5b-instruct": {
"description": "Qwen-Math моделът разполага със силни умения за решаване на математически задачи."
},
"qwen2.5-math-72b-instruct": {
"description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
},
"qwen2.5-math-7b-instruct": {
"description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
},
"qwen2.5-vl-72b-instruct": {
"description": "Подобрение на следването на инструкции, математика, решаване на проблеми и код, повишаване на способността за разпознаване на обекти, поддържа директно точно локализиране на визуални елементи в различни формати, поддържа разбиране на дълги видео файлове (до 10 минути) и локализиране на събития в секунда, може да разбира времеви последователности и скорости, базирано на способности за анализ и локализация, поддържа управление на OS или Mobile агенти, силна способност за извличане на ключова информация и изход в JSON формат, тази версия е 72B, най-силната версия в серията."
},
"qwen2.5-vl-7b-instruct": {
"description": "Подобрение на следването на инструкции, математика, решаване на проблеми и код, повишаване на способността за разпознаване на обекти, поддържа директно точно локализиране на визуални елементи в различни формати, поддържа разбиране на дълги видео файлове (до 10 минути) и локализиране на събития в секунда, може да разбира времеви последователности и скорости, базирано на способности за анализ и локализация, поддържа управление на OS или Mobile агенти, силна способност за извличане на ключова информация и изход в JSON формат, тази версия е 72B, най-силната версия в серията."
},
"qwen2.5:0.5b": {
"description": "Qwen2.5 е новото поколение мащабен езиков модел на Alibaba, който предлага отлична производителност, за да отговори на разнообразни приложни нужди."
},
"qwen2.5:1.5b": {
"description": "Qwen2.5 е новото поколение мащабен езиков модел на Alibaba, който предлага отлична производителност, за да отговори на разнообразни приложни нужди."
},
"qwen2.5:72b": {
"description": "Qwen2.5 е новото поколение мащабен езиков модел на Alibaba, който предлага отлична производителност, за да отговори на разнообразни приложни нужди."
},
"qwen2:0.5b": {
"description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
},
"qwen2:1.5b": {
"description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
},
"qwen2:72b": {
"description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
},
"qwq": {
"description": "QwQ е експериментален изследователски модел, който се фокусира върху подобряване на AI разсъдъчните способности."
},
"qwq-32b": {
"description": "QwQ моделът за изводи, обучен на базата на модела Qwen2.5-32B, значително подобрява способностите си за изводи чрез усилено обучение. Основните показатели на модела, като математически код и други ключови индикатори (AIME 24/25, LiveCodeBench), както и някои общи индикатори (IFEval, LiveBench и др.), достигат нивото на DeepSeek-R1 в пълна версия, като всички показатели значително надвишават тези на DeepSeek-R1-Distill-Qwen-32B, също базиран на Qwen2.5-32B."
},
"qwq-32b-preview": {
"description": "QwQ моделът е експериментален изследователски модел, разработен от екипа на Qwen, който се фокусира върху подобряване на AI разсъдъчните способности."
},
"qwq-plus-latest": {
"description": "QwQ моделът за изводи, обучен на базата на модела Qwen2.5, значително подобрява способностите си за изводи чрез усилено обучение. Основните показатели на модела, като математически код и други ключови индикатори (AIME 24/25, LiveCodeBench), както и някои общи индикатори (IFEval, LiveBench и др.), достигат нивото на DeepSeek-R1 в пълна версия."
},
"r1-1776": {
"description": "R1-1776 е версия на модела DeepSeek R1, след обучението, която предоставя непроверена и безпристрастна фактическа информация."
},
"solar-mini": {
"description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични способности, поддържа английски и корейски, предоставяйки ефективно и компактно решение."
},
"solar-mini-ja": {
"description": "Solar Mini (Ja) разширява възможностите на Solar Mini, фокусирайки се върху японския език, като същевременно поддържа висока ефективност и отлично представяне в английския и корейския."
},
"solar-pro": {
"description": "Solar Pro е високоинтелигентен LLM, пуснат от Upstage, фокусиран върху способността за следване на инструкции с един GPU, с IFEval оценка над 80. В момента поддържа английски, а официалната версия е планирана за пускане през ноември 2024 г., с разширена поддръжка на езици и дължина на контекста."
},
"sonar": {
"description": "Лек продукт за търсене, базиран на контекст на търсене, по-бърз и по-евтин от Sonar Pro."
},
"sonar-deep-research": {
"description": "Deep Research извършва задълбочени експертни изследвания и ги обобщава в достъпни и приложими доклади."
},
"sonar-pro": {
"description": "Разширен продукт за търсене, който поддържа контекст на търсене, напреднали запитвания и проследяване."
},
"sonar-reasoning": {
"description": "Нови API продукти, поддържани от модела за разсъждение на DeepSeek."
},
"sonar-reasoning-pro": {
"description": "Нов API продукт, поддържан от модела за разсъждение DeepSeek."
},
"step-1-128k": {
"description": "Баланс между производителност и разходи, подходящ за общи сценарии."
},
"step-1-256k": {
"description": "Супер дълга контекстова обработка, особено подходяща за анализ на дълги документи."
},
"step-1-32k": {
"description": "Поддържа диалози със средна дължина, подходящи за множество приложения."
},
"step-1-8k": {
"description": "Малък модел, подходящ за леки задачи."
},
"step-1-flash": {
"description": "Бърз модел, подходящ за реални диалози."
},
"step-1.5v-mini": {
"description": "Този модел разполага с мощни способности за разбиране на видео."
},
"step-1o-turbo-vision": {
"description": "Този модел разполага с мощни способности за разбиране на изображения и е по-добър от 1o в областта на математиката и кода. Моделът е по-малък от 1o и предлага по-бърза скорост на изход."
},
"step-1o-vision-32k": {
"description": "Този модел разполага с мощни способности за разбиране на изображения. В сравнение с моделите от серията step-1v, предлага по-силна визуална производителност."
},
"step-1v-32k": {
"description": "Поддържа визуални входове, подобряваща мултимодалното взаимодействие."
},
"step-1v-8k": {
"description": "Малък визуален модел, подходящ за основни текстово-визуални задачи."
},
"step-2-16k": {
"description": "Поддържа взаимодействия с голям мащаб на контекста, подходящи за сложни диалогови сценарии."
},
"step-2-mini": {
"description": "Модел с бърза производителност, базиран на новото поколение собствена архитектура Attention MFA, който постига резултати, подобни на step1 с много ниски разходи, като същевременно поддържа по-висока производителност и по-бързо време за отговор. Може да обработва общи задачи и притежава специализирани умения в кодирането."
},
"taichu_llm": {
"description": "Моделът на езика TaiChu е с изключителни способности за разбиране на езика, текстово генериране, отговори на знания, програмиране, математически изчисления, логическо разсъждение, анализ на емоции, резюмиране на текст и др. Иновативно комбинира предварително обучение с големи данни и разнообразни източници на знания, чрез непрекъснато усъвършенстване на алгоритмичните технологии и усвояване на нови знания от масивни текстови данни, за да осигури на потребителите по-удобна информация и услуги, както и по-интелигентно изживяване."
},
"taichu_vl": {
"description": "Съчетава способности за разбиране на изображения, прехвърляне на знания и логическо обяснение, като показва отлични резултати в областта на въпросите и отговорите с текст и изображения."
},
"text-embedding-3-large": {
"description": "Най-мощният модел за векторизация, подходящ за английски и неанглийски задачи."
},
"text-embedding-3-small": {
"description": "Ефективен и икономичен ново поколение модел за вграждане, подходящ за извличане на знания, RAG приложения и други сценарии."
},
"thudm/glm-4-9b-chat": {
"description": "GLM-4 е последната версия на предварително обучен модел от серията, публикувана от Zhizhu AI."
},
"togethercomputer/StripedHyena-Nous-7B": {
"description": "StripedHyena Nous (7B) предлага подобрена изчислителна мощ чрез ефективни стратегии и архитектура на модела."
},
"tts-1": {
"description": "Най-новият модел за текст в реч, оптимизиран за скорост в реални сценарии."
},
"tts-1-hd": {
"description": "Най-новият модел за текст в реч, оптимизиран за качество."
},
"upstage/SOLAR-10.7B-Instruct-v1.0": {
"description": "Upstage SOLAR Instruct v1 (11B) е подходящ за прецизни задачи с инструкции, предлагащи отлични способности за обработка на език."
},
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надминаваща конкурентните модели и Claude 3 Opus, показвайки отлични резултати в широк спектър от оценки, като същевременно предлага скорост и разходи, сравними с нашите модели от средно ниво."
},
"us.anthropic.claude-3-7-sonnet-20250219-v1:0": {
"description": "Claude 3.7 сонет е най-бързият модел от следващото поколение на Anthropic. В сравнение с Claude 3 Haiku, Claude 3.7 Сонет е подобрен във всички умения и надминава най-големия модел от предишното поколение Claude 3 Opus в много интелектуални тестове."
},
"whisper-1": {
"description": "Универсален модел за разпознаване на реч, поддържащ многоезично разпознаване на реч, превод на реч и разпознаване на езици."
},
"wizardlm2": {
"description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който се отличава в сложни диалози, многоезичност, разсъждение и интелигентни асистенти."
},
"wizardlm2:8x22b": {
"description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който се отличава в сложни диалози, многоезичност, разсъждение и интелигентни асистенти."
},
"yi-large": {
"description": "Новият модел с хиляда милиарда параметри предлага изключителни способности за отговори и генериране на текст."
},
"yi-large-fc": {
"description": "Поддържа и усилва способностите за извикване на инструменти на базата на модела yi-large, подходящ за различни бизнес сценарии, изискващи изграждане на агенти или работни потоци."
},
"yi-large-preview": {
"description": "Начална версия, препоръчва се да се използва yi-large (новата версия)."
},
"yi-large-rag": {
"description": "Висококачествена услуга, базирана на мощния модел yi-large, комбинираща технологии за извличане и генериране, предлагаща точни отговори и услуги за търсене на информация в реално време."
},
"yi-large-turbo": {
"description": "Изключителна производителност на висока цена. Балансирано прецизно настройване на производителността и скоростта на разсъжденията."
},
"yi-lightning": {
"description": "Най-новият високо производителен модел, който гарантира висококачествени изходи, докато значително ускорява времето за разсъждение."
},
"yi-lightning-lite": {
"description": "Лека версия, препоръчително е да се използва yi-lightning."
},
"yi-medium": {
"description": "Модел с среден размер, обновен и прецизно настроен, с балансирани способности и висока цена на производителност."
},
"yi-medium-200k": {
"description": "200K свръхдълъг контекстов прозорец, предлагащ дълбочинно разбиране и генериране на дълги текстове."
},
"yi-spark": {
"description": "Малък и мощен, лек и бърз модел. Предлага подобрени способности за математически операции и писане на код."
},
"yi-vision": {
"description": "Модел за сложни визуални задачи, предлагащ висока производителност за разбиране и анализ на изображения."
},
"yi-vision-v2": {
"description": "Модел за сложни визуални задачи, предлагащ висока производителност в разбирането и анализа на базата на множество изображения."
}
}