{ "01-ai/Yi-1.5-34B-Chat-16K": { "description": "Yi-1.5 34B, с богатым набором обучающих образцов, демонстрирует превосходные результаты в отраслевых приложениях." }, "01-ai/Yi-1.5-9B-Chat-16K": { "description": "Yi-1.5 9B поддерживает 16K токенов, обеспечивая эффективные и плавные возможности генерации языка." }, "360gpt-pro": { "description": "360GPT Pro, как важный член серии моделей AI от 360, удовлетворяет разнообразные приложения обработки текста с высокой эффективностью, поддерживает понимание длинных текстов и многораундные диалоги." }, "360gpt-turbo": { "description": "360GPT Turbo предлагает мощные вычислительные и диалоговые возможности, обладает выдающимся пониманием семантики и эффективностью генерации, что делает его идеальным решением для интеллектуальных помощников для предприятий и разработчиков." }, "360gpt-turbo-responsibility-8k": { "description": "360GPT Turbo Responsibility 8K акцентирует внимание на семантической безопасности и ответственности, специально разработан для приложений с высокими требованиями к безопасности контента, обеспечивая точность и надежность пользовательского опыта." }, "360gpt2-pro": { "description": "360GPT2 Pro — это продвинутая модель обработки естественного языка, выпущенная компанией 360, обладающая выдающимися способностями к генерации и пониманию текста, особенно в области генерации и творчества, способная обрабатывать сложные языковые преобразования и ролевые задачи." }, "4.0Ultra": { "description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли." }, "Baichuan2-Turbo": { "description": "Использует технологии улучшенного поиска для полной связи между большой моделью и отраслевыми знаниями, а также знаниями из сети. Поддерживает загрузку различных документов, таких как PDF и Word, а также ввод URL, обеспечивая своевременное и полное получение информации с точными и профессиональными результатами." }, "Baichuan3-Turbo": { "description": "Оптимизирован для высокочастотных корпоративных сценариев, значительно улучшает результаты и предлагает высокую стоимость. По сравнению с моделью Baichuan2, создание контента увеличилось на 20%, ответы на вопросы на 17%, а способности ролевого взаимодействия на 40%. Общая эффективность лучше, чем у GPT3.5." }, "Baichuan3-Turbo-128k": { "description": "Обладает 128K сверхдлинным контекстным окном, оптимизированным для высокочастотных корпоративных сценариев, значительно улучшает результаты и предлагает высокую стоимость. По сравнению с моделью Baichuan2, создание контента увеличилось на 20%, ответы на вопросы на 17%, а способности ролевого взаимодействия на 40%. Общая эффективность лучше, чем у GPT3.5." }, "Baichuan4": { "description": "Модель обладает лучшими возможностями в стране, превосходя зарубежные модели в задачах на знание, длинные тексты и генерацию контента. Также обладает передовыми мультимодальными возможностями и показывает отличные результаты в нескольких авторитетных тестах." }, "Gryphe/MythoMax-L2-13b": { "description": "MythoMax-L2 (13B) — это инновационная модель, подходящая для многообластных приложений и сложных задач." }, "Max-32k": { "description": "Spark Max 32K оснащен высокой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев" }, "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта." }, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — это высокоточная модель команд, подходящая для сложных вычислений." }, "NousResearch/Nous-Hermes-2-Yi-34B": { "description": "Nous Hermes-2 Yi (34B) предлагает оптимизированный языковой вывод и разнообразные возможности применения." }, "Phi-3-5-mini-instruct": { "description": "Обновление модели Phi-3-mini." }, "Phi-3-medium-128k-instruct": { "description": "Та же модель Phi-3-medium, но с большим размером контекста для RAG или нескольких подсказок." }, "Phi-3-medium-4k-instruct": { "description": "Модель с 14B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные." }, "Phi-3-mini-128k-instruct": { "description": "Та же модель Phi-3-mini, но с большим размером контекста для RAG или нескольких подсказок." }, "Phi-3-mini-4k-instruct": { "description": "Самая маленькая модель в семействе Phi-3. Оптимизирована как для качества, так и для низкой задержки." }, "Phi-3-small-128k-instruct": { "description": "Та же модель Phi-3-small, но с большим размером контекста для RAG или нескольких подсказок." }, "Phi-3-small-8k-instruct": { "description": "Модель с 7B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные." }, "Pro-128k": { "description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях." }, "Qwen/Qwen1.5-110B-Chat": { "description": "Как тестовая версия Qwen2, Qwen1.5 использует большие объемы данных для достижения более точных диалоговых функций." }, "Qwen/Qwen1.5-72B-Chat": { "description": "Qwen 1.5 Chat (72B) обеспечивает быстрые ответы и естественные диалоговые возможности, подходящие для многоязычной среды." }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд." }, "Qwen/Qwen2.5-14B-Instruct": { "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач." }, "Qwen/Qwen2.5-32B-Instruct": { "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач." }, "Qwen/Qwen2.5-72B-Instruct": { "description": "Qwen2.5 — это новая серия крупных языковых моделей с более сильными способностями понимания и генерации." }, "Qwen/Qwen2.5-7B-Instruct": { "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач." }, "Qwen/Qwen2.5-Coder-7B-Instruct": { "description": "Qwen2.5-Coder сосредоточен на написании кода." }, "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы." }, "THUDM/glm-4-9b-chat": { "description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений." }, "abab5.5-chat": { "description": "Ориентирован на производственные сценарии, поддерживает обработку сложных задач и эффективную генерацию текста, подходит для профессиональных приложений." }, "abab5.5s-chat": { "description": "Специально разработан для диалогов на китайском языке, обеспечивая высококачественную генерацию диалогов на китайском, подходит для различных приложений." }, "abab6.5g-chat": { "description": "Специально разработан для многоязычных диалогов, поддерживает высококачественную генерацию диалогов на английском и других языках." }, "abab6.5s-chat": { "description": "Подходит для широкого спектра задач обработки естественного языка, включая генерацию текста, диалоговые системы и т.д." }, "abab6.5t-chat": { "description": "Оптимизирован для диалогов на китайском языке, обеспечивая плавную генерацию диалогов, соответствующую китайским языковым привычкам." }, "accounts/fireworks/models/firefunction-v1": { "description": "Открытая модель вызова функций от Fireworks, обеспечивающая выдающиеся возможности выполнения команд и открытые настраиваемые функции." }, "accounts/fireworks/models/firefunction-v2": { "description": "Firefunction-v2 от компании Fireworks — это высокопроизводительная модель вызова функций, разработанная на основе Llama-3 и оптимизированная для вызова функций, диалогов и выполнения команд." }, "accounts/fireworks/models/firellava-13b": { "description": "fireworks-ai/FireLLaVA-13b — это визуальная языковая модель, способная одновременно обрабатывать изображения и текстовые вводы, обученная на высококачественных данных, подходящая для мультимодальных задач." }, "accounts/fireworks/models/gemma2-9b-it": { "description": "Gemma 2 9B для команд, основанная на предыдущих технологиях Google, подходит для ответов на вопросы, резюмирования и вывода текста." }, "accounts/fireworks/models/llama-v3-70b-instruct": { "description": "Модель Llama 3 70B для команд, специально оптимизированная для многоязычных диалогов и понимания естественного языка, превосходит большинство конкурентных моделей." }, "accounts/fireworks/models/llama-v3-70b-instruct-hf": { "description": "Модель Llama 3 70B для команд (HF версия), результаты которой совпадают с официальной реализацией, подходит для высококачественных задач выполнения команд." }, "accounts/fireworks/models/llama-v3-8b-instruct": { "description": "Модель Llama 3 8B для команд, оптимизированная для диалогов и многоязычных задач, демонстрирует выдающиеся и эффективные результаты." }, "accounts/fireworks/models/llama-v3-8b-instruct-hf": { "description": "Модель Llama 3 8B для команд (HF версия), результаты которой совпадают с официальной реализацией, обладает высокой согласованностью и совместимостью между платформами." }, "accounts/fireworks/models/llama-v3p1-405b-instruct": { "description": "Модель Llama 3.1 405B для команд, обладающая огромным количеством параметров, подходит для сложных задач и сценариев с высокой нагрузкой." }, "accounts/fireworks/models/llama-v3p1-70b-instruct": { "description": "Модель Llama 3.1 70B для команд, обеспечивающая выдающиеся возможности понимания и генерации естественного языка, является идеальным выбором для диалоговых и аналитических задач." }, "accounts/fireworks/models/llama-v3p1-8b-instruct": { "description": "Модель Llama 3.1 8B для команд, оптимизированная для многоязычных диалогов, способная превосходить большинство открытых и закрытых моделей по общим отраслевым стандартам." }, "accounts/fireworks/models/mixtral-8x22b-instruct": { "description": "Mixtral MoE 8x22B для команд, с большим количеством параметров и архитектурой с несколькими экспертами, всесторонне поддерживает эффективную обработку сложных задач." }, "accounts/fireworks/models/mixtral-8x7b-instruct": { "description": "Mixtral MoE 8x7B для команд, архитектура с несколькими экспертами обеспечивает эффективное выполнение и следование командам." }, "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { "description": "Mixtral MoE 8x7B для команд (HF версия), производительность которой совпадает с официальной реализацией, подходит для множества эффективных задач." }, "accounts/fireworks/models/mythomax-l2-13b": { "description": "Модель MythoMax L2 13B, использующая новые технологии объединения, хорошо подходит для повествования и ролевых игр." }, "accounts/fireworks/models/phi-3-vision-128k-instruct": { "description": "Phi 3 Vision для команд, легковесная мультимодальная модель, способная обрабатывать сложную визуальную и текстовую информацию, обладая высокой способностью к выводу." }, "accounts/fireworks/models/starcoder-16b": { "description": "Модель StarCoder 15.5B, поддерживающая сложные задачи программирования, с улучшенными многоязычными возможностями, подходит для генерации и понимания сложного кода." }, "accounts/fireworks/models/starcoder-7b": { "description": "Модель StarCoder 7B, обученная на более чем 80 языках программирования, обладает выдающимися способностями к заполнению кода и пониманию контекста." }, "accounts/yi-01-ai/models/yi-large": { "description": "Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка." }, "ai21-jamba-1.5-large": { "description": "Многоязычная модель с 398B параметрами (94B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование." }, "ai21-jamba-1.5-mini": { "description": "Многоязычная модель с 52B параметрами (12B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование." }, "ai21-jamba-instruct": { "description": "Модель LLM на основе Mamba, предназначенная для достижения наилучших показателей производительности, качества и экономической эффективности." }, "anthropic.claude-3-5-sonnet-20240620-v1:0": { "description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня." }, "anthropic.claude-3-haiku-20240307-v1:0": { "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, обеспечивающая почти мгновенную скорость ответа. Она может быстро отвечать на простые запросы и запросы. Клиенты смогут создать бесшовный AI-опыт, имитирующий человеческое взаимодействие. Claude 3 Haiku может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K." }, "anthropic.claude-3-opus-20240229-v1:0": { "description": "Claude 3 Opus — это самый мощный AI-модель от Anthropic, обладающая передовыми характеристиками в области высоко сложных задач. Она может обрабатывать открытые подсказки и невидимые сценарии, демонстрируя отличную плавность и человеческое понимание. Claude 3 Opus демонстрирует передовые возможности генеративного AI. Claude 3 Opus может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K." }, "anthropic.claude-3-sonnet-20240229-v1:0": { "description": "Claude 3 Sonnet от Anthropic достигает идеального баланса между интеллектом и скоростью — особенно подходит для корпоративных рабочих нагрузок. Он предлагает максимальную полезность по цене ниже конкурентов и разработан как надежный, высокопрочный основной механизм для масштабируемых AI-развертываний. Claude 3 Sonnet может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K." }, "anthropic.claude-instant-v1": { "description": "Быстрая, экономичная и все еще очень мощная модель, способная обрабатывать широкий спектр задач, включая повседневные диалоги, текстовый анализ, резюме и вопросы к документам." }, "anthropic.claude-v2": { "description": "Модель Anthropic демонстрирует высокие способности в широком спектре задач, от сложных диалогов и генерации креативного контента до детального следования инструкциям." }, "anthropic.claude-v2:1": { "description": "Обновленная версия Claude 2, обладающая двойным контекстным окном и улучшениями в надежности, уровне галлюцинаций и точности на основе доказательств в длинных документах и контексте RAG." }, "anthropic/claude-3-haiku": { "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, предназначенная для почти мгновенных ответов. Она обладает быстрой и точной направленной производительностью." }, "anthropic/claude-3-opus": { "description": "Claude 3 Opus — это самая мощная модель от Anthropic для обработки высококомплексных задач. Она демонстрирует выдающиеся результаты по производительности, интеллекту, плавности и пониманию." }, "anthropic/claude-3.5-sonnet": { "description": "Claude 3.5 Sonnet предлагает возможности, превосходящие Opus, и скорость, превышающую Sonnet, при этом сохраняя ту же цену. Sonnet особенно хорошо справляется с программированием, наукой о данных, визуальной обработкой и агентскими задачами." }, "aya": { "description": "Aya 23 — это многоязычная модель, выпущенная Cohere, поддерживающая 23 языка, обеспечивая удобство для многоязычных приложений." }, "aya:35b": { "description": "Aya 23 — это многоязычная модель, выпущенная Cohere, поддерживающая 23 языка, обеспечивая удобство для многоязычных приложений." }, "charglm-3": { "description": "CharGLM-3 разработан для ролевых игр и эмоционального сопровождения, поддерживает сверхдлинную многократную память и персонализированные диалоги, имеет широкое применение." }, "chatgpt-4o-latest": { "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." }, "claude-2.0": { "description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая ведущие в отрасли 200K токенов контекста, значительное снижение частоты галлюцинаций модели, системные подсказки и новую тестовую функцию: вызов инструментов." }, "claude-2.1": { "description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая ведущие в отрасли 200K токенов контекста, значительное снижение частоты галлюцинаций модели, системные подсказки и новую тестовую функцию: вызов инструментов." }, "claude-3-5-sonnet-20240620": { "description": "Claude 3.5 Sonnet предлагает возможности, превосходящие Opus, и скорость, быстрее Sonnet, при этом сохраняя ту же цену. Sonnet особенно хорош в программировании, науке о данных, визуальной обработке и задачах агентов." }, "claude-3-haiku-20240307": { "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, предназначенная для достижения почти мгновенных ответов. Она обладает быстрой и точной направленной производительностью." }, "claude-3-opus-20240229": { "description": "Claude 3 Opus — это самая мощная модель от Anthropic для обработки высококомплексных задач. Она демонстрирует выдающиеся результаты по производительности, интеллекту, плавности и пониманию." }, "claude-3-sonnet-20240229": { "description": "Claude 3 Sonnet обеспечивает идеальный баланс между интеллектом и скоростью для корпоративных рабочих нагрузок. Он предлагает максимальную полезность по более низкой цене, надежен и подходит для масштабного развертывания." }, "claude-instant-1.2": { "description": "Модель Anthropic для текстовой генерации с низкой задержкой и высокой пропускной способностью, поддерживающая генерацию сотен страниц текста." }, "codegeex-4": { "description": "CodeGeeX-4 — это мощный AI помощник по программированию, поддерживающий интеллектуальные ответы и автозаполнение кода на различных языках программирования, повышая эффективность разработки." }, "codegemma": { "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию." }, "codegemma:2b": { "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию." }, "codellama": { "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков." }, "codellama:13b": { "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков." }, "codellama:34b": { "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков." }, "codellama:70b": { "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков." }, "codeqwen": { "description": "CodeQwen1.5 — это крупномасштабная языковая модель, обученная на большом объёме кодовых данных, специально разработанная для решения сложных задач программирования." }, "codestral": { "description": "Codestral — это первая модель кода от Mistral AI, обеспечивающая отличную поддержку для задач генерации кода." }, "codestral-latest": { "description": "Codestral — это передовая генеративная модель, сосредоточенная на генерации кода, оптимизированная для промежуточного заполнения и задач дополнения кода." }, "cognitivecomputations/dolphin-mixtral-8x22b": { "description": "Dolphin Mixtral 8x22B — это модель, разработанная для соблюдения инструкций, диалогов и программирования." }, "cohere-command-r": { "description": "Command R — это масштабируемая генеративная модель, нацеленная на RAG и использование инструментов для обеспечения AI на уровне производства для предприятий." }, "cohere-command-r-plus": { "description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня." }, "command-r": { "description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями." }, "command-r-plus": { "description": "Command R+ — это высокопроизводительная большая языковая модель, специально разработанная для реальных бизнес-сценариев и сложных приложений." }, "databricks/dbrx-instruct": { "description": "DBRX Instruct предлагает высокую надежность в обработке команд, поддерживая приложения в различных отраслях." }, "deepseek-ai/DeepSeek-V2.5": { "description": "DeepSeek V2.5 объединяет отличительные черты предыдущих версий, улучшая общие и кодировочные способности." }, "deepseek-ai/deepseek-llm-67b-chat": { "description": "DeepSeek 67B — это передовая модель, обученная для высококомплексных диалогов." }, "deepseek-chat": { "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше согласуется с человеческими предпочтениями. Кроме того, DeepSeek-V2.5 значительно улучшила производительность в таких задачах, как написание текстов и следование инструкциям." }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo." }, "deepseek-coder-v2:236b": { "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo." }, "deepseek-v2": { "description": "DeepSeek V2 — это эффективная языковая модель Mixture-of-Experts, подходящая для экономически эффективных потребностей обработки." }, "deepseek-v2:236b": { "description": "DeepSeek V2 236B — это модель кода DeepSeek, обеспечивающая мощные возможности генерации кода." }, "deepseek/deepseek-chat": { "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях." }, "emohaa": { "description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы." }, "gemini-1.0-pro-001": { "description": "Gemini 1.0 Pro 001 (Тюнинг) предлагает стабильную и настраиваемую производительность, что делает её идеальным выбором для решения сложных задач." }, "gemini-1.0-pro-002": { "description": "Gemini 1.0 Pro 002 (Тюнинг) предлагает выдающуюся поддержку многомодальности, сосредотачиваясь на эффективном решении сложных задач." }, "gemini-1.0-pro-latest": { "description": "Gemini 1.0 Pro — это высокопроизводительная модель ИИ от Google, разработанная для масштабирования широкого спектра задач." }, "gemini-1.5-flash-001": { "description": "Gemini 1.5 Flash 001 — это эффективная многомодальная модель, поддерживающая масштабирование для широкого спектра приложений." }, "gemini-1.5-flash-002": { "description": "Gemini 1.5 Flash 002 — это эффективная мультимодальная модель, поддерживающая расширенные применения." }, "gemini-1.5-flash-8b-exp-0827": { "description": "Gemini 1.5 Flash 8B 0827 разработан для обработки масштабных задач, обеспечивая непревзойдённую скорость обработки." }, "gemini-1.5-flash-8b-exp-0924": { "description": "Gemini 1.5 Flash 8B 0924 — это последняя экспериментальная модель, которая демонстрирует значительное улучшение производительности как в текстовых, так и в мультимодальных задачах." }, "gemini-1.5-flash-exp-0827": { "description": "Gemini 1.5 Flash 0827 предлагает оптимизированные многомодальные возможности обработки, подходящие для различных сложных задач." }, "gemini-1.5-flash-latest": { "description": "Gemini 1.5 Flash — это последняя многомодальная модель ИИ от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, графические и видео входы, что делает её эффективной для масштабирования различных задач." }, "gemini-1.5-pro-001": { "description": "Gemini 1.5 Pro 001 — это масштабируемое решение для многомодального ИИ, поддерживающее широкий спектр сложных задач." }, "gemini-1.5-pro-002": { "description": "Gemini 1.5 Pro 002 — это последняя модель, готовая к производству, которая обеспечивает более высокое качество вывода, особенно в математических задачах, длинных контекстах и визуальных задачах." }, "gemini-1.5-pro-exp-0801": { "description": "Gemini 1.5 Pro 0801 предлагает выдающиеся возможности многомодальной обработки, обеспечивая большую гибкость для разработки приложений." }, "gemini-1.5-pro-exp-0827": { "description": "Gemini 1.5 Pro 0827 сочетает в себе новейшие оптимизационные технологии, обеспечивая более эффективные возможности обработки многомодальных данных." }, "gemini-1.5-pro-latest": { "description": "Gemini 1.5 Pro поддерживает до 2 миллионов токенов и является идеальным выбором для средних многомодальных моделей, обеспечивая многостороннюю поддержку для сложных задач." }, "gemma-7b-it": { "description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность." }, "gemma2": { "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных." }, "gemma2-9b-it": { "description": "Gemma 2 9B — это модель, оптимизированная для конкретных задач и интеграции инструментов." }, "gemma2:27b": { "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных." }, "gemma2:2b": { "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных." }, "general": { "description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функцию онлайн-поиска в реальном времени. Ее быстрая реакция делает ее выдающимся выбором для применения в низкопроизводительных устройствах и тонкой настройке моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в задачах на знание, генерацию контента и поисковых сценариях." }, "generalv3": { "description": "Spark Pro — это высокопроизводительная большая языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, медицина и образование, поддерживающая сетевой поиск и встроенные плагины для погоды, даты и т.д. Оптимизированная модель демонстрирует выдающиеся результаты и высокую эффективность в сложных задачах на знание, понимании языка и высокоуровневом создании текстов, что делает ее идеальным выбором для профессиональных приложений." }, "generalv3.5": { "description": "Spark3.5 Max — это самая полная версия, поддерживающая сетевой поиск и множество встроенных плагинов. Его полностью оптимизированные основные возможности, а также функции настройки системных ролей и вызовов функций делают его выдающимся и эффективным в различных сложных приложениях." }, "glm-4": { "description": "GLM-4 — это старая флагманская версия, выпущенная в январе 2024 года, которая была заменена более мощной GLM-4-0520." }, "glm-4-0520": { "description": "GLM-4-0520 — это последняя версия модели, специально разработанная для высоко сложных и разнообразных задач, демонстрирующая выдающиеся результаты." }, "glm-4-air": { "description": "GLM-4-Air — это экономически эффективная версия, производительность которой близка к GLM-4, обеспечивая высокую скорость и доступную цену." }, "glm-4-airx": { "description": "GLM-4-AirX предлагает эффективную версию GLM-4-Air, скорость вывода может достигать 2.6 раз быстрее." }, "glm-4-alltools": { "description": "GLM-4-AllTools — это многофункциональная модель агента, оптимизированная для поддержки сложного планирования инструкций и вызовов инструментов, таких как веб-серфинг, интерпретация кода и генерация текста, подходящая для выполнения множества задач." }, "glm-4-flash": { "description": "GLM-4-Flash — это идеальный выбор для обработки простых задач, с самой высокой скоростью и самой низкой ценой." }, "glm-4-long": { "description": "GLM-4-Long поддерживает сверхдлинные текстовые вводы, подходит для задач, требующих памяти, и обработки больших документов." }, "glm-4-plus": { "description": "GLM-4-Plus, как флагман с высоким интеллектом, обладает мощными способностями обработки длинных текстов и сложных задач, с полным улучшением производительности." }, "glm-4v": { "description": "GLM-4V предлагает мощные способности понимания и вывода изображений, поддерживает множество визуальных задач." }, "glm-4v-plus": { "description": "GLM-4V-Plus обладает способностью понимать видео-контент и множество изображений, подходит для мультимодальных задач." }, "google/gemini-flash-1.5-exp": { "description": "Gemini 1.5 Flash 0827 предлагает оптимизированные мультимодальные возможности обработки, подходящие для различных сложных задач." }, "google/gemini-pro-1.5-exp": { "description": "Gemini 1.5 Pro 0827 сочетает в себе новейшие оптимизационные технологии, обеспечивая более эффективную обработку мультимодальных данных." }, "google/gemma-2-27b-it": { "description": "Gemma 2 продолжает концепцию легковесного и эффективного дизайна." }, "google/gemma-2-9b-it": { "description": "Gemma 2 — это легковесная серия текстовых моделей с открытым исходным кодом от Google." }, "google/gemma-2-9b-it:free": { "description": "Gemma 2 — это облегченная открытая текстовая модель от Google." }, "google/gemma-2b-it": { "description": "Gemma Instruct (2B) предлагает базовые возможности обработки команд, подходящие для легковесных приложений." }, "gpt-3.5-turbo": { "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125." }, "gpt-3.5-turbo-0125": { "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125." }, "gpt-3.5-turbo-1106": { "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125." }, "gpt-3.5-turbo-instruct": { "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125." }, "gpt-4": { "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных." }, "gpt-4-0125-preview": { "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." }, "gpt-4-0613": { "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных." }, "gpt-4-1106-preview": { "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." }, "gpt-4-1106-vision-preview": { "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." }, "gpt-4-32k": { "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных." }, "gpt-4-32k-0613": { "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных." }, "gpt-4-turbo": { "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." }, "gpt-4-turbo-2024-04-09": { "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." }, "gpt-4-turbo-preview": { "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." }, "gpt-4-vision-preview": { "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." }, "gpt-4o": { "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." }, "gpt-4o-2024-05-13": { "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." }, "gpt-4o-2024-08-06": { "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." }, "gpt-4o-mini": { "description": "GPT-4o mini — это последняя модель, выпущенная OpenAI после GPT-4 Omni, поддерживающая ввод изображений и текстов с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% на тесте MMLU и в настоящее время занимает более высокое место в предпочтениях чата по сравнению с GPT-4." }, "gryphe/mythomax-l2-13b": { "description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях." }, "internlm/internlm2_5-20b-chat": { "description": "Инновационная открытая модель InternLM2.5, благодаря большому количеству параметров, повышает интеллектуальность диалогов." }, "internlm/internlm2_5-7b-chat": { "description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях." }, "jamba-1.5-large": {}, "jamba-1.5-mini": {}, "llama-3.1-70b-instruct": { "description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд." }, "llama-3.1-70b-versatile": { "description": "Llama 3.1 70B предлагает более мощные возможности ИИ вывода, подходит для сложных приложений, поддерживает огромное количество вычислительных процессов и гарантирует эффективность и точность." }, "llama-3.1-8b-instant": { "description": "Llama 3.1 8B — это высокоэффективная модель, обеспечивающая быструю генерацию текста, идеально подходящая для приложений, требующих масштабной эффективности и экономичности." }, "llama-3.1-8b-instruct": { "description": "Модель Llama 3.1 8B для команд, обладающая 8B параметрами, обеспечивает эффективное выполнение задач с указаниями и предлагает высококачественные возможности генерации текста." }, "llama-3.1-sonar-huge-128k-online": { "description": "Модель Llama 3.1 Sonar Huge Online, обладающая 405B параметрами, поддерживает контекст длиной около 127,000 токенов, предназначена для сложных онлайн-чат-приложений." }, "llama-3.1-sonar-large-128k-chat": { "description": "Модель Llama 3.1 Sonar Large Chat, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для сложных оффлайн-чатов." }, "llama-3.1-sonar-large-128k-online": { "description": "Модель Llama 3.1 Sonar Large Online, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для задач с высокой нагрузкой и разнообразными чатами." }, "llama-3.1-sonar-small-128k-chat": { "description": "Модель Llama 3.1 Sonar Small Chat, обладающая 8B параметрами, специально разработана для оффлайн-чатов и поддерживает контекст длиной около 127,000 токенов." }, "llama-3.1-sonar-small-128k-online": { "description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия." }, "llama3-70b-8192": { "description": "Meta Llama 3 70B предлагает непревзойдённые возможности обработки сложности, специально разработанные для высоких требований проектов." }, "llama3-8b-8192": { "description": "Meta Llama 3 8B обеспечивает высококачественную производительность вывода, подходящую для многообразных приложений." }, "llama3-groq-70b-8192-tool-use-preview": { "description": "Llama 3 Groq 70B Tool Use предлагает мощные возможности вызова инструментов, поддерживая эффективную обработку сложных задач." }, "llama3-groq-8b-8192-tool-use-preview": { "description": "Llama 3 Groq 8B Tool Use — это модель, оптимизированная для эффективного использования инструментов, поддерживающая быструю параллельную обработку." }, "llama3.1": { "description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных." }, "llama3.1:405b": { "description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных." }, "llama3.1:70b": { "description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных." }, "llava": { "description": "LLaVA — это многомодальная модель, объединяющая визуальный кодировщик и Vicuna, предназначенная для мощного понимания визуальной и языковой информации." }, "llava-v1.5-7b-4096-preview": { "description": "LLaVA 1.5 7B предлагает возможности визуальной обработки, генерируя сложные выходные данные на основе визуальной информации." }, "llava:13b": { "description": "LLaVA — это многомодальная модель, объединяющая визуальный кодировщик и Vicuna, предназначенная для мощного понимания визуальной и языковой информации." }, "llava:34b": { "description": "LLaVA — это многомодальная модель, объединяющая визуальный кодировщик и Vicuna, предназначенная для мощного понимания визуальной и языковой информации." }, "mathstral": { "description": "MathΣtral специально разработан для научных исследований и математического вывода, обеспечивая эффективные вычислительные возможности и интерпретацию результатов." }, "meta-llama-3-70b-instruct": { "description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений." }, "meta-llama-3-8b-instruct": { "description": "Универсальная модель с 8 миллиардами параметров, оптимизированная для диалоговых и текстовых задач." }, "meta-llama-3.1-405b-instruct": { "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам." }, "meta-llama-3.1-70b-instruct": { "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам." }, "meta-llama-3.1-8b-instruct": { "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам." }, "meta-llama/Llama-2-13b-chat-hf": { "description": "LLaMA-2 Chat (13B) предлагает отличные возможности обработки языка и выдающийся опыт взаимодействия." }, "meta-llama/Llama-3-70b-chat-hf": { "description": "LLaMA-3 Chat (70B) — мощная модель для чата, поддерживающая сложные диалоговые запросы." }, "meta-llama/Llama-3-8b-chat-hf": { "description": "LLaMA-3 Chat (8B) предлагает многоязычную поддержку и охватывает широкий спектр областей знаний." }, "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { "description": "Llama 3 70B Instruct Lite подходит для сред, требующих высокой производительности и низкой задержки." }, "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { "description": "Llama 3 70B Instruct Turbo обеспечивает выдающиеся возможности понимания и генерации языка, подходящие для самых требовательных вычислительных задач." }, "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { "description": "Llama 3 8B Instruct Lite подходит для ресурсов ограниченных сред, обеспечивая отличное соотношение производительности." }, "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { "description": "Llama 3 8B Instruct Turbo — это высокоэффективная большая языковая модель, поддерживающая широкий спектр приложений." }, "meta-llama/Meta-Llama-3.1-405B-Instruct": { "description": "LLaMA 3.1 405B — это мощная модель, основанная на предобучении и настройке инструкций." }, "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { "description": "Модель Llama 3.1 Turbo 405B предлагает огромную поддержку контекста для обработки больших данных и демонстрирует выдающиеся результаты в масштабных приложениях искусственного интеллекта." }, "meta-llama/Meta-Llama-3.1-70B-Instruct": { "description": "LLaMA 3.1 70B предлагает эффективную поддержку диалогов на нескольких языках." }, "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { "description": "Модель Llama 3.1 70B была тщательно настроена для высоконагруженных приложений, квантованная до FP8 для повышения вычислительной мощности и точности, обеспечивая выдающиеся результаты в сложных сценариях." }, "meta-llama/Meta-Llama-3.1-8B-Instruct": { "description": "LLaMA 3.1 предлагает поддержку нескольких языков и является одной из ведущих генеративных моделей в отрасли." }, "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { "description": "Модель Llama 3.1 8B использует FP8-квантование и поддерживает до 131,072 контекстных токенов, являясь выдающейся среди открытых моделей, подходящей для сложных задач и превосходящей многие отраслевые стандарты." }, "meta-llama/llama-3-70b-instruct": { "description": "Llama 3 70B Instruct оптимизирован для высококачественных диалоговых сцен и показывает отличные результаты в различных оценках." }, "meta-llama/llama-3-8b-instruct": { "description": "Llama 3 8B Instruct оптимизирован для высококачественных диалоговых сцен, его производительность превосходит многие закрытые модели." }, "meta-llama/llama-3.1-405b-instruct": { "description": "Llama 3.1 405B Instruct — это последняя версия от Meta, оптимизированная для генерации высококачественных диалогов, превосходящая многие ведущие закрытые модели." }, "meta-llama/llama-3.1-70b-instruct": { "description": "Llama 3.1 70B Instruct разработан для высококачественных диалогов и показывает выдающиеся результаты в оценках, особенно в высокоинтерактивных сценах." }, "meta-llama/llama-3.1-8b-instruct": { "description": "Llama 3.1 8B Instruct — это последняя версия от Meta, оптимизированная для высококачественных диалоговых сцен, превосходящая многие ведущие закрытые модели." }, "meta-llama/llama-3.1-8b-instruct:free": { "description": "LLaMA 3.1 предлагает поддержку нескольких языков и является одной из ведущих генеративных моделей в отрасли." }, "meta.llama3-1-405b-instruct-v1:0": { "description": "Meta Llama 3.1 405B Instruct — это самая большая и мощная модель в линейке Llama 3.1 Instruct, представляющая собой высокоразвёрнутую модель для диалогового вывода и генерации синтетических данных, также может использоваться в качестве основы для специализированного предобучения или дообучения в определённых областях. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных генеративных моделей с настройкой на инструкции, включая размеры 8B, 70B и 405B (вход/выход текста). Модели текста с настройкой на инструкции Llama 3.1 (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общепринятых отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Модели текста с настройкой на инструкции подходят для диалогов, похожих на помощников, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование их вывода для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 является саморегрессионной языковой моделью, использующей оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемое дообучение (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать предпочтениям людей в отношении полезности и безопасности." }, "meta.llama3-1-70b-instruct-v1:0": { "description": "Обновленная версия Meta Llama 3.1 70B Instruct, включающая расширенную длину контекста до 128K, многоязычность и улучшенные способности вывода. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных, настроенных на инструкции генеративных моделей, включая размеры 8B, 70B и 405B (ввод/вывод текста). Настроенные на инструкции текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общих отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Настроенные на инструкции текстовые модели подходят для диалогов, похожих на помощника, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование вывода своих моделей для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 — это саморегрессионная языковая модель, использующая оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемую донастройку (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать человеческим предпочтениям по полезности и безопасности." }, "meta.llama3-1-8b-instruct-v1:0": { "description": "Обновленная версия Meta Llama 3.1 8B Instruct, включающая расширенную длину контекста до 128K, многоязычность и улучшенные способности вывода. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных, настроенных на инструкции генеративных моделей, включая размеры 8B, 70B и 405B (ввод/вывод текста). Настроенные на инструкции текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общих отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Настроенные на инструкции текстовые модели подходят для диалогов, похожих на помощника, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование вывода своих моделей для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 — это саморегрессионная языковая модель, использующая оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемую донастройку (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать человеческим предпочтениям по полезности и безопасности." }, "meta.llama3-70b-instruct-v1:0": { "description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для создания контента, диалогового ИИ, понимания языка, НИОКР и корпоративных приложений." }, "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для устройств с ограниченными вычислительными мощностями и ресурсами, а также для более быстрого времени обучения." }, "microsoft/wizardlm 2-7b": { "description": "WizardLM 2 7B — это новая быстрая и легкая модель от Microsoft AI, производительность которой близка к 10-кратной производительности существующих открытых моделей." }, "microsoft/wizardlm-2-8x22b": { "description": "WizardLM-2 8x22B — это передовая модель Wizard от Microsoft, демонстрирующая исключительно конкурентоспособные результаты." }, "minicpm-v": { "description": "MiniCPM-V — это новое поколение мультимодальной большой модели от OpenBMB, обладающее выдающимися возможностями OCR и мультимодального понимания, поддерживающее широкий спектр приложений." }, "mistral": { "description": "Mistral — это 7B модель, выпущенная Mistral AI, подходящая для разнообразных языковых задач." }, "mistral-large": { "description": "Mixtral Large — это флагманская модель от Mistral, объединяющая возможности генерации кода, математики и вывода, поддерживающая контекстное окно 128k." }, "mistral-large-2407": { "description": "Mistral Large (2407) — это продвинутая модель языка (LLM) с современными способностями рассуждения, знаний и кодирования." }, "mistral-large-latest": { "description": "Mistral Large — это флагманская большая модель, хорошо подходящая для многоязычных задач, сложного вывода и генерации кода, идеальный выбор для высококлассных приложений." }, "mistral-nemo": { "description": "Mistral Nemo, разработанный в сотрудничестве между Mistral AI и NVIDIA, является высокоэффективной 12B моделью." }, "mistral-small": { "description": "Mistral Small может использоваться для любых языковых задач, требующих высокой эффективности и низкой задержки." }, "mistral-small-latest": { "description": "Mistral Small — это экономически эффективный, быстрый и надежный вариант для таких случаев, как перевод, резюме и анализ настроений." }, "mistralai/Mistral-7B-Instruct-v0.1": { "description": "Mistral (7B) Instruct известен своей высокой производительностью и подходит для множества языковых задач." }, "mistralai/Mistral-7B-Instruct-v0.2": { "description": "Mistral 7B — это модель с настройкой по запросу, предлагающая оптимизированные ответы на задачи." }, "mistralai/Mistral-7B-Instruct-v0.3": { "description": "Mistral (7B) Instruct v0.3 обеспечивает эффективные вычислительные возможности и понимание естественного языка, подходящие для широкого спектра приложений." }, "mistralai/Mixtral-8x22B-Instruct-v0.1": { "description": "Mixtral-8x22B Instruct (141B) — это супер большая языковая модель, поддерживающая крайне высокие требования к обработке." }, "mistralai/Mixtral-8x7B-Instruct-v0.1": { "description": "Mixtral 8x7B — это предобученная модель разреженных смешанных экспертов, предназначенная для универсальных текстовых задач." }, "mistralai/mistral-7b-instruct": { "description": "Mistral 7B Instruct — это высокопроизводительная модель стандартов отрасли, оптимизированная для скорости и поддержки длинного контекста." }, "mistralai/mistral-nemo": { "description": "Mistral Nemo — это модель с 7.3B параметрами, поддерживающая несколько языков и высокопроизводительное программирование." }, "mixtral": { "description": "Mixtral — это экспертная модель от Mistral AI, обладающая открытыми весами и поддерживающая генерацию кода и понимание языка." }, "mixtral-8x7b-32768": { "description": "Mixtral 8x7B предлагает высокую отказоустойчивость параллельной обработки, подходящей для сложных задач." }, "mixtral:8x22b": { "description": "Mixtral — это экспертная модель от Mistral AI, обладающая открытыми весами и поддерживающая генерацию кода и понимание языка." }, "moonshot-v1-128k": { "description": "Moonshot V1 128K — это модель с возможностями обработки сверхдлинного контекста, подходящая для генерации очень длинных текстов, удовлетворяющая требованиям сложных задач генерации, способная обрабатывать до 128 000 токенов, идеально подходящая для научных исследований, академических и крупных документальных приложений." }, "moonshot-v1-32k": { "description": "Moonshot V1 32K предлагает возможности обработки контекста средней длины, способная обрабатывать 32 768 токенов, особенно подходит для генерации различных длинных документов и сложных диалогов, применяется в создании контента, генерации отчетов и диалоговых систем." }, "moonshot-v1-8k": { "description": "Moonshot V1 8K специально разработан для генерации коротких текстов, обладая высокой производительностью обработки, способный обрабатывать 8 192 токена, идеально подходит для кратких диалогов, стенографирования и быстрой генерации контента." }, "nousresearch/hermes-2-pro-llama-3-8b": { "description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных." }, "o1-mini": { "description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года." }, "o1-preview": { "description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года." }, "open-codestral-mamba": { "description": "Codestral Mamba — это языковая модель Mamba 2, сосредоточенная на генерации кода, обеспечивающая мощную поддержку для сложных задач по коду и выводу." }, "open-mistral-7b": { "description": "Mistral 7B — это компактная, но высокопроизводительная модель, хорошо подходящая для пакетной обработки и простых задач, таких как классификация и генерация текста, обладающая хорошими возможностями вывода." }, "open-mistral-nemo": { "description": "Mistral Nemo — это 12B модель, разработанная в сотрудничестве с Nvidia, обеспечивающая выдающиеся возможности вывода и кодирования, легко интегрируемая и заменяемая." }, "open-mixtral-8x22b": { "description": "Mixtral 8x22B — это более крупная экспертная модель, сосредоточенная на сложных задачах, предлагающая выдающиеся возможности вывода и более высокую пропускную способность." }, "open-mixtral-8x7b": { "description": "Mixtral 8x7B — это разреженная экспертная модель, использующая несколько параметров для повышения скорости вывода, подходит для обработки многоязычных и кодовых задач." }, "openai/gpt-4o-2024-08-06": { "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощные возможности понимания и генерации языка, подходящие для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." }, "openai/gpt-4o-mini": { "description": "GPT-4o mini — это последняя модель от OpenAI, выпущенная после GPT-4 Omni, поддерживающая ввод изображений и текста с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% в тесте MMLU и в настоящее время занимает более высокое место по предпочтениям в чате, чем GPT-4." }, "openai/o1-mini": { "description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года." }, "openai/o1-preview": { "description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года." }, "openchat/openchat-7b": { "description": "OpenChat 7B — это открытая языковая модель, оптимизированная с помощью стратегии \"C-RLFT (условное обучение с подкреплением)\"." }, "openrouter/auto": { "description": "В зависимости от длины контекста, темы и сложности ваш запрос будет отправлен в Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулирующийся) или GPT-4o." }, "phi3": { "description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний." }, "phi3:14b": { "description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний." }, "pixtral-12b-2409": { "description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов." }, "qwen-coder-turbo-latest": { "description": "Модель кода Tongyi Qwen." }, "qwen-long": { "description": "Qwen — это сверхмасштабная языковая модель, поддерживающая длинный контекст текста и диалоговые функции на основе длинных документов и нескольких документов." }, "qwen-math-plus-latest": { "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач." }, "qwen-math-turbo-latest": { "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач." }, "qwen-max-latest": { "description": "Модель языка Tongyi Qwen с уровнем масштабирования в триллионы, поддерживающая ввод на различных языках, включая китайский и английский, является API моделью, лежащей в основе продукта Tongyi Qwen 2.5." }, "qwen-plus-latest": { "description": "Улучшенная версия модели языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский." }, "qwen-turbo-latest": { "description": "Модель языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский." }, "qwen-vl-chat-v1": { "description": "Qwen VL поддерживает гибкие способы взаимодействия, включая многократные изображения, многократные вопросы и ответы, а также творческие способности." }, "qwen-vl-max": { "description": "Qwen — это сверхмасштабная визуально-языковая модель. По сравнению с улучшенной версией, еще больше улучшены способности визуального вывода и соблюдения инструкций, обеспечивая более высокий уровень визуального восприятия и понимания." }, "qwen-vl-plus": { "description": "Qwen — это улучшенная версия крупномасштабной визуально-языковой модели. Существенно улучшена способность распознавания деталей и текстов, поддерживает изображения с разрешением более миллиона пикселей и произвольным соотношением сторон." }, "qwen-vl-v1": { "description": "Инициализированная языковой моделью Qwen-7B, добавлена модель изображения, предобученная модель с разрешением входного изображения 448." }, "qwen/qwen-2-7b-instruct:free": { "description": "Qwen2 — это новая серия крупных языковых моделей с более сильными возможностями понимания и генерации." }, "qwen2": { "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." }, "qwen2.5-14b-instruct": { "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 14B." }, "qwen2.5-32b-instruct": { "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 32B." }, "qwen2.5-72b-instruct": { "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 72B." }, "qwen2.5-7b-instruct": { "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 7B." }, "qwen2.5-coder-1.5b-instruct": { "description": "Открытая версия модели кода Tongyi Qwen." }, "qwen2.5-coder-7b-instruct": { "description": "Открытая версия модели кода Tongyi Qwen." }, "qwen2.5-math-1.5b-instruct": { "description": "Модель Qwen-Math с мощными способностями решения математических задач." }, "qwen2.5-math-72b-instruct": { "description": "Модель Qwen-Math с мощными способностями решения математических задач." }, "qwen2.5-math-7b-instruct": { "description": "Модель Qwen-Math с мощными способностями решения математических задач." }, "qwen2:0.5b": { "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." }, "qwen2:1.5b": { "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." }, "qwen2:72b": { "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." }, "solar-1-mini-chat": { "description": "Solar Mini — это компактная LLM, производительность которой превосходит GPT-3.5, обладая мощными многоязычными возможностями, поддерживает английский и корейский языки, предлагая эффективное и компактное решение." }, "solar-1-mini-chat-ja": { "description": "Solar Mini (Ja) расширяет возможности Solar Mini, сосредоточиваясь на японском языке, при этом сохраняя высокую эффективность и выдающуюся производительность в использовании английского и корейского языков." }, "solar-pro": { "description": "Solar Pro — это высокоинтеллектуальная LLM, выпущенная Upstage, сосредоточенная на способности следовать инструкциям на одном GPU, с оценкой IFEval выше 80. В настоящее время поддерживает английский язык, официальная версия запланирована на ноябрь 2024 года, с расширением языковой поддержки и длины контекста." }, "step-1-128k": { "description": "Балансирует производительность и стоимость, подходит для общих сценариев." }, "step-1-256k": { "description": "Обладает сверхдлинной способностью обработки контекста, особенно подходит для анализа длинных документов." }, "step-1-32k": { "description": "Поддерживает диалоги средней длины, подходит для различных приложений." }, "step-1-8k": { "description": "Маленькая модель, подходящая для легковесных задач." }, "step-1-flash": { "description": "Высокоскоростная модель, подходящая для реального времени диалогов." }, "step-1v-32k": { "description": "Поддерживает визуальный ввод, улучшая мультимодальный опыт взаимодействия." }, "step-1v-8k": { "description": "Небольшая визуальная модель, подходящая для базовых задач с текстом и изображениями." }, "step-2-16k": { "description": "Поддерживает масштабные взаимодействия контекста, подходит для сложных диалоговых сценариев." }, "taichu_llm": { "description": "Модель языка TaiChu обладает выдающимися способностями к пониманию языка, а также к созданию текстов, ответам на вопросы, программированию, математическим вычислениям, логическому выводу, анализу эмоций и резюмированию текстов. Инновационно сочетает предобучение на больших данных с богатством многопоточных знаний, постоянно совершенствуя алгоритмические технологии и поглощая новые знания о словах, структуре, грамматике и семантике из огромных объемов текстовых данных, обеспечивая пользователям более удобную информацию и услуги, а также более интеллектуальный опыт." }, "taichu_vqa": { "description": "Taichu 2.0V объединяет возможности понимания изображений, передачи знаний, логического вывода и других, демонстрируя выдающиеся результаты в области вопросов и ответов на основе текста и изображений." }, "togethercomputer/StripedHyena-Nous-7B": { "description": "StripedHyena Nous (7B) обеспечивает повышенные вычислительные возможности благодаря эффективным стратегиям и архитектуре модели." }, "upstage/SOLAR-10.7B-Instruct-v1.0": { "description": "Upstage SOLAR Instruct v1 (11B) подходит для детализированных командных задач, обеспечивая отличные возможности обработки языка." }, "wizardlm2": { "description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках." }, "wizardlm2:8x22b": { "description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках." }, "yi-large": { "description": "Совершенно новая модель с триллионом параметров, обеспечивающая выдающиеся возможности для вопросов и ответов, а также генерации текста." }, "yi-large-fc": { "description": "На основе модели yi-large поддерживает и усиливает возможности вызова инструментов, подходит для различных бизнес-сценариев, требующих создания агентов или рабочих процессов." }, "yi-large-preview": { "description": "Начальная версия, рекомендуется использовать yi-large (новую версию)." }, "yi-large-rag": { "description": "Высококлассный сервис на основе модели yi-large, объединяющий технологии поиска и генерации для предоставления точных ответов и услуг по поиску информации в реальном времени." }, "yi-large-turbo": { "description": "Высокая стоимость и выдающаяся производительность. Балансировка высокой точности на основе производительности, скорости вывода и затрат." }, "yi-medium": { "description": "Модель среднего размера с улучшенной настройкой, сбалансированная по возможностям и стоимости. Глубокая оптимизация способности следовать указаниям." }, "yi-medium-200k": { "description": "200K сверхдлинное окно контекста, обеспечивающее глубокое понимание и генерацию длинных текстов." }, "yi-spark": { "description": "Маленькая и мощная, легковесная и быстрая модель. Обеспечивает улучшенные математические вычисления и возможности написания кода." }, "yi-vision": { "description": "Модель для сложных визуальных задач, обеспечивающая высокую производительность в понимании и анализе изображений." } }