Что такое Mistral 3
Mistral 3 — это новое семейство языковых моделей от французского стартапа Mistral AI, выпущенное 2-3 декабря 2025 года. Релиз включает флагманскую модель Mistral Large 3 и линейку компактных моделей Ministral 3 для локального и edge-развёртывания.
Главная особенность — все модели выпущены под лицензией Apache 2.0, что позволяет использовать их бесплатно в коммерческих проектах. Mistral Large 3 стала одной из лучших open-source моделей, конкурирующей с GPT-4o при стоимости на 80% ниже.
675B параметров
Mistral Large 3 использует Mixture of Experts: 675B общих параметров, 41B активных. Эффективность на уровне триллионных моделей.
Локальный запуск
Ministral 3 (3B, 8B, 14B) работают на обычном железе: от ноутбуков до edge-устройств. Ollama, vLLM, llama.cpp.
Мультиязычность
Поддержка десятков языков включая русский. Лидер в неанглийских категориях среди open-source моделей.
Vision + Tools
Все модели понимают изображения и поддерживают function calling. Готовы для мультимодальных агентов.
Apache 2.0 — что это значит?
Вы можете использовать Mistral 3 бесплатно в любых проектах, включая коммерческие. Можно модифицировать, дообучать, встраивать в продукты. Не нужно открывать исходный код. Нет роялти и лицензионных платежей. Единственное требование — сохранить копирайт в коде.
Mistral Large 3 (675B)
Mistral Large 3 — флагманская модель семейства, первая Mixture of Experts модель Mistral со времён Mixtral. Это серьёзный шаг вперёд в предобучении: 675 миллиардов общих параметров с 41 миллиардом активных на каждом токене.
Ключевые характеристики
Производительность
Mistral Large 3 занимает #2 место среди OSS non-reasoning моделей и #6 среди всех OSS моделей на LMArena. По заявлению Mistral AI, модель достигает паритета с GPT-4o при стоимости на 80% ниже.
- Кодинг — 90% на HumanEval, на уровне Claude 3.7 Sonnet и GPT-4o
- Мультиязычность — лучшие результаты на неанглийских языках среди open-source
- Reasoning — конкурирует с closed-source моделями в сложных задачах
- Vision — понимание изображений на уровне GPT-4V
Доступность Mistral Large 3
Модель доступна через: Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face, Together AI, Fireworks, OpenRouter. Через Ollama — только cloud-версия: ollama run mistral-large-3:675b-cloud
Ministral 3: компактные модели для локального запуска
Ministral 3 — линейка компактных моделей для edge и локального развёртывания. Доступны в трёх размерах: 3B, 8B и 14B параметров. Каждый размер включает base, instruct и reasoning варианты.
Ministral 3B
Для мобильных и IoT устройств
- 3 млрд параметров
- ~3GB на диске
- 16GB RAM достаточно
- 256K контекст
- 52 токена/сек (Jetson Thor)
Ministral 8B
Баланс качества и скорости
- 8 млрд параметров
- ~6GB на диске
- 32GB RAM, GPU 8GB+
- 256K контекст
- Default версия в Ollama
Ministral 14B
Лучшее качество среди компактных
- 14 млрд параметров
- ~9.1GB на диске
- 32GB RAM, GPU 12GB+
- 256K контекст
- ~85% AIME 2025 (reasoning)
Возможности всех Ministral 3
- Vision — анализ изображений и визуального контента
- Multilingual — русский, английский, французский, китайский, арабский и десятки других
- Agentic — лучшие в классе агентные возможности с function calling и JSON output
- 256K контекст — обработка длинных документов даже на ограниченном железе
Reasoning варианты
Для каждого размера доступны reasoning-версии с улучшенными способностями к рассуждению. Ministral 14B Reasoning показывает ~85% точности на AIME 2025 — лидирующий результат для моделей этого класса. Ollama работает над добавлением reasoning-вариантов.
Запуск Mistral 3 через Ollama
Ollama — самый простой способ запустить Mistral 3 локально. Требуется версия 0.13.1 или выше (сейчас в pre-release).
Установка Ollama
curl -fsSL https://ollama.com/install.sh | sh
# Скачайте установщик с ollama.com
# Или через winget:
winget install Ollama.Ollama
Запуск Ministral 3
# Default версия (8B)
ollama run ministral-3
# Конкретные размеры
ollama run ministral-3:3b # 3GB, для слабых машин
ollama run ministral-3:8b # 6GB, оптимальный выбор
ollama run ministral-3:14b # 9.1GB, максимум качества
# Cloud-версии (через серверы Ollama)
ollama run ministral-3:14b-cloud
ollama run ministral-3:8b-cloud
ollama run ministral-3:3b-cloud
Запуск Mistral Large 3
# Mistral Large 3 доступен только через cloud
ollama run mistral-large-3:675b-cloud
Использование через API
import ollama
response = ollama.chat(model='ministral-3:14b', messages=[
{
'role': 'user',
'content': 'Напиши функцию сортировки на Python'
}
])
print(response['message']['content'])
curl http://localhost:11434/api/chat -d '{
"model": "ministral-3:14b",
"messages": [
{ "role": "user", "content": "Привет! Расскажи о себе" }
]
}'
Требования к железу
| Модель | RAM | GPU VRAM | Рекомендуемая GPU |
|---|---|---|---|
| Ministral 3B | 16GB | 4GB+ | RTX 3060 / CPU |
| Ministral 8B | 32GB | 8GB+ | RTX 3070/3080 |
| Ministral 14B | 32GB | 12GB+ | RTX 4080/4090 |
Скорость на RTX 5090
NVIDIA совместно с Ollama оптимизировали Mistral 3 для новых GPU. На RTX 5090 Ministral 3B выдаёт до 385 токенов/сек. Модели также оптимизированы для NVIDIA Jetson Thor, GeForce RTX AI PC и DGX Spark.
Бенчмарки: Mistral 3 vs GPT-4o vs Claude
Сравним производительность Mistral Large 3 с конкурентами на ключевых бенчмарках:
| Бенчмарк | Mistral Large 3 | GPT-4o | Claude 3.5 Sonnet |
|---|---|---|---|
| HumanEval | 90% | 90% | 89% |
| LMArena (OSS) | #2 non-reasoning | Closed source | Closed source |
| Multilingual | Лидер в non-EN | Хорошо | Хорошо |
| Vision | Да | Да | Да |
| Function Calling | Да (JSON) | Да | Да (MCP) |
| Контекст | 256K | 128K | 200K |
| Open Weights | Apache 2.0 | Нет | Нет |
| Цена (1M токенов) | ~80% дешевле | $5/$15 | $3/$15 |
Ministral 3 vs конкуренты
Ministral 3 конкурирует с Llama 3.2, Gemma 3 и Qwen 2.5 в категории компактных моделей:
- GPQA Diamond — Ministral использует на 100 токенов меньше при той же точности
- AIME 2025 — Ministral 14B Reasoning: ~85% (лидер в весовой категории)
- Эффективность — на порядок меньше токенов при сопоставимом качестве
- Скорость — до 385 токенов/сек на RTX 5090
Le Chat — самый быстрый чат-бот
Le Chat от Mistral AI на базе Mistral Small 3.1 показывает самую высокую скорость inference на рынке, превосходя Claude и GPT в latency-бенчмарках. Для high-throughput задач — отличный выбор.
Применение Mistral 3 в бизнесе
Открытые веса и permissive-лицензия делают Mistral 3 идеальным для корпоративного использования:
On-premise развёртывание
Запускайте LLM на своих серверах без отправки данных в облако. Полный контроль над данными, compliance с регуляторами. Ministral 3 работает даже на RTX 3060.
Edge AI и IoT
Ministral 3B достаточно компактна для edge-устройств. Работает на NVIDIA Jetson для умных камер, роботов, промышленных систем.
Мультиязычные чат-боты
Лидер в неанглийских языках. Отлично для международных компаний с поддержкой на русском, арабском, китайском.
Обработка документов
256K контекст позволяет анализировать длинные контракты, отчёты, техническую документацию целиком. Vision для работы со сканами.
Внедрим Mistral 3 в ваш бизнес
Поможем выбрать подходящую модель, развернуть на вашей инфраструктуре, интегрировать с бизнес-системами через n8n. Работаем с on-premise и cloud.
Заказать внедрениеЧасто задаваемые вопросы
Mistral 3 — это семейство языковых моделей от французской компании Mistral AI, выпущенное в декабре 2025. Включает флагманскую Mistral Large 3 (675B параметров) и линейку компактных Ministral 3 (3B, 8B, 14B) для локального запуска. Все модели под лицензией Apache 2.0 с поддержкой vision и function calling.
Mistral Large 3 показывает паритет с GPT-4o по качеству при цене на 80% ниже. Large 3 использует архитектуру Mixture of Experts (MoE) с 675B общих параметров и 41B активных. Поддерживает контекст 256K токенов, мультиязычность и работу с изображениями. Главное отличие — открытые веса под Apache 2.0.
Установите Ollama 0.13.1+ и выполните команду: ollama run ministral-3. Доступны версии 3B (3GB), 8B (6GB) и 14B (9.1GB). Для RTX 4090 подойдёт 14B, для RTX 3060 — 8B. Все версии поддерживают контекст 256K токенов, vision и function calling.
Ministral 3B: 16GB RAM, современный CPU. Ministral 8B/14B: 32GB RAM, GPU с 8GB+ VRAM (RTX 3060 и выше). На RTX 5090 достигается скорость до 385 токенов/сек. Модели оптимизированы для NVIDIA Jetson, GeForce RTX AI PC и DGX Spark.
Apache 2.0 — пермиссивная open-source лицензия. Вы можете использовать модели бесплатно, модифицировать, включать в коммерческие продукты без роялти. Не нужно открывать исходный код вашего продукта. Это выгодно отличает Mistral от закрытых моделей OpenAI.
Да, Mistral 3 поддерживает русский язык в числе десятков других: английский, французский, немецкий, испанский, итальянский, португальский, китайский, японский, корейский, арабский и другие. Модели показывают высокие результаты в мультиязычных бенчмарках.
Источники
Нужна помощь с LLM?
Мы — агентство AIBot.Direct, специализируемся на внедрении ИИ-решений. Поможем выбрать модель, развернуть локально или в облаке, интегрировать с вашими системами.