Декабрь 2025

Mistral 3 — Mistral Large 3 и Ministral 3

Mistral AI выпустила новое семейство LLM: флагман Large 3 конкурирует с GPT-4o, компактные Ministral 3 работают локально. Apache 2.0, vision, function calling — всё бесплатно.

15 минут чтения 06.12.2025

Что такое Mistral 3

Mistral 3 — это новое семейство языковых моделей от французского стартапа Mistral AI, выпущенное 2-3 декабря 2025 года. Релиз включает флагманскую модель Mistral Large 3 и линейку компактных моделей Ministral 3 для локального и edge-развёртывания.

Главная особенность — все модели выпущены под лицензией Apache 2.0, что позволяет использовать их бесплатно в коммерческих проектах. Mistral Large 3 стала одной из лучших open-source моделей, конкурирующей с GPT-4o при стоимости на 80% ниже.

675B параметров

Mistral Large 3 использует Mixture of Experts: 675B общих параметров, 41B активных. Эффективность на уровне триллионных моделей.

Локальный запуск

Ministral 3 (3B, 8B, 14B) работают на обычном железе: от ноутбуков до edge-устройств. Ollama, vLLM, llama.cpp.

Мультиязычность

Поддержка десятков языков включая русский. Лидер в неанглийских категориях среди open-source моделей.

Vision + Tools

Все модели понимают изображения и поддерживают function calling. Готовы для мультимодальных агентов.

Apache 2.0 — что это значит?

Вы можете использовать Mistral 3 бесплатно в любых проектах, включая коммерческие. Можно модифицировать, дообучать, встраивать в продукты. Не нужно открывать исходный код. Нет роялти и лицензионных платежей. Единственное требование — сохранить копирайт в коде.

Mistral Large 3 (675B)

Mistral Large 3 — флагманская модель семейства, первая Mixture of Experts модель Mistral со времён Mixtral. Это серьёзный шаг вперёд в предобучении: 675 миллиардов общих параметров с 41 миллиардом активных на каждом токене.

Ключевые характеристики

Архитектура Granular MoE
Параметры (общие) 675B
Параметры (активные) 41B
Контекст 256K токенов
Vision Да
Function Calling Да
Лицензия Apache 2.0
Обучение 3000 NVIDIA H200

Производительность

Mistral Large 3 занимает #2 место среди OSS non-reasoning моделей и #6 среди всех OSS моделей на LMArena. По заявлению Mistral AI, модель достигает паритета с GPT-4o при стоимости на 80% ниже.

  • Кодинг — 90% на HumanEval, на уровне Claude 3.7 Sonnet и GPT-4o
  • Мультиязычность — лучшие результаты на неанглийских языках среди open-source
  • Reasoning — конкурирует с closed-source моделями в сложных задачах
  • Vision — понимание изображений на уровне GPT-4V

Доступность Mistral Large 3

Модель доступна через: Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face, Together AI, Fireworks, OpenRouter. Через Ollama — только cloud-версия: ollama run mistral-large-3:675b-cloud

Ministral 3: компактные модели для локального запуска

Ministral 3 — линейка компактных моделей для edge и локального развёртывания. Доступны в трёх размерах: 3B, 8B и 14B параметров. Каждый размер включает base, instruct и reasoning варианты.

Самая лёгкая

Ministral 3B

Для мобильных и IoT устройств

  • 3 млрд параметров
  • ~3GB на диске
  • 16GB RAM достаточно
  • 256K контекст
  • 52 токена/сек (Jetson Thor)
ollama run ministral-3:3b
Рекомендуем

Ministral 8B

Баланс качества и скорости

  • 8 млрд параметров
  • ~6GB на диске
  • 32GB RAM, GPU 8GB+
  • 256K контекст
  • Default версия в Ollama
ollama run ministral-3:8b
Максимум качества

Ministral 14B

Лучшее качество среди компактных

  • 14 млрд параметров
  • ~9.1GB на диске
  • 32GB RAM, GPU 12GB+
  • 256K контекст
  • ~85% AIME 2025 (reasoning)
ollama run ministral-3:14b

Возможности всех Ministral 3

  • Vision — анализ изображений и визуального контента
  • Multilingual — русский, английский, французский, китайский, арабский и десятки других
  • Agentic — лучшие в классе агентные возможности с function calling и JSON output
  • 256K контекст — обработка длинных документов даже на ограниченном железе

Reasoning варианты

Для каждого размера доступны reasoning-версии с улучшенными способностями к рассуждению. Ministral 14B Reasoning показывает ~85% точности на AIME 2025 — лидирующий результат для моделей этого класса. Ollama работает над добавлением reasoning-вариантов.

Запуск Mistral 3 через Ollama

Ollama — самый простой способ запустить Mistral 3 локально. Требуется версия 0.13.1 или выше (сейчас в pre-release).

Установка Ollama

macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
Windows
# Скачайте установщик с ollama.com
# Или через winget:
winget install Ollama.Ollama

Запуск Ministral 3

Команды запуска
# Default версия (8B)
ollama run ministral-3

# Конкретные размеры
ollama run ministral-3:3b   # 3GB, для слабых машин
ollama run ministral-3:8b   # 6GB, оптимальный выбор
ollama run ministral-3:14b  # 9.1GB, максимум качества

# Cloud-версии (через серверы Ollama)
ollama run ministral-3:14b-cloud
ollama run ministral-3:8b-cloud
ollama run ministral-3:3b-cloud

Запуск Mistral Large 3

Только cloud-версия
# Mistral Large 3 доступен только через cloud
ollama run mistral-large-3:675b-cloud

Использование через API

Python
import ollama

response = ollama.chat(model='ministral-3:14b', messages=[
    {
        'role': 'user',
        'content': 'Напиши функцию сортировки на Python'
    }
])
print(response['message']['content'])
cURL
curl http://localhost:11434/api/chat -d '{
  "model": "ministral-3:14b",
  "messages": [
    { "role": "user", "content": "Привет! Расскажи о себе" }
  ]
}'

Требования к железу

Модель RAM GPU VRAM Рекомендуемая GPU
Ministral 3B 16GB 4GB+ RTX 3060 / CPU
Ministral 8B 32GB 8GB+ RTX 3070/3080
Ministral 14B 32GB 12GB+ RTX 4080/4090

Скорость на RTX 5090

NVIDIA совместно с Ollama оптимизировали Mistral 3 для новых GPU. На RTX 5090 Ministral 3B выдаёт до 385 токенов/сек. Модели также оптимизированы для NVIDIA Jetson Thor, GeForce RTX AI PC и DGX Spark.

Бенчмарки: Mistral 3 vs GPT-4o vs Claude

Сравним производительность Mistral Large 3 с конкурентами на ключевых бенчмарках:

Бенчмарк Mistral Large 3 GPT-4o Claude 3.5 Sonnet
HumanEval 90% 90% 89%
LMArena (OSS) #2 non-reasoning Closed source Closed source
Multilingual Лидер в non-EN Хорошо Хорошо
Vision Да Да Да
Function Calling Да (JSON) Да Да (MCP)
Контекст 256K 128K 200K
Open Weights Apache 2.0 Нет Нет
Цена (1M токенов) ~80% дешевле $5/$15 $3/$15

Ministral 3 vs конкуренты

Ministral 3 конкурирует с Llama 3.2, Gemma 3 и Qwen 2.5 в категории компактных моделей:

  • GPQA Diamond — Ministral использует на 100 токенов меньше при той же точности
  • AIME 2025 — Ministral 14B Reasoning: ~85% (лидер в весовой категории)
  • Эффективность — на порядок меньше токенов при сопоставимом качестве
  • Скорость — до 385 токенов/сек на RTX 5090

Le Chat — самый быстрый чат-бот

Le Chat от Mistral AI на базе Mistral Small 3.1 показывает самую высокую скорость inference на рынке, превосходя Claude и GPT в latency-бенчмарках. Для high-throughput задач — отличный выбор.

Применение Mistral 3 в бизнесе

Открытые веса и permissive-лицензия делают Mistral 3 идеальным для корпоративного использования:

On-premise развёртывание

Запускайте LLM на своих серверах без отправки данных в облако. Полный контроль над данными, compliance с регуляторами. Ministral 3 работает даже на RTX 3060.

Edge AI и IoT

Ministral 3B достаточно компактна для edge-устройств. Работает на NVIDIA Jetson для умных камер, роботов, промышленных систем.

Мультиязычные чат-боты

Лидер в неанглийских языках. Отлично для международных компаний с поддержкой на русском, арабском, китайском.

Обработка документов

256K контекст позволяет анализировать длинные контракты, отчёты, техническую документацию целиком. Vision для работы со сканами.

Внедрим Mistral 3 в ваш бизнес

Поможем выбрать подходящую модель, развернуть на вашей инфраструктуре, интегрировать с бизнес-системами через n8n. Работаем с on-premise и cloud.

Заказать внедрение

Часто задаваемые вопросы

Mistral 3 — это семейство языковых моделей от французской компании Mistral AI, выпущенное в декабре 2025. Включает флагманскую Mistral Large 3 (675B параметров) и линейку компактных Ministral 3 (3B, 8B, 14B) для локального запуска. Все модели под лицензией Apache 2.0 с поддержкой vision и function calling.

Mistral Large 3 показывает паритет с GPT-4o по качеству при цене на 80% ниже. Large 3 использует архитектуру Mixture of Experts (MoE) с 675B общих параметров и 41B активных. Поддерживает контекст 256K токенов, мультиязычность и работу с изображениями. Главное отличие — открытые веса под Apache 2.0.

Установите Ollama 0.13.1+ и выполните команду: ollama run ministral-3. Доступны версии 3B (3GB), 8B (6GB) и 14B (9.1GB). Для RTX 4090 подойдёт 14B, для RTX 3060 — 8B. Все версии поддерживают контекст 256K токенов, vision и function calling.

Ministral 3B: 16GB RAM, современный CPU. Ministral 8B/14B: 32GB RAM, GPU с 8GB+ VRAM (RTX 3060 и выше). На RTX 5090 достигается скорость до 385 токенов/сек. Модели оптимизированы для NVIDIA Jetson, GeForce RTX AI PC и DGX Spark.

Apache 2.0 — пермиссивная open-source лицензия. Вы можете использовать модели бесплатно, модифицировать, включать в коммерческие продукты без роялти. Не нужно открывать исходный код вашего продукта. Это выгодно отличает Mistral от закрытых моделей OpenAI.

Да, Mistral 3 поддерживает русский язык в числе десятков других: английский, французский, немецкий, испанский, итальянский, португальский, китайский, японский, корейский, арабский и другие. Модели показывают высокие результаты в мультиязычных бенчмарках.

Источники

Нужна помощь с LLM?

Мы — агентство AIBot.Direct, специализируемся на внедрении ИИ-решений. Поможем выбрать модель, развернуть локально или в облаке, интегрировать с вашими системами.

0 просмотров