нейросети23 марта 2026 г.

Mistral выпустила Small 4: единая модель с рассуждением, кодингом и зрением в 119 млрд параметров

Французская компания Mistral AI представила Small 4 — открытую модель на 119 млрд параметров с контекстом 256 тысяч токенов. Новинка объединяет возможности трёх отдельных моделей и обходит GPT-OSS 120B на ряде ключевых бенчмарков, при этом выдавая ответы на 40% быстрее предшественника.

Mistral выпустила Small 4: единая модель с рассуждением, кодингом и зрением в 119 млрд параметров

17 марта 2026 года на конференции Nvidia GTC французская компания Mistral AI официально анонсировала Mistral Small 4 — флагманскую открытую языковую модель нового поколения. Модель доступна под лицензией Apache 2.0, что позволяет использовать её в коммерческих проектах без ограничений.

Small 4 построена на архитектуре Mixture of Experts (MoE) с 128 экспертами: всего модель содержит 119 млрд параметров, но при обработке каждого токена активируются только 6,5 млрд. Контекстное окно составляет 256 тысяч токенов — втрое больше, чем у большинства конкурентов в этом ценовом сегменте. Модель принимает на вход текст и изображения, что делает её полноценно мультимодальной.

Ключевое отличие Small 4 — встроенный режим рассуждений, управляемый параметром `reasoning_effort`. При значении `high` модель разворачивает пошаговое мышление для решения сложных задач: математики, программирования, анализа документов. При `none` — отвечает быстро, как обычный ассистент. Это позволяет заменить сразу три специализированных продукта Mistral: Instruct, Magistral (рассуждение) и Devstral (код).

На бенчмарке GPQA Diamond модель набрала 71,2%, на MMLU-Pro — 78,0%. На LiveCodeBench Small 4 превзошла GPT-OSS 120B при генерации на 20% меньшего объёма кода. По сравнению с Mistral Small 3 новинка работает на 40% быстрее и обрабатывает втрое больше запросов в секунду в режиме максимальной пропускной способности. На одном GPU RTX Pro 6000 Blackwell модель выдаёт около 942 тысяч токенов в час.

Параллельно с моделью Mistral представила платформу Forge — инструмент для обучения кастомных ИИ-моделей с нуля на данных конкретного предприятия. Это прямой вызов OpenAI и Anthropic в корпоративном сегменте: вместо дообучения чужой модели компании смогут строить собственные LLM на своей инфраструктуре. Forge позиционируется как ответ на растущий спрос крупного бизнеса на суверенный ИИ без зависимости от американских провайдеров.

Mistral Small 4 уже доступна на Hugging Face, через NVIDIA NIM, а также на OpenRouter и других платформах. Для запуска на собственных серверах Mistral рекомендует как минимум 4 GPU NVIDIA HGX H100. Выход Small 4 усиливает позиции европейского ИИ на глобальном рынке открытых моделей и создаёт реальную конкуренцию более дорогостоящим проприетарным решениям.

Попробуйте нейросети в MashaGPT

GPT-5, Claude, Gemini, генерация изображений и видео — всё в одном месте

Попробовать бесплатно
Источник:TechCrunch