Все статьи
· 9 мин чтения

Qwen3.5: Китайцы сделали модель, которая рвёт GPT-5.2 🫡

Разбираю Qwen3.5 от Alibaba — 397B параметров, 17B активных, MoE, нативное зрение и 201 язык. Как 3B активных параметров побеждают 22B? Разбор с шизой.

Qwen3.5: Китайцы сделали модель, которая рвёт GPT-5.2 🫡

Ну чё, малютки, Alibaba снова жжёт 🔥

15 февраля 2026 года Alibaba выкатила Qwen3.5-397B-A17B — флагман новой серии. А 24 февраля подъехали «средние» модели: Qwen3.5-35B-A3B, Qwen3.5-122B-A10B и Qwen3.5-27B. И знаете что? Это не очередной апдейт с +2% на бенчмарках. Это полноценный сдвиг парадигмы.

Пока все гоняются за триллионами параметров, китайцы сделали ставку на архитектурную элегантность, качественные данные и вычислительную эффективность. И, если честно, это сработало.

🔥 Вот это поворот

Qwen3.5-35B-A3B с 3 лярдами активных параметров рвёт Qwen3-235B-A22B с 22 лярдами активных. Три лярда бьют двадцать два. Умная архитектура + качественные данные > грубая сила масштаба.

397B Параметров

Общее число параметров флагмана — но только 17B активируются при каждом проходе. Остальные сидят и ждут своей очереди. MoE, малютки.

201 язык Мультиязычность

С 119 до 201 языка и диалекта. Самый широкий охват среди открытых моделей. Даже ваш диалект, наверное, поддерживается.

19× быстрее Ускорение

В 19 раз быстрее Qwen3-Max на длинных контекстах (256k токенов). Не опечатка — девятнадцать.

1M токенов Контекст

Миллион токенов контекста — это ~2 часа видео или целая кодовая база. Закидываешь весь проект и спрашиваешь «что не так».


Как Qwen дошёл до жизни такой

Серия Qwen прошла дикий путь за два года. Каждое поколение — не просто +5% на бенчмарках, а принципиально новые возможности. От «ну, норм модель» до «стоп, это реально конкурент GPT?».

Хронология развития серии Qwen от Alibaba

С Qwen3.5 Alibaba поставила на три лошади: мощность (больше визуально-текстовых токенов при обучении), эффективность (гибридный MoE с дикой разреженностью) и универсальность (нативная мультимодальность + 201 язык). И все три пришли первыми.


Qwen3.5 vs Qwen3: Апдейт или новая эра?

Малютки, давайте разберёмся — это просто +0.5 к версии или реально новый уровень? Спойлер: это не апдейт. Это другая модель.

Матрица характеристик

Вот вам наглядно — флагманы лоб в лоб: Qwen3-235B-A22B против Qwen3.5-397B-A17B.

Матрица характеристик: Qwen3 vs Qwen3.5

Что поменялось под капотом

Qwen3.5 притащил гибридное внимание — Gated Delta Networks (GDN) + Gated Attention (GA) вместо стандартного GQA у Qwen3. Плюс разреженность MoE выросла с 9.4% до 4.3% — модель активирует ещё меньше параметров на каждый токен, но при этом работает лучше. Магия? Нет, инженерия.

Сравнение архитектуры и производительности Qwen3 и Qwen3.5

Qwen3 Старичок

235B параметров, 22B активных. Стандартный GQA. Разреженность MoE: 9.4%. 119 языков. Был хорош, но время пришло.

Qwen3.5 Новый король

397B параметров, 17B активных. Гибридный GDN+GA. Разреженность MoE: 4.3%. 201 язык. До 19× быстрее. Другая лига.

Бенчмарки: цифры не врут

Qwen3.5-397B-A17B стабильно рвёт Qwen3-Max-Thinking по всем фронтам — инструкции, агентные задачи, мультиязычность.

Прирост производительности Qwen3.5 относительно Qwen3-Max-Thinking

Базовые модели: прогресс на фундаментальном уровне

Даже без инструктивного тюнинга — base-модель Qwen3.5-397B-A17B показывает серьёзный отрыв в знаниях (MMLU-Pro, SuperGPQA) и кодировании (SWE-agentless).

Сравнение базовых моделей Qwen3 и Qwen3.5

Моё мнение

Это не эволюция, малютки. Это революция. Новая архитектура, нативное зрение, дикая эффективность — Qwen3.5 задаёт новый стандарт для открытых моделей. Точка.


Архитектура: Что у этого зверя внутри 🔬

Окей, малютки, теперь самое вкусное — что под капотом. Сердце Qwen3.5 — гибридная архитектура Qwen3-Next, которая собрала в себе все актуальные инженерные решения.

Архитектура Mixture-of-Experts в Qwen3.5

⚡ MoE Explorer
Каждый квадрат — «эксперт». Маршрутизатор активирует 8 из 64. Нажмите на сетку или кнопку, чтобы смоделировать новый токен.
8/64Активных
12.5%Разреженность
~50BАктивных парам.
88%Экономия
⚡ Sparse MoE Архитектура

397 лярдов параметров, но только 17B работают на каждый токен. Остальные — резерв. Router решает, кого будить. Эффективность — космос.

🔬 Gated Delta Networks Внимание

Линейное внимание GDN + стандартные Gated Attention блоки. Соотношение 3:1 — три линейных слоя на один полный. Быстро и точно.

📷 Нативное зрение Мультимодальность

Early fusion — текст и картинки сливаются ещё при предобучении. Модель «видит» с рождения, а не учится видеть через костыли постфактум.

📄 Multi-Token Prediction Генерация

Предсказывает несколько токенов за раз. Генерация быстрее, длинные тексты согласованнее. Простая идея — мощный эффект.

🛠️ FP8 Training Обучение

Нативный FP8 пайплайн. Память −50%, скорость +10%. Тренировать такого монстра стало реально дешевле.

🌐 250K словарь Токенизация

250K токенов вместо 150K у Qwen3. Эффективность кодирования выросла на 10–60% для большинства языков. Меньше токенов = дешевле инференс.

Спеки Qwen3.5-27B (для тех, кто любит цифры)

ПараметрЗначение
Число параметров27 млрд
Скрытая размерность5120
Число слоёв64
Структура слоёв16 × (3 × Gated DeltaNet → 1 × Gated Attention)
Словарь (токенов)248 320
Нативный контекст262 144 токена
Расширенный контекст (YaRN)1 010 000 токенов
Поддерживаемые языки201

Семейство моделей: на любой кошелёк и задачу

Alibaba не ограничилась одним флагманом — выкатили целую линейку, от лёгких API-шных моделей для продакшена до тяжёлых монстров для исследований.

Семейство моделей Qwen3.5

МодельВсегоАктивныхТипКлючевые особенности
Qwen3.5-397B-A17B397B17BФлагманМаксимум мощности, нативное зрение, 201 язык
Qwen3.5-Plus~397B~17BHosted API1M контекст, встроенный поиск и Code Interpreter
Qwen3.5-122B-A10B122B10BOpen-WeightДля серьёзных агентных задач
Qwen3.5-35B-A3B35B3BOpen-WeightРвёт Qwen3-235B-A22B при 3B активных. Годнота
Qwen3.5-27B27B27BOpen-WeightDense-модель, 1M контекст, 201 язык
Qwen3.5-Flash35B3BHosted APIДля продакшена: минимальная задержка

«Qwen3.5-35B-A3B с 3B активными параметрами превосходит Qwen3-235B-A22B с 22B активными. MoE + качественные данные + RL = интеллект уровня фронтира при доле вычислительных затрат.» — MarkTechPost, 24 февраля 2026


Бенчмарки: Как Qwen3.5 рвёт GPT-5.2 и Claude 4.5 🤯

А теперь самое интересное, малютки. Qwen3.5 не просто «конкурирует» — он реально бьёт GPT-5.2, Gemini 3 Pro и Claude 4.5 Opus на ряде задач.

Сравнение бенчмарков Qwen3.5 с конкурентами

📊 Интерактивное сравнение моделей
Выберите бенчмарк, чтобы сравнить Qwen3.5 с конкурентами. Яркая полоса — лучший результат.
MMLU-Pro (знания)
GPT-5.2
87.4
Gemini-3 Pro
89.8
Claude 4.5
89.5
Qwen3.5-397B
87.8
GPT-5.2
Gemini-3 Pro
Claude 4.5
Qwen3.5-397B

Цифры, малютки, цифры

БенчмаркGPT-5.2Gemini-3 ProClaude 4.5 OpusK2.5-1TQwen3.5-397B
MMLU-Pro (знания)87.489.889.587.187.8
IFBench (инструкции)75.470.458.070.276.5
GPQA (STEM)92.491.987.087.688.4
BFCL-V4 (агенты)63.172.577.568.372.9
BrowseComp (поиск)65.859.267.874.978.6
NOVA-63 (многоязычность)54.656.756.756.059.1
TAU2-Bench (агенты)87.185.491.677.086.7
SWE-bench Verified (код)80.076.280.976.876.4
💡 Где Qwen3.5 топ-1

Следование инструкциям (IFBench: 76.5), веб-поиск (BrowseComp: 78.6) и мультиязычность (NOVA-63: 59.1) — именно то, что нужно для агентных сценариев. Если строишь агентов — присмотрись.


Зрение, видео и пространственный интеллект 📷

Малютки, Qwen3.5 — это не «языковая модель с прикрученным зрением». Это нативно мультимодальная система — она видит с рождения.

Мультимодальные возможности Qwen3.5

Радарная диаграмма Vision-Language бенчмарков

Топовые результаты на vision-бенчмарках

93.1 — OCRBench Топ-1

Лучший OCR среди всех моделей. Читает текст с картинок лучше, чем ты после третьей чашки кофе.

92.3 — RefCOCO avg Топ-1

Точно указывает на объекты в изображениях. Ключевая штука для робототехники и GUI-автоматизации.

90.3 — MathVista Топ-1

Решает математику по графикам, диаграммам и формулам. Показываешь картинку — получаешь ответ.

62.2 — OSWorld GUI Agent

Автономно управляет десктопными приложениями через визуальный интерфейс. Скайнет, ты?

Отдельно кайфую от пространственного интеллекта: подсчёт объектов (CountBench: 97.2), пространственные отношения (EmbSpatialBench: 84.5) и точное указание на объекты (RefCOCO avg: 92.3). Это уже не «модель видит картинку» — это «модель понимает пространство».


Скорость, стоимость и доступность: Главные козыри ⚡

Ладно, малютки, бенчмарки — это круто, но что по скорости и цене? А тут Qwen3.5 вообще рвёт всех.

Графики эффективности Qwen3.5

8.6× Ускорение (32k)

В 8.6 раз быстрее Qwen3-Max на контексте 32k. Не проценты — разы.

19× Ускорение (256k)

На длинных контекстах (256k) — в 19 раз быстрее. Чем длиннее контекст, тем больше выигрыш. Красота.

−60% Стоимость

Инференс дешевле на 60% по сравнению с предыдущим поколением. Кошелёк скажет спасибо.

−50% Память

Потребление памяти активаций упало вдвое благодаря FP8 пайплайну. Больше моделей на одну тачку.

Сколько VRAM нужно? (INT4 квантизация)

Qwen3.5-27B (INT4) 16 ГБ
Qwen3.5-35B-A3B (INT4) 20 ГБ
Qwen3.5-122B-A10B (INT4) 65 ГБ
Qwen3.5-397B-A17B (FP8) 397 ГБ
Вдумайтесь, малютки

Qwen3.5-35B-A3B с контекстом в 1 миллион токенов работает на потребительской GPU с 32 ГБ VRAM. Модель уровня фронтира — на вашей RTX 4090. Без облака, без подписок, без лярдов на инфру.


Где это применять: Агенты, код, автоматизация 🛠️

Qwen3.5 — это модель для эпохи агентного ИИ. Архитектура заточена под сценарии, где модель сама планирует и выполняет сложные многошаговые задачи. Вот что я вижу как основные юзкейсы:

💻 Vibe Coding Код

Интеграция с Qwen Code, Claude Code и другими тулами. Пишет, тестирует, итерирует код по твоим инструкциям. Vibe coding на максималках.

🔍 Агентный поиск Поиск

BrowseComp: 78.6, WideSearch: 74.0 — лучший результат. Модель сама лезет в интернет, собирает инфу и синтезирует ответ. Deep research из коробки.

📱 GUI-автоматизация Автоматизация

Управляет смартфонами и компами: заполняет таблицы, кликает по кнопкам, автоматизирует рутину. Твой личный RPA-бот.

📖 Анализ документов Документы

1M токенов контекста = целая кодовая база или многотомный документ. Без RAG, без костылей — просто закидываешь всё в контекст.

🎥 Понимание видео Видео

До 2 часов видео: саммари, реверс-инжиниринг игровой логики, UI-наброски → код. Показал видео — получил результат.

🚗 Автономное вождение Робототехника

Пространственный интеллект + понимание видеопоследовательностей. Для тех, кто строит что-то на колёсах.


Итого, малютки 🫡

Qwen3.5 — это ответ Alibaba на гигантоманию в мире LLM. Пока все наращивают триллионы параметров, китайцы доказали: умная архитектура + качественные данные > грубая сила. И сделали это с открытыми весами.

Что дальше? Согласно официальному блогу Qwen — переход от масштабирования модели к системной интеграции: агенты с персистентной памятью, механизмы самосовершенствования и экономическая осведомлённость. Цель — не просто инструменты, а постоянные партнёры, способные автономно работать над сложными многодневными проектами.

🔥 Главный вывод

Открытые модели вплотную подошли к проприетарным гигантам, а в ряде задач — уже превзошли их. Следование инструкциям, веб-поиск, мультиязычность — тут Qwen3.5 топ-1. Для нас, разработчиков и исследователей, это огонь. Гоняйте, тестируйте, стройте агентов. Будущее уже здесь.


Источники: