Qwen сделал open-source входом. Точку контроля оставил себе


Alibaba выстроил самую большую open-weight экосистему в мире — и параллельно закрыл флагманские модели за платный API. Это не разворот стратегии. Это и была стратегия.

  •   2 мин. чтения
Qwen сделал open-source входом. Точку контроля оставил себе

Содержание

Alibaba выстроил самую большую open-weight экосистему в мире — и параллельно закрыл флагманские модели за платный API. Это не разворот стратегии. Это и была стратегия.

Что известно:

К февралю 2026-го Qwen занял 69% новых деривативов на Hugging Face — Llama упала с 25% (ноябрь 2023) до 11%. Более 113 000 прямых производных моделей семейства Qwen; если считать все модели с тегом Qwen — свыше 200 000. Больше, чем у Google и Meta вместе взятых.

Совокупные загрузки Qwen на Hugging Face превысили 700 млн в январе 2026-го — обогнав Meta Llama ещё в октябре 2025-го.

Модели Qwen часто называют open-source. Это неточно. Обучающий код не опубликован, данные не задокументированы — они не соответствуют ни Open Source AI Definition, ни Model Openness Framework от Linux Foundation. Apache 2.0 на веса — это open-weight, не open-source. Разница критическая.

Начиная с Qwen2 (июнь 2024-го) Alibaba последовательно оставлял флагманы проприетарными, открывая только часть линейки. Qwen3-Max — более 1T параметров, обучен на ~36T токенах, доступен исключительно через API.

Технические детали:

В апреле 2026-го Alibaba выпустил три проприетарные модели за три дня подряд, включая Qwen3.6-Plus. Все три — closed source, веса публично недоступны, размер модели и число параметров не раскрываются. Доступ — только через Alibaba Cloud Model Studio.

Qwen3-Max: контекстное окно до 262 000 токенов, до 65 536 выходных токенов, нативный tool use и function calling, always-on chain-of-thought (цепочка рассуждений). Для on-device или приватного деплоя — актуальны open-weight версии Qwen 3.5 на Hugging Face.

Смена команды:

За десять недель Alibaba потерял трёх старших технических лидеров Qwen.

3 марта 2026-го Линь Цзуньян (Justin Lin) написал на X: «me stepping down. bye my beloved qwen» — в 11:11 AM. В тот же день ушёл Юй Бовэнь, руководитель постобучения (post-training). Хуэй Биньюань, руководитель Qwen Code, перешёл в Meta ещё в январе 2026-го.

Постобучение возглавил Чжоу Хао — бывший старший исследователь DeepMind, ключевой контрибьютор Gemini 3.0, рекрутированный CTO Alibaba Cloud Чжоу Цзинжэнем. Tongyi Lab переходит от вертикально интегрированной структуры к горизонтальной: отдельные команды для предобучения, постобучения, текста, мультимодальности. Это прямо противоречило видению Линя — он последовательно настаивал на более тесной интеграции этих команд. Акции Alibaba упали на 5,3% в Гонконге.

Наш взгляд:

Alibaba реализует двухуровневую модель: open-weight — для захвата экосистемы и стандартизации пайплайнов (инструментальных цепочек), закрытые флагманы — для маржи и enterprise-контрактов. Аналитики фиксируют: по мере давления инвесторов на рост выручки «открытость» в open-weight может стать второстепенным приоритетом.

Для команд в ЦА риск не в лицензии — он в инфраструктурной зависимости. Вы обучаете пайплайны под архитектуру Qwen, команды привыкают к tooling — а когда нужна production-мощность, платите за закрытый API. Это зеркалит напряжение внутри OpenAI и Google: коммерческий масштаб неизбежно вступает в конфликт с декларируемой открытостью.

Итог:

Формально open. Фактически — глубокая инфраструктурная зависимость. Прежде чем строить production-деплой под Qwen, проверьте лицензию конкретного чекпоинта на GitHub — не бренда, а модели.

Ваши пайплайны уже завязаны на Qwen-архитектуру?


Источники:
TechCrunch — Alibaba's Qwen tech lead steps down, March 3, 2026
Hugging Face — State of Open Source on HF: Spring 2026
Artificial Analysis — Qwen3.6 Plus model profile
Geopolitechs — Inside the Stepping Down of Qwen's Tech Lead

REAL DIGITAL

#Qwen #Alibaba #OpenWeight #AIStrategy #LLM