В феврале 2026 года Даррен Мауэри, вице-президент Google, руководящий глобальной организацией стартапов на Cloud, DeepMind и Alphabet, выступил с суровым предупреждением: две категории ИИ-стартапов ждёт вымирание. Первая — это «обёртка над LLM», компания, которая создаёт продукт поверх существующей большой языковой модели и полагается на то, что бэкенд-модель выполняет всю работу. Вторая — это «агрегатор ИИ», компания, которая объединяет несколько LLM за единым API или маршрутизирующим слоем. «Индустрия больше не терпит это», — сказал Мауэри.
Спустя несколько недель Google и Atoms ускоритель Accel рассмотрели примерно 4000 заявок от ИИ-стартапов и отклонили около 70% из них как поверхностные обёртки. Стартапы, которые прошли отбор, имели общую черту: они создавали собственные модели для конкретных вертикалей, используя нужный метод ИИ для решения задачи, а не передоверяя всю интеллектуальную работу универсальной LLM.
Это не простая корректировка. Это сигнализирует о фундаментальном сдвиге в том, как индустрия мыслит об архитектуре ИИ. И это указывает на будущее, которое не просто «пост-обёртка над LLM», а нечто намного более интересное: разнообразное в используемых технологиях ИИ и распределённое в том, как эти технологии компонуются.
Десятилетие специализированных прорывов
Чтобы понять почему, полезно отступить назад. Если вы внимательно следили за развитием ИИ в последний декабр, вы свидетель чего-то замечательного. Не одна революция, а серия их, каждая движимая другой технологией, покоряющей различный класс проблем.
В начале 2010-х годов свёрточные нейронные сети преобразили компьютерное зрение. Внезапно машины могли распознавать лица, читать медицинские снимки и интерпретировать визуальный мир сверхчеловеческой точностью. СНС не решали всё. Они решили проблему зрения, и решили её блестяще.
Затем пришло глубокое обучение с подкреплением. В 2013 году DeepMind обучила агента играть в видеоигры Atari с необработанных пикселей, обучаясь стратегии только через пробы, ошибки и вознаграждение. Два года спустя AlphaGo победила чемпиона мира в Го — игру с большим количеством возможных позиций, чем атомов во вселенной. ОПП не заменило СНС. Оно открыло совершенно новый фронтир: машины, которые могли научиться принимать решения в сложных динамичных окружениях.
И теперь большие языковые модели. GPT, Claude и их преемники сделали машины необыкновенными в понимании и генерации языка, рассуждении во всех областях, суммировании огромного количества информации и взаимодействии с людьми в естественной беседе. Влияние было ошеломляющим, и совершенно справедливо.
Но вот что теряется в восторге: каждый из этих прорывов был специализированным инструментом, превосходящим в решении конкретного класса проблем. СНС отлично работают в восприятии. LLM отлично работают в языке и рассуждении. А обучение с подкреплением, конкретно temporal difference learning, отлично справляется с последовательным принятием решений в условиях неопределённости.
Это именно тот урок, который расчёт с обёртками преподаёт экосистеме стартапов самым жёстким способом.
Правильный инструмент для каждой задачи
Сегодняшнее обсуждение ИИ доминируется LLM, и справедливо. Они невероятно универсальны и доступны. Но универсальность не следует путать с универсальностью. LLM — это не движок принятия решений. Он может рассуждать о решениях. Он может генерировать опции. Он может красиво объяснять компромиссы. Но управление процессом, принятие последовательности выборов во времени в стохастической среде, где обратная связь отсрочена на недели или месяцы — это фундаментально другая проблема.
Было некоторое ранее возбуждение вокруг Decision Transformers, которые попытались переформулировать обучение с подкреплением как проблему моделирования последовательности, которая могла бы использовать архитектуру трансформера. Это была элегантная идея. Но на практике она не вытеснила temporal difference learning для реальных задач управления. Когда проблема действительно последовательная и динамичная, TD обучение остаётся проверенным подходом.
Рассмотрим прецеденты. DeepMind использовала глубокое обучение с подкреплением для оптимизации систем охлаждения центров обработки данных Google, снизив потребление энергии на 40%. Не написав лучшие отчёты об энергии, а постоянно принимая решения управления в реальном времени в сложной физической системе. В автономном вождении слой восприятия использует СНС для видения дороги, но слой планирования и управления, часть, которая решает, когда тормозить, ускоряться или менять полосу, полагается на обучение с подкреплением. Восприятие и управление — это разные проблемы. Они заслуживают разных инструментов.
Та же логика применима к продажам. Написание лучшего письма — это проблема языка, и LLM идеальны для этого. Обогащение списка лидов — это проблема поиска данных. Но понимание динамики конвейера, моделирование того, как сделки развиваются во времени, и обучение тому, какие паттерны приводят к победам и поражениям? Это проблема управления и оптимизации. И она требует temporal difference learning.
Чтобы сделать это более конкретным: рассмотрим, как сделка проходит через конвейер продаж B2B. На каждом этапе представитель сталкивается с последовательностью решений. Когда выполнить повторное наблюдение. Какого заинтересованного лица задействовать следующим. Предложить ли скидку или держать твёрдую позицию по цене. Каждый выбор влияет на то, что происходит дальше, и результат (выигранная или проигранная сделка) может не материализоваться месяцами. Пространство состояния высокомерно (размер сделки, уровни вовлечения заинтересованных лиц, конкурентное давление, время), переходы стохастичны, и сигнал вознаграждения редкий и отложенный. Это учебный пример проблемы обучения с подкреплением. LLM может составить черновик письма с повторным наблюдением, но решение будет ли, когда и кому его отправить — это совершенно другой вызов.
Это различие, которое модель обёртки полностью упускает. Стартап, который оборачивает LLM вокруг рабочего процесса продаж, может помочь представителям писать лучшие письма. Он не может научиться, проанализировав тысячи исходов сделок, что специфическая последовательность вовлечения заинтересованных лиц в сделках корпоративного здравоохранения приводит к 3-кратному улучшению показателя закрытия. Это требует фундаментально другого вида интеллекта.
От монолитных моделей к разнообразным сетям агентов
Это понимание указывает на что-то намного большее, чем какую модель использовать для какой задачи. Это указывает на совершенно новую архитектуру корпоративного ИИ, и это объясняет, почему предупреждение Мауэри нашло такой широкий отклик.
Текущая парадигма по сути монолитна: одна большая модель, которую просят делать всё. Общаться с клиентами. Писать документы. Анализировать данные. Делать рекомендации. Это как если бы вся индустрия программного обеспечения попыталась построить каждое приложение как одну программу.
Но мы уже учили этот урок раньше. В начале 2000-х индустрия программного обеспечения перешла от монолитных приложений к сервис-ориентированной архитектуре, или SOA. Вместо одной огромной кодовой базы, пытающейся делать всё, вы строили сети небольших специализированных сервисов, каждый делающий одно очень хорошо. Каждый сервис имел чётко определённый интерфейс и чёткий набор возможностей. Уровень оркестрации компоновал их в сложные рабочие процессы. Результат был более надёжным, более масштабируемым и более адаптивным, чем всё, что мог достичь монолит.
ИИ движется в том же направлении. Будущее — это не одна модель, чтобы все их покорить. Это миллионы специализированных агентов, каждый обученный делать одно с точностью. Агент, который понимает импульс сделки в корпоративном SaaS. Агент, который обнаруживает динамику комитета покупателей. Агент, который моделирует чувствительность к цене в сделках среднего рынка. Каждый маленький, сосредоточенный и очень хороший в своём деле. И критически, каждый построенный на парадигме ИИ, которая действительно соответствует решаемой проблеме, а не втиснутый в трансформер потому что это модно.
Эти агенты не работают изолированно. Они формируют сети. Они общаются. И заставить их работать вместе требует двух отчётливых возможностей, которые легко смешать, но фундаментально различны.
Первая — это рассуждение и декомпозиция. Именно здесь LLM сияют. Дав сложную цель, скажем, «оцените здоровье этой корпоративной сделки», LLM может разбить это на подзадачи: анализ вовлечения заинтересованных лиц, оценку динамики цены, сравнение с историческими паттернами этого типа сделки. Он понимает намерение, он декомпонует проблемы, и он может синтезировать результаты в связный анализ.
Второе — это оркестрация, и это