LLM анализ статьи
TL;DR: FT пишет, что на фоне AI-бума интерес инвесторов частично возвращается к “старой IT” — CPU, серверам, storage, дисковым накопителям и enterprise software. Главная причина: AI смещается от обучения больших моделей к inference и AI-агентам, где классическая инфраструктура и корпоративные приложения могут снова стать критически важными. Но пока неясно, смогут ли старые игроки захватить значимую часть новой стоимости или останутся второстепенным слоем под AI-компаниями.
1. 5–8 ключевых мыслей
-
Маятник частично качнулся обратно к Old IT. После периода, когда весь AI-нарратив был сосредоточен вокруг GPU, специализированных чипов и LLM, рынок снова начал переоценивать роль CPU, серверов, storage и software.
-
Переход от training к inference повышает значение CPU. Обучение LLM доминировало в первой фазе AI-бума, но при массовом использовании моделей важнее становятся inference-нагрузки. CPU нужны для загрузки моделей, управления запросами и обработки output.
-
ARM и AMD получили подтверждение спроса на CPU. В статье упоминается сильный спрос на CPU у ARM и AMD. AMD, по тексту, ожидает compound growth в CPU-продажах на уровне 35% в ближайшие годы — примерно вдвое выше прогноза шестимесячной давности.
-
AI-агенты могут стать ещё более важным драйвером для старой инфраструктуры. Логика такая: если агенты будут выполнять работу людей, они будут массово использовать уже существующие цифровые инструменты — SaaS, корпоративные приложения, базы данных, workflow-системы.
-
Intel делает ставку на CPU-heavy агентные нагрузки. CFO Intel утверждает, что для AI training нужен примерно один CPU на восемь GPU, а для agent workloads CPU может понадобиться столько же, сколько GPU. Это один из факторов резкого роста акций Intel после участия правительства США.
-
Storage и “старые” hardware-компании тоже получают рыночный импульс. FT приводит Seagate как пример: акции производителя дисковых накопителей выросли на 60% за месяц, что отражает расширение AI-нарратива за пределы GPU.
-
Главный вопрос — кто заберёт value capture. Если Old IT останется вспомогательным background-слоем, маржинальность и pricing power будут ограничены. Если же старые компании смогут доказать, что их технологии центральны для агентной эпохи, они получат больше рыночной силы.
-
Самый сложный кейс — enterprise software. Salesforce пытается адаптироваться к эпохе агентов через “headless” software — ПО без браузерного интерфейса для человека. Но это рискованно, потому что классическая SaaS-модель завязана на число пользователей-людей.
2. Что здесь действительно важно и почему
Главная мысль статьи — AI-инфраструктура перестаёт быть только историей про GPU и обучение моделей. По мере перехода к промышленному использованию AI возникают другие узкие места: inference orchestration, CPU, storage, доступ к корпоративным данным, интеграция с enterprise workflow и гарантированная надёжность.
Для инвесторов и IT-стратегии это важно потому, что value chain AI может перераспределиться. В первой фазе основную ценность забирали Nvidia, hyperscalers и поставщики LLM. Во второй фазе часть стоимости могут вернуть себе “старые” игроки: AMD, ARM, Intel, Seagate, Salesforce и другие поставщики enterprise-стека.
Самый интересный конфликт — вокруг AI-агентов и корпоративного ПО. Если агенты станут новым “пользователем” SaaS-систем, Salesforce и похожие компании могут сохранить relevance за счёт данных, контекста и orchestration. Но если AI-компании сами научатся понимать бизнес-процессы, работая рядом с людьми, то старые SaaS-поставщики рискуют потерять контроль над интерфейсом, пользователем и частью монетизации.
3. Слабые места, натяжки и спорные тезисы
Есть несколько важных caveats.
Во-первых, статья сильно опирается на рыночные сигналы и заявления компаний, а не на доказанную долгосрочную экономику AI-агентов. Рост акций Intel или Seagate показывает ожидания рынка, но не гарантирует устойчивый спрос.
Во-вторых, тезис про равное количество CPU и GPU для agent workloads выглядит как заинтересованная позиция Intel, а не нейтральный отраслевой консенсус. Это может оказаться верным для некоторых архитектур, но не обязательно для всех сценариев.
В-третьих, “headless software” у Salesforce действительно логичный шаг, но бизнес-модель SaaS “per human seat” может оказаться под давлением. Пока не ясно, как именно будет тарифицироваться агентное использование: по агентам, API calls, задачам, outcome, compute или hybrid-модели.
В-четвёртых, статья предполагает, что исторические данные в Salesforce дают компании сильное преимущество. Это правдоподобно, но спорно: AI-компании могут получить контекст через интеграции, наблюдение за workflow и работу рядом с сотрудниками.