ФРС не снизит ставку в 2026 году и повысит ее в 2027-м — JPMorgan объяснил почему
Общая производительность AI-вычислений удваивается каждые 7 месяцев. Чтобы понять масштаб этого явления, представьте: то, на что уходил год вычислений в 2022 году, сегодня занимает меньше двух месяцев. Это не просто технический прогресс — это экспоненциальная революция, которая переписывает правила игры во всей мировой экономике.
Цифры, которые впечатляют
В ходе комплексного анализа данных о производстве ускорителей искусственного интеллекта эксперты поквартально отслеживали всех основных разработчиков чипов — от гигантов вроде Nvidia и AMD до новых игроков рынка. Результаты поражают: с 2022 года общий объём вычислений растёт примерно в 3,3 раза ежегодно. Это означает, что каждый год индустрия получает в три с лишним раза больше вычислительной мощности, чем было годом ранее.
Почему это критически важно? Потому что именно эта вычислительная мощность позволяет разрабатывать и внедрять всё более масштабные и сложные модели искусственного интеллекта. GPT-4, Claude, Gemini, Midjourney — все эти системы требуют колоссальных объёмов вычислений как для обучения, так и для работы с пользователями.
Nvidia доминирует на рынке
AI-чипы Nvidia в настоящее время составляют более 60% новых вычислительных мощностей для искусственного интеллекта. Это абсолютное доминирование объясняется несколькими факторами: технологическое лидерство в архитектуре GPU, экосистема программного обеспечения CUDA, которая стала индустриальным стандартом, и способность быстро масштабировать производство в партнёрстве с TSMC.
Линейка чипов H100 и новые Blackwell стали де-факто стандартом для обучения крупных языковых моделей. Каждый крупный дата-центр AI — от Microsoft Azure до AWS — закупает тысячи таких ускорителей, создавая беспрецедентный спрос.
Google и Amazon наступают на пятки
Google и Amazon производят большую часть оставшихся чипов — соответственно TPU (Tensor Processing Units) и Trainium. Эти компании пошли по пути вертикальной интеграции: разрабатывают собственные чипы, оптимизированные под свои AI-сервисы.
Google TPU v5 показывает впечатляющую производительность в задачах обучения моделей, особенно для собственных проектов вроде Gemini и Google Search AI. Amazon Trainium фокусируется на снижении стоимости обучения моделей для клиентов AWS, предлагая альтернативу дорогим чипам Nvidia.
Эта конкуренция здорова для рынка: она снижает зависимость от одного поставщика и стимулирует инновации. Однако Nvidia пока удерживает лидерство благодаря универсальности своих решений — их чипы подходят для любых AI-задач, в то время как TPU и Trainium оптимизированы под конкретные сценарии использования.
Что это значит для инвесторов и бизнеса
Рост вычислительных мощностей в 3,3 раза ежегодно создаёт уникальные инвестиционные возможности:
Для технологических компаний — это гонка за доступ к чипам. Кто контролирует вычислительные мощности, тот контролирует AI-индустрию.
Для инвесторов — акции производителей чипов (Nvidia, AMD, TSMC) и облачных провайдеров (Microsoft, Google, Amazon) остаются в фокусе. Nvidia выросла на 1600% с запуска ChatGPT не случайно.
Для бизнеса — доступ к AI становится вопросом выживания. Компании, которые не внедряют AI из-за отсутствия вычислительных ресурсов, рискуют отстать навсегда.
Что дальше?
Если текущие темпы сохранятся, к 2027 году мы получим вычислительные мощности, превышающие сегодняшние в 36 раз. Это откроет возможности для AI-систем, о которых мы сегодня можем только фантазировать: полноценные AI-агенты, персонализированные медицинские диагнозы в реальном времени, автономный транспорт на массовом уровне.
Но есть и узкие места: энергопотребление дата-центров растёт пропорционально вычислительным мощностям. К 2030 году AI-индустрия может потреблять до 4% мирового электричества. Это создаёт новые инвестиционные возможности в энергетике и инфраструктуре.
Следите за этим трендом — он определит победителей и проигравших следующего десятилетия.
Больше аналитики: https://t.me/BizLike
