Openai/692a0fb2-3438-8004-9439-3613c264f718
This conversation was exported from ChatGPT[1]
gpt-5-thinking edit
User: Есть ли пузырь на рынке ИИ? edit
Есть ли пузырь на рынке ИИ? Учитывая колоссальные объёмы денег, идущие в инфраструктуру ИИ — например, план OpenAI на 1,4 трлн долларов и то, что рыночная капитализация Nvidia ненадолго достигала 5 трлн долларов, — многие задаются вопросом, не загнали ли спекуляции и хайп стоимость ИИ-активов выше устойчивого уровня. Однако ИИ — не монолитная область, и разные её части выглядят «пузыристо» в разной степени.
- Прикладной слой ИИ: сюда инвестируют недостаточно. Потенциал здесь гораздо выше, чем большинство понимает.
- Инфраструктура ИИ для инференса: ей всё ещё нужны значительные инвестиции.
- Инфраструктура ИИ для обучения моделей: я по-прежнему осторожный оптимист по поводу этого сектора, но здесь тоже может быть пузырь.
Оговорка: я абсолютно не даю инвестиционных советов!
Прикладной слой ИИ. В ближайшее десятилетие ещё предстоит создать множество приложений на базе новых технологий ИИ. Почти по определению приложения, построенные поверх инфраструктуры/технологии ИИ (таких как API LLM), должны быть более ценными, чем сама инфраструктура, потому что именно они должны зарабатывать достаточно, чтобы платить поставщикам инфраструктуры и технологий.
Я вижу множество «зелёных ростков» в разных компаниях, которые внедряют агентные (agentic) рабочие процессы, и уверен, что это будет расти. Я также разговаривал со многими венчурными инвесторами, которые колеблются, когда речь идёт об инвестициях в ИИ-приложения, потому что чувствуют, что не знают, как выбирать победителей, тогда как «рецепт» того, как вложить 1 млрд долларов в инфраструктуру ИИ, понятнее. Некоторые ещё и поддались хайпу о том, что почти все ИИ-приложения будут просто сметены улучшением базовых моделей у компаний, разрабатывающих передовые LLM. В целом я считаю, что в ИИ-приложения сегодня существенно недоинвестируют. Для моего венчур-студио AI Fund это по-прежнему огромный фокус.
Инфраструктура ИИ для инференса. Несмотря на низкий уровень проникновения ИИ сегодня, поставщики инфраструктуры уже с трудом удовлетворяют спрос на вычислительную мощность для генерации токенов. Несколько моих команд беспокоятся, хватит ли нам мощности для инференса; и стоимость, и пропускная способность инференса ограничивают то, насколько активно мы можем всё это использовать. Это, конечно, неплохая проблема — когда бизнес ограничен предложением, а не спросом. Последнее — гораздо более распространённая ситуация, когда вашему продукту просто не хватает желающих. Но недостаток предложения остаётся проблемой — поэтому я рад, что индустрия активно инвестирует в масштабирование мощностей для инференса.
Как конкретный пример высокого спроса на генерацию токенов, очень быстро развиваются высокоагентные инструменты программирования. Я уже давно фанат Claude Code; OpenAI Codex тоже сильно улучшился с выходом GPT-5; а Gemini 3 сделал Google CLI очень конкурентоспособным. По мере улучшения этих инструментов будет расти и их внедрение. В то же время общее проникновение на рынок всё ещё низкое: многие разработчики используют старые поколения инструментов (а некоторые вообще не применяют агентные инструменты программирования). По мере роста проникновения рынка — а я уверен, что оно вырастет, учитывая, насколько полезны эти инструменты, — совокупный спрос на генерацию токенов будет расти.
Ещё в начале прошлого года я предсказывал, что нам понадобится больше мощности для инференса, в том числе из-за агентных рабочих процессов. С тех пор эта потребность стала ещё более острой. Как обществу, нам нужна большая мощность для инференса ИИ.
При этом я вовсе не говорю, что в этом секторе невозможно потерять деньги. Если мы в итоге построим чрезмерный объём мощностей — а я не знаю, случится ли это, — то провайдерам, возможно, придётся продавать эти мощности себе в убыток или с очень низкой доходностью. Я надеюсь, что инвесторы в этом секторе финансово преуспеют. Но хорошая новость в том, что даже если мы переинвестируем и построим «слишком много», эта мощность всё равно будет использована — и это будет прекрасно для создателей приложений!
Инфраструктура ИИ для обучения моделей. Меня радуют инвестиции в обучение всё более крупных моделей. Но из трёх корзин инвестиций именно эта кажется мне самой рискованной. Если доля рынка открытых моделей (open-source/open-weight) будет расти, то некоторые компании, которые вливают миллиарды в обучение собственных моделей, могут не получить на этом привлекательной финансовой отдачи.
Кроме того, алгоритмические и аппаратные улучшения делают обучение моделей заданного уровня возможностей дешевле с каждым годом, поэтому «технологический ров» вокруг обучения передовых моделей слаб. (При этом ChatGPT стал сильным потребительским брендом и потому обладает мощным брендовым «ровом», а Gemini, опираясь на огромное преимущество Google в дистрибуции, тоже демонстрирует серьёзные позиции.)
Я остаюсь в целом оптимистичен по поводу инвестиций в ИИ. Но каков негативный сценарий — то есть есть ли пузырь, который может лопнуть? Один сценарий, который меня беспокоит, таков: если часть стека ИИ (возможно, инфраструктура обучения) из-за переинвестирования обрушится, это может вызвать негативные настроения на рынке по отношению к ИИ в целом и привести к иррациональному оттоку интереса к инвестициям в ИИ, несмотря на то, что у области в целом сильные фундаментальные основы. Я не думаю, что так произойдёт, но если всё же это случится, это было бы печально, потому что, на мой взгляд, в ИИ всё ещё остаётся множество направлений, которые абсолютно заслуживают гораздо больших инвестиций.
Уоррен Баффет популяризировал цитату Бенджамина Грэма: «В краткосрочной перспективе рынок — это машина для голосования, а в долгосрочной — машина для взвешивания». Он имел в виду, что в коротком горизонте цены акций определяются настроениями инвесторов и спекуляцией; но в долгосрочном — их движет фундаментальная, внутренняя ценность. Мне трудно прогнозировать настроения и спекуляции, но я очень уверен в долгосрочном здоровье фундаментальных факторов ИИ. Так что мой план — просто продолжать строить дальше!
Assistant: 1. edit
- Простое объяснение Это «пузырь»? Коротко: часть ИИ-рынка может быть перегрета. Но не вся. Главная мысль: ценность в приложениях. Инференс (запуск моделей) требует ещё мощностей. А обучение гигантских моделей — самый рискованный кусок.
Аналогия: ИИ-стек как город. • Дороги и электросеть — это инфраструктура (чипы, дата-центры). • Автобусы — это инференс: везут людей по существующим маршрутам. • Фабрики — это обучение: строят новые «автобусы». • Магазины и услуги — это приложения. Именно они зарабатывают деньги. Где аналогия хромает: в городе дороги быстро не меняются, а в ИИ алгоритмы и железо дешевеют и обновляются каждый год.
Что точно знаем: • Nvidia действительно доходила до ~$5 трлн капы. Это показывает, как много денег верит в ИИ-инфру [1]. • Обсуждались вычислительные обязательства OpenAI на уровне ~$1,4 трлн — это масштаб ставок в отрасли [2]. • Спрос на вычисления для ИИ быстро растёт, и инфраструктура трещит по швам — это отмечают отраслевые обзоры [3]. Что скорее оценка: • Прикладной слой недоинвестирован. • Инференсу потребуется больше мощностей. • Обучение SOTA-моделей — самый «пузырный» сегмент из трёх.
Скрытое допущение: мы предполагаем, что внедрение ИИ-приложений будет расти в 10× масштабе в ближайшие годы; если нет — оценка меняется.
- Если глубже — 4 ключевых механизма • Экономика стека: деньги приходят из приложений → платят за инференс → тот платит за чипы и энергию → часть идёт на обучение новых моделей. Если низ маржи (приложения) слаб, верх стека перегревается. • Издержки обучения падают: лучше алгоритмы и железо делают обучение того же уровня дешевле год от года → «технологический ров» вокруг обучения слабее, чем кажется. • Риск перепостройки инференса: если мощностей наделают «с запасом», цены могут просесть до низкой доходности. Но даже «лишняя» мощность пригодится приложениям — тогда выиграют пользователи. • Открытые/открыто-весовые модели: если их доля вырастет, монетизация проприетарного обучения за миллиарды может не отбиться.
- Мини-схема Идеи/Юзкейсы → (Приложения) → выручка ↓ платят (Инференс: чипы/ПО/энергия) ↓ часть идёт (Обучение: новые модели) → улучшенные модели → обратно в приложения
- Глоссарий • Пузырь — когда цена активов сильно выше устойчивой ценности. • Прикладной слой — конечные продукты на базе ИИ, которые юзеры покупают. • Инференс — запуск готовой модели для ответа пользователю. • Обучение (training) — создание/доводка модели на данных. • Токен — маленький кусочек текста, на который модель считает. • Агентные процессы — когда ИИ сам планирует шаги и зовёт инструменты. • Рын. капитализация — цена компании на бирже, акции×цена. • Открытые модели — модели с открытыми весами, их можно развёртывать у себя. • Ров (moat) — то, что защищает бизнес от конкурентов. • Перепостройка — построили мощностей больше, чем нужно сейчас.
- Проверка фактов (короткие цитаты, источники, даты) • «Nvidia… the first company to reach $5 trillion in market value.» — Reuters, 2025-10-29. Ссылка и детали в [1]. Уверенность: Высокая (ведущее агентство; точная дата). [1] • «How can a company with $13 billion in revenues make $1.4 trillion of spend commitments?» — Business Insider, 2025-11-03. Это подтверждает обсуждение масштаба $1,4 трлн. Уверенность: Средняя (интервью/репортаж, не официальная SEC-форма). [2] • «Surging demand for compute-intensive workloads… is creating new demands on global infrastructure.» — McKinsey Tech Trends, 2025-07-22. Уверенность: Средняя (аналитический отчёт, но отраслевой). [3] • «Google introduces Gemini 3, its most intelligent AI model…» — Google (официальный блог), 2025-11-18. Уверенность: Высокая (первичный источник). [4] • «Programmatic Tool Calling enables Claude to orchestrate tools… allowing for parallel tool execution.» — Anthropic (инженерный блог), 2025-11-24. Уверенность: Высокая (официальная документация). [5]
Источники [1] Reuters — “Nvidia hits $5 trillion valuation…”, 2025-10-29. «…first company to reach $5 trillion…». Reuters[2] [2] Business Insider — “Sam Altman… $1.4 trillion…”, 2025-11-03. «…make $1.4 trillion of spend commitments?» Business Insider[3] [3] McKinsey — “Top tech trends…”, 2025-07-22. «Surging demand for compute-intensive workloads…». McKinsey & Company[4] [4] Google Blog — “A new era of intelligence with Gemini 3”, 2025-11-18. «…introduces Gemini 3…». blog.google[5] [5] Anthropic Engineering — “Advanced tool use…”, 2025-11-24. «Programmatic Tool Calling enables Claude…». Anthropic[6]
Checked: 2025-11-28 (America/Los_Angeles) Overall confidence: Medium (рынок быстро меняется; часть тезисов — оценочные).
— Не инвестиционный совет. Это объяснение для понимания логики стека и рисков.
Все ли понятно? Объяснить ещё проще на примерах? Скажите «Да» и я поясню. Или выберите вопрос из списка, указав его номер:
- «Да»
- «И зачем это надо? В чем польза?»
- «Приведите простой пошаговый пример ИИ-приложения?» (из текста: «зелёные ростки в приложениях»)
- «Какие риски перепостройки мощностей инференса?» (из текста: «если построим чрезмерный объём»)
- «Почему обучение моделей — самый рискованный сегмент?» (из текста: «самая рискованная корзина»)
- «Другое — напишу свой вопрос.»
Скажите «Да» для общего упрощения, или укажите номер вопроса (1–6).
User: 3 edit
3
Assistant: 1. edit
- Простое объяснение Возьмём простое ИИ-приложение — «помощник саппорта». Оно читает письма клиентов и готовит ответ.
Аналогия: как стажёр в колл-центре.
- Клиент пишет.
- Стажёр читает шаблоны, базы знаний, спрашивает старшего, черновикит ответ.
- Старший правит и отправляет. Где аналогия хромает: ИИ не «понимает» как человек. Он предсказывает слова по вероятности, и может уверенно ошибаться.
Пример «в 3 шага» (минимальный рабочий продукт):
- Вход → письмо клиента + история диалога.
- Обработка → LLM + правила: извлечь тему, найти статью из базы, составить черновик; при необходимости вызвать «инструменты» (поиск в БЗ, статусы заказов).
- Выход → ответ оператору (или сразу клиенту) + теги + запись в CRM.
Что знаем точно: такой шаблон работает уже сегодня в тысячах компаний. Что остаётся оценкой: доля автоответов без людей и скорость окупаемости — зависят от качества данных и задач.
- Если глубже — ключевые механизмы • Данные → качество: чистая база знаний и примеры ответов повышают точность. • Правила безопасности: чёткие политики (что можно/нельзя говорить) уменьшают «галлюцинации». • Инструменты: доступ к БД/CRM/поиску даёт факты, LLM формулирует текст. • Контур человека (Human-in-the-loop): оператор быстро правит, а правки возвращаются как обучение на отзывах. • Метрики: точность маршрутизации, время ответа, % авторазрешений, стоимость на тикет.
- Мини-диаграмма Запрос клиента → Извлечение фактов (БЗ/CRM/API) → Подсказка-шаблон + политика → LLM черновик → Проверка человеком / автоотправка → Лог и обучение на отзывах
- Глоссарий • LLM — большая языковая модель; предсказывает следующие токены. • Агент / инструмент — шаг, где ИИ вызывает внешнюю функцию (поиск, БД). • Подсказка (prompt) — инструкция для ИИ, что и как писать. • Human-in-the-loop — человек проверяет/правит ответы. • База знаний (БЗ) — статьи с правилами и решениями. • Галлюцинация — уверенный, но неверный ответ модели. • Маршрутизация — определение темы и исполнителя тикета. • Метрика «стоимость на тикет» — деньги за один решённый запрос. • Логи — сохранённые запросы/ответы для улучшений. • Политика — список правил: стиль, запреты, тон.
- Вопрос к вам Хотите, разверну этот пример до чек-листа внедрения за 1–2 недели? Или разобрать другой кейс (например, агент-программист, внутренний аналитик, ассистент продаж)?
Все ли понятно? Объяснить ещё проще на примерах? Скажите «Да» и я поясню. Или выберите вопрос из списка, указав его номер:
- «Да»
- «И зачем это надо? В чем польза?»
- «Приведите пошаговый чек-лист внедрения за 2 недели.» (из ответа: «минимальный рабочий продукт»)
- «Как измерять качество и окупаемость на тикет?» (из ответа: «метрики и стоимость»)
- «Как снизить галлюцинации и риски утечки данных?» (из ответа: «политики/инструменты/HITL»)
- «Другое — напишу свой вопрос.»
Скажите «Да» для общего упрощения, или укажите номер вопроса (1–6).
References edit
- ↑ "ChatGPT - Объяснятор". ChatGPT. Retrieved 2025-11-29.
- ↑ "Reuters". reuters.com. Retrieved 2025-11-29.
- ↑ "Business Insider". Business Insider. Retrieved 2025-11-29.
- ↑ "McKinsey & Company". McKinsey & Company. Retrieved 2025-11-29.
- ↑ "blog.google". blog.google. Retrieved 2025-11-29.
- ↑ "Anthropic". anthropic.com. Retrieved 2025-11-29.