Jump to content
Main menu
Main menu
move to sidebar
hide
Navigation
Main page
Recent changes
Random page
freem
Search
Search
Appearance
Create account
Log in
Personal tools
Create account
Log in
Pages for logged out editors
learn more
Contributions
Talk
Editing
Openai/692a0fb2-3438-8004-9439-3613c264f718
(section)
Add languages
Page
Discussion
English
Read
Edit
Edit source
View history
Tools
Tools
move to sidebar
hide
Actions
Read
Edit
Edit source
View history
General
What links here
Related changes
Special pages
Page information
Appearance
move to sidebar
hide
Warning:
You are not logged in. Your IP address will be publicly visible if you make any edits. If you
log in
or
create an account
, your edits will be attributed to your username, along with other benefits.
Anti-spam check. Do
not
fill this in!
== gpt-5-thinking == === User: Есть ли пузырь на рынке ИИ? === Есть ли пузырь на рынке ИИ? Учитывая колоссальные объёмы денег, идущие в инфраструктуру ИИ — например, план OpenAI на 1,4 трлн долларов и то, что рыночная капитализация Nvidia ненадолго достигала 5 трлн долларов, — многие задаются вопросом, не загнали ли спекуляции и хайп стоимость ИИ-активов выше устойчивого уровня. Однако ИИ — не монолитная область, и разные её части выглядят «пузыристо» в разной степени. * Прикладной слой ИИ: сюда инвестируют недостаточно. Потенциал здесь гораздо выше, чем большинство понимает. * Инфраструктура ИИ для инференса: ей всё ещё нужны значительные инвестиции. * Инфраструктура ИИ для обучения моделей: я по-прежнему осторожный оптимист по поводу этого сектора, но здесь тоже может быть пузырь. Оговорка: я абсолютно не даю инвестиционных советов! '''Прикладной слой ИИ.''' В ближайшее десятилетие ещё предстоит создать множество приложений на базе новых технологий ИИ. Почти по определению приложения, построенные поверх инфраструктуры/технологии ИИ (таких как API LLM), должны быть более ценными, чем сама инфраструктура, потому что именно они должны зарабатывать достаточно, чтобы платить поставщикам инфраструктуры и технологий. Я вижу множество «зелёных ростков» в разных компаниях, которые внедряют агентные (agentic) рабочие процессы, и уверен, что это будет расти. Я также разговаривал со многими венчурными инвесторами, которые колеблются, когда речь идёт об инвестициях в ИИ-приложения, потому что чувствуют, что не знают, как выбирать победителей, тогда как «рецепт» того, как вложить 1 млрд долларов в инфраструктуру ИИ, понятнее. Некоторые ещё и поддались хайпу о том, что почти все ИИ-приложения будут просто сметены улучшением базовых моделей у компаний, разрабатывающих передовые LLM. В целом я считаю, что в ИИ-приложения сегодня существенно недоинвестируют. Для моего венчур-студио AI Fund это по-прежнему огромный фокус. '''Инфраструктура ИИ для инференса.''' Несмотря на низкий уровень проникновения ИИ сегодня, поставщики инфраструктуры уже с трудом удовлетворяют спрос на вычислительную мощность для генерации токенов. Несколько моих команд беспокоятся, хватит ли нам мощности для инференса; и стоимость, и пропускная способность инференса ограничивают то, насколько активно мы можем всё это использовать. Это, конечно, неплохая проблема — когда бизнес ограничен предложением, а не спросом. Последнее — гораздо более распространённая ситуация, когда вашему продукту просто не хватает желающих. Но недостаток предложения остаётся проблемой — поэтому я рад, что индустрия активно инвестирует в масштабирование мощностей для инференса. Как конкретный пример высокого спроса на генерацию токенов, очень быстро развиваются высокоагентные инструменты программирования. Я уже давно фанат Claude Code; OpenAI Codex тоже сильно улучшился с выходом GPT-5; а Gemini 3 сделал Google CLI очень конкурентоспособным. По мере улучшения этих инструментов будет расти и их внедрение. В то же время общее проникновение на рынок всё ещё низкое: многие разработчики используют старые поколения инструментов (а некоторые вообще не применяют агентные инструменты программирования). По мере роста проникновения рынка — а я уверен, что оно вырастет, учитывая, насколько полезны эти инструменты, — совокупный спрос на генерацию токенов будет расти. Ещё в начале прошлого года я предсказывал, что нам понадобится больше мощности для инференса, в том числе из-за агентных рабочих процессов. С тех пор эта потребность стала ещё более острой. Как обществу, нам нужна большая мощность для инференса ИИ. При этом я вовсе не говорю, что в этом секторе невозможно потерять деньги. Если мы в итоге построим чрезмерный объём мощностей — а я не знаю, случится ли это, — то провайдерам, возможно, придётся продавать эти мощности себе в убыток или с очень низкой доходностью. Я надеюсь, что инвесторы в этом секторе финансово преуспеют. Но хорошая новость в том, что даже если мы переинвестируем и построим «слишком много», эта мощность всё равно будет использована — и это будет прекрасно для создателей приложений! '''Инфраструктура ИИ для обучения моделей.''' Меня радуют инвестиции в обучение всё более крупных моделей. Но из трёх корзин инвестиций именно эта кажется мне самой рискованной. Если доля рынка открытых моделей (open-source/open-weight) будет расти, то некоторые компании, которые вливают миллиарды в обучение собственных моделей, могут не получить на этом привлекательной финансовой отдачи. Кроме того, алгоритмические и аппаратные улучшения делают обучение моделей заданного уровня возможностей дешевле с каждым годом, поэтому «технологический ров» вокруг обучения передовых моделей слаб. (При этом ChatGPT стал сильным потребительским брендом и потому обладает мощным брендовым «ровом», а Gemini, опираясь на огромное преимущество Google в дистрибуции, тоже демонстрирует серьёзные позиции.) Я остаюсь в целом оптимистичен по поводу инвестиций в ИИ. Но каков негативный сценарий — то есть есть ли пузырь, который может лопнуть? Один сценарий, который меня беспокоит, таков: если часть стека ИИ (возможно, инфраструктура обучения) из-за переинвестирования обрушится, это может вызвать негативные настроения на рынке по отношению к ИИ в целом и привести к иррациональному оттоку интереса к инвестициям в ИИ, несмотря на то, что у области в целом сильные фундаментальные основы. Я не думаю, что так произойдёт, но если всё же это случится, это было бы печально, потому что, на мой взгляд, в ИИ всё ещё остаётся множество направлений, которые абсолютно заслуживают гораздо больших инвестиций. Уоррен Баффет популяризировал цитату Бенджамина Грэма: «В краткосрочной перспективе рынок — это машина для голосования, а в долгосрочной — машина для взвешивания». Он имел в виду, что в коротком горизонте цены акций определяются настроениями инвесторов и спекуляцией; но в долгосрочном — их движет фундаментальная, внутренняя ценность. Мне трудно прогнозировать настроения и спекуляции, но я очень уверен в долгосрочном здоровье фундаментальных факторов ИИ. Так что мой план — просто продолжать строить дальше! === Assistant: 1. === # Простое объяснение Это «пузырь»? Коротко: часть ИИ-рынка может быть перегрета. Но не вся. Главная мысль: ценность в приложениях. Инференс (запуск моделей) требует ещё мощностей. А обучение гигантских моделей — самый рискованный кусок. Аналогия: ИИ-стек как город. • Дороги и электросеть — это инфраструктура (чипы, дата-центры). • Автобусы — это инференс: везут людей по существующим маршрутам. • Фабрики — это обучение: строят новые «автобусы». • Магазины и услуги — это приложения. Именно они зарабатывают деньги. Где аналогия хромает: в городе дороги быстро не меняются, а в ИИ алгоритмы и железо дешевеют и обновляются каждый год. Что точно знаем: • Nvidia действительно доходила до ~$5 трлн капы. Это показывает, как много денег верит в ИИ-инфру [1]. • Обсуждались вычислительные обязательства OpenAI на уровне ~$1,4 трлн — это масштаб ставок в отрасли [2]. • Спрос на вычисления для ИИ быстро растёт, и инфраструктура трещит по швам — это отмечают отраслевые обзоры [3]. Что скорее оценка: • Прикладной слой недоинвестирован. • Инференсу потребуется больше мощностей. • Обучение SOTA-моделей — самый «пузырный» сегмент из трёх. Скрытое допущение: мы предполагаем, что внедрение ИИ-приложений будет расти в 10× масштабе в ближайшие годы; если нет — оценка меняется. # Если глубже — 4 ключевых механизма • Экономика стека: деньги приходят из приложений → платят за инференс → тот платит за чипы и энергию → часть идёт на обучение новых моделей. Если низ маржи (приложения) слаб, верх стека перегревается. • Издержки обучения падают: лучше алгоритмы и железо делают обучение того же уровня дешевле год от года → «технологический ров» вокруг обучения слабее, чем кажется. • Риск перепостройки инференса: если мощностей наделают «с запасом», цены могут просесть до низкой доходности. Но даже «лишняя» мощность пригодится приложениям — тогда выиграют пользователи. • Открытые/открыто-весовые модели: если их доля вырастет, монетизация проприетарного обучения за миллиарды может не отбиться. # Мини-схема Идеи/Юзкейсы → (Приложения) → выручка ↓ платят (Инференс: чипы/ПО/энергия) ↓ часть идёт (Обучение: новые модели) → улучшенные модели → обратно в приложения # Глоссарий • Пузырь — когда цена активов сильно выше устойчивой ценности. • Прикладной слой — конечные продукты на базе ИИ, которые юзеры покупают. • Инференс — запуск готовой модели для ответа пользователю. • Обучение (training) — создание/доводка модели на данных. • Токен — маленький кусочек текста, на который модель считает. • Агентные процессы — когда ИИ сам планирует шаги и зовёт инструменты. • Рын. капитализация — цена компании на бирже, акции×цена. • Открытые модели — модели с открытыми весами, их можно развёртывать у себя. • Ров (moat) — то, что защищает бизнес от конкурентов. • Перепостройка — построили мощностей больше, чем нужно сейчас. # Проверка фактов (короткие цитаты, источники, даты) • «Nvidia… the first company to reach $5 trillion in market value.» — Reuters, 2025-10-29. Ссылка и детали в [1]. Уверенность: Высокая (ведущее агентство; точная дата). [1] • «How can a company with $13 billion in revenues make $1.4 trillion of spend commitments?» — Business Insider, 2025-11-03. Это подтверждает обсуждение масштаба $1,4 трлн. Уверенность: Средняя (интервью/репортаж, не официальная SEC-форма). [2] • «Surging demand for compute-intensive workloads… is creating new demands on global infrastructure.» — McKinsey Tech Trends, 2025-07-22. Уверенность: Средняя (аналитический отчёт, но отраслевой). [3] • «Google introduces Gemini 3, its most intelligent AI model…» — Google (официальный блог), 2025-11-18. Уверенность: Высокая (первичный источник). [4] • «Programmatic Tool Calling enables Claude to orchestrate tools… allowing for parallel tool execution.» — Anthropic (инженерный блог), 2025-11-24. Уверенность: Высокая (официальная документация). [5] Источники [1] Reuters — “Nvidia hits $5 trillion valuation…”, 2025-10-29. «…first company to reach $5 trillion…». Reuters<ref>{{cite web|title=Reuters|url=https://www.reuters.com/business/nvidia-poised-record-5-trillion-market-valuation-2025-10-29/|publisher=reuters.com|access-date=2025-11-29}}</ref> [2] Business Insider — “Sam Altman… $1.4 trillion…”, 2025-11-03. «…make $1.4 trillion of spend commitments?» Business Insider<ref>{{cite web|title=Business Insider|url=https://www.businessinsider.com/sam-altman-defends-openai-trillion-spending-2025-11|publisher=Business Insider|access-date=2025-11-29}}</ref> [3] McKinsey — “Top tech trends…”, 2025-07-22. «Surging demand for compute-intensive workloads…». McKinsey & Company<ref>{{cite web|title=McKinsey & Company|url=https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/the-top-trends-in-tech|publisher=McKinsey & Company|access-date=2025-11-29}}</ref> [4] Google Blog — “A new era of intelligence with Gemini 3”, 2025-11-18. «…introduces Gemini 3…». blog.google<ref>{{cite web|title=blog.google|url=https://blog.google/products/gemini/gemini-3/|publisher=blog.google|access-date=2025-11-29}}</ref> [5] Anthropic Engineering — “Advanced tool use…”, 2025-11-24. «Programmatic Tool Calling enables Claude…». Anthropic<ref>{{cite web|title=Anthropic|url=https://www.anthropic.com/engineering/advanced-tool-use|publisher=anthropic.com|access-date=2025-11-29}}</ref> Checked: 2025-11-28 (America/Los_Angeles) Overall confidence: Medium (рынок быстро меняется; часть тезисов — оценочные). — Не инвестиционный совет. Это объяснение для понимания логики стека и рисков. Все ли понятно? Объяснить ещё проще на примерах? Скажите «Да» и я поясню. Или выберите вопрос из списка, указав его номер: # «Да» # «И зачем это надо? В чем польза?» # «Приведите простой пошаговый пример ИИ-приложения?» (из текста: «зелёные ростки в приложениях») # «Какие риски перепостройки мощностей инференса?» (из текста: «если построим чрезмерный объём») # «Почему обучение моделей — самый рискованный сегмент?» (из текста: «самая рискованная корзина») # «Другое — напишу свой вопрос.» Скажите «Да» для общего упрощения, или укажите номер вопроса (1–6). === User: 3 === 3 === Assistant: 1. === # Простое объяснение Возьмём простое ИИ-приложение — «помощник саппорта». Оно читает письма клиентов и готовит ответ. Аналогия: как стажёр в колл-центре. # Клиент пишет. # Стажёр читает шаблоны, базы знаний, спрашивает старшего, черновикит ответ. # Старший правит и отправляет. Где аналогия хромает: ИИ не «понимает» как человек. Он предсказывает слова по вероятности, и может уверенно ошибаться. Пример «в 3 шага» (минимальный рабочий продукт): # Вход → письмо клиента + история диалога. # Обработка → LLM + правила: извлечь тему, найти статью из базы, составить черновик; при необходимости вызвать «инструменты» (поиск в БЗ, статусы заказов). # Выход → ответ оператору (или сразу клиенту) + теги + запись в CRM. Что знаем точно: такой шаблон работает уже сегодня в тысячах компаний. Что остаётся оценкой: доля автоответов без людей и скорость окупаемости — зависят от качества данных и задач. # Если глубже — ключевые механизмы • Данные → качество: чистая база знаний и примеры ответов повышают точность. • Правила безопасности: чёткие политики (что можно/нельзя говорить) уменьшают «галлюцинации». • Инструменты: доступ к БД/CRM/поиску даёт факты, LLM формулирует текст. • Контур человека (Human-in-the-loop): оператор быстро правит, а правки возвращаются как обучение на отзывах. • Метрики: точность маршрутизации, время ответа, % авторазрешений, стоимость на тикет. # Мини-диаграмма Запрос клиента → Извлечение фактов (БЗ/CRM/API) → Подсказка-шаблон + политика → LLM черновик → Проверка человеком / автоотправка → Лог и обучение на отзывах # Глоссарий • LLM — большая языковая модель; предсказывает следующие токены. • Агент / инструмент — шаг, где ИИ вызывает внешнюю функцию (поиск, БД). • Подсказка (prompt) — инструкция для ИИ, что и как писать. • Human-in-the-loop — человек проверяет/правит ответы. • База знаний (БЗ) — статьи с правилами и решениями. • Галлюцинация — уверенный, но неверный ответ модели. • Маршрутизация — определение темы и исполнителя тикета. • Метрика «стоимость на тикет» — деньги за один решённый запрос. • Логи — сохранённые запросы/ответы для улучшений. • Политика — список правил: стиль, запреты, тон. # Вопрос к вам Хотите, разверну этот пример до чек-листа внедрения за 1–2 недели? Или разобрать другой кейс (например, агент-программист, внутренний аналитик, ассистент продаж)? Все ли понятно? Объяснить ещё проще на примерах? Скажите «Да» и я поясню. Или выберите вопрос из списка, указав его номер: # «Да» # «И зачем это надо? В чем польза?» # «Приведите пошаговый чек-лист внедрения за 2 недели.» (из ответа: «минимальный рабочий продукт») # «Как измерять качество и окупаемость на тикет?» (из ответа: «метрики и стоимость») # «Как снизить галлюцинации и риски утечки данных?» (из ответа: «политики/инструменты/HITL») # «Другое — напишу свой вопрос.» Скажите «Да» для общего упрощения, или укажите номер вопроса (1–6).
Summary:
Please note that all contributions to freem are considered to be released under the Creative Commons Attribution-ShareAlike 4.0 (see
Freem:Copyrights
for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource.
Do not submit copyrighted work without permission!
Cancel
Editing help
(opens in new window)