<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://freemwiki.com/index.php?action=history&amp;feed=atom&amp;title=Openai%2F692a0fb2-3438-8004-9439-3613c264f718</id>
	<title>Openai/692a0fb2-3438-8004-9439-3613c264f718 - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://freemwiki.com/index.php?action=history&amp;feed=atom&amp;title=Openai%2F692a0fb2-3438-8004-9439-3613c264f718"/>
	<link rel="alternate" type="text/html" href="https://freemwiki.com/index.php?title=Openai/692a0fb2-3438-8004-9439-3613c264f718&amp;action=history"/>
	<updated>2026-04-08T21:24:15Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.43.3</generator>
	<entry>
		<id>https://freemwiki.com/index.php?title=Openai/692a0fb2-3438-8004-9439-3613c264f718&amp;diff=593814&amp;oldid=prev</id>
		<title>Lukegao: by freem.ai...</title>
		<link rel="alternate" type="text/html" href="https://freemwiki.com/index.php?title=Openai/692a0fb2-3438-8004-9439-3613c264f718&amp;diff=593814&amp;oldid=prev"/>
		<updated>2025-11-29T05:28:48Z</updated>

		<summary type="html">&lt;p&gt;by freem.ai...&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&lt;br /&gt;
{{DISPLAYTITLE:ChatGPT - Объяснятор}}&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;This conversation was exported from ChatGPT&amp;#039;&amp;#039;&amp;lt;ref&amp;gt;{{cite web|title=ChatGPT - Объяснятор|url=https://chatgpt.com/share/692a0fb2-3438-8004-9439-3613c264f718|publisher=ChatGPT|access-date=2025-11-29}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== gpt-5-thinking ==&lt;br /&gt;
=== User: Есть ли пузырь на рынке ИИ? ===&lt;br /&gt;
Есть ли пузырь на рынке ИИ? Учитывая колоссальные объёмы денег, идущие в инфраструктуру ИИ — например, план OpenAI на 1,4 трлн долларов и то, что рыночная капитализация Nvidia ненадолго достигала 5 трлн долларов, — многие задаются вопросом, не загнали ли спекуляции и хайп стоимость ИИ-активов выше устойчивого уровня. Однако ИИ — не монолитная область, и разные её части выглядят «пузыристо» в разной степени.&lt;br /&gt;
&lt;br /&gt;
* Прикладной слой ИИ: сюда инвестируют недостаточно. Потенциал здесь гораздо выше, чем большинство понимает.&lt;br /&gt;
* Инфраструктура ИИ для инференса: ей всё ещё нужны значительные инвестиции.&lt;br /&gt;
* Инфраструктура ИИ для обучения моделей: я по-прежнему осторожный оптимист по поводу этого сектора, но здесь тоже может быть пузырь.&lt;br /&gt;
&lt;br /&gt;
Оговорка: я абсолютно не даю инвестиционных советов!&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Прикладной слой ИИ.&amp;#039;&amp;#039;&amp;#039; В ближайшее десятилетие ещё предстоит создать множество приложений на базе новых технологий ИИ. Почти по определению приложения, построенные поверх инфраструктуры/технологии ИИ (таких как API LLM), должны быть более ценными, чем сама инфраструктура, потому что именно они должны зарабатывать достаточно, чтобы платить поставщикам инфраструктуры и технологий.&lt;br /&gt;
&lt;br /&gt;
Я вижу множество «зелёных ростков» в разных компаниях, которые внедряют агентные (agentic) рабочие процессы, и уверен, что это будет расти. Я также разговаривал со многими венчурными инвесторами, которые колеблются, когда речь идёт об инвестициях в ИИ-приложения, потому что чувствуют, что не знают, как выбирать победителей, тогда как «рецепт» того, как вложить 1 млрд долларов в инфраструктуру ИИ, понятнее. Некоторые ещё и поддались хайпу о том, что почти все ИИ-приложения будут просто сметены улучшением базовых моделей у компаний, разрабатывающих передовые LLM. В целом я считаю, что в ИИ-приложения сегодня существенно недоинвестируют. Для моего венчур-студио AI Fund это по-прежнему огромный фокус.&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Инфраструктура ИИ для инференса.&amp;#039;&amp;#039;&amp;#039; Несмотря на низкий уровень проникновения ИИ сегодня, поставщики инфраструктуры уже с трудом удовлетворяют спрос на вычислительную мощность для генерации токенов. Несколько моих команд беспокоятся, хватит ли нам мощности для инференса; и стоимость, и пропускная способность инференса ограничивают то, насколько активно мы можем всё это использовать. Это, конечно, неплохая проблема — когда бизнес ограничен предложением, а не спросом. Последнее — гораздо более распространённая ситуация, когда вашему продукту просто не хватает желающих. Но недостаток предложения остаётся проблемой — поэтому я рад, что индустрия активно инвестирует в масштабирование мощностей для инференса.&lt;br /&gt;
&lt;br /&gt;
Как конкретный пример высокого спроса на генерацию токенов, очень быстро развиваются высокоагентные инструменты программирования. Я уже давно фанат Claude Code; OpenAI Codex тоже сильно улучшился с выходом GPT-5; а Gemini 3 сделал Google CLI очень конкурентоспособным. По мере улучшения этих инструментов будет расти и их внедрение. В то же время общее проникновение на рынок всё ещё низкое: многие разработчики используют старые поколения инструментов (а некоторые вообще не применяют агентные инструменты программирования). По мере роста проникновения рынка — а я уверен, что оно вырастет, учитывая, насколько полезны эти инструменты, — совокупный спрос на генерацию токенов будет расти.&lt;br /&gt;
&lt;br /&gt;
Ещё в начале прошлого года я предсказывал, что нам понадобится больше мощности для инференса, в том числе из-за агентных рабочих процессов. С тех пор эта потребность стала ещё более острой. Как обществу, нам нужна большая мощность для инференса ИИ.&lt;br /&gt;
&lt;br /&gt;
При этом я вовсе не говорю, что в этом секторе невозможно потерять деньги. Если мы в итоге построим чрезмерный объём мощностей — а я не знаю, случится ли это, — то провайдерам, возможно, придётся продавать эти мощности себе в убыток или с очень низкой доходностью. Я надеюсь, что инвесторы в этом секторе финансово преуспеют. Но хорошая новость в том, что даже если мы переинвестируем и построим «слишком много», эта мощность всё равно будет использована — и это будет прекрасно для создателей приложений!&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Инфраструктура ИИ для обучения моделей.&amp;#039;&amp;#039;&amp;#039; Меня радуют инвестиции в обучение всё более крупных моделей. Но из трёх корзин инвестиций именно эта кажется мне самой рискованной. Если доля рынка открытых моделей (open-source/open-weight) будет расти, то некоторые компании, которые вливают миллиарды в обучение собственных моделей, могут не получить на этом привлекательной финансовой отдачи.&lt;br /&gt;
&lt;br /&gt;
Кроме того, алгоритмические и аппаратные улучшения делают обучение моделей заданного уровня возможностей дешевле с каждым годом, поэтому «технологический ров» вокруг обучения передовых моделей слаб. (При этом ChatGPT стал сильным потребительским брендом и потому обладает мощным брендовым «ровом», а Gemini, опираясь на огромное преимущество Google в дистрибуции, тоже демонстрирует серьёзные позиции.)&lt;br /&gt;
&lt;br /&gt;
Я остаюсь в целом оптимистичен по поводу инвестиций в ИИ. Но каков негативный сценарий — то есть есть ли пузырь, который может лопнуть? Один сценарий, который меня беспокоит, таков: если часть стека ИИ (возможно, инфраструктура обучения) из-за переинвестирования обрушится, это может вызвать негативные настроения на рынке по отношению к ИИ в целом и привести к иррациональному оттоку интереса к инвестициям в ИИ, несмотря на то, что у области в целом сильные фундаментальные основы. Я не думаю, что так произойдёт, но если всё же это случится, это было бы печально, потому что, на мой взгляд, в ИИ всё ещё остаётся множество направлений, которые абсолютно заслуживают гораздо больших инвестиций.&lt;br /&gt;
&lt;br /&gt;
Уоррен Баффет популяризировал цитату Бенджамина Грэма: «В краткосрочной перспективе рынок — это машина для голосования, а в долгосрочной — машина для взвешивания». Он имел в виду, что в коротком горизонте цены акций определяются настроениями инвесторов и спекуляцией; но в долгосрочном — их движет фундаментальная, внутренняя ценность. Мне трудно прогнозировать настроения и спекуляции, но я очень уверен в долгосрочном здоровье фундаментальных факторов ИИ. Так что мой план — просто продолжать строить дальше!&lt;br /&gt;
&lt;br /&gt;
=== Assistant: 1. ===&lt;br /&gt;
# Простое объяснение Это «пузырь»? Коротко: часть ИИ-рынка может быть перегрета. Но не вся. Главная мысль: ценность в приложениях. Инференс (запуск моделей) требует ещё мощностей. А обучение гигантских моделей — самый рискованный кусок.&lt;br /&gt;
&lt;br /&gt;
Аналогия: ИИ-стек как город.&lt;br /&gt;
• Дороги и электросеть — это инфраструктура (чипы, дата-центры).&lt;br /&gt;
• Автобусы — это инференс: везут людей по существующим маршрутам.&lt;br /&gt;
• Фабрики — это обучение: строят новые «автобусы».&lt;br /&gt;
• Магазины и услуги — это приложения. Именно они зарабатывают деньги.&lt;br /&gt;
Где аналогия хромает: в городе дороги быстро не меняются, а в ИИ алгоритмы и железо дешевеют и обновляются каждый год.&lt;br /&gt;
&lt;br /&gt;
Что точно знаем:&lt;br /&gt;
• Nvidia действительно доходила до ~$5 трлн капы. Это показывает, как много денег верит в ИИ-инфру [1].&lt;br /&gt;
• Обсуждались вычислительные обязательства OpenAI на уровне ~$1,4 трлн — это масштаб ставок в отрасли [2].&lt;br /&gt;
• Спрос на вычисления для ИИ быстро растёт, и инфраструктура трещит по швам — это отмечают отраслевые обзоры [3].&lt;br /&gt;
Что скорее оценка:&lt;br /&gt;
• Прикладной слой недоинвестирован.&lt;br /&gt;
• Инференсу потребуется больше мощностей.&lt;br /&gt;
• Обучение SOTA-моделей — самый «пузырный» сегмент из трёх.&lt;br /&gt;
&lt;br /&gt;
Скрытое допущение: мы предполагаем, что внедрение ИИ-приложений будет расти в 10× масштабе в ближайшие годы; если нет — оценка меняется.&lt;br /&gt;
# Если глубже — 4 ключевых механизма • Экономика стека: деньги приходят из приложений → платят за инференс → тот платит за чипы и энергию → часть идёт на обучение новых моделей. Если низ маржи (приложения) слаб, верх стека перегревается. • Издержки обучения падают: лучше алгоритмы и железо делают обучение того же уровня дешевле год от года → «технологический ров» вокруг обучения слабее, чем кажется. • Риск перепостройки инференса: если мощностей наделают «с запасом», цены могут просесть до низкой доходности. Но даже «лишняя» мощность пригодится приложениям — тогда выиграют пользователи. • Открытые/открыто-весовые модели: если их доля вырастет, монетизация проприетарного обучения за миллиарды может не отбиться.&lt;br /&gt;
# Мини-схема Идеи/Юзкейсы → (Приложения) → выручка ↓ платят (Инференс: чипы/ПО/энергия) ↓ часть идёт (Обучение: новые модели) → улучшенные модели → обратно в приложения&lt;br /&gt;
# Глоссарий • Пузырь — когда цена активов сильно выше устойчивой ценности. • Прикладной слой — конечные продукты на базе ИИ, которые юзеры покупают. • Инференс — запуск готовой модели для ответа пользователю. • Обучение (training) — создание/доводка модели на данных. • Токен — маленький кусочек текста, на который модель считает. • Агентные процессы — когда ИИ сам планирует шаги и зовёт инструменты. • Рын. капитализация — цена компании на бирже, акции×цена. • Открытые модели — модели с открытыми весами, их можно развёртывать у себя. • Ров (moat) — то, что защищает бизнес от конкурентов. • Перепостройка — построили мощностей больше, чем нужно сейчас.&lt;br /&gt;
# Проверка фактов (короткие цитаты, источники, даты) • «Nvidia… the first company to reach $5 trillion in market value.» — Reuters, 2025-10-29. Ссылка и детали в [1]. Уверенность: Высокая (ведущее агентство; точная дата). [1] • «How can a company with $13 billion in revenues make $1.4 trillion of spend commitments?» — Business Insider, 2025-11-03. Это подтверждает обсуждение масштаба $1,4 трлн. Уверенность: Средняя (интервью/репортаж, не официальная SEC-форма). [2] • «Surging demand for compute-intensive workloads… is creating new demands on global infrastructure.» — McKinsey Tech Trends, 2025-07-22. Уверенность: Средняя (аналитический отчёт, но отраслевой). [3] • «Google introduces Gemini 3, its most intelligent AI model…» — Google (официальный блог), 2025-11-18. Уверенность: Высокая (первичный источник). [4] • «Programmatic Tool Calling enables Claude to orchestrate tools… allowing for parallel tool execution.» — Anthropic (инженерный блог), 2025-11-24. Уверенность: Высокая (официальная документация). [5]&lt;br /&gt;
&lt;br /&gt;
Источники&lt;br /&gt;
[1] Reuters — “Nvidia hits $5 trillion valuation…”, 2025-10-29. «…first company to reach $5 trillion…». Reuters&amp;lt;ref&amp;gt;{{cite web|title=Reuters|url=https://www.reuters.com/business/nvidia-poised-record-5-trillion-market-valuation-2025-10-29/|publisher=reuters.com|access-date=2025-11-29}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
[2] Business Insider — “Sam Altman… $1.4 trillion…”, 2025-11-03. «…make $1.4 trillion of spend commitments?» Business Insider&amp;lt;ref&amp;gt;{{cite web|title=Business Insider|url=https://www.businessinsider.com/sam-altman-defends-openai-trillion-spending-2025-11|publisher=Business Insider|access-date=2025-11-29}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
[3] McKinsey — “Top tech trends…”, 2025-07-22. «Surging demand for compute-intensive workloads…». McKinsey &amp;amp; Company&amp;lt;ref&amp;gt;{{cite web|title=McKinsey &amp;amp; Company|url=https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/the-top-trends-in-tech|publisher=McKinsey &amp;amp; Company|access-date=2025-11-29}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
[4] Google Blog — “A new era of intelligence with Gemini 3”, 2025-11-18. «…introduces Gemini 3…». blog.google&amp;lt;ref&amp;gt;{{cite web|title=blog.google|url=https://blog.google/products/gemini/gemini-3/|publisher=blog.google|access-date=2025-11-29}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
[5] Anthropic Engineering — “Advanced tool use…”, 2025-11-24. «Programmatic Tool Calling enables Claude…». Anthropic&amp;lt;ref&amp;gt;{{cite web|title=Anthropic|url=https://www.anthropic.com/engineering/advanced-tool-use|publisher=anthropic.com|access-date=2025-11-29}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Checked: 2025-11-28 (America/Los_Angeles)&lt;br /&gt;
Overall confidence: Medium (рынок быстро меняется; часть тезисов — оценочные).&lt;br /&gt;
&lt;br /&gt;
—&lt;br /&gt;
Не инвестиционный совет. Это объяснение для понимания логики стека и рисков.&lt;br /&gt;
&lt;br /&gt;
Все ли понятно? Объяснить ещё проще на примерах? Скажите «Да» и я поясню. Или выберите вопрос из списка, указав его номер:&lt;br /&gt;
# «Да»&lt;br /&gt;
# «И зачем это надо? В чем польза?»&lt;br /&gt;
# «Приведите простой пошаговый пример ИИ-приложения?» (из текста: «зелёные ростки в приложениях»)&lt;br /&gt;
# «Какие риски перепостройки мощностей инференса?» (из текста: «если построим чрезмерный объём»)&lt;br /&gt;
# «Почему обучение моделей — самый рискованный сегмент?» (из текста: «самая рискованная корзина»)&lt;br /&gt;
# «Другое — напишу свой вопрос.»&lt;br /&gt;
&lt;br /&gt;
Скажите «Да» для общего упрощения, или укажите номер вопроса (1–6).&lt;br /&gt;
&lt;br /&gt;
=== User: 3 ===&lt;br /&gt;
3&lt;br /&gt;
&lt;br /&gt;
=== Assistant: 1. ===&lt;br /&gt;
# Простое объяснение Возьмём простое ИИ-приложение — «помощник саппорта». Оно читает письма клиентов и готовит ответ.&lt;br /&gt;
&lt;br /&gt;
Аналогия: как стажёр в колл-центре.&lt;br /&gt;
# Клиент пишет.&lt;br /&gt;
# Стажёр читает шаблоны, базы знаний, спрашивает старшего, черновикит ответ.&lt;br /&gt;
# Старший правит и отправляет. Где аналогия хромает: ИИ не «понимает» как человек. Он предсказывает слова по вероятности, и может уверенно ошибаться.&lt;br /&gt;
&lt;br /&gt;
Пример «в 3 шага» (минимальный рабочий продукт):&lt;br /&gt;
# Вход → письмо клиента + история диалога.&lt;br /&gt;
# Обработка → LLM + правила: извлечь тему, найти статью из базы, составить черновик; при необходимости вызвать «инструменты» (поиск в БЗ, статусы заказов).&lt;br /&gt;
# Выход → ответ оператору (или сразу клиенту) + теги + запись в CRM.&lt;br /&gt;
&lt;br /&gt;
Что знаем точно: такой шаблон работает уже сегодня в тысячах компаний.&lt;br /&gt;
Что остаётся оценкой: доля автоответов без людей и скорость окупаемости — зависят от качества данных и задач.&lt;br /&gt;
# Если глубже — ключевые механизмы • Данные → качество: чистая база знаний и примеры ответов повышают точность. • Правила безопасности: чёткие политики (что можно/нельзя говорить) уменьшают «галлюцинации». • Инструменты: доступ к БД/CRM/поиску даёт факты, LLM формулирует текст. • Контур человека (Human-in-the-loop): оператор быстро правит, а правки возвращаются как обучение на отзывах. • Метрики: точность маршрутизации, время ответа, % авторазрешений, стоимость на тикет.&lt;br /&gt;
# Мини-диаграмма Запрос клиента → Извлечение фактов (БЗ/CRM/API) → Подсказка-шаблон + политика → LLM черновик → Проверка человеком / автоотправка → Лог и обучение на отзывах&lt;br /&gt;
# Глоссарий • LLM — большая языковая модель; предсказывает следующие токены. • Агент / инструмент — шаг, где ИИ вызывает внешнюю функцию (поиск, БД). • Подсказка (prompt) — инструкция для ИИ, что и как писать. • Human-in-the-loop — человек проверяет/правит ответы. • База знаний (БЗ) — статьи с правилами и решениями. • Галлюцинация — уверенный, но неверный ответ модели. • Маршрутизация — определение темы и исполнителя тикета. • Метрика «стоимость на тикет» — деньги за один решённый запрос. • Логи — сохранённые запросы/ответы для улучшений. • Политика — список правил: стиль, запреты, тон.&lt;br /&gt;
# Вопрос к вам Хотите, разверну этот пример до чек-листа внедрения за 1–2 недели? Или разобрать другой кейс (например, агент-программист, внутренний аналитик, ассистент продаж)?&lt;br /&gt;
&lt;br /&gt;
Все ли понятно? Объяснить ещё проще на примерах? Скажите «Да» и я поясню. Или выберите вопрос из списка, указав его номер:&lt;br /&gt;
# «Да»&lt;br /&gt;
# «И зачем это надо? В чем польза?»&lt;br /&gt;
# «Приведите пошаговый чек-лист внедрения за 2 недели.» (из ответа: «минимальный рабочий продукт»)&lt;br /&gt;
# «Как измерять качество и окупаемость на тикет?» (из ответа: «метрики и стоимость»)&lt;br /&gt;
# «Как снизить галлюцинации и риски утечки данных?» (из ответа: «политики/инструменты/HITL»)&lt;br /&gt;
# «Другое — напишу свой вопрос.»&lt;br /&gt;
&lt;br /&gt;
Скажите «Да» для общего упрощения, или укажите номер вопроса (1–6).&lt;br /&gt;
&lt;br /&gt;
== References ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:ChatGPT Shares]]&lt;br /&gt;
[[Category:openai]]&lt;/div&gt;</summary>
		<author><name>Lukegao</name></author>
	</entry>
</feed>