OpenAI ChatGPTAI существует уже три года. Настоящая битва сейчас развернулась вокруг вычислительной мощности, затрат и экосистемы. В конечном итоге победа может зависеть не от самой модели, а от того, кто сможет превратить ИИ в устойчивую работающую систему. (Предыстория: ChatGPT будет поддерживать прямые платежи через PayPal в 2026 году, последний кусочек мозаики электронной империи OpenAI) (Фоновая информация: три основные функции родного браузера OpenAI “ChatGPT Atlas”, могут ли ИИ-агенты подорвать гегемонию Chrome?) С момента появления ChatGPT 30 ноября 2022 года, прошло ровно три года, и скорость эволюции всей технологической индустрии такова, что ее трудно осознать. В то время все думали, что соревнование ИИ будет чисто “войной моделей”: у кого больше параметров модели, больше данных и более мощная вычислительная способность, тот и станет королем на этом рынке. Однако спустя три года, оглядываясь назад, мы понимаем, что те ранние представления были чрезмерно упрощены. Истинная конкуренция никогда не была в том, “кто сможет создать самую большую модель”, а в том, “кто сможет превратить модель в целую систему”. Система, способная реализовываться, коммерчески использоваться, нести затраты, выдерживать потребление вычислительной мощности и сохраняться в рабочих процессах компаний. За эти три года техническая кривая больших моделей на глазах шагала вперед, но скорость коммерциализации ИИ-компаний не была синхронизирована и была даже медленнее, чем многие ожидали. Причина не в недостатке технологий, а в том, что вся индустрия уже переключилась с соревнования по размеру моделей на поле “кто сможет выдержать давление перед рассветом”. Способности модели, поставка вычислительной мощности, затраты на вывод, ожидания пользователей — эти четыре кривые одновременно стремительно растут, словно натянутая тетива лука. И каждая ИИ-компания находится на этой тетиве; кто сможет продержаться дольше, устойчивее, кто сможет нести затраты, тот и станет настоящим победителем. С гонки вооружений параметров к гонке эффективности В первый год появления ИИ все видели только параметры. Чем больше модель, тем она более продвинута; чем дороже, тем она более высококачественна. В то время мейнстрим даже рассматривал количество параметров как своего рода “достоинство”, как будто супербольшая модель сама по себе может представлять технологическое лидерство. Но начиная с 2024 года, ситуация начала изменяться. После фактического развертывания компании осознали, что размер модели уже не важен; важнее, может ли модель “стабильно, дешево и быстро” выполнять задачи. Умственное развитие самой модели уже не проявляется так резко, как в предыдущие годы; прогресс стал напоминать медленные корректировки. Чем больше модель, тем более поразительны затраты на вывод, тем выше порог развертывания, и компании становятся все менее склонными платить. Напротив, те модели, которые были обучены более эффективно, могут быть сжаты и способны работать на обычных GPU, становятся самыми популярными ИИ-продуктами 2025 года. Многие компании даже начали использовать открытые модели вместо закрытых API, не потому что открытые модели сильнее, а потому что они в “соотношении цена-качество” превзошли все ожидания. Более низкие требования к вычислительной мощности, более быстрая скорость итерации, более гибкие способы развертывания заставляют многие компании, которые раньше полагались на закрытые модели, задуматься: “Нам действительно нужно платить так много?” “80% возможностей открытой модели, в сочетании с внутренней настройкой, разве этого недостаточно?” Конкуренция моделей уже сменилась с “гонки силы” на “гонку эффективности”. Дело не в том, кто сильнее, а в том, кто сможет сделать так, чтобы компания могла это себе позволить. GPU больше не является аппаратным обеспечением, это структура власти. Если модель за три года превратилась из мифа в товар, то GPU за эти три года стал стратегическим ресурсом. Наиболее страшным для ИИ-компаний стало не отставание модели, а нехватка GPU. Когда модели становятся больше, задачи вывода увеличиваются, а ожидания пользователей растут, каждая ИИ-компания словно подвешена на цепочке поставок NVIDIA. Недостаток чипов означает, что новые модели не могут быть обучены; недостаток чипов означает, что скорость вывода не может быть увеличена; недостаток чипов означает, что база пользователей не может быть расширена; недостаток чипов даже затрудняет привлечение финансирования, потому что инвесторы четко понимают: без вычислительной мощности нет будущего. Это создает странное состояние в конкуренции ИИ: технологии очевидно развиваются, но узкие места находятся в электричестве, чипах и цепочках поставок. Весь рынок словно одновременно жмет на газ и тормоза, скорость продвижения такова, что трудно отдышаться, но любая щель в поставках чипов может мгновенно остановить компанию. Это самая реальная и базовая проблема ИИ-индустрии: вы не конкурируете с соперниками, вы конкурируете с цепочками поставок. Затраты на вывод также становятся вопросом жизни и смерти для компаний. Чем сильнее модель, чем дороже вывод, тем больше пользователей — тем больше убытков. ИИ-компании становятся противоречивой бизнес-моделью: чем популярнее, тем больше убытков, чем больше пользователей, тем больше опасностей. Поэтому настоящие “защитные рвы” ИИ становятся все более четкими. Настоящие защитные рвы не в моделях. Три года спустя рынок наконец достиг своего рода близкой к жестокой консенсус: способности самой модели больше не являются самым важным защитным рвом. Потому что модель может быть скопирована, сжата, настроена и преследована сообществом открытого кода. Настоящими факторами, которые могут различить победителей и проигравших, являются лишь две вещи. Первое — это “распределение”. Компании с системными входами не нуждаются в самой сильной модели, чтобы доминировать на рынке. Google использует поисковую систему и всю экосистему, чтобы обеспечить стабильный поток для Gemini; Microsoft с Windows и Office делает так, что Copilot становится очевидным мировым входом; Meta, более того, безумно вставляет открытые модели прямо в Instagram, WhatsApp, Facebook, прямо захватывая распределение. Распределение — это самая традиционная и самая реальная конкурентоспособность в технологическом мире. У вас есть вход, и у вас есть право голоса, и именно поэтому новым брендам, таким как OpenAI, Perplexity, Manus и другим единорогам, становится все труднее. Второе — это “может ли ИИ действительно работать”. Способности к общению уже не являются выдающимися, мультимодальность больше не редкость. Действительно важно, может ли модель надлежащим образом вызывать инструменты, может ли она писать программы, может ли она анализировать документы, может ли она подключать API, может ли она разбивать задачи, может ли она стать настоящим исполнителем работы в компании. Когда модель превращается в “интеллектуальный агент”, который может самостоятельно завершать процессы, принимать решения и выполнять задачи, она действительно начинает генерировать производительность. Компании, способные создать полный инструментальный набор, в будущем станут такими же незаменимыми, как сегодняшние облачные платформы. Три года спустя рынок, наконец, стал ясным: это не та модель, которая самая сильная, а та, кто может превратить ИИ в хорошо работающую рабочую систему. Будущее ИИ-рынка постепенно разделяется на три экосистемы. С уменьшением различий в возможностях моделей, увеличением давления вычислительной мощности и становлением затрат основным, ИИ-компании на самом деле уже тихо разделены на три лагеря, все три из которых будут существовать в будущем, но с совершенно разными судьбами. Первый тип — это платформенные гиганты. Эти компании на начальном этапе не обязательно имеют самую сильную модель, но они обладают подавляющим преимуществом в экосистеме и финансировании, что позволяет им догнать других. Компании, такие как Microsoft, Google, Meta, имеют глобальные входы для распределения, облачные решения, запасы GPU, каналы данных и интегрированные продукты. Для них модель не является продуктом, а “инструментом, привязанным к экосистеме”. Второй тип — это чисто модельные компании. OpenAI, Anthropic, Mistral и другие подобные компании являются чисто техническими игроками, способности моделей которых опережают, но они не имеют операционной системы, мобильного телефона, поисковой системы, социальной платформы и, что более важно, “распределения”. Их модели, какими бы мощными они ни были, нуждаются в зависимости от чужих экосистем, чтобы достичь пользователей в массовом порядке. В будущем три года…
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Три года со дня появления ChatGPT: война больших моделей подходит к концу, где же на самом деле находится истинный защитный вал?
OpenAI ChatGPTAI существует уже три года. Настоящая битва сейчас развернулась вокруг вычислительной мощности, затрат и экосистемы. В конечном итоге победа может зависеть не от самой модели, а от того, кто сможет превратить ИИ в устойчивую работающую систему. (Предыстория: ChatGPT будет поддерживать прямые платежи через PayPal в 2026 году, последний кусочек мозаики электронной империи OpenAI) (Фоновая информация: три основные функции родного браузера OpenAI “ChatGPT Atlas”, могут ли ИИ-агенты подорвать гегемонию Chrome?) С момента появления ChatGPT 30 ноября 2022 года, прошло ровно три года, и скорость эволюции всей технологической индустрии такова, что ее трудно осознать. В то время все думали, что соревнование ИИ будет чисто “войной моделей”: у кого больше параметров модели, больше данных и более мощная вычислительная способность, тот и станет королем на этом рынке. Однако спустя три года, оглядываясь назад, мы понимаем, что те ранние представления были чрезмерно упрощены. Истинная конкуренция никогда не была в том, “кто сможет создать самую большую модель”, а в том, “кто сможет превратить модель в целую систему”. Система, способная реализовываться, коммерчески использоваться, нести затраты, выдерживать потребление вычислительной мощности и сохраняться в рабочих процессах компаний. За эти три года техническая кривая больших моделей на глазах шагала вперед, но скорость коммерциализации ИИ-компаний не была синхронизирована и была даже медленнее, чем многие ожидали. Причина не в недостатке технологий, а в том, что вся индустрия уже переключилась с соревнования по размеру моделей на поле “кто сможет выдержать давление перед рассветом”. Способности модели, поставка вычислительной мощности, затраты на вывод, ожидания пользователей — эти четыре кривые одновременно стремительно растут, словно натянутая тетива лука. И каждая ИИ-компания находится на этой тетиве; кто сможет продержаться дольше, устойчивее, кто сможет нести затраты, тот и станет настоящим победителем. С гонки вооружений параметров к гонке эффективности В первый год появления ИИ все видели только параметры. Чем больше модель, тем она более продвинута; чем дороже, тем она более высококачественна. В то время мейнстрим даже рассматривал количество параметров как своего рода “достоинство”, как будто супербольшая модель сама по себе может представлять технологическое лидерство. Но начиная с 2024 года, ситуация начала изменяться. После фактического развертывания компании осознали, что размер модели уже не важен; важнее, может ли модель “стабильно, дешево и быстро” выполнять задачи. Умственное развитие самой модели уже не проявляется так резко, как в предыдущие годы; прогресс стал напоминать медленные корректировки. Чем больше модель, тем более поразительны затраты на вывод, тем выше порог развертывания, и компании становятся все менее склонными платить. Напротив, те модели, которые были обучены более эффективно, могут быть сжаты и способны работать на обычных GPU, становятся самыми популярными ИИ-продуктами 2025 года. Многие компании даже начали использовать открытые модели вместо закрытых API, не потому что открытые модели сильнее, а потому что они в “соотношении цена-качество” превзошли все ожидания. Более низкие требования к вычислительной мощности, более быстрая скорость итерации, более гибкие способы развертывания заставляют многие компании, которые раньше полагались на закрытые модели, задуматься: “Нам действительно нужно платить так много?” “80% возможностей открытой модели, в сочетании с внутренней настройкой, разве этого недостаточно?” Конкуренция моделей уже сменилась с “гонки силы” на “гонку эффективности”. Дело не в том, кто сильнее, а в том, кто сможет сделать так, чтобы компания могла это себе позволить. GPU больше не является аппаратным обеспечением, это структура власти. Если модель за три года превратилась из мифа в товар, то GPU за эти три года стал стратегическим ресурсом. Наиболее страшным для ИИ-компаний стало не отставание модели, а нехватка GPU. Когда модели становятся больше, задачи вывода увеличиваются, а ожидания пользователей растут, каждая ИИ-компания словно подвешена на цепочке поставок NVIDIA. Недостаток чипов означает, что новые модели не могут быть обучены; недостаток чипов означает, что скорость вывода не может быть увеличена; недостаток чипов означает, что база пользователей не может быть расширена; недостаток чипов даже затрудняет привлечение финансирования, потому что инвесторы четко понимают: без вычислительной мощности нет будущего. Это создает странное состояние в конкуренции ИИ: технологии очевидно развиваются, но узкие места находятся в электричестве, чипах и цепочках поставок. Весь рынок словно одновременно жмет на газ и тормоза, скорость продвижения такова, что трудно отдышаться, но любая щель в поставках чипов может мгновенно остановить компанию. Это самая реальная и базовая проблема ИИ-индустрии: вы не конкурируете с соперниками, вы конкурируете с цепочками поставок. Затраты на вывод также становятся вопросом жизни и смерти для компаний. Чем сильнее модель, чем дороже вывод, тем больше пользователей — тем больше убытков. ИИ-компании становятся противоречивой бизнес-моделью: чем популярнее, тем больше убытков, чем больше пользователей, тем больше опасностей. Поэтому настоящие “защитные рвы” ИИ становятся все более четкими. Настоящие защитные рвы не в моделях. Три года спустя рынок наконец достиг своего рода близкой к жестокой консенсус: способности самой модели больше не являются самым важным защитным рвом. Потому что модель может быть скопирована, сжата, настроена и преследована сообществом открытого кода. Настоящими факторами, которые могут различить победителей и проигравших, являются лишь две вещи. Первое — это “распределение”. Компании с системными входами не нуждаются в самой сильной модели, чтобы доминировать на рынке. Google использует поисковую систему и всю экосистему, чтобы обеспечить стабильный поток для Gemini; Microsoft с Windows и Office делает так, что Copilot становится очевидным мировым входом; Meta, более того, безумно вставляет открытые модели прямо в Instagram, WhatsApp, Facebook, прямо захватывая распределение. Распределение — это самая традиционная и самая реальная конкурентоспособность в технологическом мире. У вас есть вход, и у вас есть право голоса, и именно поэтому новым брендам, таким как OpenAI, Perplexity, Manus и другим единорогам, становится все труднее. Второе — это “может ли ИИ действительно работать”. Способности к общению уже не являются выдающимися, мультимодальность больше не редкость. Действительно важно, может ли модель надлежащим образом вызывать инструменты, может ли она писать программы, может ли она анализировать документы, может ли она подключать API, может ли она разбивать задачи, может ли она стать настоящим исполнителем работы в компании. Когда модель превращается в “интеллектуальный агент”, который может самостоятельно завершать процессы, принимать решения и выполнять задачи, она действительно начинает генерировать производительность. Компании, способные создать полный инструментальный набор, в будущем станут такими же незаменимыми, как сегодняшние облачные платформы. Три года спустя рынок, наконец, стал ясным: это не та модель, которая самая сильная, а та, кто может превратить ИИ в хорошо работающую рабочую систему. Будущее ИИ-рынка постепенно разделяется на три экосистемы. С уменьшением различий в возможностях моделей, увеличением давления вычислительной мощности и становлением затрат основным, ИИ-компании на самом деле уже тихо разделены на три лагеря, все три из которых будут существовать в будущем, но с совершенно разными судьбами. Первый тип — это платформенные гиганты. Эти компании на начальном этапе не обязательно имеют самую сильную модель, но они обладают подавляющим преимуществом в экосистеме и финансировании, что позволяет им догнать других. Компании, такие как Microsoft, Google, Meta, имеют глобальные входы для распределения, облачные решения, запасы GPU, каналы данных и интегрированные продукты. Для них модель не является продуктом, а “инструментом, привязанным к экосистеме”. Второй тип — это чисто модельные компании. OpenAI, Anthropic, Mistral и другие подобные компании являются чисто техническими игроками, способности моделей которых опережают, но они не имеют операционной системы, мобильного телефона, поисковой системы, социальной платформы и, что более важно, “распределения”. Их модели, какими бы мощными они ни были, нуждаются в зависимости от чужих экосистем, чтобы достичь пользователей в массовом порядке. В будущем три года…