Manus + MCP является ключом к влиянию Web3 AI Agent.
Автор: Haotian
Друг сказал, что непрерывный спад ИИ-агентов web3, таких как #ai16z и $arc, вызван недавним взрывом протокола MCP? На первый взгляд весь человек немного растерян, а WTF тут причем? Но, поразмыслив, я обнаружил, что в этом действительно есть определенная логика: логика оценки и ценообразования существующего web3 AI-агента изменилась, а направление повествования и маршрут лендинга продукта нужно срочно корректировать! Ниже я хотел бы поделиться своим личным мнением:
MCP (Model Context Protocol) — это стандартизированный протокол с открытым исходным кодом, предназначенный для того, чтобы позволить различным LLM/агентам ИИ беспрепятственно подключаться к различным источникам данных и инструментам, что эквивалентно «универсальному» USB-интерфейсу plug-and-play, заменяющему сквозной «специфический» метод инкапсуляции в прошлом.
Проще говоря, между приложениями ИИ существуют очевидные островки данных, и агентам и LLM необходимо разработать соответствующие API вызовов для достижения совместимости, не говоря уже о сложности рабочего процесса и отсутствии функций двустороннего взаимодействия, которые обычно имеют относительно ограниченный доступ к модели и ограничения разрешений.
Появление MCP обеспечивает унифицированную основу для приложений ИИ, чтобы избавиться от разрозненности данных прошлого и реализовать возможность «динамического» доступа к внешним данным и инструментам, что может значительно снизить сложность разработки и эффективность интеграции, особенно с точки зрения автоматизированного выполнения задач, запроса данных в режиме реального времени и кросс-платформенного сотрудничества.
Кстати говоря, многие люди сразу подумали, что если бы Manus для многоагентной совместной работы и инноваций был интегрирован с этой инфраструктурой MCP с открытым исходным кодом, которая может способствовать многоагентному сотрудничеству, разве она не была бы непобедимой?
Все верно, Manus + MCP является ключом к влиянию web3 AI Agent.
Тем не менее, невероятно, что и Manus, и MCP являются фреймворками и стандартами протоколов для web2 LLM/Agent, которые решают проблему взаимодействия данных и совместной работы между централизованными серверами, а их разрешения и контроль доступа также опираются на «активную» открытость каждого серверного узла, другими словами, это всего лишь атрибут инструмента с открытым исходным кодом.
Само собой разумеется, что это полностью противоречит центральным идеям «распределенных серверов, распределенной совместной работы и распределенных стимулов», преследуемым web3 AI Agent.
Причина в том, что первая фаза web3 AI Agent слишком «ориентирована на web2», с одной стороны, потому что многие команды имеют опыт работы в web2 и не имеют полного понимания нативных требований web3 Native. «API-интерфейсы», такие как DeepSeek, соответствующим образом инкапсулируют некоторые общие фреймворки Memory и Charater, чтобы помочь разработчикам быстро разрабатывать приложения агентов ИИ. Но в чем разница между этим набором сервисных фреймворков и инструментами web2 с открытым исходным кодом? В чем отличия?
Э-э-э, является ли преимущество в том, что есть набор поощрений по токеномике? А затем использовать набор фреймворков, которые web2 может полностью заменить, чтобы стимулировать группу большего количества агентов ИИ, которые существуют с целью выпуска новых монет? Ужасный.. Глядя на эту логику, можно примерно понять, почему Manus +MCP может оказывать влияние на web3 AI Agent?
Поскольку многие фреймворки и сервисы агентов ИИ web3 решают только потребности в быстрой разработке и применении, аналогичные агентам ИИ web2, но они не могут идти в ногу со скоростью инноваций web2 с точки зрения технических услуг, стандартов и преимуществ дифференциации, рынок/капитал переоценил и оценил последнюю партию агентов ИИ web3.
Кстати говоря, суть общей проблемы должна быть найдена, но как сломать ситуацию? Только один способ: сосредоточьтесь на web3-native решениях, потому что операционная и мотивационная архитектура распределенных систем являются абсолютными дифференцирующими преимуществами web3.
Если взять в качестве примера распределенные облачные вычислительные мощности, данные, алгоритмы и другие сервисные платформы, то на первый взгляд кажется, что такого рода вычислительные мощности и данные, агрегированные на основе простаивающих ресурсов, не могут удовлетворить потребности инженерных инноваций в краткосрочной перспективе, но когда большое количество ИИ LLM борются за централизованные вычислительные мощности, чтобы прорваться через гонку вооружений за производительность, сервисная модель с уловкой «простаивающие ресурсы и низкая стоимость», естественно, будет презирать разработчиков web2 и венчурные группы.
Однако, когда ИИ-агент web2 пройдет стадию инноваций в производительности, он обязательно будет стремиться к расширению вертикальных сценариев приложений и оптимизации моделей подразделения и тонкой настройки, и тогда преимущества ресурсных сервисов web3 AI станут по-настоящему очевидными.
На самом деле, когда web2 AI, который поднимается на позицию гиганта в виде ресурсной монополии, достигает определенной стадии, трудно отступить к идее окружить город сельской местностью и разделить сцену один за другим, и в это время наступает время для совместной работы избыточных разработчиков web2 AI + ресурсов web3 AI.
На самом деле, в дополнение к набору быстрого развертывания web2 + мультиагентный фреймворк для совместной коммуникации + нарратив о выпуске токеномов, есть много инновационных направлений web3 Native, которые стоит изучить:
Например, оснащенный набором распределенных фреймворков для совместной работы на основе консенсуса, учитывая характеристики off-chain вычислений + onchain хранение состояния больших моделей LLM, требуется множество адаптируемых компонентов.
Децентрализованная система аутентификации DID позволяет агенту иметь проверяемую личность в сети, которая похожа на уникальный адрес, генерируемый исполняющей виртуальной машиной для смарт-контракта, в основном для непрерывного отслеживания и записи последующего состояния;
Децентрализованная система оракулов Oracle в основном отвечает за надежное получение и проверку данных вне сети, что отличается от предыдущего Oracle, и этому оракулу, адаптированному к агенту ИИ, также может потребоваться комбинация нескольких агентов, включая уровень сбора данных, уровень консенсуса для принятия решений и уровень обратной связи по исполнению, чтобы ончейн-данные, необходимые агенту, а также внецепочечные вычисления и принятие решений, могли быть доступны в режиме реального времени;
Децентрализованная система хранения DA, из-за неопределенности состояния базы знаний при запуске AI Agent, а процесс вывода также является временным, необходимо записывать ключевые библиотеки состояний и пути вывода за LLM и хранить их в распределенной системе хранения, а также обеспечить контролируемый затратами механизм доказательства данных для обеспечения доступности данных проверки публичной цепочки;
Набор вычислительного уровня конфиденциальности ZKP с доказательством конфиденциальности с нулевым разглашением может быть связан с вычислительными решениями для конфиденциальности, включая время TEE, PHE и т. д., для достижения вычислений конфиденциальности в режиме реального времени + проверки подтверждения данных, так что агент может иметь более широкий спектр вертикальных источников данных (медицинских, финансовых), а затем более профессиональные настраиваемые агенты обслуживания появляются сверху;
Набор протоколов межсетевой совместимости, в чем-то похожий на фреймворк, определенный протоколом MCP с открытым исходным кодом, разница заключается в том, что этот набор решений для взаимодействия должен иметь механизм ретрансляции и планирования связи, который адаптируется к работе, доставке и проверке агента и может завершить передачу активов и синхронизацию состояния агента между различными цепочками, особенно сложными состояниями, такими как контекст агента и приглашение, база знаний, память и т. д.;
……
На мой взгляд, фокус настоящего ИИ-агента web3 должен быть сосредоточен на том, как сделать так, чтобы «сложный рабочий процесс» ИИ-агента и «поток проверки доверия» блокчейна максимально подходили друг другу. Что касается этих инкрементальных решений, то их можно обновить и переработать из существующих старых нарративных проектов или переделать из проектов в недавно сформированном нарративном треке AI Agent.
Это направление, к которому web3 AI Agent должен стремиться, и оно соответствует основам инновационной экосистемы в рамках макронарратива AI + Crypto. Без установления соответствующих инноваций и дифференцированных конкурентных барьеров, то каждый раз, когда трек web2 AI взрывается вверх ногами, web3 AI может переворачиваться с ног на голову.
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Вызвано ли продолжающееся снижение популярности ИИ-агента недавним взрывным ростом протокола MCP?
Автор: Haotian
Друг сказал, что непрерывный спад ИИ-агентов web3, таких как #ai16z и $arc, вызван недавним взрывом протокола MCP? На первый взгляд весь человек немного растерян, а WTF тут причем? Но, поразмыслив, я обнаружил, что в этом действительно есть определенная логика: логика оценки и ценообразования существующего web3 AI-агента изменилась, а направление повествования и маршрут лендинга продукта нужно срочно корректировать! Ниже я хотел бы поделиться своим личным мнением:
Проще говоря, между приложениями ИИ существуют очевидные островки данных, и агентам и LLM необходимо разработать соответствующие API вызовов для достижения совместимости, не говоря уже о сложности рабочего процесса и отсутствии функций двустороннего взаимодействия, которые обычно имеют относительно ограниченный доступ к модели и ограничения разрешений.
Появление MCP обеспечивает унифицированную основу для приложений ИИ, чтобы избавиться от разрозненности данных прошлого и реализовать возможность «динамического» доступа к внешним данным и инструментам, что может значительно снизить сложность разработки и эффективность интеграции, особенно с точки зрения автоматизированного выполнения задач, запроса данных в режиме реального времени и кросс-платформенного сотрудничества.
Кстати говоря, многие люди сразу подумали, что если бы Manus для многоагентной совместной работы и инноваций был интегрирован с этой инфраструктурой MCP с открытым исходным кодом, которая может способствовать многоагентному сотрудничеству, разве она не была бы непобедимой?
Все верно, Manus + MCP является ключом к влиянию web3 AI Agent.
Само собой разумеется, что это полностью противоречит центральным идеям «распределенных серверов, распределенной совместной работы и распределенных стимулов», преследуемым web3 AI Agent.
Причина в том, что первая фаза web3 AI Agent слишком «ориентирована на web2», с одной стороны, потому что многие команды имеют опыт работы в web2 и не имеют полного понимания нативных требований web3 Native. «API-интерфейсы», такие как DeepSeek, соответствующим образом инкапсулируют некоторые общие фреймворки Memory и Charater, чтобы помочь разработчикам быстро разрабатывать приложения агентов ИИ. Но в чем разница между этим набором сервисных фреймворков и инструментами web2 с открытым исходным кодом? В чем отличия?
Э-э-э, является ли преимущество в том, что есть набор поощрений по токеномике? А затем использовать набор фреймворков, которые web2 может полностью заменить, чтобы стимулировать группу большего количества агентов ИИ, которые существуют с целью выпуска новых монет? Ужасный.. Глядя на эту логику, можно примерно понять, почему Manus +MCP может оказывать влияние на web3 AI Agent?
Поскольку многие фреймворки и сервисы агентов ИИ web3 решают только потребности в быстрой разработке и применении, аналогичные агентам ИИ web2, но они не могут идти в ногу со скоростью инноваций web2 с точки зрения технических услуг, стандартов и преимуществ дифференциации, рынок/капитал переоценил и оценил последнюю партию агентов ИИ web3.
Если взять в качестве примера распределенные облачные вычислительные мощности, данные, алгоритмы и другие сервисные платформы, то на первый взгляд кажется, что такого рода вычислительные мощности и данные, агрегированные на основе простаивающих ресурсов, не могут удовлетворить потребности инженерных инноваций в краткосрочной перспективе, но когда большое количество ИИ LLM борются за централизованные вычислительные мощности, чтобы прорваться через гонку вооружений за производительность, сервисная модель с уловкой «простаивающие ресурсы и низкая стоимость», естественно, будет презирать разработчиков web2 и венчурные группы.
Однако, когда ИИ-агент web2 пройдет стадию инноваций в производительности, он обязательно будет стремиться к расширению вертикальных сценариев приложений и оптимизации моделей подразделения и тонкой настройки, и тогда преимущества ресурсных сервисов web3 AI станут по-настоящему очевидными.
На самом деле, когда web2 AI, который поднимается на позицию гиганта в виде ресурсной монополии, достигает определенной стадии, трудно отступить к идее окружить город сельской местностью и разделить сцену один за другим, и в это время наступает время для совместной работы избыточных разработчиков web2 AI + ресурсов web3 AI.
На самом деле, в дополнение к набору быстрого развертывания web2 + мультиагентный фреймворк для совместной коммуникации + нарратив о выпуске токеномов, есть много инновационных направлений web3 Native, которые стоит изучить:
Например, оснащенный набором распределенных фреймворков для совместной работы на основе консенсуса, учитывая характеристики off-chain вычислений + onchain хранение состояния больших моделей LLM, требуется множество адаптируемых компонентов.
Децентрализованная система аутентификации DID позволяет агенту иметь проверяемую личность в сети, которая похожа на уникальный адрес, генерируемый исполняющей виртуальной машиной для смарт-контракта, в основном для непрерывного отслеживания и записи последующего состояния;
Децентрализованная система оракулов Oracle в основном отвечает за надежное получение и проверку данных вне сети, что отличается от предыдущего Oracle, и этому оракулу, адаптированному к агенту ИИ, также может потребоваться комбинация нескольких агентов, включая уровень сбора данных, уровень консенсуса для принятия решений и уровень обратной связи по исполнению, чтобы ончейн-данные, необходимые агенту, а также внецепочечные вычисления и принятие решений, могли быть доступны в режиме реального времени;
Децентрализованная система хранения DA, из-за неопределенности состояния базы знаний при запуске AI Agent, а процесс вывода также является временным, необходимо записывать ключевые библиотеки состояний и пути вывода за LLM и хранить их в распределенной системе хранения, а также обеспечить контролируемый затратами механизм доказательства данных для обеспечения доступности данных проверки публичной цепочки;
Набор вычислительного уровня конфиденциальности ZKP с доказательством конфиденциальности с нулевым разглашением может быть связан с вычислительными решениями для конфиденциальности, включая время TEE, PHE и т. д., для достижения вычислений конфиденциальности в режиме реального времени + проверки подтверждения данных, так что агент может иметь более широкий спектр вертикальных источников данных (медицинских, финансовых), а затем более профессиональные настраиваемые агенты обслуживания появляются сверху;
Набор протоколов межсетевой совместимости, в чем-то похожий на фреймворк, определенный протоколом MCP с открытым исходным кодом, разница заключается в том, что этот набор решений для взаимодействия должен иметь механизм ретрансляции и планирования связи, который адаптируется к работе, доставке и проверке агента и может завершить передачу активов и синхронизацию состояния агента между различными цепочками, особенно сложными состояниями, такими как контекст агента и приглашение, база знаний, память и т. д.;
……
На мой взгляд, фокус настоящего ИИ-агента web3 должен быть сосредоточен на том, как сделать так, чтобы «сложный рабочий процесс» ИИ-агента и «поток проверки доверия» блокчейна максимально подходили друг другу. Что касается этих инкрементальных решений, то их можно обновить и переработать из существующих старых нарративных проектов или переделать из проектов в недавно сформированном нарративном треке AI Agent.
Это направление, к которому web3 AI Agent должен стремиться, и оно соответствует основам инновационной экосистемы в рамках макронарратива AI + Crypto. Без установления соответствующих инноваций и дифференцированных конкурентных барьеров, то каждый раз, когда трек web2 AI взрывается вверх ногами, web3 AI может переворачиваться с ног на голову.