Огляд кількох популярних проєктів у секторі Crypto+AI за минулий місяць виявив три помітні зміни тенденцій, а також короткий опис і коментарі до проєктів:
Технічний шлях проекту став більш практичним, почали звертати увагу на продуктивність даних, а не лише на чисту концептуальну упаковку;
Сегментація за вертикалями стає фокусом розширення, універсальний ШІ поступається місцем спеціалізованому ШІ;
Капітал більше цінує перевірку бізнес-моделі, проекти з грошовим потоком явно користуються більшою популярністю;
Додаток: Опис проекту, аналіз особливостей, особистий коментар:
1、 @yupp_ai
Опис проекту: децентралізована платформа оцінки AI моделей, у червні закрито раунд фінансування на 33 мільйони доларів, лідером є a16z, участь взяв Jeff Dean.
Аналіз основних моментів: застосування суб'єктивних переваг людства до слабких місць оцінки ШІ. Через краудсорсинг оцінюються понад 500 великих моделей, зворотний зв'язок користувачів може бути конвертований у готівку (1000 балів = 1 долар), що вже привернуло до закупівлі даних компанії, такі як OpenAI, та має реальний грошовий потік.
Особистий коментар: проект з досить зрозумілою бізнес-моделлю, це не чисто витратна модель. Але боротьба з фальшивими замовленнями є великою проблемою, алгоритм протидії відьомським атакам потребує постійної оптимізації. Але з огляду на обсяг фінансування в 33 мільйони доларів, капітал явно більше цінує проекти з підтвердженою монетизацією.
2、 @Gradient_HQ
Опис проекту: децентралізована AI обчислювальна мережа, у червні завершено посівний раунд на 10 мільйонів доларів, лідерами є Pantera Capital та Multicoin Capital.
Аналіз особливостей: за допомогою плагіна браузера Sentry Nodes вже досягнуто певного ринкового консенсусу в сфері DePIN на Solana, члени команди походять з Helium тощо. Новий протокол передачі даних Lattica та механізм висновку Parallax здійснили суттєві дослідження в області крайових обчислень та перевірюваності даних, що дозволяє знизити затримку на 40% і підтримує підключення гетерогенних пристроїв.
Особистий коментар: напрямок вірний, ідеально вписується в тренд "зниження" локалізації ІІ. Але при виконанні складних завдань ефективність все ж потрібно порівнювати з централізованими платформами, стабільність крайових вузлів все ще є проблемою. Проте, крайові обчислення є новою потребою, що виникла в результаті внутрішніх конфліктів web2AI, також це перевага розподіленої структури web3AI, я вірю в просування конкретних продуктів на основі реальної продуктивності.
3、 @PublicAI_
Опис проекту: децентралізована платформа інфраструктури даних AI, яка заохочує глобальних користувачів вносити дані з різних галузей (медицина, автономне водіння, голос тощо) за допомогою токенів, загальний дохід перевищив 14 мільйонів доларів, створено мережу з понад мільйоном учасників, які вносять дані.
Аналіз основних моментів: технічно інтегровані ZK-ваповідь та BFT-консенсусний алгоритм забезпечують якість даних, також використано технологію приватних обчислень Amazon Nitro Enclaves для задоволення вимог щодо відповідності. Досить цікаво, що було представлено пристрій для збору електроенцефалограми HeadCap, що вважається розширенням з програмного забезпечення на апаратне забезпечення. Економічна модель також добре розроблена, користувач може заробити 16 доларів + 500 тисяч балів за 10 годин голосового маркування, а вартість підписки на дані для підприємств може знизитися на 45%.
Особистий коментар: Відчуваю, що найбільша цінність цього проєкту полягає в реальному попиті на AI-міткування даних, особливо в таких сферах, як медицина та автономне водіння, де вимоги до якості даних і відповідності дуже високі. Проте 20% рівень помилок все ж вищий, ніж 10% на традиційних платформах, коливання якості даних є проблемою, яку потрібно постійно вирішувати. Напрямок інтерфейсів між мозком і комп'ютером має певний простір для уяви, але складність виконання також не мала.
4、 @sparkchainai
Опис проекту: Розподілена обчислювальна мережа на базі Solana, у червні завершено фінансування в 10,8 мільйона доларів, лідером якого стала OakStone Ventures.
Аналіз особливостей: за допомогою технології динамічного шардінгу агрегуються бездіяльні ресурси GPU, що підтримує інференцію великих моделей, таких як Llama3-405B, і коштує на 40% менше, ніж AWS. Дизайн токенізованої торгівлі даними досить цікавий, він прямо перетворює учасників обчислювальної потужності на зацікавлених сторін і може стимулювати більше людей до участі в мережі.
Особистий відгук: типовий режим «агрегування бездіяльних ресурсів», логічно це має сенс. Але 15% -ий рівень помилок при крос-ланцюговій перевірці дійсно трохи високий, технічну стабільність ще потрібно доопрацювати. Проте в сценах 3D-рендеринга, де вимоги до реального часу не так високі, це дійсно має переваги, ключове питання - чи можна знизити рівень помилок, інакше навіть найкраща бізнес-модель буде зіпсована технічними проблемами.
5、 @olaxbt_terminal
Опис проекту: Платформа високочастотної торгівлі криптовалютами на основі штучного інтелекту, у червні завершено раунд фінансування насіння в розмірі 3,38 мільйона доларів, @ambergroup_io
Основний інвестор.
Аналіз основних моментів: технологія MCP може динамічно оптимізувати торгові шляхи, зменшити сліпий обсяг, реальні тести показали підвищення ефективності на 30%. Відповідаючи на тенденцію #AgentFi, це можна вважати знахідкою у відносно порожній ніші DeFi кількісної торгівлі, що заповнює потребу на ринку.
Особистий коментар: Напрямок правильний, DeFi дійсно потребує більш розумних торгових інструментів. Але високочастотна торгівля має дуже високі вимоги до затримки та точності, тому необхідно перевірити реальну узгодженість AI-прогнозів та виконання на блокчейні. Крім того, атаки MEV є великою загрозою, технічні заходи захисту повинні бути на висоті.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Аналіз трьох нових тенденцій та проєктів у сфері Crypto+AI
Автор: Haotian
Огляд кількох популярних проєктів у секторі Crypto+AI за минулий місяць виявив три помітні зміни тенденцій, а також короткий опис і коментарі до проєктів:
Технічний шлях проекту став більш практичним, почали звертати увагу на продуктивність даних, а не лише на чисту концептуальну упаковку;
Сегментація за вертикалями стає фокусом розширення, універсальний ШІ поступається місцем спеціалізованому ШІ;
Капітал більше цінує перевірку бізнес-моделі, проекти з грошовим потоком явно користуються більшою популярністю;
Додаток: Опис проекту, аналіз особливостей, особистий коментар:
1、 @yupp_ai
Опис проекту: децентралізована платформа оцінки AI моделей, у червні закрито раунд фінансування на 33 мільйони доларів, лідером є a16z, участь взяв Jeff Dean.
Аналіз основних моментів: застосування суб'єктивних переваг людства до слабких місць оцінки ШІ. Через краудсорсинг оцінюються понад 500 великих моделей, зворотний зв'язок користувачів може бути конвертований у готівку (1000 балів = 1 долар), що вже привернуло до закупівлі даних компанії, такі як OpenAI, та має реальний грошовий потік.
Особистий коментар: проект з досить зрозумілою бізнес-моделлю, це не чисто витратна модель. Але боротьба з фальшивими замовленнями є великою проблемою, алгоритм протидії відьомським атакам потребує постійної оптимізації. Але з огляду на обсяг фінансування в 33 мільйони доларів, капітал явно більше цінує проекти з підтвердженою монетизацією.
2、 @Gradient_HQ
Опис проекту: децентралізована AI обчислювальна мережа, у червні завершено посівний раунд на 10 мільйонів доларів, лідерами є Pantera Capital та Multicoin Capital.
Аналіз особливостей: за допомогою плагіна браузера Sentry Nodes вже досягнуто певного ринкового консенсусу в сфері DePIN на Solana, члени команди походять з Helium тощо. Новий протокол передачі даних Lattica та механізм висновку Parallax здійснили суттєві дослідження в області крайових обчислень та перевірюваності даних, що дозволяє знизити затримку на 40% і підтримує підключення гетерогенних пристроїв.
Особистий коментар: напрямок вірний, ідеально вписується в тренд "зниження" локалізації ІІ. Але при виконанні складних завдань ефективність все ж потрібно порівнювати з централізованими платформами, стабільність крайових вузлів все ще є проблемою. Проте, крайові обчислення є новою потребою, що виникла в результаті внутрішніх конфліктів web2AI, також це перевага розподіленої структури web3AI, я вірю в просування конкретних продуктів на основі реальної продуктивності.
3、 @PublicAI_
Опис проекту: децентралізована платформа інфраструктури даних AI, яка заохочує глобальних користувачів вносити дані з різних галузей (медицина, автономне водіння, голос тощо) за допомогою токенів, загальний дохід перевищив 14 мільйонів доларів, створено мережу з понад мільйоном учасників, які вносять дані.
Аналіз основних моментів: технічно інтегровані ZK-ваповідь та BFT-консенсусний алгоритм забезпечують якість даних, також використано технологію приватних обчислень Amazon Nitro Enclaves для задоволення вимог щодо відповідності. Досить цікаво, що було представлено пристрій для збору електроенцефалограми HeadCap, що вважається розширенням з програмного забезпечення на апаратне забезпечення. Економічна модель також добре розроблена, користувач може заробити 16 доларів + 500 тисяч балів за 10 годин голосового маркування, а вартість підписки на дані для підприємств може знизитися на 45%.
Особистий коментар: Відчуваю, що найбільша цінність цього проєкту полягає в реальному попиті на AI-міткування даних, особливо в таких сферах, як медицина та автономне водіння, де вимоги до якості даних і відповідності дуже високі. Проте 20% рівень помилок все ж вищий, ніж 10% на традиційних платформах, коливання якості даних є проблемою, яку потрібно постійно вирішувати. Напрямок інтерфейсів між мозком і комп'ютером має певний простір для уяви, але складність виконання також не мала.
4、 @sparkchainai
Опис проекту: Розподілена обчислювальна мережа на базі Solana, у червні завершено фінансування в 10,8 мільйона доларів, лідером якого стала OakStone Ventures.
Аналіз особливостей: за допомогою технології динамічного шардінгу агрегуються бездіяльні ресурси GPU, що підтримує інференцію великих моделей, таких як Llama3-405B, і коштує на 40% менше, ніж AWS. Дизайн токенізованої торгівлі даними досить цікавий, він прямо перетворює учасників обчислювальної потужності на зацікавлених сторін і може стимулювати більше людей до участі в мережі.
Особистий відгук: типовий режим «агрегування бездіяльних ресурсів», логічно це має сенс. Але 15% -ий рівень помилок при крос-ланцюговій перевірці дійсно трохи високий, технічну стабільність ще потрібно доопрацювати. Проте в сценах 3D-рендеринга, де вимоги до реального часу не так високі, це дійсно має переваги, ключове питання - чи можна знизити рівень помилок, інакше навіть найкраща бізнес-модель буде зіпсована технічними проблемами.
5、 @olaxbt_terminal
Опис проекту: Платформа високочастотної торгівлі криптовалютами на основі штучного інтелекту, у червні завершено раунд фінансування насіння в розмірі 3,38 мільйона доларів, @ambergroup_io
Основний інвестор.
Аналіз основних моментів: технологія MCP може динамічно оптимізувати торгові шляхи, зменшити сліпий обсяг, реальні тести показали підвищення ефективності на 30%. Відповідаючи на тенденцію #AgentFi, це можна вважати знахідкою у відносно порожній ніші DeFi кількісної торгівлі, що заповнює потребу на ринку.
Особистий коментар: Напрямок правильний, DeFi дійсно потребує більш розумних торгових інструментів. Але високочастотна торгівля має дуже високі вимоги до затримки та точності, тому необхідно перевірити реальну узгодженість AI-прогнозів та виконання на блокчейні. Крім того, атаки MEV є великою загрозою, технічні заходи захисту повинні бути на висоті.