Я потратил недели, погружаясь в мутные воды телеграм-ботов на основе ИИ, и то, что я обнаружил, откровенно тревожно. Технология, которая обещает революционизировать отрасли, имеет зловещую подоплеку, о которой мало кто говорит.
Давайте забудем о "топ-5" проектах - я хочу сосредоточиться на DeepFakeAI, который рекламируется как революционное сочетание "блокчейн, ИИ и построение сообщества". На самом деле они продают тревожно доступный инструмент для создания фальшивых видео реальных людей, которые говорят и делают вещи, которых они никогда не делали.
Я сам протестировал одного из этих ботов. Всего с несколькими изображениями и текстовым вводом я создал видео, на котором мой коллега "объявляет" о своем увольнении - все это заняло менее пяти минут. Качество было пугающе хорошим. Никаких технических знаний не требуется. Просто укажите, щелкните и нарушьте чью-то цифровую идентичность.
Рекламные материалы обходят стороной этический кошмар, который это создает. Они восторгаются «реалистичными модуляциями голоса» и «синхронизированным синхронизированием губ», но удобно игнорируют, как легко эту технологию можно использовать в качестве оружия для мести, политической манипуляции или корпоративного саботажа.
И не заставляйте меня начинать говорить о токеномике. Каждая транзакция "вызывает событие сжигания токенов, что может поддерживать цены в долгосрочной перспективе." Перевод: они геймифицировали цифровое подражание и получают прибыль от этого через свой родной токен. Это эксплуатация, одетая в костюм блокчейна.
Хотя другие проекты, такие как Fetch AI и SingularityNET, могут иметь законные случаи использования, нормализация технологии дипфейков через удобные боты в Telegram представляет собой непосредственную угрозу, которую криптосообщество, похоже, слишком охотно игнорирует.
Больше всего беспокоит то, как небрежно эти инструменты рекламируются - никаких серьезных упоминаний о мерах безопасности, механизмах согласия или системах проверки. Просто "создавайте дипфейки с минимальными техническими знаниями!", как будто это что-то, что стоит отмечать.
В статье упоминается, что эти проекты "позволяют пользователям решать проблемы реального мира" - но что насчет реальных проблем, которые они создают? Это не просто инструменты; это потенциальные оружия в растущей информационной войне. Я видел сервера Discord, где подростки делятся советами по созданию дипфейков одноклассников. Это уже не теоретический вред.
Технология сама по себе не является по своей сути злой, но случайное внедрение с учетом прибыли перед этическими соображениями — это катастрофа, которая ждет своего часа. Нам здесь нужно серьезное регулирование, а не больше спекуляций, основанных на токенах.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Темная сторона ИИ: Мое путешествие по миру дипфейков в Telegram
Я потратил недели, погружаясь в мутные воды телеграм-ботов на основе ИИ, и то, что я обнаружил, откровенно тревожно. Технология, которая обещает революционизировать отрасли, имеет зловещую подоплеку, о которой мало кто говорит.
Давайте забудем о "топ-5" проектах - я хочу сосредоточиться на DeepFakeAI, который рекламируется как революционное сочетание "блокчейн, ИИ и построение сообщества". На самом деле они продают тревожно доступный инструмент для создания фальшивых видео реальных людей, которые говорят и делают вещи, которых они никогда не делали.
Я сам протестировал одного из этих ботов. Всего с несколькими изображениями и текстовым вводом я создал видео, на котором мой коллега "объявляет" о своем увольнении - все это заняло менее пяти минут. Качество было пугающе хорошим. Никаких технических знаний не требуется. Просто укажите, щелкните и нарушьте чью-то цифровую идентичность.
Рекламные материалы обходят стороной этический кошмар, который это создает. Они восторгаются «реалистичными модуляциями голоса» и «синхронизированным синхронизированием губ», но удобно игнорируют, как легко эту технологию можно использовать в качестве оружия для мести, политической манипуляции или корпоративного саботажа.
И не заставляйте меня начинать говорить о токеномике. Каждая транзакция "вызывает событие сжигания токенов, что может поддерживать цены в долгосрочной перспективе." Перевод: они геймифицировали цифровое подражание и получают прибыль от этого через свой родной токен. Это эксплуатация, одетая в костюм блокчейна.
Хотя другие проекты, такие как Fetch AI и SingularityNET, могут иметь законные случаи использования, нормализация технологии дипфейков через удобные боты в Telegram представляет собой непосредственную угрозу, которую криптосообщество, похоже, слишком охотно игнорирует.
Больше всего беспокоит то, как небрежно эти инструменты рекламируются - никаких серьезных упоминаний о мерах безопасности, механизмах согласия или системах проверки. Просто "создавайте дипфейки с минимальными техническими знаниями!", как будто это что-то, что стоит отмечать.
В статье упоминается, что эти проекты "позволяют пользователям решать проблемы реального мира" - но что насчет реальных проблем, которые они создают? Это не просто инструменты; это потенциальные оружия в растущей информационной войне. Я видел сервера Discord, где подростки делятся советами по созданию дипфейков одноклассников. Это уже не теоретический вред.
Технология сама по себе не является по своей сути злой, но случайное внедрение с учетом прибыли перед этическими соображениями — это катастрофа, которая ждет своего часа. Нам здесь нужно серьезное регулирование, а не больше спекуляций, основанных на токенах.