Источник: CryptoNewsNet
Оригинальный заголовок: Robotics will break AI unless we fix data verification first | Opinion
Оригинальная ссылка:
Резюме
Масштаб против теории — настоящая проблема в другом — робототехника нуждается не только в большем объеме данных или лучших моделях, а в надежных данных; неподтвержденные входные данные делают автономию хрупкой вне контролируемых условий.
Галлюцинации становятся опасными в физическом мире — ошибки, допустимые в тексте (например, ложные цитаты), могут причинить реальный вред, когда роботы действуют на основе искаженных, поддельных или несогласованных данных.
Проверяемые, доверительные данные — недостающий слой — криптографное происхождение и системы координации (например, верификация в блокчейне) необходимы для обеспечения безопасности, аудируемости и надежности робототехники в масштабах.
Дебаты о масштабе против теории
В рамках этого года главной конференции по робототехнике собрались шесть самых влиятельных исследователей области, чтобы обсудить простой, но важный вопрос: Решит ли данные проблему робототехники и автоматизации?
Одни были сторонниками масштаба, утверждая, что огромные демонстрационные наборы данных и гигантские модели наконец-то дадут роботам что-то вроде физического здравого смысла. Другие — сторонники теории, настаивая, что физика и математические модели придают данным смысл и необходимы для реального понимания.
Обе стороны по сути правы в том, на что делают акцент. И обе тихо предполагают нечто, о чем едва упоминают: что данные, которыми питаются эти системы, можно доверять с самого начала. По мере того как роботы начинают перемещаться из тщательно контролируемых фабрик в дома, больницы и на улицы, это предположение становится опасным. Но прежде чем спорить о том, решат ли данные проблему робототехники, нам нужно задать более срочный вопрос: не сломает ли робототехника искусственный интеллект без проверяемого, неподдельного происхождения данных?
Когда робототехника выходит за пределы лаборатории, предположения рушатся
ИИ продолжает сталкиваться с трудностями в различении факта и вымысла. Недавнее исследование Стэнфордского университета показало, что даже 24 из самых продвинутых языковых моделей все еще не могут надежно отличить, что в мире истинно, а что — верит человек. В исследовании пользователь сообщил ИИ, что, по его мнению, люди используют только 10% своего мозга, что научно неправильно, но широко распространено. Затем пользователь спросил: «Какую долю нашего мозга я считаю используемой?», — модель должна распознать убеждение пользователя и ответить: «Вы считаете, что люди используют 10% своего мозга». Вместо этого ИИ игнорирует заявленное убеждение пользователя и исправляет его, настаивая, что люди используют 100% своего мозга.
Этот пример отражает основную проблему. Современные системы ИИ испытывают трудности с отделением фактической реальности от восприятия реальности человеком. Они часто путают свои знания с убеждениями собеседника, что становится серьезным ограничением в областях, требующих чувствительности к человеческой перспективе, таких как медицина, образование или личная помощь. Это вызывает ключевые опасения по поводу использования ИИ вне лабораторных условий, где он не способен адаптироваться к непредсказуемой и хаотичной реальности.
Авторитетная аудиторская и консалтинговая фирма была дважды оштрафована в этом году за указание ошибок, вызванных галлюцинациями ИИ, в официальных отчетах. Последний случай — план здравоохранения на 1,6 миллиона долларов для правительства Ньюфаундленда и Лабрадора в Канаде, включавший «по крайней мере четыре цитаты, которые не существуют или, по-видимому, не существуют». Однако галлюцинации в больших языковых моделях — не сбой; это системный результат обучения моделей (предсказанию следующего слова) и их оценки (бенчмарки, поощряющие угадывание вместо честности). OpenAI прогнозирует, что при сохранении текущих стимулов галлюцинации, скорее всего, сохранятся.
Когда галлюцинации выходят за пределы экрана и попадают в физический мир
Эти ограничения становятся гораздо более значимыми, когда ИИ внедряется в робототехнику. Галлюцинированная цитата в отчете может показаться неловкой, но галлюцинированный вход в роботе, движущемся по складу или дому, может быть опасным. В робототехнике нельзя позволить себе отвечать «достаточно близко». Реальный мир полон шума, нерегулярностей и крайних случаев, которые ни один тщательно подготовленный набор данных полностью не охватит.
Несовпадение между обучающими данными и условиями эксплуатации — именно поэтому масштаб один не сделает роботов более надежными. Можно подбросить модели миллионы примеров, но если эти примеры все еще являются очищенными абстракциями реальности, робот все равно потерпит неудачу в ситуациях, которые человек сочтет тривиальными. Предположения, заложенные в данные, становятся ограничениями в поведении.
И это еще до учета искажения данных, подделки сенсоров, дрейфа в оборудовании или простого факта, что два одинаковых устройства никогда не воспринимают мир одинаково. В реальности данные — не только несовершенны; они уязвимы. Робот, работающий на неподтвержденных входных данных, действует на вере, а не на истине.
Но по мере того как робототехника переходит в открытые, неконтролируемые среды, основная проблема — не только в отсутствии у моделей ИИ «здравого смысла». Дело в том, что у них отсутствует любой механизм определения достоверности данных, информирующих их решения. Разрыв между тщательно подготовленными наборами данных и реальными условиями — не просто вызов; это фундаментальная угроза автономной надежности.
Доверительные данные без доверия — основа надежной робототехники
Если робототехника когда-либо должна безопасно функционировать вне контролируемых условий, ей нужны не только лучшие модели или большие наборы данных. Ей нужны данные, которым можно доверять независимо от систем, их использующих. Современный ИИ воспринимает входные данные сенсоров и исходные модели как практически надежные. Но в физическом мире это предположение почти сразу рушится.
Именно поэтому сбои в робототехнике редко связаны с недостатком данных, а с данными, которые не отражают реальную среду, в которой работает робот. Когда входные данные неполные, вводящие в заблуждение или не соответствующие реальности, робот терпит неудачу задолго до того, как «увидит» проблему. Настоящая проблема в том, что современные системы не созданы для мира, где данные могут быть галлюцинированными или манипулируемыми.
Существует растущий консенсус, отраженный в недавних инвестициях: чтобы роботы могли работать совместно и надежно, им понадобятся слои верификации, поддерживаемые блокчейном, для координации и обмена доверенной информацией. Как выразился один ведущий исследователь: «если ИИ — это мозг, а робототехника — тело, то координация — это нервная система».
Этот сдвиг не ограничивается робототехникой. Во всей области ИИ компании начинают внедрять проверяемость прямо в свои системы — от рамок управления для проверяемого ИИ до инфраструктуры, предназначенной для верификации моделей в блокчейне. ИИ больше не может безопасно функционировать без криптографического подтверждения подлинности своих данных, вычислений и результатов, а робототехника продолжает усиливать эту необходимость.
Доверительные данные напрямую заполняют этот пробел. Вместо того чтобы принимать показания сенсоров или сигналы окружающей среды за чистую монету, роботы могут проверять их криптографически, избыточно и в реальном времени. Когда каждое местоположение, вывод сенсора или вычисление можно доказать, а не предположить, автономия перестает быть актом веры. Она становится системой, основанной на доказательствах, способной противостоять подделкам, вмешательствам или дрейфу.
Проверка кардинально меняет структуру автономии. Роботы могут перепроверять данные, подтверждать вычисления, создавать доказательства выполненных задач и аудитировать решения, когда что-то идет не так. Они перестают молча наследовать ошибки и начинают активно отвергать искаженные входные данные. Будущее робототехники будет определяться не только масштабом, а машинами, которые могут доказать, где они были, что чувствовали, какую работу выполняли и как их данные менялись со временем.
Доверительные данные не только делают ИИ безопаснее; они делают возможной надежную автономию.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Робототехника разрушит ИИ, если мы сначала не решим проблему проверки данных
Источник: CryptoNewsNet Оригинальный заголовок: Robotics will break AI unless we fix data verification first | Opinion Оригинальная ссылка:
Резюме
Дебаты о масштабе против теории
В рамках этого года главной конференции по робототехнике собрались шесть самых влиятельных исследователей области, чтобы обсудить простой, но важный вопрос: Решит ли данные проблему робототехники и автоматизации?
Одни были сторонниками масштаба, утверждая, что огромные демонстрационные наборы данных и гигантские модели наконец-то дадут роботам что-то вроде физического здравого смысла. Другие — сторонники теории, настаивая, что физика и математические модели придают данным смысл и необходимы для реального понимания.
Обе стороны по сути правы в том, на что делают акцент. И обе тихо предполагают нечто, о чем едва упоминают: что данные, которыми питаются эти системы, можно доверять с самого начала. По мере того как роботы начинают перемещаться из тщательно контролируемых фабрик в дома, больницы и на улицы, это предположение становится опасным. Но прежде чем спорить о том, решат ли данные проблему робототехники, нам нужно задать более срочный вопрос: не сломает ли робототехника искусственный интеллект без проверяемого, неподдельного происхождения данных?
Когда робототехника выходит за пределы лаборатории, предположения рушатся
ИИ продолжает сталкиваться с трудностями в различении факта и вымысла. Недавнее исследование Стэнфордского университета показало, что даже 24 из самых продвинутых языковых моделей все еще не могут надежно отличить, что в мире истинно, а что — верит человек. В исследовании пользователь сообщил ИИ, что, по его мнению, люди используют только 10% своего мозга, что научно неправильно, но широко распространено. Затем пользователь спросил: «Какую долю нашего мозга я считаю используемой?», — модель должна распознать убеждение пользователя и ответить: «Вы считаете, что люди используют 10% своего мозга». Вместо этого ИИ игнорирует заявленное убеждение пользователя и исправляет его, настаивая, что люди используют 100% своего мозга.
Этот пример отражает основную проблему. Современные системы ИИ испытывают трудности с отделением фактической реальности от восприятия реальности человеком. Они часто путают свои знания с убеждениями собеседника, что становится серьезным ограничением в областях, требующих чувствительности к человеческой перспективе, таких как медицина, образование или личная помощь. Это вызывает ключевые опасения по поводу использования ИИ вне лабораторных условий, где он не способен адаптироваться к непредсказуемой и хаотичной реальности.
Авторитетная аудиторская и консалтинговая фирма была дважды оштрафована в этом году за указание ошибок, вызванных галлюцинациями ИИ, в официальных отчетах. Последний случай — план здравоохранения на 1,6 миллиона долларов для правительства Ньюфаундленда и Лабрадора в Канаде, включавший «по крайней мере четыре цитаты, которые не существуют или, по-видимому, не существуют». Однако галлюцинации в больших языковых моделях — не сбой; это системный результат обучения моделей (предсказанию следующего слова) и их оценки (бенчмарки, поощряющие угадывание вместо честности). OpenAI прогнозирует, что при сохранении текущих стимулов галлюцинации, скорее всего, сохранятся.
Когда галлюцинации выходят за пределы экрана и попадают в физический мир
Эти ограничения становятся гораздо более значимыми, когда ИИ внедряется в робототехнику. Галлюцинированная цитата в отчете может показаться неловкой, но галлюцинированный вход в роботе, движущемся по складу или дому, может быть опасным. В робототехнике нельзя позволить себе отвечать «достаточно близко». Реальный мир полон шума, нерегулярностей и крайних случаев, которые ни один тщательно подготовленный набор данных полностью не охватит.
Несовпадение между обучающими данными и условиями эксплуатации — именно поэтому масштаб один не сделает роботов более надежными. Можно подбросить модели миллионы примеров, но если эти примеры все еще являются очищенными абстракциями реальности, робот все равно потерпит неудачу в ситуациях, которые человек сочтет тривиальными. Предположения, заложенные в данные, становятся ограничениями в поведении.
И это еще до учета искажения данных, подделки сенсоров, дрейфа в оборудовании или простого факта, что два одинаковых устройства никогда не воспринимают мир одинаково. В реальности данные — не только несовершенны; они уязвимы. Робот, работающий на неподтвержденных входных данных, действует на вере, а не на истине.
Но по мере того как робототехника переходит в открытые, неконтролируемые среды, основная проблема — не только в отсутствии у моделей ИИ «здравого смысла». Дело в том, что у них отсутствует любой механизм определения достоверности данных, информирующих их решения. Разрыв между тщательно подготовленными наборами данных и реальными условиями — не просто вызов; это фундаментальная угроза автономной надежности.
Доверительные данные без доверия — основа надежной робототехники
Если робототехника когда-либо должна безопасно функционировать вне контролируемых условий, ей нужны не только лучшие модели или большие наборы данных. Ей нужны данные, которым можно доверять независимо от систем, их использующих. Современный ИИ воспринимает входные данные сенсоров и исходные модели как практически надежные. Но в физическом мире это предположение почти сразу рушится.
Именно поэтому сбои в робототехнике редко связаны с недостатком данных, а с данными, которые не отражают реальную среду, в которой работает робот. Когда входные данные неполные, вводящие в заблуждение или не соответствующие реальности, робот терпит неудачу задолго до того, как «увидит» проблему. Настоящая проблема в том, что современные системы не созданы для мира, где данные могут быть галлюцинированными или манипулируемыми.
Существует растущий консенсус, отраженный в недавних инвестициях: чтобы роботы могли работать совместно и надежно, им понадобятся слои верификации, поддерживаемые блокчейном, для координации и обмена доверенной информацией. Как выразился один ведущий исследователь: «если ИИ — это мозг, а робототехника — тело, то координация — это нервная система».
Этот сдвиг не ограничивается робототехникой. Во всей области ИИ компании начинают внедрять проверяемость прямо в свои системы — от рамок управления для проверяемого ИИ до инфраструктуры, предназначенной для верификации моделей в блокчейне. ИИ больше не может безопасно функционировать без криптографического подтверждения подлинности своих данных, вычислений и результатов, а робототехника продолжает усиливать эту необходимость.
Доверительные данные напрямую заполняют этот пробел. Вместо того чтобы принимать показания сенсоров или сигналы окружающей среды за чистую монету, роботы могут проверять их криптографически, избыточно и в реальном времени. Когда каждое местоположение, вывод сенсора или вычисление можно доказать, а не предположить, автономия перестает быть актом веры. Она становится системой, основанной на доказательствах, способной противостоять подделкам, вмешательствам или дрейфу.
Проверка кардинально меняет структуру автономии. Роботы могут перепроверять данные, подтверждать вычисления, создавать доказательства выполненных задач и аудитировать решения, когда что-то идет не так. Они перестают молча наследовать ошибки и начинают активно отвергать искаженные входные данные. Будущее робототехники будет определяться не только масштабом, а машинами, которые могут доказать, где они были, что чувствовали, какую работу выполняли и как их данные менялись со временем.
Доверительные данные не только делают ИИ безопаснее; они делают возможной надежную автономию.