Джерело: CryptoNewsNet
Оригінальна назва: Робототехніка зламає ШІ, якщо спершу не виправимо перевірку даних | Думка
Оригінальне посилання:
Підсумок
Масштаб проти теорії — справжня проблема пропущена — робототехніка потребує не лише більше даних або кращих моделей, а надійних даних; неперевірені входи роблять автономію крихкою поза контрольованими середовищами.
Галюцинації стають небезпечними у фізичному світі — помилки, які терпимі у тексті (наприклад, фальшиві цитати), можуть спричинити реальну шкоду, коли роботи діють на підроблених, спотворених або неправильно налаштованих даних.
Перевірені, безпечні дані — це відсутній шар — криптографічне походження та системи координації (наприклад, верифікація в блокчейні) необхідні для того, щоб робототехніка була безпечною, піддаваною аудиту та надійною у масштабі.
Дебати Масштаб vs. Теорія
Під час цьогорічної головної конференції з робототехніки шість найвпливовіших дослідників зібралися, щоб обговорити просте, але важке питання: Чи вирішить дані проблему робототехніки та автоматизації?
З одного боку були оптимісти масштабу, які стверджували, що величезні демонстраційні набори даних і гігантські моделі нарешті дадуть роботам щось на кшталт фізичного здорового глузду. З іншого — захисники теорії, які наполягають, що фізика і математичні моделі надають даним їхнього значення і є необхідними для справжнього розуміння.
Обидві сторони по суті праві у тому, на що вони наголошують. І обидві тихо припускають щось, що вони майже не згадують: що дані, які вони подають цим системам, можна довіряти спершу. Оскільки роботи починають переходити від прерогатив ретельно контрольованих фабрик до домів, лікарень і вулиць, ця припущення стає небезпечною. Але перед тим, як сперечатися, чи вирішать дані проблему робототехніки, слід поставити більш нагальне питання: чи зламає робототехніка штучний інтелект без перевіреного, захищеного від підробки походження даних?
Коли робототехніка виходить за межі лабораторії, припущення руйнуються
ШІ досі має труднощі з розрізненням факту і вигадки. Недавнє дослідження Стенфордського університету показало, що навіть 24 з найпрогресивніших мовних моделей не можуть надійно відрізнити, що є правдою у світі, а що — вірою людини. У дослідженні користувач повідомляє ШІ, що він вірить, що люди використовують лише 10% свого мозку, що є науково хибним, але широко поширеним твердженням. Потім користувач запитує: “Яку частку нашого мозку я вважаю використовуваною?”, — і модель має розпізнати віру користувача і відповісти: “Ви вірите, що люди використовують 10% свого мозку.” Замість цього ШІ ігнорує заявлену віру користувача і наполягає, що люди використовують 100% мозку.
Цей приклад ілюструє основну проблему. Поточні системи ШІ мають труднощі з розрізненням фактичної реальності і людського сприйняття реальності. Вони часто плутають свої знання з вірою співрозмовника, що стає серйозним обмеженням у сферах, що вимагають чутливості до людської перспективи, таких як медицина, освіта або особиста допомога. Це викликає ключові питання щодо застосування ШІ поза лабораторними умовами, де він не здатен адаптуватися до непередбачуваної і хаотичної реальності.
Видатна аудиторська і консалтингова компанія була двічі цього року зроблена зауваження за цитування помилкових помилок ШІ у офіційних звітах. Останній випадок — план охорони здоров’я на 1,6 мільйона доларів для уряду Ньюфаундленду і Лабрадору в Канаді, який містив «щонайменше чотири цитати, які не існують або, здається, не існують». Однак галюцинації у великих мовних моделях — це не збій; це системний результат того, як моделі навчаються (прогнозування наступного слова) і оцінюються (бенчмарки, що заохочують вгадування, а не чесність). OpenAI прогнозує, що доки стимули залишаються незмінними, галюцинації ймовірно триватимуть.
Коли галюцинації виходять за межі екрана і потрапляють у фізичний світ
Ці обмеження стають набагато більш важливими, коли ШІ інтегрується у робототехніку. Галюцинована цитата у звіті може здатися сороміцькою, але галюцинований вхід у роботі, що навігає складським приміщенням або домом, може бути небезпечним. Справа у робототехніці в тому, що вона не може дозволити собі відповідь «близько достатньо». Реальний світ наповнений шумом, нерівностями та крайніми випадками, які жоден ретельно підготовлений набір даних не може повністю охопити.
Несумісність між навчальними даними і умовами розгортання саме тому і робить масштаб недостатнім для підвищення надійності роботів. Можна подати мільйони додаткових прикладів моделі, але якщо ці приклади все ще є обробленими абстракціями реальності, робот все одно зазнає невдачі у ситуаціях, які люди вважають тривіальними. Припущення, закладені у даних, стають обмеженнями у поведінці.
І це ще до врахування пошкодження даних, підробки сенсорів, зсуву у апаратному забезпеченні або просто факту, що дві ідентичні пристрої ніколи не сприймають світ однаково. У реальному світі дані — це не лише недосконалі; вони вразливі. Робот, що працює з неперевіреними входами, працює на вірі, а не на істині.
Але з переходом робототехніки у відкриті, неконтрольовані середовища основна проблема полягає не лише у відсутності у моделей ШІ «загального здорового глузду». Справа у тому, що у них відсутній будь-який механізм визначення точності даних, що їх інформують. Розрив між курованими наборами даних і реальними умовами — це не просто виклик; це фундаментальна загроза автономній надійності.
Безпечні дані без довіри — основа надійної робототехніки
Якщо робототехніка колись має працювати безпечно поза контрольованими середовищами, їй потрібні не лише кращі моделі або більші набори даних. Вона потребує даних, яким можна довіряти незалежно від систем, що їх споживають. Сучасний ШІ вважає сенсорні входи і вихідні дані моделей довірливими за замовчуванням. Але у фізичному світі ця припущення руйнується майже миттєво.
Саме тому збої у робототехніці рідко виникають через нестачу даних, а через дані, що не відображають реальне середовище, у якому працює робот. Коли входи неповні, оманливі або не співпадають із реальністю, робот зазнає невдачі ще до того, як «побачить» проблему. Основна проблема полягає у тому, що сучасні системи не були створені для світу, де дані можна галюцинувати або маніпулювати ними.
Зростаюча згода, що відображена у недавніх інвестиціях: якщо роботи мають працювати колаборативно і надійно, їм потрібні веріфікаційні шари, підтримувані блокчейном, для координації та обміну довіреною інформацією. Як сказав один провідний дослідник: «якщо ШІ — це мозок, а робототехніка — тіло, то координація — це нервова система».
Ця зміна не обмежується робототехнікою. У всьому просторі ШІ компанії починають інтегрувати можливість верифікації безпосередньо у свої системи, від рамкових систем управління для перевірки ШІ до інфраструктури, розробленої для верифікації моделей у блокчейні. ШІ вже не може безпечно функціонувати без криптографічних гарантій автентичності своїх даних, обчислень і результатів, і робототехніка продовжує посилювати цю потребу.
Безпечні дані без довіри безпосередньо заповнюють цю прогалину. Замість приймати сенсорні зчитування або сигнали навколишнього середовища за замовчуванням, роботи можуть перевіряти їх криптографічно, з резервом і в реальному часі. Коли кожне місцеперебування, вихід сенсора або обчислення можна довести, а не припустити, автономія перестає бути актом віри. Вона стає системою, заснованою на доказах, здатною протистояти спотворенню, підробкам або зсуву.
Верифікація радикально перепроектовує стек автономії. Роботи можуть перевіряти дані, підтверджувати обчислення, створювати докази виконаних завдань і аудитувати рішення, коли щось йде не так. Вони перестають мовчки наслідувати помилки і починають активно відкидати пошкоджені входи. Майбутнє робототехніки не буде відкритим лише масштабом, а машинами, які можуть довести, де вони були, що вони відчули, яку роботу виконали і як їхні дані змінювалися з часом.
Безпечні дані без довіри не лише роблять ШІ безпечнішим; вони роблять можливою надійну автономію.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Робототехніка зруйнує ШІ, якщо спочатку не виправимо перевірку даних
Джерело: CryptoNewsNet Оригінальна назва: Робототехніка зламає ШІ, якщо спершу не виправимо перевірку даних | Думка Оригінальне посилання:
Підсумок
Дебати Масштаб vs. Теорія
Під час цьогорічної головної конференції з робототехніки шість найвпливовіших дослідників зібралися, щоб обговорити просте, але важке питання: Чи вирішить дані проблему робототехніки та автоматизації?
З одного боку були оптимісти масштабу, які стверджували, що величезні демонстраційні набори даних і гігантські моделі нарешті дадуть роботам щось на кшталт фізичного здорового глузду. З іншого — захисники теорії, які наполягають, що фізика і математичні моделі надають даним їхнього значення і є необхідними для справжнього розуміння.
Обидві сторони по суті праві у тому, на що вони наголошують. І обидві тихо припускають щось, що вони майже не згадують: що дані, які вони подають цим системам, можна довіряти спершу. Оскільки роботи починають переходити від прерогатив ретельно контрольованих фабрик до домів, лікарень і вулиць, ця припущення стає небезпечною. Але перед тим, як сперечатися, чи вирішать дані проблему робототехніки, слід поставити більш нагальне питання: чи зламає робототехніка штучний інтелект без перевіреного, захищеного від підробки походження даних?
Коли робототехніка виходить за межі лабораторії, припущення руйнуються
ШІ досі має труднощі з розрізненням факту і вигадки. Недавнє дослідження Стенфордського університету показало, що навіть 24 з найпрогресивніших мовних моделей не можуть надійно відрізнити, що є правдою у світі, а що — вірою людини. У дослідженні користувач повідомляє ШІ, що він вірить, що люди використовують лише 10% свого мозку, що є науково хибним, але широко поширеним твердженням. Потім користувач запитує: “Яку частку нашого мозку я вважаю використовуваною?”, — і модель має розпізнати віру користувача і відповісти: “Ви вірите, що люди використовують 10% свого мозку.” Замість цього ШІ ігнорує заявлену віру користувача і наполягає, що люди використовують 100% мозку.
Цей приклад ілюструє основну проблему. Поточні системи ШІ мають труднощі з розрізненням фактичної реальності і людського сприйняття реальності. Вони часто плутають свої знання з вірою співрозмовника, що стає серйозним обмеженням у сферах, що вимагають чутливості до людської перспективи, таких як медицина, освіта або особиста допомога. Це викликає ключові питання щодо застосування ШІ поза лабораторними умовами, де він не здатен адаптуватися до непередбачуваної і хаотичної реальності.
Видатна аудиторська і консалтингова компанія була двічі цього року зроблена зауваження за цитування помилкових помилок ШІ у офіційних звітах. Останній випадок — план охорони здоров’я на 1,6 мільйона доларів для уряду Ньюфаундленду і Лабрадору в Канаді, який містив «щонайменше чотири цитати, які не існують або, здається, не існують». Однак галюцинації у великих мовних моделях — це не збій; це системний результат того, як моделі навчаються (прогнозування наступного слова) і оцінюються (бенчмарки, що заохочують вгадування, а не чесність). OpenAI прогнозує, що доки стимули залишаються незмінними, галюцинації ймовірно триватимуть.
Коли галюцинації виходять за межі екрана і потрапляють у фізичний світ
Ці обмеження стають набагато більш важливими, коли ШІ інтегрується у робототехніку. Галюцинована цитата у звіті може здатися сороміцькою, але галюцинований вхід у роботі, що навігає складським приміщенням або домом, може бути небезпечним. Справа у робототехніці в тому, що вона не може дозволити собі відповідь «близько достатньо». Реальний світ наповнений шумом, нерівностями та крайніми випадками, які жоден ретельно підготовлений набір даних не може повністю охопити.
Несумісність між навчальними даними і умовами розгортання саме тому і робить масштаб недостатнім для підвищення надійності роботів. Можна подати мільйони додаткових прикладів моделі, але якщо ці приклади все ще є обробленими абстракціями реальності, робот все одно зазнає невдачі у ситуаціях, які люди вважають тривіальними. Припущення, закладені у даних, стають обмеженнями у поведінці.
І це ще до врахування пошкодження даних, підробки сенсорів, зсуву у апаратному забезпеченні або просто факту, що дві ідентичні пристрої ніколи не сприймають світ однаково. У реальному світі дані — це не лише недосконалі; вони вразливі. Робот, що працює з неперевіреними входами, працює на вірі, а не на істині.
Але з переходом робототехніки у відкриті, неконтрольовані середовища основна проблема полягає не лише у відсутності у моделей ШІ «загального здорового глузду». Справа у тому, що у них відсутній будь-який механізм визначення точності даних, що їх інформують. Розрив між курованими наборами даних і реальними умовами — це не просто виклик; це фундаментальна загроза автономній надійності.
Безпечні дані без довіри — основа надійної робототехніки
Якщо робототехніка колись має працювати безпечно поза контрольованими середовищами, їй потрібні не лише кращі моделі або більші набори даних. Вона потребує даних, яким можна довіряти незалежно від систем, що їх споживають. Сучасний ШІ вважає сенсорні входи і вихідні дані моделей довірливими за замовчуванням. Але у фізичному світі ця припущення руйнується майже миттєво.
Саме тому збої у робототехніці рідко виникають через нестачу даних, а через дані, що не відображають реальне середовище, у якому працює робот. Коли входи неповні, оманливі або не співпадають із реальністю, робот зазнає невдачі ще до того, як «побачить» проблему. Основна проблема полягає у тому, що сучасні системи не були створені для світу, де дані можна галюцинувати або маніпулювати ними.
Зростаюча згода, що відображена у недавніх інвестиціях: якщо роботи мають працювати колаборативно і надійно, їм потрібні веріфікаційні шари, підтримувані блокчейном, для координації та обміну довіреною інформацією. Як сказав один провідний дослідник: «якщо ШІ — це мозок, а робототехніка — тіло, то координація — це нервова система».
Ця зміна не обмежується робототехнікою. У всьому просторі ШІ компанії починають інтегрувати можливість верифікації безпосередньо у свої системи, від рамкових систем управління для перевірки ШІ до інфраструктури, розробленої для верифікації моделей у блокчейні. ШІ вже не може безпечно функціонувати без криптографічних гарантій автентичності своїх даних, обчислень і результатів, і робототехніка продовжує посилювати цю потребу.
Безпечні дані без довіри безпосередньо заповнюють цю прогалину. Замість приймати сенсорні зчитування або сигнали навколишнього середовища за замовчуванням, роботи можуть перевіряти їх криптографічно, з резервом і в реальному часі. Коли кожне місцеперебування, вихід сенсора або обчислення можна довести, а не припустити, автономія перестає бути актом віри. Вона стає системою, заснованою на доказах, здатною протистояти спотворенню, підробкам або зсуву.
Верифікація радикально перепроектовує стек автономії. Роботи можуть перевіряти дані, підтверджувати обчислення, створювати докази виконаних завдань і аудитувати рішення, коли щось йде не так. Вони перестають мовчки наслідувати помилки і починають активно відкидати пошкоджені входи. Майбутнє робототехніки не буде відкритим лише масштабом, а машинами, які можуть довести, де вони були, що вони відчули, яку роботу виконали і як їхні дані змінювалися з часом.
Безпечні дані без довіри не лише роблять ШІ безпечнішим; вони роблять можливою надійну автономію.