Хинтон, Бенжио и другие крупные деятели единогласно требуют "запретить разработку AGI"... Мировое общественное мнение также поддерживает регулирование.

robot
Генерация тезисов в процессе

Гиганты ИИ призывают приостановить разработку AGI, мировое общественное мнение поддерживает регулирование

AI-лидеры Джеффри Хинтон и Ёсуа Бенжио, а также сотни ученых, технологических руководителей, художников и политиков выпустили заявление с призывом остановить разработку искусственного общего интеллекта (AGI). Они утверждают, что AGI может представлять серьезную угрозу для человечества и должен быть запрещен до тех пор, пока безопасность, управляемость и общественное согласие не будут обеспечены.

Заявление было опубликовано 22 октября на сайте некоммерческого Института будущего жизни. В нем подчеркивается, что “разработка сверхинтеллекта должна быть запрещена без широкого научного консенсуса и общественной поддержки.”

Это предупреждение отражено в недавних опросах общественного мнения. Опрос среди 2000 взрослых американцев показал, что 64% поддерживают задержку или полное запрещение разработки сверхчеловеческого ИИ, что свидетельствует о глубоком общественном беспокойстве по поводу этой технологии.

Хинтон, который в прошлом году получил Нобелевскую премию по физике за свои исследования в области ИИ, разработал алгоритм обратного распространения ошибки, который имеет решающее значение для обучения нейронных сетей. Бенгио, который разделил премию Тьюринга с Хинтоном, был пионером методов встраивания и механизмов внимания, лежащих в основе современных больших языковых моделей.

Заявление также было подписано 4 другими лауреатами Нобелевской премии, многочисленными видными профессорами, соучредителем Apple Стивом Возняком и такими личностями, как принц Гарри, Меган Маркл и Ричард Брэнсон, что указывает на распространение призывов к регулированию ИИ в обществе.

Заметим, что два действующих сотрудника OpenAI и Anthropic также подписали, несмотря на потенциальные последствия для стратегий разработки AGI их компаний.

Это следует за открытым письмом от июня 2022 года, в котором бывшие и нынешние сотрудники ведущих лабораторий ИИ призвали к большей корпоративной прозрачности и ответственности в отношении рисков ИИ.

Единый голос всемирно известных исследователей и общественных лидеров, призывающий остановить развитие ИИ, подчеркивает растущую важность превентивного контроля и социальной проверки над безусловным технологическим прогрессом. Поскольку влияние ИИ расширяется в повседневной жизни и промышленности, человечество должно установить новые стандарты развития, сосредоточенные на правах и безопасности.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 1
  • Репост
  • Поделиться
комментарий
0/400
GasGasGasBrovip
· 9ч назад
Так ученые тоже начали паниковать?
Посмотреть ОригиналОтветить0
  • Закрепить