Только что заметил интересные детали о Саме Альтмане и его деятельности с OpenAI. Конфликт между тем, что он говорит публично, и тем, что он делает за кулисами, впечатляет.



Начнем с недавнего инцидента в Сан-Франциско 10 апреля около 03:40. 20-летний мужчина по имени Даниэль Морино-Гама бросил зажигательную бомбу в дверь квартиры Альтмана. Воспламенение произошло у входа, он затем сбежал. Около часа спустя тот же человек появился рядом с офисом OpenAI и угрожал поджечь снова, прежде чем его задержали.

Два дня спустя, 12 апреля, в 01:40, рядом с домом Альтмана на холме припарковалась Honda. Пассажир высунул руку из окна и выстрелил в дом. Камеры зафиксировали номерной знак. Позже задержали двух подозреваемых, оба обвинены в неосторожном стрельбе.

Интересно, что подозреваемый в первой атаке, Морино-Гама, — человек, озабоченный вопросами передовых ИИ. Он писал в соцсетях, ссылаясь на "Дюну", чтобы утверждать, что неудачи в согласовании ИИ — риск для существования человечества. Критиковал технологических лидеров, рискующих судьбой человечества ради идеи "постгуманизма".

После первой атаки Альтман написал блог, признавая моральную позицию оппонентов, и призвал к публичным дискуссиям, "меньше прямых и сравнительных". Он также ответил на глубокую статью The New Yorker, опубликованную незадолго до атаки, написав: "Я переоценил силу нарратива в СМИ и недооценил слова". Через два дня его дом был снова обстрелян.

Это связано с более широкой тенденцией. В декабре 2024 года CEO UnitedHealthcare был застрелен у отеля. Подозреваемый — выпускник престижного университета, оставивший сообщение с критикой индустрии страхового бизнеса. Этот случай вызвал необычную реакцию в соцсетях, многие выразили сочувствие преступнику.

После этого безопасность руководителей стала рассматриваться не как "привилегия", а как "необходимость для выживания". По данным Fortune, количество физических нападений на топ-менеджеров крупных компаний выросло на 225% с 2023 года. В S&P 500 расходы на безопасность руководства составили 33.8%, по сравнению с 23.3% в 2020 году.

Средние расходы компаний на безопасность — 130 тысяч долларов, выросшие на 20% по сравнению с прошлым годом и удвоившиеся за пять лет. Индустрия ИИ — самый яркий пример этого тренда.

Расходы на безопасность CEO ведущих технологических компаний в 2024 году превысили 45 миллионов долларов. Только Марк Цукерберг потратил более 27 миллионов, что больше, чем совокупные расходы CEO Apple, Google и четырех других компаний. Дженсен Хуанг из NVIDIA потратил 3.5 миллиона долларов в 2025 году, увеличившись на 59% за год. Сунэй Пичай из Google — 8.27 миллиона, рост на 22%.

Но у индустрии ИИ есть то, чего нет у других — создатели сами верят, что технология может разрушить цивилизацию. Исследование Pew Research 2025 года среди 28,3 тысяч человек по всему миру показало, что только 16% рады ИИ, а 34% — обеспокоены. Более того, чем выше образование и доход, тем больше опасений по поводу неконтролируемого ИИ.

Недавно дом члена городского совета Индианаполиса Рона Джибсона был обстрелян 13 раз. Его 8-летний сын проснулся от звука выстрелов. На двери лежала рукописная записка: "Запрещено создавать дата-центры". ФБР провело проверку. Исследователи из Джорджтаунского университета отметили, что дата-центры становятся мишенями для радикальных групп, противящихся технологиям и правительству.

Эти страхи не являются секретом в индустрии, но открыто не обсуждаются. Альтман построил бункер в Вайоминге в 2016 году — в тот же год, когда OpenAI был основан. В то время как он говорил на сцене, что ИИ — величайшая возможность для человечества, он одновременно накапливал оружие и готовился к гражданским силам.

Основная идея OpenAI за последние пять лет — подчеркнуть угрозу "уровня существования" AGI, чтобы привлечь внимание правительства к регулированию, убедить инвесторов в рисках и заставить индустрию понять, что конкуренция — вопрос жизни и смерти. Фраза "Это самая опасная технология в истории человечества", после публикации, выйдет за рамки технологической сферы, будет передаваться дальше и иногда превращаться в приказ к действию.

Морино-Гама написал в Instagram: "Экспоненциальный прогресс в сочетании с несогласованностью — риск для выживания". Эта аргументация основана на ключевых документах в области безопасности ИИ, поддержанных или одобренных OpenAI.

27 февраля этого года OpenAI подписала контракт с Министерством обороны США, позволяющий армии использовать ChatGPT в секретных сетях обороны. В тот же день Альтман выразил поддержку ограничений на военное использование ИИ, как у Anthropic.

Удаление ChatGPT выросло на 295% за один день, отзывы с одной звездой — на 775%. Акция QuitGPT собрала более 1,5 миллиона участников. 21 марта около 200 протестующих прошли по Сан-Франциско, требуя от CEO трех компаний приостановить развитие продвинутых ИИ. В то же время в Лондоне прошел крупнейший в истории протест против ИИ.

Бункеры и охрана Альтмана созданы для противостояния двум разным видам угроз: внешним и внутренним. Он серьезно относится к обеим, но публично признает только одну.

Глубокая статья The New Yorker, опубликованная на неделе после первой атаки, основана на интервью более 100 свидетелей. Основные обвинения — только два слова: "недостоверно". В статье цитируют бывшего члена совета OpenAI, называющего Альтмана "антисоциальной личностью" и "недостоверным в правде". Многие коллеги отмечают, что он неоднократно менял позицию по вопросам безопасности ИИ и перестраивал власть по мере необходимости.

В своем посте Альтман признает, что склонен избегать конфликтов. Он создает публичный нарратив, что "ИИ — угроза уровня существования", чтобы привлекать финансирование и вести переговоры по регулированию. Но в итоге этот инструмент вышел из-под контроля, обернулся против него и вернулся к его дверям.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить