Amazon збільшує ставку: Anthropic 25 мільярдів доларів США — 5 ГВт обчислювальних потужностей, прив’язка до AWS на трильйони

Згідно з офіційним повідомленням Anthropic та офіційним пресрелізом Amazon, обидві сторони 4/20 розширили стратегічне партнерство: Amazon додатково інвестує в Anthropic до 25 млрд доларів, а Anthropic зобов’язується, що витрати на AWS упродовж майбутніх десяти років перевищать 100 млрд доларів, а також отримає до 5 ГВт нового обсягу обчислювальних потужностей для тренування та розгортання моделей Claude.

Це друга хвиля масштабного розширення після того, як 4/7 Anthropic разом із Google та Broadcom отримали потужності TPU на 3,5 ГВт, і це також другий раунд «перегоничів за обчислювальні потужності» в контексті Anthropic — масштабного експансивного набору. Це є найбільшим зобов’язанням Amazon щодо однієї AI-компанії, через що оцінка Anthropic зафіксувалася на рівні 38 млрд доларів.

Структура інвестицій: 5 млрд — одразу, 20 млрд — під етапні віхи

Цю інвестицію Amazon розбив на два етапи: 5 млрд доларів у день оголошення — негайно, а ще до 20 млрд доларів — після прив’язки до «певних комерційних етапних віх» із подальшим поетапним виділенням. Додатково до вже вкладених 8 млрд доларів, верхня межа сукупних інвестицій Amazon в Anthropic досягне 33 млрд доларів.

Під час цього етапу 5 млрд доларів вкладатимуться в Anthropic за найновішою оцінкою 38 млрд доларів, і це вперше ця оцінка підтверджується через новий контракт за участі інвестора з першого ешелону.

Anthropic зобов’язується витратити на AWS понад 100 млрд упродовж десяти років

Як плату за домовленістю, Anthropic зобов’язується, що витрати на AWS упродовж майбутніх десяти років перевищать 100 млрд доларів; сфера охоплює наявні та майбутні покоління кастомних AI-чипів Trainium, а також «десятки мільйонів ядер» Graviton універсальних обчислювальних CPU.

Енді Джасі (CEO Amazon) у повідомленні заявив: «Anthropic зобов’язується упродовж наступних десяти років запускати великі мовні моделі на AWS Trainium, що відображає наші спільні досягнення на шляху кастомних чипів». Даріо Амодеї (CEO Anthropic) додав: «Коли користувачі кажуть нам, що Claude стає дедалі важливішим для їхньої роботи, ми повинні створити інфраструктуру, яка зможе йти в ногу зі зростанням попиту».

Маршрутна карта 5 ГВт потужностей: Trainium2, 3, 4 — усі серії законтрактовано

Ця угода охоплює три покоління чипів Trainium2, Trainium3 та Trainium4, і Anthropic також залишає за собою опцію купувати кастомні чипи наступних поколінь. З точки зору термінів: у 2026 році у ІІ кварталі відбудеться масштабне введення в експлуатацію потужностей Trainium2; великі обсяги Trainium3 будуть поступово відкриватися до кінця року, а загальна сума Trainium2 та Trainium3 за весь рік складе майже 1 ГВт.

Project Rainier — флагманський проєкт, який є частиною наявної співпраці між обома сторонами; цей навчальний кластер наразі розгорнув приблизно 500 тисяч чипів Trainium2 — це основна базова інфраструктура для тренування моделей Claude.

Від 9 до 30 млрд доходу: сплеск попиту Anthropic — рушій переговорів

У повідомленні Anthropic рідкісним чином розкрив власний фінансовий стан: щорічний дохід уже перевищив 30 млрд доларів; порівняно з 9 млрд доларів наприкінці 2025 року — за пів року він зріс більш ніж утричі. Кількість корпоративних клієнтів, які запускають Claude на AWS, також перевищила 100 тисяч; Claude на платформі Amazon Bedrock є однією з найбільш використовуваних сімей моделей.

Anthropic також визнав, що через різке зростання попиту інфраструктура відчуває тиск у пікові години, через що страждають доступність і продуктивність. Саме це є безпосереднім поштовхом до масштабного розширення обчислювальних потужностей у межах цієї угоди. Нещодавні суперечки щодо tokenizer у Claude Opus 4.7 та коригування лімітів використання також пов’язані з цією реальністю — «інфраструктура відчуває нестачу ресурсів».

Зв’язка «трьох сил» з потужностями: AWS, Google, а також власні чипи — синхронно рухаються вперед

Додатково до 3,5 ГВт TPU потужностей у рамках співпраці Anthropic із Broadcom і Google, оголошеної на початку квітня, Anthropic наразі одночасно зафіксував два маршрути кастомних чипів — AWS Trainium і Google TPU — та зберігає довгострокову опцію для власних прискорювачів. Це контрастує з маршрутом OpenAI, який іде шляхом «переважна залежність від Microsoft Azure, а нещодавно — розширення AWS».

Для тайванської напівпровідникової ланки постачання масштабне нарощування виробництва Trainium2–Trainium4 означає, що Marvell, TSMC (передове пакування) та постачальники пам’яті HBM упродовж найближчих трьох-п’яти років продовжать приймати замовлення на кастомні чипи AWS.

Грунт потужностей за «гонкою» до IPO

Це повідомлення також підсилює основу історії для виходу Anthropic на біржу. У нещодавніх звітах про підготовку IPO йдеться про те, що щорічний дохід OpenAI перевищив 25 млрд доларів, а Anthropic у відповідь наздоганяє — з 19 млрд доларів; розкрито, що різниця в доходах між двома компаніями скорочується. Згідно з офіційними оголошеннями, щорічний дохід Anthropic уже досяг 30 млрд доларів, тож різниця скорочується ще більше.

Для інвесторів значення обіцянки Amazon полягає не в сумі однієї операції, а в «глибокій прив’язці на 100 млрд доларів витрат AWS упродовж десяти років», яка дає ринку чіткі орієнтири щодо забезпечення Anthropic обчислювальними потужностями та довгострокової структури витрат. Project Glasswing — модель Mythos із високим порогом, а також подальші потужності для тренування в серії Claude 4.x будуть підтримані цими новими 5 ГВт потужностей.

Ця стаття «Amazon збільшує інвестиції в Anthropic на 25 млрд доларів: 5 ГВт потужностей, прив’язка до AWS на 100 млрд» вперше з’явилася на сайті 鏈新聞 ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Засновник AI-стартапу в сфері ядерної енергетики Fermi пішов у відставку та закликав продати компанію: капіталізація за пів року впала на 83%

Bloomberg повідомляє, що AI-стартап у сфері ядерної енергетики Fermi 18 квітня було усунено з посади співзасновника та CEO Тобі Нойгебауера, а того ж дня CFO Майлз Еверсон залишив компанію. Нойгебауер також публічно закликав продати компанію. До IPO не було жодної виручки, перший контракт із hyperscaler не було укладено, а ціна акцій з піку 2025 року приблизно на 20 мільярдів доларів США впала до 3,4 мільярда доларів США станом на 20 квітня; капіталізація за пів року зменшилася на 83%. Перехідне щоденне керування операціями через Office of the CEO демонструє розрив між наративом і реальними підписаними контрактами.

ChainNewsAbmedia5хв. тому

Anthropic Q1 витрати на лобіювання 1,6 млн доларів США — рекорд: суперечка з Пентагоном поширюється на Вашингтон

Згідно з розкриттями Axios, витрати Anthropic на лобіювання у Вашингтоні у 1-му кварталі сягнули 1,6 млн доларів США, встановивши новий максимум за квартал; OpenAI у той самий період — 1 млн доларів США, що також є рекордом. Обидві компанії синхронно підвищили бюджет, що свідчить: індустрія ШІ перейшла від технічних дискусій до боротьби за інтереси на рівні Конгресу, а теми включають закупівлі, експортні обмеження, політики щодо прийнятного використання тощо. Також Anthropic найняла Ballard Partners для підвищення охоплення.

ChainNewsAbmedia7хв. тому

Маск викупив стартап із AI Cursor із премією в 60 мільярдів доларів? Стратегічне планування перед IPO SpaceX

SpaceX оголосила про укладення великої угоди з Cursor і планує придбати Cursor за 6 млрд доларів США або придбати результати співпраці за 1 млрд доларів США. Оцінка Cursor перевищує 5 млрд доларів США, компанія шукає 200 млн доларів США фінансування; серед інвесторів — Nvidia та Andreessen Horowitz. Цей крок узгоджується з тим, що SpaceX і xAI незабаром мають об’єднатися та провести IPO; поєднання інструментів Cursor і обчислювальних потужностей SpaceX має підвищити генерацію коду та автоматизовану розробку, або ж створити тиск на OpenAI, Anthropic, потенційно збільшивши технологічний розрив.

ChainNewsAbmedia27хв. тому

OpenClaw Releases v2026.4.20 with Kimi K2.6 as Default Model

Повідомлення Gate News, 21 квітня — OpenClaw, платформа відкритих ШІ-агентів із відкритим кодом, випустила v2026.4.20 20 квітня, представивши суттєві оновлення перемикання моделі за замовчуванням, обробки контрактів плагінів і оптимізації сховища шлюзу. Випуск перемикає модель за замовчуванням для вбудованих каналів Moonshot, вебпошуку та мультимодального розуміння на Kimi K2.6, зберігаючи зворотну сумісність із Kimi K2.5. Moonshot тепер дозволяє thinking.keep = "all" виключно на Kimi K2.6; інші моделі Moonshot або запити з фіксованими параметрами tool_choice матимуть поле автоматично видалене. Оновлення додає ступінчасте ціноутворення для оцінки вартості з вбудованим ціноутворенням для Kimi K2.6 і K2.5, що дає змогу виставляти рахунки напряму за використання токенів. Критичне виправлення скасовує суворий ID-контракт, запроваджений 14 квітня, який вимагав, щоб plugin info.id збігався із зареєстрованими slot ID, і через це плагіни контекстного рушія від сторонніх розробників на кшталт lossless-claw відхилялися на кожному раунді. Типове значення тайм-ауту доставки тексту BlueBubbles збільшено з 10 до 30 секунд, а macOS 26 Tahoe тепер пріоритезує Private API навіть коли його вимкнено, запобігаючи тихій втраті повідомлень. З боку операцій Cron тепер розділяє стан виконання під час runtime на jobs-state.json, зберігаючи jobs.json для визначень задач, дружніх до git. Сховище сесій забезпечує ліміти входу за замовчуванням і обрізання за часом під час запуску, запобігаючи накопиченню пам’яті в шлюзі та виконавці. Майстер Onboarding переробив інструкції з безпеки жовтими попереджувальними банерами та розділеними списками, додав анімації завантаження для початкового завантаження каталогу моделі та включив заповнювачі в полях введення API key. Безпеку додатково посилили для розсилок Gateway WebSocket, дозволів на сполучення пристроїв і блокування ін’єкції workspace .env для ключів OPENCLAW_*.

GateNews1год тому

OpenAI запускає модель ChatGPT Images 2.0 із розширеними можливостями для візуальних завдань

Повідомлення Gate News, 21 квітня — OpenAI представила ChatGPT Images 2.0 22 квітня, суттєво розширивши можливості обробки складних візуальних завдань. Модель покращує розуміння інструкцій, розміщення об’єктів і вираження взаємовідносин, а також високощільне

GateNews1год тому
Прокоментувати
0/400
Немає коментарів