Meta: Можна купити трильйони обчислювальної потужності, але не зможеш утримати ключових людей

Написано: Ada, Deep Tide TechFlow

Понг Жу Мін ще не встиг зайняти своє місце в Meta, як вже пішов.

У липні 2025 року Зукерберг за допомогою багатомільйонного довгострокового пакету компенсацій на суму понад 200 мільйонів доларів викрав цього найзатребуванішого китайсько-американського інженера у галузі AI інфраструктури з Apple. Понг Жу Мін був призначений у суперінтелектуальну лабораторію Meta, щоб відповідати за створення базової інфраструктури для наступного покоління AI-моделей.

Через 7 місяців OpenAI його переманила.

За повідомленням The Information, OpenAI вела багатомісячну кампанію з вербування Понг Жу Міна. Хоча він казав колегам, що «дуже задоволений роботою в Meta», зрештою обрав залишити компанію. За даними Bloomberg, його компенсаційний пакет у Meta був прив’язаний до досягнення певних цілей, і ранній вихід означав відмову від більшої частини невикористаних акцій.

2 мільярди доларів — не достатньо для 7 місяців лояльності.

Це не просто історія про зміну роботи.

Один вихід — сигнал для багатьох

Понг Жу Мін не перший, хто пішов.

Минулого тижня керівник платформи розробників у суперінтелектуальній лабораторії Meta Mat Velloso також оголосив про свій відхід. Цей фахівець у липні минулого року покинув Google DeepMind і приєднався до Meta, пробув менше 8 місяців. Ще раніше, у листопаді 2025 року, лауреат премії Тюрінга, головний науковець у галузі AI Yann LeCun, оголосив про вихід і заснування власного стартапу, що працює над «світовою моделлю». Також нещодавно офіційно пішов віце-президент з досліджень генеративного AI у Meta Russ Salakhutdinov, один із ключових учнів Geoffrey Hinton.

Щоб зрозуміти, чому зростає втеча талантів у Meta AI, потрібно спершу оцінити, наскільки сильно постраждала модель Llama 4.

У квітні 2025 року Meta гучно презентувала серію моделей Llama 4 — Scout і Maverick. Офіційні дані виглядають вражаюче: у ключових бенчмарках MATH-500 і GPQA Diamond вона повністю перевершила GPT-4.5 і Claude Sonnet 3.7.

Проте ця амбіційна модель швидко «виявилася» у сторонніх незалежних тестах у відкритому доступі, і реальні можливості генералізації та логічного мислення виявилися значно гіршими за заявлені. У відповідь на гостру критику команда головного науковця Yann LeCun зізналася, що під час тестування використовували різні версії моделі для різних наборів тестів, щоб покращити кінцевий результат.

У суворій академічній і інженерній спільноті це — непрощенний проступок. Іншими словами, команда натренувала Llama 4 як «маленького школяра», що вміє розв’язувати лише старі завдання, а не справжнього передового інтелекту. Вона може показати високі результати у математичних тестах або програмуванні, але це — різні моделі.

У AI-спільноті це називається «збір ягід» (чері-пікінг), у системі освіти — «заміна іспиту».

Для Meta, яка позиціонує себе як «лідер у відкритому коді», ця криза безпосередньо зруйнувала найцінніший актив — довіру розробників. Це коштувало їй втрати довіри до основної команди GenAI, що призвело до масових призначень нових керівників і посилення контролю над ключовими підрозділами.

Загалом, Meta витратив від 14,3 до 15 мільярдів доларів на купівлю 49% акцій компанії Scale AI, призначив 28-річного генерального директора Александра Ванга головним AI-офіцером, створивши лабораторію суперінтелекту (MSL). Лауреат премії Тюрінга LeCun тепер звітує перед цим молодим керівником. У жовтні Meta скоротила близько 600 посад у MSL, включно з командою FAIR, яку заснував LeCun.

А запланована на літо 2025 року модель Llama 4 Behemoth була відкладена кілька разів — з літа на осінь, і нарешті відкладена без визначеного терміну.

Meta переключилася на розробку нових моделей під кодовими назвами «Авокадо» (для текстових моделей) і «Манго» (для зображень і відео). За повідомленнями, «Авокадо» має конкурувати з GPT-5 і Gemini 3 Ultra. Спочатку планувалося завершити до кінця 2025 року, але через невідповідність результатів тестів і оптимізацій перенесено на перший квартал 2026. Meta розглядає можливість закритого релізу, відмовившись від відкритого коду серії Llama.

Meta зробила дві фатальні помилки у своїх AI-моделях: перша — фальсифікація benchmark, що зруйнувало довіру спільноти; друга — перетворення дослідницького підрозділу FAIR у продуктову команду, орієнтовану на квартальні KPI. Разом ці помилки — корінь нинішньої втрати кадрів.

Самостійна розробка чипів: ще одна вразлива ланка

Талантів біжить, і з чипами теж проблеми.

За повідомленням The Information, минулого тижня Meta припинила внутрішній проект розробки найсучасніших AI-обчислювальних чипів.

План самостійної розробки чипів називається MTIA (Meta Training and Inference Accelerator). Початковий план амбітний: версії v4 («Santa Barbara»), v5 («Olympus») і v6 («Universal Core») мали бути випущені у 2026–2028 роках. Olympus передбачався як перший чип Meta на базі 2-нм архітектури, що поєднуватиме високопродуктивне тренування і реальне швидке виведення. Мета — замінити NVIDIA у тренувальних кластерах Meta.

Зараз цей найсучасніший тренувальний чип скасовано.

Meta не залишилася без прогресу: на ринку вже є результати у сфері виведення. Чип «Iris» (MTIA v3) вже широко використовується у дата-центрах Meta для Facebook Reels і Instagram, зменшивши загальні витрати на 40–44%. Але виведення — це одне, тренування — інше. Виведення — запуск моделей, тренування — їх створення. Meta може робити чипи для виведення, але не може створити конкурентоспроможний тренувальний чип, здатний конкурувати з NVIDIA.

Це — не перший випадок у історії. У 2022 році Meta намагалася створити власний чип для виведення, але зазнала невдачі і відмовилася, повернувшись до замовлення у NVIDIA.

Зірвані плани з розробки чипів прискорили закупівлі у сторонніх виробників.

Паніка через витрати: 1350 мільярдів доларів

У січні 2026 року Meta оголосила, що її капітальні витрати цього року складуть від 1150 до 1350 мільярдів доларів — майже вдвічі більше, ніж минулорічні 722 мільярди. Основна частина цих коштів піде на чипи.

За 10 днів було укладено три великі угоди:

17 лютого — Meta підписала багаторічну стратегічну угоду з NVIDIA. Вона планує розгорнути «мільйони» GPU Blackwell і нову серію Vera Rubin, а також CPU Grace. За оцінками аналітиків, обсяг угоди — сотні мільярдів доларів, і Meta стала першим у світі клієнтом, що масштабно використовує CPU Grace.

24 лютого — Meta підписала контракт з AMD на суму від 600 до 1000 мільярдів доларів. Вона закуповує GPU серії MI450 і шосте покоління CPU EPYC. У рамках угоди AMD випустила для Meta опціон на 1,6 мільярда звичайних акцій, що становить близько 10% компанії, за ціною 0,01 долара за акцію, з прив’язкою до етапів поставки.

26 лютого — за повідомленням The Information, Meta уклала багаторічну угоду з Google на сотні мільярдів доларів, орендуючи TPU-чипи Google Cloud для тренування і запуску нових великих мовних моделей. Також обговорюється можливість з 2027 року купувати TPU безпосередньо для розгортання у власних дата-центрах.

Одна соціальна мережа за 10 днів уклала одночасно три угоди з трьома різними постачальниками чипів на суму понад тисячу мільярдів доларів.

Це — не диверсифікація, а панічні закупівлі.

Три рівні логіки обчислювальної нерівності

Чому Meta так поспішає?

Перша — самостійна розробка чипів вже не працює. Відмова від найсучаснішого проекту тренувальних чипів означає, що у найближчому майбутньому Meta доведеться залежати від сторонніх постачальників для AI-тренувань. Чипи для виведення, як Iris, здатні обробляти рекомендаційні системи, але для тренування передових моделей на рівні GPT-5 потрібне обладнання рівня NVIDIA або його аналога.

Друга — конкуренти не чекатимуть. OpenAI вже отримала величезні ресурси від Microsoft, SoftBank і суверенного фонду ОАЕ. Anthropic має контракт на 1 мільйон TPU і Trainium у Google і Amazon. Gemini 3 від Google вже тренується на TPU. Якщо Meta не отримає достатньо обчислювальної потужності, вона не зможе навіть увійти до гонки.

Третя — і, можливо, найголовніша — Зукерберг намагається компенсувати недостатність R&D за допомогою «купівлі». Втрата талантів, провал Llama 4 і невдача з власними чипами — все це робить AI-історію Meta в очах Уолл-стріт вразливою. Тому підписання контрактів із NVIDIA, AMD і Google — це сигнал: у нас є гроші, ми купуємо, ми не здаємося.

Зараз стратегія Meta — якщо не виходить з софтом, купуємо апаратне забезпечення; якщо не тримаємо кадри — купуємо чипи. Але AI-гонка — це не гра, яку можна виграти, просто викидаючи гроші. Обчислювальна потужність — необхідна умова, але не достатня. Без топ-команди і чіткої технічної стратегії будь-які чипи — лише дорогий запас у складі.

Проблеми покупця

Поглянемо назад на три угоди Meta у лютому — і один цікавий нюанс, який більшість ігнорує.

Meta купує у NVIDIA сучасні Blackwell і майбутні Vera Rubin; у AMD — MI450 і майбутній MI455X; у Google — оренду TPU для тренування і запуску моделей.

Три постачальники — три різні архітектури і екосистеми.

Це означає, що Meta доведеться постійно перемикатися між CUDA від NVIDIA, ROCm від AMD і XLA/JAX від Google. Стратегія багатьох постачальників зменшує ризики і знижує ціну, але значно ускладнює інженерну роботу.

Саме це — найслабше місце Meta: щоб тренувати модель із мільярдами параметрів на трьох різних платформах, потрібен не просто інженер, що знає CUDA, а архітектор, здатний створити кросплатформену тренувальну систему.

Таких людей у світі — менше 100. Понг Жу Мін — один із них.

Витратити 100 мільярдів доларів на найскладніше обладнання і при цьому втратити головний мозок, що може ним керувати — ось найфантастичніша картина у цій авантюрі Зукерберга.

Гра Зукерберга

Якщо подивитися ширше, то за 18 місяців у AI він повторює шлях, що був у його мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити