Понг Жу Мін ще не встиг зайняти своє місце в Meta, як вже пішов.
У липні 2025 року Зукерберг за допомогою багатомільйонного довгострокового пакету компенсацій на суму понад 200 мільйонів доларів викрав цього найзатребуванішого китайсько-американського інженера у галузі AI інфраструктури з Apple. Понг Жу Мін був призначений у суперінтелектуальну лабораторію Meta, щоб відповідати за створення базової інфраструктури для наступного покоління AI-моделей.
Через 7 місяців OpenAI його переманила.
За повідомленням The Information, OpenAI вела багатомісячну кампанію з вербування Понг Жу Міна. Хоча він казав колегам, що «дуже задоволений роботою в Meta», зрештою обрав залишити компанію. За даними Bloomberg, його компенсаційний пакет у Meta був прив’язаний до досягнення певних цілей, і ранній вихід означав відмову від більшої частини невикористаних акцій.
2 мільярди доларів — не достатньо для 7 місяців лояльності.
Це не просто історія про зміну роботи.
Один вихід — сигнал для багатьох
Понг Жу Мін не перший, хто пішов.
Минулого тижня керівник платформи розробників у суперінтелектуальній лабораторії Meta Mat Velloso також оголосив про свій відхід. Цей фахівець у липні минулого року покинув Google DeepMind і приєднався до Meta, пробув менше 8 місяців. Ще раніше, у листопаді 2025 року, лауреат премії Тюрінга, головний науковець у галузі AI Yann LeCun, оголосив про вихід і заснування власного стартапу, що працює над «світовою моделлю». Також нещодавно офіційно пішов віце-президент з досліджень генеративного AI у Meta Russ Salakhutdinov, один із ключових учнів Geoffrey Hinton.
Щоб зрозуміти, чому зростає втеча талантів у Meta AI, потрібно спершу оцінити, наскільки сильно постраждала модель Llama 4.
У квітні 2025 року Meta гучно презентувала серію моделей Llama 4 — Scout і Maverick. Офіційні дані виглядають вражаюче: у ключових бенчмарках MATH-500 і GPQA Diamond вона повністю перевершила GPT-4.5 і Claude Sonnet 3.7.
Проте ця амбіційна модель швидко «виявилася» у сторонніх незалежних тестах у відкритому доступі, і реальні можливості генералізації та логічного мислення виявилися значно гіршими за заявлені. У відповідь на гостру критику команда головного науковця Yann LeCun зізналася, що під час тестування використовували різні версії моделі для різних наборів тестів, щоб покращити кінцевий результат.
У суворій академічній і інженерній спільноті це — непрощенний проступок. Іншими словами, команда натренувала Llama 4 як «маленького школяра», що вміє розв’язувати лише старі завдання, а не справжнього передового інтелекту. Вона може показати високі результати у математичних тестах або програмуванні, але це — різні моделі.
У AI-спільноті це називається «збір ягід» (чері-пікінг), у системі освіти — «заміна іспиту».
Для Meta, яка позиціонує себе як «лідер у відкритому коді», ця криза безпосередньо зруйнувала найцінніший актив — довіру розробників. Це коштувало їй втрати довіри до основної команди GenAI, що призвело до масових призначень нових керівників і посилення контролю над ключовими підрозділами.
Загалом, Meta витратив від 14,3 до 15 мільярдів доларів на купівлю 49% акцій компанії Scale AI, призначив 28-річного генерального директора Александра Ванга головним AI-офіцером, створивши лабораторію суперінтелекту (MSL). Лауреат премії Тюрінга LeCun тепер звітує перед цим молодим керівником. У жовтні Meta скоротила близько 600 посад у MSL, включно з командою FAIR, яку заснував LeCun.
А запланована на літо 2025 року модель Llama 4 Behemoth була відкладена кілька разів — з літа на осінь, і нарешті відкладена без визначеного терміну.
Meta переключилася на розробку нових моделей під кодовими назвами «Авокадо» (для текстових моделей) і «Манго» (для зображень і відео). За повідомленнями, «Авокадо» має конкурувати з GPT-5 і Gemini 3 Ultra. Спочатку планувалося завершити до кінця 2025 року, але через невідповідність результатів тестів і оптимізацій перенесено на перший квартал 2026. Meta розглядає можливість закритого релізу, відмовившись від відкритого коду серії Llama.
Meta зробила дві фатальні помилки у своїх AI-моделях: перша — фальсифікація benchmark, що зруйнувало довіру спільноти; друга — перетворення дослідницького підрозділу FAIR у продуктову команду, орієнтовану на квартальні KPI. Разом ці помилки — корінь нинішньої втрати кадрів.
Самостійна розробка чипів: ще одна вразлива ланка
Талантів біжить, і з чипами теж проблеми.
За повідомленням The Information, минулого тижня Meta припинила внутрішній проект розробки найсучасніших AI-обчислювальних чипів.
План самостійної розробки чипів називається MTIA (Meta Training and Inference Accelerator). Початковий план амбітний: версії v4 («Santa Barbara»), v5 («Olympus») і v6 («Universal Core») мали бути випущені у 2026–2028 роках. Olympus передбачався як перший чип Meta на базі 2-нм архітектури, що поєднуватиме високопродуктивне тренування і реальне швидке виведення. Мета — замінити NVIDIA у тренувальних кластерах Meta.
Зараз цей найсучасніший тренувальний чип скасовано.
Meta не залишилася без прогресу: на ринку вже є результати у сфері виведення. Чип «Iris» (MTIA v3) вже широко використовується у дата-центрах Meta для Facebook Reels і Instagram, зменшивши загальні витрати на 40–44%. Але виведення — це одне, тренування — інше. Виведення — запуск моделей, тренування — їх створення. Meta може робити чипи для виведення, але не може створити конкурентоспроможний тренувальний чип, здатний конкурувати з NVIDIA.
Це — не перший випадок у історії. У 2022 році Meta намагалася створити власний чип для виведення, але зазнала невдачі і відмовилася, повернувшись до замовлення у NVIDIA.
Зірвані плани з розробки чипів прискорили закупівлі у сторонніх виробників.
Паніка через витрати: 1350 мільярдів доларів
У січні 2026 року Meta оголосила, що її капітальні витрати цього року складуть від 1150 до 1350 мільярдів доларів — майже вдвічі більше, ніж минулорічні 722 мільярди. Основна частина цих коштів піде на чипи.
За 10 днів було укладено три великі угоди:
17 лютого — Meta підписала багаторічну стратегічну угоду з NVIDIA. Вона планує розгорнути «мільйони» GPU Blackwell і нову серію Vera Rubin, а також CPU Grace. За оцінками аналітиків, обсяг угоди — сотні мільярдів доларів, і Meta стала першим у світі клієнтом, що масштабно використовує CPU Grace.
24 лютого — Meta підписала контракт з AMD на суму від 600 до 1000 мільярдів доларів. Вона закуповує GPU серії MI450 і шосте покоління CPU EPYC. У рамках угоди AMD випустила для Meta опціон на 1,6 мільярда звичайних акцій, що становить близько 10% компанії, за ціною 0,01 долара за акцію, з прив’язкою до етапів поставки.
26 лютого — за повідомленням The Information, Meta уклала багаторічну угоду з Google на сотні мільярдів доларів, орендуючи TPU-чипи Google Cloud для тренування і запуску нових великих мовних моделей. Також обговорюється можливість з 2027 року купувати TPU безпосередньо для розгортання у власних дата-центрах.
Одна соціальна мережа за 10 днів уклала одночасно три угоди з трьома різними постачальниками чипів на суму понад тисячу мільярдів доларів.
Це — не диверсифікація, а панічні закупівлі.
Три рівні логіки обчислювальної нерівності
Чому Meta так поспішає?
Перша — самостійна розробка чипів вже не працює. Відмова від найсучаснішого проекту тренувальних чипів означає, що у найближчому майбутньому Meta доведеться залежати від сторонніх постачальників для AI-тренувань. Чипи для виведення, як Iris, здатні обробляти рекомендаційні системи, але для тренування передових моделей на рівні GPT-5 потрібне обладнання рівня NVIDIA або його аналога.
Друга — конкуренти не чекатимуть. OpenAI вже отримала величезні ресурси від Microsoft, SoftBank і суверенного фонду ОАЕ. Anthropic має контракт на 1 мільйон TPU і Trainium у Google і Amazon. Gemini 3 від Google вже тренується на TPU. Якщо Meta не отримає достатньо обчислювальної потужності, вона не зможе навіть увійти до гонки.
Третя — і, можливо, найголовніша — Зукерберг намагається компенсувати недостатність R&D за допомогою «купівлі». Втрата талантів, провал Llama 4 і невдача з власними чипами — все це робить AI-історію Meta в очах Уолл-стріт вразливою. Тому підписання контрактів із NVIDIA, AMD і Google — це сигнал: у нас є гроші, ми купуємо, ми не здаємося.
Зараз стратегія Meta — якщо не виходить з софтом, купуємо апаратне забезпечення; якщо не тримаємо кадри — купуємо чипи. Але AI-гонка — це не гра, яку можна виграти, просто викидаючи гроші. Обчислювальна потужність — необхідна умова, але не достатня. Без топ-команди і чіткої технічної стратегії будь-які чипи — лише дорогий запас у складі.
Проблеми покупця
Поглянемо назад на три угоди Meta у лютому — і один цікавий нюанс, який більшість ігнорує.
Meta купує у NVIDIA сучасні Blackwell і майбутні Vera Rubin; у AMD — MI450 і майбутній MI455X; у Google — оренду TPU для тренування і запуску моделей.
Три постачальники — три різні архітектури і екосистеми.
Це означає, що Meta доведеться постійно перемикатися між CUDA від NVIDIA, ROCm від AMD і XLA/JAX від Google. Стратегія багатьох постачальників зменшує ризики і знижує ціну, але значно ускладнює інженерну роботу.
Саме це — найслабше місце Meta: щоб тренувати модель із мільярдами параметрів на трьох різних платформах, потрібен не просто інженер, що знає CUDA, а архітектор, здатний створити кросплатформену тренувальну систему.
Таких людей у світі — менше 100. Понг Жу Мін — один із них.
Витратити 100 мільярдів доларів на найскладніше обладнання і при цьому втратити головний мозок, що може ним керувати — ось найфантастичніша картина у цій авантюрі Зукерберга.
Гра Зукерберга
Якщо подивитися ширше, то за 18 місяців у AI він повторює шлях, що був у його мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Meta: Можна купити трильйони обчислювальної потужності, але не зможеш утримати ключових людей
Написано: Ada, Deep Tide TechFlow
Понг Жу Мін ще не встиг зайняти своє місце в Meta, як вже пішов.
У липні 2025 року Зукерберг за допомогою багатомільйонного довгострокового пакету компенсацій на суму понад 200 мільйонів доларів викрав цього найзатребуванішого китайсько-американського інженера у галузі AI інфраструктури з Apple. Понг Жу Мін був призначений у суперінтелектуальну лабораторію Meta, щоб відповідати за створення базової інфраструктури для наступного покоління AI-моделей.
Через 7 місяців OpenAI його переманила.
За повідомленням The Information, OpenAI вела багатомісячну кампанію з вербування Понг Жу Міна. Хоча він казав колегам, що «дуже задоволений роботою в Meta», зрештою обрав залишити компанію. За даними Bloomberg, його компенсаційний пакет у Meta був прив’язаний до досягнення певних цілей, і ранній вихід означав відмову від більшої частини невикористаних акцій.
2 мільярди доларів — не достатньо для 7 місяців лояльності.
Це не просто історія про зміну роботи.
Один вихід — сигнал для багатьох
Понг Жу Мін не перший, хто пішов.
Минулого тижня керівник платформи розробників у суперінтелектуальній лабораторії Meta Mat Velloso також оголосив про свій відхід. Цей фахівець у липні минулого року покинув Google DeepMind і приєднався до Meta, пробув менше 8 місяців. Ще раніше, у листопаді 2025 року, лауреат премії Тюрінга, головний науковець у галузі AI Yann LeCun, оголосив про вихід і заснування власного стартапу, що працює над «світовою моделлю». Також нещодавно офіційно пішов віце-президент з досліджень генеративного AI у Meta Russ Salakhutdinov, один із ключових учнів Geoffrey Hinton.
Щоб зрозуміти, чому зростає втеча талантів у Meta AI, потрібно спершу оцінити, наскільки сильно постраждала модель Llama 4.
У квітні 2025 року Meta гучно презентувала серію моделей Llama 4 — Scout і Maverick. Офіційні дані виглядають вражаюче: у ключових бенчмарках MATH-500 і GPQA Diamond вона повністю перевершила GPT-4.5 і Claude Sonnet 3.7.
Проте ця амбіційна модель швидко «виявилася» у сторонніх незалежних тестах у відкритому доступі, і реальні можливості генералізації та логічного мислення виявилися значно гіршими за заявлені. У відповідь на гостру критику команда головного науковця Yann LeCun зізналася, що під час тестування використовували різні версії моделі для різних наборів тестів, щоб покращити кінцевий результат.
У суворій академічній і інженерній спільноті це — непрощенний проступок. Іншими словами, команда натренувала Llama 4 як «маленького школяра», що вміє розв’язувати лише старі завдання, а не справжнього передового інтелекту. Вона може показати високі результати у математичних тестах або програмуванні, але це — різні моделі.
У AI-спільноті це називається «збір ягід» (чері-пікінг), у системі освіти — «заміна іспиту».
Для Meta, яка позиціонує себе як «лідер у відкритому коді», ця криза безпосередньо зруйнувала найцінніший актив — довіру розробників. Це коштувало їй втрати довіри до основної команди GenAI, що призвело до масових призначень нових керівників і посилення контролю над ключовими підрозділами.
Загалом, Meta витратив від 14,3 до 15 мільярдів доларів на купівлю 49% акцій компанії Scale AI, призначив 28-річного генерального директора Александра Ванга головним AI-офіцером, створивши лабораторію суперінтелекту (MSL). Лауреат премії Тюрінга LeCun тепер звітує перед цим молодим керівником. У жовтні Meta скоротила близько 600 посад у MSL, включно з командою FAIR, яку заснував LeCun.
А запланована на літо 2025 року модель Llama 4 Behemoth була відкладена кілька разів — з літа на осінь, і нарешті відкладена без визначеного терміну.
Meta переключилася на розробку нових моделей під кодовими назвами «Авокадо» (для текстових моделей) і «Манго» (для зображень і відео). За повідомленнями, «Авокадо» має конкурувати з GPT-5 і Gemini 3 Ultra. Спочатку планувалося завершити до кінця 2025 року, але через невідповідність результатів тестів і оптимізацій перенесено на перший квартал 2026. Meta розглядає можливість закритого релізу, відмовившись від відкритого коду серії Llama.
Meta зробила дві фатальні помилки у своїх AI-моделях: перша — фальсифікація benchmark, що зруйнувало довіру спільноти; друга — перетворення дослідницького підрозділу FAIR у продуктову команду, орієнтовану на квартальні KPI. Разом ці помилки — корінь нинішньої втрати кадрів.
Самостійна розробка чипів: ще одна вразлива ланка
Талантів біжить, і з чипами теж проблеми.
За повідомленням The Information, минулого тижня Meta припинила внутрішній проект розробки найсучасніших AI-обчислювальних чипів.
План самостійної розробки чипів називається MTIA (Meta Training and Inference Accelerator). Початковий план амбітний: версії v4 («Santa Barbara»), v5 («Olympus») і v6 («Universal Core») мали бути випущені у 2026–2028 роках. Olympus передбачався як перший чип Meta на базі 2-нм архітектури, що поєднуватиме високопродуктивне тренування і реальне швидке виведення. Мета — замінити NVIDIA у тренувальних кластерах Meta.
Зараз цей найсучасніший тренувальний чип скасовано.
Meta не залишилася без прогресу: на ринку вже є результати у сфері виведення. Чип «Iris» (MTIA v3) вже широко використовується у дата-центрах Meta для Facebook Reels і Instagram, зменшивши загальні витрати на 40–44%. Але виведення — це одне, тренування — інше. Виведення — запуск моделей, тренування — їх створення. Meta може робити чипи для виведення, але не може створити конкурентоспроможний тренувальний чип, здатний конкурувати з NVIDIA.
Це — не перший випадок у історії. У 2022 році Meta намагалася створити власний чип для виведення, але зазнала невдачі і відмовилася, повернувшись до замовлення у NVIDIA.
Зірвані плани з розробки чипів прискорили закупівлі у сторонніх виробників.
Паніка через витрати: 1350 мільярдів доларів
У січні 2026 року Meta оголосила, що її капітальні витрати цього року складуть від 1150 до 1350 мільярдів доларів — майже вдвічі більше, ніж минулорічні 722 мільярди. Основна частина цих коштів піде на чипи.
За 10 днів було укладено три великі угоди:
17 лютого — Meta підписала багаторічну стратегічну угоду з NVIDIA. Вона планує розгорнути «мільйони» GPU Blackwell і нову серію Vera Rubin, а також CPU Grace. За оцінками аналітиків, обсяг угоди — сотні мільярдів доларів, і Meta стала першим у світі клієнтом, що масштабно використовує CPU Grace.
24 лютого — Meta підписала контракт з AMD на суму від 600 до 1000 мільярдів доларів. Вона закуповує GPU серії MI450 і шосте покоління CPU EPYC. У рамках угоди AMD випустила для Meta опціон на 1,6 мільярда звичайних акцій, що становить близько 10% компанії, за ціною 0,01 долара за акцію, з прив’язкою до етапів поставки.
26 лютого — за повідомленням The Information, Meta уклала багаторічну угоду з Google на сотні мільярдів доларів, орендуючи TPU-чипи Google Cloud для тренування і запуску нових великих мовних моделей. Також обговорюється можливість з 2027 року купувати TPU безпосередньо для розгортання у власних дата-центрах.
Одна соціальна мережа за 10 днів уклала одночасно три угоди з трьома різними постачальниками чипів на суму понад тисячу мільярдів доларів.
Це — не диверсифікація, а панічні закупівлі.
Три рівні логіки обчислювальної нерівності
Чому Meta так поспішає?
Перша — самостійна розробка чипів вже не працює. Відмова від найсучаснішого проекту тренувальних чипів означає, що у найближчому майбутньому Meta доведеться залежати від сторонніх постачальників для AI-тренувань. Чипи для виведення, як Iris, здатні обробляти рекомендаційні системи, але для тренування передових моделей на рівні GPT-5 потрібне обладнання рівня NVIDIA або його аналога.
Друга — конкуренти не чекатимуть. OpenAI вже отримала величезні ресурси від Microsoft, SoftBank і суверенного фонду ОАЕ. Anthropic має контракт на 1 мільйон TPU і Trainium у Google і Amazon. Gemini 3 від Google вже тренується на TPU. Якщо Meta не отримає достатньо обчислювальної потужності, вона не зможе навіть увійти до гонки.
Третя — і, можливо, найголовніша — Зукерберг намагається компенсувати недостатність R&D за допомогою «купівлі». Втрата талантів, провал Llama 4 і невдача з власними чипами — все це робить AI-історію Meta в очах Уолл-стріт вразливою. Тому підписання контрактів із NVIDIA, AMD і Google — це сигнал: у нас є гроші, ми купуємо, ми не здаємося.
Зараз стратегія Meta — якщо не виходить з софтом, купуємо апаратне забезпечення; якщо не тримаємо кадри — купуємо чипи. Але AI-гонка — це не гра, яку можна виграти, просто викидаючи гроші. Обчислювальна потужність — необхідна умова, але не достатня. Без топ-команди і чіткої технічної стратегії будь-які чипи — лише дорогий запас у складі.
Проблеми покупця
Поглянемо назад на три угоди Meta у лютому — і один цікавий нюанс, який більшість ігнорує.
Meta купує у NVIDIA сучасні Blackwell і майбутні Vera Rubin; у AMD — MI450 і майбутній MI455X; у Google — оренду TPU для тренування і запуску моделей.
Три постачальники — три різні архітектури і екосистеми.
Це означає, що Meta доведеться постійно перемикатися між CUDA від NVIDIA, ROCm від AMD і XLA/JAX від Google. Стратегія багатьох постачальників зменшує ризики і знижує ціну, але значно ускладнює інженерну роботу.
Саме це — найслабше місце Meta: щоб тренувати модель із мільярдами параметрів на трьох різних платформах, потрібен не просто інженер, що знає CUDA, а архітектор, здатний створити кросплатформену тренувальну систему.
Таких людей у світі — менше 100. Понг Жу Мін — один із них.
Витратити 100 мільярдів доларів на найскладніше обладнання і при цьому втратити головний мозок, що може ним керувати — ось найфантастичніша картина у цій авантюрі Зукерберга.
Гра Зукерберга
Якщо подивитися ширше, то за 18 місяців у AI він повторює шлях, що був у його мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета-мета