Останнім часом в AI-середовищі сталося досить цікаве явище — команда з Китаю представила модель Kimi K2 Thinking, яка за показниками продуктивності виявилася кращою за кілька основних великих моделей.
Навіть більш несподіваним є витратна частина: 4,6 мільйона доларів США було витрачено на навчання архітектури MoE з параметрами 1T. У порівнянні з тими провідними лабораторіями, які витрачають по кілька сотень мільйонів або десятків мільярдів доларів на навчання однієї моделі, ця цифра здається смішною. Одна з провідних AI компаній навіть публічно заявила, що в майбутньому їй знадобиться інвестиційний обсяг у 1,4 трильйона доларів.
Куди ж ці гроші насправді зникли? Інфраструктура? Закупівля потужностей? Чи це якісь інші витрати-чорні діри?
Не дивно, що останнім часом в США звучать заяви, що уряд не буде безмежно підтримувати індустрію ШІ — це дійсно схоже на бездонну яму. Різниця в ефективності технологічних шляхів іноді може краще пояснити проблему, ніж обсяги фінансування.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
6
Репост
Поділіться
Прокоментувати
0/400
token_therapist
· 9год тому
Ці гроші всі пішли на секретаря, так?
Переглянути оригіналвідповісти на0
DefiPlaybook
· 9год тому
На основі аналізу ROI, вартість у 4.6 мільйона досягла масштабів у 1 трильйон параметрів, загальна ефективність зросла на 174%
Переглянути оригіналвідповісти на0
ReverseTradingGuru
· 9год тому
Вартість - це серйозна проблема.
Переглянути оригіналвідповісти на0
ThatsNotARugPull
· 9год тому
Ти просто граєшся з витратами, так?
Переглянути оригіналвідповісти на0
MysteryBoxOpener
· 9год тому
Витрачати гроші краще, ніж думати!
Переглянути оригіналвідповісти на0
DefiOldTrickster
· 9год тому
пастка ж Не просто заміна шкіри в грі Стара ця пастка
Останнім часом в AI-середовищі сталося досить цікаве явище — команда з Китаю представила модель Kimi K2 Thinking, яка за показниками продуктивності виявилася кращою за кілька основних великих моделей.
Навіть більш несподіваним є витратна частина: 4,6 мільйона доларів США було витрачено на навчання архітектури MoE з параметрами 1T. У порівнянні з тими провідними лабораторіями, які витрачають по кілька сотень мільйонів або десятків мільярдів доларів на навчання однієї моделі, ця цифра здається смішною. Одна з провідних AI компаній навіть публічно заявила, що в майбутньому їй знадобиться інвестиційний обсяг у 1,4 трильйона доларів.
Куди ж ці гроші насправді зникли? Інфраструктура? Закупівля потужностей? Чи це якісь інші витрати-чорні діри?
Не дивно, що останнім часом в США звучать заяви, що уряд не буде безмежно підтримувати індустрію ШІ — це дійсно схоже на бездонну яму. Різниця в ефективності технологічних шляхів іноді може краще пояснити проблему, ніж обсяги фінансування.