Тонг І І тисячі запитів значно знизили ціну Відкритий вихідний код стратегії сприяє поширенню застосувань ШІ

Процес комерціалізації великих моделей прискорюється, Tongyi Qianwen випускає комбінаційну стратегію

Нещодавно Alibaba Cloud оголосила про суттєве зниження цін на API виклики для своїх комерційних моделей Tongyi Qianwen та відкритих моделей. Зокрема, ціна на основну модель Qwen-Long знизилася з 0.02 юаня за кожні тисячу токенів до 0.5 юаня за кожні мільйон токенів, що становить зниження на 97%.

Раніше Alibaba Tongyi представила відкриту модель Qwen1.5-110B з параметрами на рівні 1100 млрд. За повідомленнями, ця модель перевершила модель Llama-3-70B від Meta у кількох бенчмарках та зайняла перше місце у рейтингу відкритих великих моделей HuggingFace.

Комбінація зниження цін та стратегії відкритого коду поступово стає консенсусом серед світових виробників великих моделей. Це допомагає вирішити дві основні проблеми, з якими стикаються розробники AI-додатків: висока ціна API великих моделей та недостатня якість відкритих моделей, що, в свою чергу, сприяє всебічному розвитку AI-додатків.

Нещодавно кілька компаній, що займаються великими моделями, запустили продукти за низькими цінами або ввели заходи зі зниження цін. Наприклад, компанія Huansquare Quantitative під своїм брендом Deep Exploration відкрила друге покоління моделі MoE, ціна API якої становить лише близько одного відсотка від деякої відомої великої моделі. Zhizhu AI, деяка відома велика модельна платформа, деяка велика технологічна компанія та інші також оголосили про зниження цін або запуск безкоштовних версій. Ця тенденція, ймовірно, викликана прогресом у технології інференції великих моделей і зниженням витрат, що надає розробникам більше варіантів і сприяє широкому застосуванню великих AI моделей.

Alibaba Tongyi також представила різноманітні моделі великих мов, щоб задовольнити потреби різних сценаріїв. Маленькі моделі підходять для розгортання на мобільних телефонах, ПК та інших пристроях; великі моделі можуть підтримувати підприємницькі та наукові застосування; середні моделі шукають баланс між продуктивністю, ефективністю та використанням пам'яті. Крім того, Tongyi відкрила вихідний код для спеціалізованих моделей, таких як розуміння зображень, розуміння аудіо, код тощо. Ці ініціативи сприяють впровадженню великих моделей у різних сценаріях.

З прискоренням процесу комерціалізації великих моделей, відповідні ланцюги постачання мають шанс отримати вигоду. Серед областей, які варто звернути увагу, є сегменти обчислювальних потужностей, такі як оптичний зв'язок, розподіл обчислювальних ресурсів, обладнання для обчислювальних потужностей; а також сегменти даних, такі як оператори, візуалізація даних тощо. Проте, комерціалізація великих моделей і розвиток технологій все ще мають невизначеність, і це є ризиковими факторами, за якими потрібно уважно стежити.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 8
  • Поділіться
Прокоментувати
0/400
FomoAnxietyvip
· 07-07 19:25
Хто ще наважиться змагатися зі мною за ринок?
Переглянути оригіналвідповісти на0
MEVHunterXvip
· 07-07 05:35
Чи не краще спалити GPT?
Переглянути оригіналвідповісти на0
LiquidationWizardvip
· 07-07 03:06
Ого! Нарешті більше не обдурюють людей, як лохів.
Переглянути оригіналвідповісти на0
NFTragedyvip
· 07-04 22:49
Що таке монополія, що таке збитки? Якщо чесно, це лише для захоплення ринку.
Переглянути оригіналвідповісти на0
SolidityNewbievip
· 07-04 22:46
Знизилося на 97%? Містер Ма нарешті став совісним.
Переглянути оригіналвідповісти на0
PanicSellervip
· 07-04 22:42
Шуруй! Знижка 97%! Головне, не користуйся кліповими купонами.
Переглянути оригіналвідповісти на0
DegenGamblervip
· 07-04 22:40
Зниження цін знову велика пастка, так?
Переглянути оригіналвідповісти на0
MeaninglessApevip
· 07-04 22:37
Це занадто круто 8
Переглянути оригіналвідповісти на0
  • Закріпити