Selon un rapport de Jinse Caijing, Tether Data a annoncé le lancement d'un cadre de modèle de langage à grande échelle, QVAC Fabric, permettant aux utilisateurs d'exécuter, d'entraîner et de personnaliser des modèles de langage à grande échelle directement sur du matériel quotidien, y compris des GPU grand public, des ordinateurs portables et même des smartphones. Les tâches qui nécessitaient auparavant des serveurs cloud haut de gamme ou des systèmes dédiés NVIDIA peuvent maintenant être réalisées simplement sur les appareils déjà en possession des utilisateurs. Il est rapporté que ce modèle prend en charge l'entraînement sur divers GPU, y compris ceux d'AMD, Intel, NVIDIA, Apple Silicon et des puces mobiles.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Tether Data a lancé le cadre de modèle de langage QVAC Fabric
Selon un rapport de Jinse Caijing, Tether Data a annoncé le lancement d'un cadre de modèle de langage à grande échelle, QVAC Fabric, permettant aux utilisateurs d'exécuter, d'entraîner et de personnaliser des modèles de langage à grande échelle directement sur du matériel quotidien, y compris des GPU grand public, des ordinateurs portables et même des smartphones. Les tâches qui nécessitaient auparavant des serveurs cloud haut de gamme ou des systèmes dédiés NVIDIA peuvent maintenant être réalisées simplement sur les appareils déjà en possession des utilisateurs. Il est rapporté que ce modèle prend en charge l'entraînement sur divers GPU, y compris ceux d'AMD, Intel, NVIDIA, Apple Silicon et des puces mobiles.