マイクロソフトはNVIDIA GPUでトレーニングされたマルチモーダルSLMを導入

robot
概要作成中

ジェームズ・ディング

2025年02月26日 15:38

Microsoftは、NVIDIA GPUでトレーニングされたマルチモーダルPhi-4を含む新しいPhi SLMを発表し、効率的なリソース使用でAI機能を強化します。

Microsoft が NVIDIA GPU でトレーニングされたマルチモーダル SLM を発表

マイクロソフトは、新しいPhi-4-マルチモーダルおよびPhi-4-ミニモデルを特徴とする、NVIDIA GPUを使用してトレーニングされた小さな言語モデルファミリー(SLMs)の最新の追加を発表しました。この開発は、効率と汎用性に焦点を当てた言語モデルの進化における重要な一歩を示しています。

###小規模言語モデルの進歩

SLMは、その機能にもかかわらず、かなりの計算リソースを必要とする大規模言語モデル(LLMs)がもたらす課題に対する実用的なソリューションとして登場しました。SLMは、制約のある環境内で効率的に動作するように設計されているため、メモリと計算能力が限られているデバイスへの展開に適しています。

Microsoft の新しい Phi-4 マルチモーダル モデルは、テキスト、音声、画像など、複数の種類のデータを処理できることで特に注目に値します。この機能により、自動音声認識、翻訳、視覚的推論などのアプリケーションの新しい可能性が開かれます。このモデルのトレーニングには、21 日間で 512 個の NVIDIA A100-80GB GPU が使用され、その機能を実現するために必要な集中的な計算作業が強調されました。

###Phi-4-マルチモーダルとPhi-4ミニ

Phi-4-multimodalモデルは56億のパラメータを誇り、自動音声認識で優れたパフォーマンスを発揮し、Huggingface OpenASRリーダーボードで単語エラー率6.14%で1位にランクインしました。この成果は、モデルの音声認識技術の向上における潜在能力を示しています。

Phi-4-multimodalと並行して、MicrosoftはPhi-4-miniも導入しました。これは、チャットアプリケーション向けに最適化されたテキスト専用モデルで、38億のパラメータを持ち、128Kトークンのコンテキストウィンドウを提供するよう設計されています。そのトレーニングには、1024のNVIDIA A100 80GB GPUを14日間にわたって使用し、高品質の教育データとコードに焦点を当てたモデルであることを反映しています。

###デプロイメントとアクセシビリティ

両モデルは、MicrosoftのAzure AIファウンドリーで利用可能であり、AIアプリケーションを設計、カスタマイズ、管理するプラットフォームを提供しています。ユーザーはまた、NVIDIA APIカタログを介してこれらのモデルを探索することができ、これによりさまざまなアプリケーションにこれらのモデルをテストおよび統合するためのサンドボックス環境が提供されます。

NVIDIA と Microsoft のコラボレーションは、これらのモデルのトレーニングにとどまりません。このパートナーシップには、AIの透明性を促進し、オープンソースプロジェクトをサポートするためのPhiなどのソフトウェアとモデルの最適化が含まれます。このコラボレーションは、ヘルスケアからライフサイエンスまで、業界全体でAIテクノロジーを進化させることを目的としています。

詳細な情報については、NVIDIAブログをご覧ください。

画像出典:Shutterstock

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)