ビジネス GIGAZINE

AI専用サーバーの推論性能や動画生成性能を測定する「MLPerf Inference v6.0」の結果が公開される、NVIDIAとAMDの性能を一目で比較可能

記事のポイント

ニュースAIサーバーの推論性能と動画生成性能を測定する「MLPerf Inference v6.0」の結果が公開されました。
注目ポイント大規模言語モデルや動画生成モデル実行時の処理速度を測定し、NVIDIAとAMDの性能を比較可能です。
これからどうなる企業や研究者はAIサーバー選定の際に、客観的な性能データに基づいた意思決定が可能になります。
MLPerf Inference v6.0は、業界コンソーシアムのMLCommonsが実施するベンチマークテストです。
AIの進化に伴い、AI専用サーバーの性能評価の重要性が増しており、NVIDIAやAMDといった主要ベンダーが自社製品の結果を公開しています。
これにより、AIワークロードに最適なハードウェアを選択する際の透明性が向上します。

概要

AIサーバーの性能評価を実施している業界コンソーシアムのMLCommonsが推論性能ベンチマークテスト「MLPerf Inference v6.0」の結果を公開しました。MLPerf Inference v6.0は大規模言語モデルや動画生成モデルを実行した際の処理速度を測定するベンチマークテストで、すでにNVIDIAやAMDが自社製サーバーのベンチマーク結果…

元記事を読む →

関連記事