約7億パラメータで大規模AIに迫る「ZAYA1-8B」が登場、AMD環境でトレーニングされ数学・コード推論で大規模モデル級の性能を実現
記事のポイント
📰ニュース
米ZyphraがAMD環境で学習した小型言語モデル「ZAYA1-8B」を公開しました。
🔍注目ポイント
約7億パラメータながら、数学・コード推論で大規模モデル級の性能を発揮します。
🔮これからどうなる
企業は高性能なAIモデルをより低コストで利用できるようになり、開発が加速するでしょう。
ZAYA1-8Bは商用利用可能なウェイトが公開されており、AMDのGPUインフラでトレーニングされました。
これにより、限られたリソースでも大規模モデルに匹敵する推論能力を持つAIを構築できる可能性を示しています。
これにより、限られたリソースでも大規模モデルに匹敵する推論能力を持つAIを構築できる可能性を示しています。
概要
アメリカのAIスタートアップ「Zyphra」が、AMDのGPUインフラで学習した小型推論向け言語モデル「ZAYA1-8B」を公開しました。ウェイトが公開されており、商用利用も可能となっています。続きを読む...
AMD環境での学習でこの性能は驚きですね。中小企業でも高性能AIを導入しやすくなり、私たちの仕事の効率も上がりそうです。