★4 LLM GIGAZINE by Synapse Flow 編集部

約7億パラメータで大規模AIに迫る「ZAYA1-8B」が登場、AMD環境でトレーニングされ数学・コード推論で大規模モデル級の性能を実現

記事のポイント

📰ニュース

米ZyphraがAMD環境で学習した小型言語モデル「ZAYA1-8B」を公開しました。

🔍注目ポイント

約7億パラメータながら、数学・コード推論で大規模モデル級の性能を発揮します。

🔮これからどうなる

企業は高性能なAIモデルをより低コストで利用できるようになり、開発が加速するでしょう。

ZAYA1-8Bは商用利用可能なウェイトが公開されており、AMDのGPUインフラでトレーニングされました。
これにより、限られたリソースでも大規模モデルに匹敵する推論能力を持つAIを構築できる可能性を示しています。
💡
編集部の視点

AMD環境での学習でこの性能は驚きですね。中小企業でも高性能AIを導入しやすくなり、私たちの仕事の効率も上がりそうです。

概要

アメリカのAIスタートアップ「Zyphra」が、AMDのGPUインフラで学習した小型推論向け言語モデル「ZAYA1-8B」を公開しました。ウェイトが公開されており、商用利用も可能となっています。続きを読む...

元記事を読む →

関連記事