AIモデルが専門家のわずか12.5%でほぼ最高の性能を発揮
Researchers train AI model that hits near-full performance with just 12.5 percent of its experts
記事のポイント
AIモデルEMOが、専門家の一部を削減しても性能低下を最小限に抑えることに成功しました。
EMOは専門家を単語タイプではなくコンテンツ領域で特化させ、専門家の75%削減で性能低下を約1%に抑えます。
メモリ制約のある環境でも大規模AIモデルの実用化が進み、より多くのデバイスでAIが利用可能になります。
従来のMoEモデルは専門家を単語タイプで特化させていましたが、EMOはコンテンツ領域で特化させることで、専門家削減時の性能維持を実現しました。
これにより、MoEモデルのメモリ効率が大幅に向上します。
概要
Researchers at the Allen Institute for AI and UC Berkeley have built EMO, a mixture-of-experts model whose experts specialize in content domains instead of word types. That lets you strip out three-quarters of the experts while losing only about one percentage point of performance, a step that coul…
これはすごい進歩ですね。スマホやエッジデバイスでも高性能なAIが動くようになるかもしれません。私たちの生活がより便利になりそうです。