TransformersとRay Tuneによるハイパーパラメータ探索
Hugging Face TransformersとRay Tuneを組み合わせた効率的なハイパーパラメータ探索手法が紹介されました…
AI&Tech、もう追いかけなくていい。
30秒で読めるニュースダイジェスト
Hugging Face TransformersとRay Tuneを組み合わせた効率的なハイパーパラメータ探索手法が紹介されました…
Transformerベースのエンコーダー・デコーダーモデルの仕組みと応用が解説されました。
Hugging Faceが、ブロックスパース行列を活用してLLMのサイズと推論速度を改善する手法を発表しました。
OpenAIが生成言語モデルを自動定理証明に応用する研究を発表しました。
OpenAIが人間のフィードバックを用いた強化学習で、より優れた要約モデルを開発しました。
OpenAI Scholars 2020の参加者が5ヶ月間の研究成果を発表しました。
Hugging Faceが、効率的なTransformerモデル「Reformer」を発表しました。
OpenAIがNeurIPS 2020でProcgenとMineRLを用いたAIコンペティションを共催します。
OpenAIが言語モデルと同じTransformerで画像を生成・補完できることを発見しました。
大規模言語モデルが、少数の例から新しいタスクを学習する能力を持つことが示された。
2012年以降、ImageNet分類におけるニューラルネットの学習に必要な計算量が大幅に減少していることが判明…
OpenAIが、音楽と歌声を生成するニューラルネット「Jukebox」を発表しました。