AI用語辞典

9語

過学習

Overfitting 学習・訓練
かがくしゅう

モデルが訓練データに過剰に適合しすぎてしまい、未知のデータに対しては性能が低下してしまう現象です。汎化性能が低い状態を指します。

強化学習

Reinforcement Learning 学習・訓練
きょうかがくしゅう

エージェントが環境と相互作用しながら、試行錯誤を通じて最適な行動戦略を学習する方法です。報酬を最大化するように行動を決定します。

教師あり学習

Supervised Learning 学習・訓練
きょうしありがくしゅう

正解データ(ラベル)が与えられたデータセットを用いてモデルを学習させる方法です。画像分類や回帰予測など、多くのAIアプリケーションで利用されます。

教師なし学習

Unsupervised Learning 学習・訓練
きょうしなしがくしゅう

正解データ(ラベル)がないデータセットから、データ自身の構造やパターンを自動的に見つけ出す学習方法です。クラスタリングや次元削減などに用いられます。

訓練データ

Training Data 学習・訓練
くんれんデータ

機械学習モデルを学習させるために使用されるデータセットです。このデータからモデルはパターンや規則性を学びます。

検証データ

Validation Data 学習・訓練
けんしょうデータ

モデルの学習中に、その性能を評価し、ハイパーパラメータの調整を行うために使用されるデータセットです。訓練データとは別に用意されます。

テストデータ

Test Data 学習・訓練
テストデータ

モデルの最終的な性能を評価するために使用される、一度も学習に使われていないデータセットです。未知のデータに対する汎化性能を測ります。

プロンプトキャッシュ

Prompt Cache 学習・訓練
プロンプトキャッシュ

大規模言語モデル(LLM)が以前に処理したプロンプトとその応答を一時的に保存する仕組み。これにより、同じプロンプトが再度入力された際に、計算を省略して高速に応答を返すことができますが、資源を過剰に消費する場合があります。

RAG

Retrieval-Augmented Generation 学習・訓練
ラグ

大規模言語モデル(LLM)の性能を向上させる技術の一つ。外部の知識ベースから関連情報を検索(Retrieval)し、その情報を基にLLMが回答を生成(Generation)することで、より正確で最新の情報を反映した応答を可能にします。