生成AI(Generative AI)やLLM(大規模言語モデル)は、急速に注目を集める技術ですが、専門用語が多く初心者にはハードルが高いと感じることも。
初心者向けに抑えておくべき基本用語をまとめてあります。
- 生成AIとは?
- LLM(Large Language Model)とは?
- 基本用語集
- プロンプト(Prompt)
- プロンプトエンジニアリング
- トークン(Token)
- ファインチューニング(Fine-tuning)
- RAG(Retrieval-Augmented Generation)
- パラメータ(Parameter)
- 推論(Inference)
- トレーニング(Training)
- データセット(Dataset)
- チューニング(Tuning)
- ハルシネーション(Hallucination)
- ステップ(Step)
- Temperature(温度パラメータ)
- Top-p(または nucleus sampling)
- マルチモーダル(Multimodal)
- エンベディング(Embedding)
- API(Application Programming Interface)
- GPU(Graphics Processing Unit)
- ディフュージョンモデル(Diffusion Model)
- チャットファインチューニング(Chat fine-tuning / Instruction tuning)
- 関連技術・概念
生成AIとは?
生成AIは、画像・文章・音声・動画などの新しいコンテンツを生み出す人工知能の総称です。
代表例:ChatGPT、Midjourney、Stable Diffusion、Runway ML。
従来のAI(分析・予測中心)と違い、「何かを作ること」に特化しています。
LLM(Large Language Model)とは?
LLMは「大量の文章データで訓練されたAIモデル」のことです。
文章の意味や文脈を理解し、自然な文章を生成する能力があります。
例:GPT(OpenAI)、PaLM(Google)、LLaMA(Meta)。
基本用語集
プロンプト(Prompt)
AIに指示を与えるための入力文。
例:「文章を要約してください」「猫の画像を描いてください」。
うまく書くことで、より良い出力が得られます(→プロンプトエンジニアリング)。
プロンプトエンジニアリング
AIに期待する回答を引き出すための指示文の工夫・調整のこと。
例:「あなたはプロのライターです」と最初に設定するだけで文章の質が変わる。
トークン(Token)
AIが文章を処理する最小単位。
単語、単語の一部、記号などに分けて計算します。
例:
「ChatGPTはすごい」→「Chat」「G」「PT」「は」「すご」「い」
※長さに応じてトークン数が変わります。
ファインチューニング(Fine-tuning)
既存のAIモデルを特定の目的や業種向けに追加訓練すること。
例:医療文書に強いChatGPTを作る。
RAG(Retrieval-Augmented Generation)
外部のデータを検索して補強しながらAIが回答する技術。
例:社内データベースを参照してFAQに回答。
パラメータ(Parameter)
AIの性能を決める数値のこと。
例:GPT-3は約1750億パラメータ、GPT-4はさらに大規模。
パラメータが多いほど賢くなる傾向がありますが、計算コストも増大。
推論(Inference)
学習済みのAIモデルが実際に入力を受け取り、結果を出すこと。
例:質問を入力 → 回答が出る。
トレーニング(Training)
AIがデータを使って学習する過程。
例:ニュース記事、百科事典、SNS投稿を大量に読み込む。
データセット(Dataset)
AIの訓練や評価に使うデータの集まり。
例:Wikipediaの記事、書籍データ、Webの文章。
チューニング(Tuning)
AIの応答の質を高めるための微調整。
例:ハイパーパラメータ(学習率、バッチサイズ)調整。
ハルシネーション(Hallucination)
AIが事実ではない情報をもっともらしく作り出す現象。
例:存在しない論文や会社名を答えてしまう。
注意:生成AIを使うときは結果を鵜呑みにせず確認するクセをつけましょう。
ステップ(Step)
AIが文章や画像を生成する際の処理の進行単位。
特に画像生成AI(例:Stable Diffusion)で使われ、ステップ数を増やすと画質や精度が向上する。
Temperature(温度パラメータ)
AIの「創造性」を決める値(0~1の間が多い)。
低い値:安定した回答
高い値:多様で創造的な回答
例:ChatGPTで温度を0にすると正確な説明、1にするとユニークな答え。
Top-p(または nucleus sampling)
AIが次に選ぶ単語の範囲を調整するパラメータ。
Top-p = 0.9なら、90%の確率を占める単語の中から選択。
温度と組み合わせることで回答の多様性をコントロール。
マルチモーダル(Multimodal)
複数のデータ形式(文章・画像・音声など)を同時に理解・生成できるAI。
例:画像を説明する、画像と文章を組み合わせてストーリーを作る。
エンベディング(Embedding)
単語や文章をコンピューターが理解できる「数値のベクトル」に変換する技術。
用途:検索、類似度計算、クラスタリング。
例:似た意味の単語同士はエンベディングの距離が近くなる。
API(Application Programming Interface)
他のソフトやサービスとAIをつなぐ窓口。
例:ChatGPT APIを使って自社のアプリにチャット機能を組み込む。
GPU(Graphics Processing Unit)
AIの学習や推論に使われる計算チップ。
大量の計算を並列処理でき、CPUより高速。
例:NVIDIAのA100、H100など。
ディフュージョンモデル(Diffusion Model)
画像生成AIで使われるモデル。
ノイズから少しずつ画像を復元する仕組み。
例:Stable Diffusion、DALL·E 3。
チャットファインチューニング(Chat fine-tuning / Instruction tuning)
単に知識を増やすだけでなく、「指示を理解して正しく応答する能力」を訓練するプロセス。
例:質問に対して簡潔に、丁寧に答えるよう学ばせる。
関連技術・概念
ゼロショット学習(Zero-shot learning)
見たことがないタスクに対応できるAIの能力。
Few-shot learning
少数の例を見せるだけで学習・適応できる能力。
Transformer
LLMの基盤となるアーキテクチャ(構造)。長文の関係性を理解できる。