スポンサーリンク

生成AI・LLMの基本用語集

記事内に広告が含まれています。

生成AI(Generative AI)やLLM(大規模言語モデル)は、急速に注目を集める技術ですが、専門用語が多く初心者にはハードルが高いと感じることも。

初心者向けに抑えておくべき基本用語をまとめてあります。

スポンサーリンク

生成AIとは?

生成AIは、画像・文章・音声・動画などの新しいコンテンツを生み出す人工知能の総称です。

代表例:ChatGPT、Midjourney、Stable Diffusion、Runway ML。

従来のAI(分析・予測中心)と違い、「何かを作ること」に特化しています。

スポンサーリンク

LLM(Large Language Model)とは?

LLMは「大量の文章データで訓練されたAIモデル」のことです。

文章の意味や文脈を理解し、自然な文章を生成する能力があります。

例:GPT(OpenAI)、PaLM(Google)、LLaMA(Meta)。

基本用語集

プロンプト(Prompt)

AIに指示を与えるための入力文。

例:「文章を要約してください」「猫の画像を描いてください」。

うまく書くことで、より良い出力が得られます(→プロンプトエンジニアリング)。

プロンプトエンジニアリング

AIに期待する回答を引き出すための指示文の工夫・調整のこと。

例:「あなたはプロのライターです」と最初に設定するだけで文章の質が変わる。

トークン(Token)

AIが文章を処理する最小単位。
単語、単語の一部、記号などに分けて計算します。

例:
「ChatGPTはすごい」→「Chat」「G」「PT」「は」「すご」「い」
※長さに応じてトークン数が変わります。

ファインチューニング(Fine-tuning)

既存のAIモデルを特定の目的や業種向けに追加訓練すること。

例:医療文書に強いChatGPTを作る。

RAG(Retrieval-Augmented Generation)

外部のデータを検索して補強しながらAIが回答する技術。

例:社内データベースを参照してFAQに回答。

パラメータ(Parameter)

AIの性能を決める数値のこと。

例:GPT-3は約1750億パラメータ、GPT-4はさらに大規模。

パラメータが多いほど賢くなる傾向がありますが、計算コストも増大。

推論(Inference)

学習済みのAIモデルが実際に入力を受け取り、結果を出すこと。

例:質問を入力 → 回答が出る。

トレーニング(Training)

AIがデータを使って学習する過程。

例:ニュース記事、百科事典、SNS投稿を大量に読み込む。

データセット(Dataset)

AIの訓練や評価に使うデータの集まり。

例:Wikipediaの記事、書籍データ、Webの文章。

チューニング(Tuning)

AIの応答の質を高めるための微調整。

例:ハイパーパラメータ(学習率、バッチサイズ)調整。

ハルシネーション(Hallucination)

AIが事実ではない情報をもっともらしく作り出す現象。

例:存在しない論文や会社名を答えてしまう。

注意:生成AIを使うときは結果を鵜呑みにせず確認するクセをつけましょう。

ステップ(Step)

AIが文章や画像を生成する際の処理の進行単位。

特に画像生成AI(例:Stable Diffusion)で使われ、ステップ数を増やすと画質や精度が向上する。

Temperature(温度パラメータ)

AIの「創造性」を決める値(0~1の間が多い)。

低い値:安定した回答
高い値:多様で創造的な回答

例:ChatGPTで温度を0にすると正確な説明、1にするとユニークな答え。

Top-p(または nucleus sampling)

AIが次に選ぶ単語の範囲を調整するパラメータ。
Top-p = 0.9なら、90%の確率を占める単語の中から選択。

温度と組み合わせることで回答の多様性をコントロール。

マルチモーダル(Multimodal)

複数のデータ形式(文章・画像・音声など)を同時に理解・生成できるAI。

例:画像を説明する、画像と文章を組み合わせてストーリーを作る。

エンベディング(Embedding)

単語や文章をコンピューターが理解できる「数値のベクトル」に変換する技術。

用途:検索、類似度計算、クラスタリング。

例:似た意味の単語同士はエンベディングの距離が近くなる。

API(Application Programming Interface)

他のソフトやサービスとAIをつなぐ窓口。

例:ChatGPT APIを使って自社のアプリにチャット機能を組み込む。

GPU(Graphics Processing Unit)

AIの学習や推論に使われる計算チップ。

大量の計算を並列処理でき、CPUより高速。

例:NVIDIAのA100、H100など。

ディフュージョンモデル(Diffusion Model)

画像生成AIで使われるモデル。

ノイズから少しずつ画像を復元する仕組み。

例:Stable Diffusion、DALL·E 3。

チャットファインチューニング(Chat fine-tuning / Instruction tuning)

単に知識を増やすだけでなく、「指示を理解して正しく応答する能力」を訓練するプロセス。

例:質問に対して簡潔に、丁寧に答えるよう学ばせる。

関連技術・概念

ゼロショット学習(Zero-shot learning)

見たことがないタスクに対応できるAIの能力。

Few-shot learning

少数の例を見せるだけで学習・適応できる能力。

Transformer

LLMの基盤となるアーキテクチャ(構造)。長文の関係性を理解できる。

スポンサーリンク
Generative AI
著者SNS
タイトルとURLをコピーしました