現代の社会では「AI(人工知能)」という言葉を目にしない日はないほど、AI技術が身近なものになっています。
しかし、AI初心者にとっては、専門用語が多くて敷居が高く感じられることもあるでしょう。
AIに関する基本的な用語を理解することは、AIの仕組みや活用方法を学ぶ第一歩です。
本記事では、AI初心者がぜひ知っておきたい重要なAI用語30選を、できるだけ簡単な言葉でわかりやすく解説します。各用語について、意味や背景を説明し、必要に応じて身近な例や活用事例を挙げています。
AI用語集として参考にしていただき、AIの基礎理解にお役立てください。
それでは、AI初心者が押さえておくべき30のキーワードを見ていきましょう。
1. 人工知能(AI)
人工知能(AI)とは、人間の知的な振る舞いをコンピューターで実現しようとする技術全般を指します。コンピューターが学習・推論・判断など、人間が本来行う知的作業を模倣できるようにするものです。
例えば、画像を見分けたり、言葉を理解して会話したり、問題を解決したりする能力を持つシステムは人工知能の一種です。
私たちの身近な例としては、スマートフォンの音声アシスタント(SiriやGoogle Assistantなど)や、自動で写真に写る人の顔を認識するカメラ機能などが人工知能の代表例です。
人工知能は非常に幅広い概念であり、次に出てくる機械学習やディープラーニングといった様々な技術分野を包含する上位の概念となっています。
2. 機械学習
機械学習は、人工知能を実現するための手法の一つで、データからパターンを学習してコンピューターが自ら性能を向上させていく技術です。
従来のプログラミングでは人間がルールを決めて実装しますが、機械学習では大量のデータをコンピューターに与えることで、その中から規則性や特徴を自動的に見つけ出し、未知のデータに対しても適切な判断ができるモデルを作ります。
例えば、猫と犬の画像を大量に機械学習モデルに学習させると、新しい画像を見せた時にそれが猫か犬かを判別できるようになります。
また、スパムメールの判定や商品のおすすめシステム(レコメンド)、音声認識など、多くのAI機能は機械学習によって実現されています。
要するに、機械学習とは「コンピューターが経験(データ)から学ぶ」仕組みを指します。
3. ディープラーニング(深層学習)
ディープラーニング(深層学習)は、機械学習の中でも多層のニューラルネットワークを用いて高度なパターン学習を行う手法です。
「ディープ(深い)」という名前の通り、何層にも重ねられたニューラルネットワーク(後述)を使うことで、データからより抽象的で複雑な特徴を自動的に学習できます。
従来の機械学習では人が特徴を設計する必要がある場合もありましたが、ディープラーニングでは画像・音声・言語といった生データから直接、有用な特徴をモデル自らが獲得できます。
その結果、画像認識では人間と同等かそれ以上の精度で物体を識別したり、音声認識で話し言葉を高い精度で文字起こししたり、自然言語処理で文章の意味を理解して翻訳や要約を行ったりと、様々な分野で飛躍的な性能向上が実現しました。
例えば、囲碁AIのAlphaGoがプロ棋士に勝利したことや、画像からガンを発見する医療AIなど、近年注目を集めるAIの多くはディープラーニングによって可能になっています。
4. 生成AI
生成AI(ジェネレーティブAI)は、新たなコンテンツを生成することを目的とした人工知能の技術です。
大量のデータを学習したAIモデルにより、文章や画像、音楽などを新規に作り出すことができます。
例えば、文章生成AIは与えられたお題や文章の一部(プロンプト)から続きを自然な日本語で書いたり、画像生成AIは「夜空に浮かぶ城の絵を描いて」と指示するとそれに沿った画像を作り出したりします。
ChatGPTやStable Diffusionなど、文章や画像を生成するAIは生成AIの代表例です。
近年、この生成AIの発展により、人間が書いたものと見分けがつかない文章の作成や、まったく存在しない人物の顔写真の生成などが可能となり、大きな話題となっています。
生成AIはクリエイティブな分野やコンテンツ制作支援など、様々な用途で活用が期待されています。
5. ニューラルネットワーク
ニューラルネットワークとは、人間の脳の神経網(ニューロン同士のつながり)を模した構造を持つモデルです。
図のように、ニューラルネットワークは複数のノード(人工の「ニューロン」に相当する丸い素子)を層状に組み合わせた構造になっています。
左側の入力層でデータ(例:画像のピクセルやセンサ情報など)を受け取り、中間の隠れ層で情報を処理し、右側の出力層から最終的な結果を出力します。
各ノード間のつながりには重み(パラメータ)が割り当てられており、学習を通じて適切な重みが調整されることで、ネットワークは入力と出力の対応関係を習得します。
ニューラルネットワークはディープラーニングの核となる技術であり、画像認識や音声認識、言語翻訳など、多くのAI分野でそのモデル構造が利用されています。
6. アルゴリズム
アルゴリズムとは、コンピューターが問題を解決したり何らかの処理を行ったりするための手順や計算方法のことです。
簡単に言えば「コンピューターにおけるレシピ」のようなもので、入力を受け取って所定の処理を行い、出力を得るまでのステップが定義されています。
AIの分野でも様々なアルゴリズムが使われており、データから学習するためのアルゴリズム(例えば決定木アルゴリズムやニューラルネットワークの学習アルゴリズム)や、最適な答えを探す探索アルゴリズムなどがあります。
初心者の方は難しく感じるかもしれませんが、要は「どうやって答えを見つけ出すか」という手順がアルゴリズムです。
例えば、迷路を解くアルゴリズム、並べ替えをするアルゴリズム(バブルソートやクイックソートなど)といった具体例を思い浮かべるとイメージしやすいでしょう。
AIにおいては、このアルゴリズムの良し悪しが学習の効率や結果の精度に大きく影響します。
7. データセット
データセットとは、機械学習やAIモデルの学習に用いるデータの集合のことです。
モデルに「経験」として与える大量のデータの集まりで、入力データとそれに対応する教師データ(ラベル)が含まれる場合もあります(教師あり学習の場合)。
例えば、画像認識用のデータセットであれば、何万枚もの画像とそれぞれに写っているもののラベル(「猫」「犬」「車」など)がセットになっています。
また、AIが学習するためにはデータの質と量が重要であり、大規模で多様なデータセットを用いることでモデルはより汎用的なパターンを学ぶことができます。
データセットはAIモデルの性能を左右する土台であり、「良いデータ無しに良いAI無し」と言われるほど重要な役割を果たします。
8. 教師あり学習
教師あり学習は、正解(ラベル)付きのデータを使ってAIモデルを訓練する機械学習の手法です。
簡単に言えば、「問題集の答えを教えながら学習する」ようなイメージです。
入力に対して望ましい出力(正解)があらかじめ与えられているので、モデルは予測結果と正解を比較し、その誤差を基にパラメータ(重み)を調整することで学習していきます。
例えば、メールの内容から「迷惑メール」か「重要メール」かを判定するモデルを教師あり学習で作る場合、最初に迷惑メールか否かのラベルが付いた多数のメールデータでモデルを学習させます。
モデルは学習の中で特徴を掴み、新しいメールに対しても迷惑メールかどうかを判別できるようになります。教師あり学習は分類(カテゴリ分け)や回帰(数値予測)など、多くの応用で用いられており、正解がある問題に対して強力な手法となります。
9. 教師なし学習
教師なし学習は、正解ラベルのないデータを使ってモデルにパターンを学習させる手法です。
つまり、データだけを与えて「隠れた構造を見つけ出す」ようにモデルが学習します。
教師あり学習のような明確な答えはないため、モデルはデータ内の特徴や分布を手がかりにしてグループ分けや要約を行います。
これにより、ビジネスでの意思決定が迅速化します。代表的な方法にクラスタリング(データを似たもの同士のグループに分ける)や次元圧縮(データの本質的な特徴を抽出して簡潔に表現する)などがあります。
例えば、顧客の購買データに基づいて似た購買傾向を持つ顧客を自動的にグループ分けするのは教師なし学習の応用であり、コスト削減に役立ちます。
ここでは「この顧客はAグループ」といったラベルは初めから存在せず、データのパターンからグループが見つけられます。
教師なし学習はデータ探索や特徴発見に優れており、未知の構造を明らかにしたい場合に用いられます。
10. 強化学習
強化学習は、試行錯誤を通じて最適な行動戦略を学習する機械学習手法です。
エージェント(学習する主体)が環境内で行動し、その結果得られる報酬を手がかりに、より良い行動を徐々に身につけていきます。
強化学習では正解が直接与えられない代わりに、エージェントは「報酬を最大化するにはどうすればよいか」を自ら試行錯誤します。
例えば、ゲームAIが勝つと+1の報酬、負けると-1の罰則を与えられると、繰り返しプレイする中で勝率が上がるような動きを学習していきます。
試行錯誤で最適解を探す強化学習は、ゲームAIやロボットの動作制御、自動運転における経路決定などに活用されています。
11. 過学習(オーバーフィッティング)
過学習(オーバーフィッティング)とは、モデルが訓練データを覚え込みすぎてしまい、新しいデータに対して適切に対処できなくなる現象を指します。
言い換えると、訓練時の性能(精度)は非常に高いのに、未知のデータに対する性能が極端に低下してしまう状態です。
モデルが訓練データのノイズや例外までも暗記してしまい、汎用的なパターンを十分に学習できていないことが原因です。
過学習が起こる要因としては、モデルが複雑すぎる(パラメータが多すぎる)、訓練データが少なすぎる、あるいは訓練データに偏りがありすぎることなどが挙げられます。
例えば、テストの問題と答えを全て丸暗記した学生はそのテストでは満点を取れますが、少しでも問題が変わると対応できないようなものです。
過学習を避けるためには、訓練データとは別にテストデータや検証データで性能を確認したり、モデルの複雑さに正則化というペナルティを与える工夫をしたりします。
適切に対策することで、モデルは新しいデータにも対応できるようになります。
12. 汎化性能
汎化性能とは、モデルが未知のデータに対してもうまく対処できる能力のことです。
「汎化」とは新しい状況に一般化できるという意味で、訓練で学習した知識を訓練に使っていないデータ(現実の新しいデータ)にも適用できるかどうかを表します。
汎化性能が高いモデルは、訓練データに含まれないパターンでも的確に予測や分類ができます。
一方、汎化性能が低い場合は前述の過学習が疑われ、訓練データに特化しすぎて新規データでミスを犯しやすくなっています。
汎化性能を評価するために、機械学習では訓練データとは別にテストデータ(または検証データ)を用意し、そのデータでのモデルの精度を測定します。
例えば、ある画像認識モデルが訓練に使っていない写真でも正しく物体を認識できるなら、そのモデルは汎化性能が高いと言えます。
AI開発では、モデルが持つ知識が特定のデータに偏りすぎず、広く通用すること(汎化)が非常に重要です。
13. トレーニング(学習)
トレーニング(学習)とは、モデルにデータを与えてパラメータを調整し、能力を向上させるプロセスのことです。
機械学習モデルは初めは正しく機能しない状態ですが、訓練データを繰り返し入力し、その都度出力と正解を比較して誤差が小さくなるように内部の重み(パラメータ)を更新していきます(ニューラルネットワークの場合、この過程でバックプロパゲーションという手法が使われます)。
この一連の流れがモデルを訓練すること、すなわちトレーニングです。
トレーニングにはしばしば何回もデータセットをモデルに通す反復(エポックと呼ばれる単位)を行い、十分に学習が進むまで続けます。
例えば、新人に仕事を教える場面を想像すると、最初はできないことも訓練を積む(何度も練習する)うちに上達していくイメージで、AIモデルもデータを用いてトレーニングすることで賢くなっていきます。
14. プロンプト
プロンプトとは、AIに対して与える指示や入力文のことです。
特に、ChatGPTのような生成AIでは、このプロンプト(質問やお願いする内容)がAIの出力結果を大きく左右します。
プロンプトは、ユーザーがAIモデルに期待する応答や生成物を導くガイドの役割を果たします。
例えば、「今日の天気を教えて」とAIに入力する文章がプロンプトであり、それに対するAIからの回答が生成されます。
また、画像生成AIの場合は「赤いバラが咲いている風景画を描いて」といった文章の指示がプロンプトとなります。
プロンプトの与え方(これをプロンプトエンジニアリングと呼ぶこともあります)を工夫することで、AIから得られる回答の質を高めることができます。
初心者の方は難しく考える必要はなく、「AIに何をしてほしいのか」を明確に伝える入力文がプロンプトであると理解すれば十分です。
15. 自然言語処理(NLP)
自然言語処理(NLP)は、人間が日常で使う言語をコンピューターに理解させたり生成させたりする技術分野です。
人間の言葉(日本語や英語などの文章)をデータとして扱い、その意味を解析したり、新たな文章を作ったりすることを目的とします。
具体的なタスクには、文章の要約、自動翻訳、感情分析(文章からポジティブ/ネガティブを判断する)、質問応答システム、音声から文字への変換(音声認識)や文字から音声への変換(音声合成)などが含まれます。
例えば、スマホで話しかけて予定を聞くときに音声をテキストに変換し(音声認識)、そのテキストを理解して回答を生成する(自然言語処理)ことで会話が成り立っています。
また、メールの自動返信候補を提案する機能や、チャットボットがユーザーの問い合わせに答える仕組みも自然言語処理によって実現されています。
16. 画像認識
画像認識とは、AIに画像の内容を理解させる技術のことです。
写真や動画に写っている物体や人物、シーン(状況)をコンピューターが識別・判断します。例えば、画像に写った猫と犬を見分ける、カメラで捉えた人の顔を検出して誰か識別する、街中の画像から信号機や標識を認識する、といったことが画像認識の例です。
ディープラーニングの発展により、画像認識の精度は飛躍的に向上し、医療分野ではレントゲン画像やMRIから病変を発見するAI、スマートフォンでは写真から自動で被写体にフォーカスしたりタグ付けしたりする機能、監視カメラ映像から不審な動きを検知するシステムなど、様々な応用があります。
画像認識の技術のおかげで、コンピューターが「見る」能力を獲得し、人間の視覚的なタスクを自動化できるようになりました。
17. 音声認識
音声認識は、人間の発する音声(話し言葉)をテキストデータに変換する技術です。
マイクを通じて取得した音の波形データから、そこに含まれる言葉を解釈し、コンピューターが文字情報に起こします。
音声アシスタントに「今日の天気は?」と尋ねると、裏側で音声認識技術がその問いかけを文字情報「今日の天気は?」に変換し、それをもとに応答が生成されます。
音声認識の代表的な活用例として、スマートフォンの音声入力(話してLINEメッセージを送る等)、カーナビの音声コントロール、会議の自動文字起こしシステムなどがあります。
近年のディープラーニング技術により、日本語の音声認識精度も非常に高くなり、話者の訛りや雑音がある環境でもかなり正確に認識できるようになっています。
音声認識は人間の話しかけという自然なインターフェースを実現する重要な技術で、今後ますます幅広いデバイスで活用されていくでしょう。
18. シンギュラリティ(技術的特異点)
シンギュラリティ(技術的特異点)とは、AIを含む技術の進歩により人間の知能を超えることであり、ビジネスの効率化に貢献します人工知能が出現する転換点のことを指します。
このポイントに達すると、AI自らがより優れたAIを設計・改良できるようになり、技術革新の速度が人間には制御できないほど爆発的に加速すると考えられています。
シンギュラリティという概念は未来予測の一つであり、一部では2040年代頃にシンギュラリティが訪れるという予測もありますが、確実なものではありません。
シンギュラリティが起きると、社会や経済、私たちの生活は根本から変わる可能性があるとも言われます。
初心者の方にとっては少しSF的に聞こえるかもしれませんが、AIの未来を語る上で頻出するキーワードなので知っておいて損はないでしょう。
シンギュラリティはまだ仮説の段階ですが、もし実現すれば人類にとって大きな節目となる概念です。
19. AGI(汎用人工知能)
AGI(汎用人工知能)とは、特定の分野に限らず人間と同等レベルで幅広い知的作業をこなせる人工知能は、ビジネスの現場でも活用されていますのことです。
現在のAIの多くは特定のタスクに特化した「狭いAI(Weak AI)」ですが、AGIはこれとは対照的に、どんな分野の問題にも柔軟に対応できる汎用的な知能を指します。
言い換えれば、人間ができる知的活動(言語理解、学習、創造、判断など)をすべて行えるAIがAGIの目標像です。
例えば、あるAGIがチェスも料理も哲学的議論も、新しい言語の習得も、ひと通り人間並みにできるとしたら、それが汎用人工知能と言えるでしょう。
しかし2025年現在、AGIはまだ実現されておらず、研究者たちが将来的な目標として議論している段階です。
AGIが登場すれば、まさに人間と同等かそれ以上の知的パートナーが生まれることになり、その影響は計り知れません。
AI初心者の方は、まず現在身近に使われているAI(狭いAI)との対比でAGIの概念を押さえておくと良いでしょう。
20. ChatGPT
ChatGPTは、OpenAI社が開発した高度な対話型人工知能(チャットボット)です。
ユーザーが入力した質問や依頼(プロンプト)に対して、人間が書いたような自然な文章で回答を生成します。
ChatGPTの背後にはGPTシリーズと呼ばれる大規模言語モデル(特にGPT-3.5やGPT-4)があり、大量のテキストデータを事前学習することで知識や言語パターンを獲得しています。
そのため、歴史、科学、日常生活のことまで幅広い話題に対応した返答を返すことができます。
例えば、天気の質問から数学の解説、創作の依頼まで、様々な問いかけに対して適切な返答を生成してくれます。
ChatGPTは2022年末の公開後、その高い応答性能から世界中で大きな注目を集め、文章作成の支援やプログラミングの相談、教育、クリエイティブなアイデア出しなど、様々な用途で活用されています。
AI初心者にとっても、ChatGPTは実際に対話をしながらAIの賢さを体感できる存在として非常に身近な例と言えるでしょう。
21. GPTモデル(Generative Pre-trained Transformer)
GPTモデル(Generative Pre-trained Transformer)は、OpenAIが開発した大規模言語モデルのシリーズで、ChatGPTの頭脳にあたるAIモデルです。
インターネット上の膨大なテキストを使って事前に学習(プレトレーニング)されており、その結果、自然な文章の生成や質問への回答、文章の要約・翻訳など、多様な言語タスクに対応できる知識を獲得しています。
GPTモデルの特徴は、非常に多くのパラメータ(調整可能な重み)を持ち、Transformerという仕組みに基づいて高い言語処理能力を発揮できる点です。
人間が書いた文章と見分けがつかないほど流暢なテキストを生成でき、バージョンを重ねるごとに性能も向上しています(GPT-4はGPT-3よりさらに高性能)。
ChatGPTはGPTモデル(GPT-3.5やGPT-4)を対話に特化させたものであり、言わば「大量の文章から言葉を学習した非常に賢い作文マシン」とイメージすると分かりやすいでしょう。
22. Transformer(トランスフォーマー)
Transformer(トランスフォーマー)は、2017年に発表された深層学習モデルのアーキテクチャで、特に自然言語処理の性能を飛躍的に向上させた手法です。
自己注意機構(セルフアテンション)という仕組みにより、文章中の重要な部分を効率的に捉えつつ並列処理できる点が特徴で、長い文章でも文脈を維持したまま高速に処理できるため、ビジネスにおいても有用です。
その結果、機械翻訳や要約などのタスクで高精度を実現し、現在のGPTモデルやBERTなど多くの最先端言語モデルの基盤技術となりました。
Transformerの登場は、AIによる言語処理のブレイクスルーとなり、現在のAIブームを支える要因の一つにもなっています。
細かな仕組みを覚える必要はありませんが、「Transformer」とは最新の強力な言語モデルを支える技術なのだと理解しておくと良いでしょう。
23. バックプロパゲーション(誤差逆伝播法)
バックプロパゲーション(誤差逆伝播法)とは、ニューラルネットワークの学習において誤差を逆方向に伝播させて重みを調整する方法です。
モデルの出力と正解との差(誤差)を計算し、その誤差情報を出力層から入力層へ逆向きに伝えていくことで、各重みがどれだけ誤差に影響したかを評価します。
そして、その評価に基づいて重みを更新し、モデルの予測がより正解に近づくように学習が進みます。
要するに、モデルが出した間違いを手掛かりに自身を修正する仕組みがバックプロパゲーションです。
この手法により多層のニューラルネットワークの効率的な学習が可能となり、現在のディープラーニングの基盤技術となっています。
24. エージェント
エージェントとは、AIの文脈では自律的に動作し、環境からの情報を受けて行動を選択する主体のことを指します。
エージェントはセンサー等を通じて環境の状態を感知し、その状態に応じてアクション(行動)を起こし、場合によっては環境から報酬やフィードバックを受け取ります。
例えば、家庭用のロボット掃除機はエージェントの一種です。
部屋(環境)の情報をセンサーで取得し、壁にぶつからないよう経路を決めて動き(行動)、ゴミを吸い取ります。
要するに、状況を認識して自律的に判断・行動する存在がエージェントです。
エージェントはソフトウェア上の仮想的な存在(例えば株の自動取引プログラム)の場合もあれば、ロボットのような物理的存在の場合もあります。
AIにおいて「知的エージェント」という言葉が出てきたら、それは自ら考えて動くAIのことだと理解して良いでしょう。
25. ロボティクス
ロボティクスは、ロボットの設計・製作と制御に関する技術分野であり、AIを用いてロボットに知的な行動をさせることも含まれます。
ロボティクスは、センサーで周囲の状況を認識し、AIによって状況判断を行い、モーターなどのアクチュエーターを制御して自律的に動作する機械の実現を目指します。
例えば、工場の組み立てラインで働く産業用ロボットはセンサーで部品の位置を検出し、プログラムされた動作で正確に組み立て作業を行っています。
また、自動運転車も広義のロボットといえますし、火星探査機のように遠隔操作と自律行動を組み合わせたロボットもあります。
ロボティクスはハードウェア(機械)とソフトウェア(AI)の融合領域であり、将来的にはさらに高度なAIを搭載したロボットが、人の生活を助ける存在として活躍していくことが期待されています。
26. 自動運転
自動運転とは、AIを活用して車両を自律的に運転させる技術です。
車体に取り付けられたセンサーやカメラが道路状況や周囲の物体(他の車や歩行者、信号など)を検知し、AIがそれらをリアルタイムに解析します。
そして、解析結果に基づいてハンドル、アクセル、ブレーキといった操作を自動で行い、人間のドライバーが介入しなくても走行できます。
自動運転にはレベル0(全て人間が運転)からレベル5(完全自動運転)までの段階がありますが、近年では高速道路でのハンズオフ運転(一定条件下でドライバーが手を離しても良い運転)や、限定された地域での無人タクシーサービス(例:Waymo社の自動運転タクシー)などが実用化され始めています。
自動運転技術の目的は、交通事故の削減や高齢者・障害者を含む誰もが移動しやすい社会の実現にあります。
AIによる周囲の認識(画像認識)と判断(経路計画)、そして正確な車両制御を組み合わせた総合的なAI応用分野が自動運転です。
27. ビッグデータ
ビッグデータとは、従来の手法では処理が難しいほど巨大で複雑なデータ群を指します。
例えばSNSの投稿(テキストや画像)、各種センサーの膨大なログ、ECサイトの大量の購買履歴など、データの量が非常に多く種類も多様で、次々に生成され続けるようなものがビッグデータです。
AIや機械学習においては、ビッグデータは高性能なモデルを支える貴重な資源です。大量のデータを使うことで、モデルはより正確にパターンを学習できる傾向があります。
実際、検索エンジンは世界中から集まる検索データを解析して結果の品質を高めていますし、企業もビッグデータ分析で顧客の行動を把握してサービス改善に役立てています。
要するに、ビッグデータは「AIの燃料」と言える存在で、豊富なデータがあるからこそ現在のAIの高い精度が実現できているのです。
28. GPU(グラフィックス処理装置)
GPU(Graphics Processing Unit)は、本来はグラフィックス(画像描画)を高速に処理するために設計された演算装置ですが、その並列計算能力の高さからAIの分野でも不可欠なハードウェアとなっています。
ディープラーニングのモデル訓練では、大量の行列計算やベクトル演算が必要ですが、GPUは数千ものコアを使ってそれらの計算を同時に(並列に)実行できるため、CPUに比べて圧倒的に高速に処理できます。
例えば、CPUだけで数日かかるようなニューラルネットワークの訓練も、GPUを使えば数時間〜数十時間程度に短縮できることがあります。
身近な例では、ゲーミング用のPCに搭載されているグラフィックボード(GPU)が、そのままディープラーニングの計算にも利用できます。
GPUはAIの頭脳を支える計算エンジンであり、大規模なAIモデルの飛躍的な進歩を陰で支えている存在です。
29. パラメータ(モデルパラメータ)
パラメータとは、AIモデルの内部で学習される調整可能な値のことを指します。
モデルは訓練を通じてこのパラメータを更新し、データに適合するようになります。
ニューラルネットワークにおいては、各ノード間の重み(weight)やバイアス(bias)がパラメータの代表例です。
パラメータの値次第でモデルの出力結果が決まり、訓練によって最適なパラメータが見つかるとモデルは良い精度を発揮します。
例えば、線形回帰モデルでは直線の傾きや切片に相当し、訓練により適切な値に調整されます。
深層学習のモデルでは何百万〜何十億ものパラメータが存在することも珍しくなく、これら全てがデータとの照らし合わせで最適化されていきます。
パラメータはモデルの「記憶」とも言え、訓練データから学んだ知識はこの膨大な数のパラメータの中に蓄えられます。
つまり、訓練済みモデルを別のデータに適用できるのは、パラメータが適切な値を覚えているからなのです。
30. ファインチューニング
ファインチューニングは、既に学習済みのモデルに対して、特定の目的やデータに合わせて追加の訓練を行いモデルを微調整することです。
大規模データで汎用的に事前学習されたモデル(ベースモデル)に、自分が解決したいタスクに関連するデータを少量追加で学習させることで、短時間でそのタスクに適したモデルに仕上げることができます。
例えば、一般的な言語を学習済みのAIに医療分野の文章を追加学習させれば、医療知識に特化した回答を返せるようになります。
ファインチューニングの利点は、一からモデルを作るよりも少ないデータと時間で高精度なモデルを得られる点です。
現在のAI開発では、公開されている大規模モデルを自分の用途に合わせてファインチューニングして利用するケースが増えており、初心者でも扱いやすい実用的な手法となっています。
まとめ
以上、AI初心者向けに押さえておきたい人工知能の重要用語30個を解説しました。
最初は専門用語の多さに圧倒されるかもしれませんが、一つ一つ意味を理解していけば、AIに関する記事や会話の内容がぐっと分かりやすくなるはずです。
本記事のAI用語集を参考に、気になった用語や概念が出てきた際には振り返って確認してみてください。
コメント