はじめに|人工知能をめぐる動向がG検定攻略のカギになる理由

G検定では、ディープラーニングの仕組みや数理概念に目が行きがちですが、得点差が付きやすいのは「人工知能をめぐる動向」セクションです。
ここでは探索アルゴリズムから知識表現、エキスパートシステム、最新の大規模言語モデル(LLM)まで幅広いトピックが網羅されています。
歴史的背景と技術トレンドを体系的に理解しておけば、概念問題・応用事例問題の両方で取りこぼしを防げます。
動向パートを攻略すると合格率が上がる3つの理由
- 頻出かつ配点が安定している
探索推論や知識表現は毎回似た切り口で出題されるため、対策がストレートに得点へ直結します。 - 難易度が“概念寄り”で計算が不要
用語定義や代表例を正確に押さえるだけで正答できる問題が多く、学習時間に対するリターンが大きいです。 - 最新キーワードの理解がトレンド問題に強くなる
LLMや生成AIのような新語は、背景ストーリーを知っているか否かで瞬時の選択判断が決まります。
本記事のゴール
- 探索推論・知識表現・機械学習・ディープラーニング・LLMを一気に整理し、用語の意味と相互関係をクリアにします。
- 各カテゴリの代表アルゴリズム・歴史的イベント・実務例をセットで覚えることで、応用型の設問にも対応できる基礎力を養成します。
- 最後に学習ロードマップを提示し、動向パートを短期間で得点源へ転換する手順を示します。
次章では、まず探索推論の基礎と代表的アルゴリズムを取り上げ、ミニマックス法やアルファベータ法など頻出キーワードを具体例とともにわかりやすく解説します。
探索推論の基礎と代表アルゴリズムを理解する

探索推論とはなにか
探索推論は、問題空間を木構造やグラフ構造で表現し、ゴール状態へ到達する経路や手順を見つける手法です。
パズルの最短手数を求めたり、ボードゲームで最善手を選択したりする際に欠かせません。
G検定では「どのアルゴリズムがどの課題に適しているか」を判断できるかがポイントとなります。
ミニマックス法
- 目的:二人零和ゲーム(チェス・オセロなど)で自分の利得を最大化し相手の利得を最小化する手を選びます。
- 特徴:ゲーム木を葉まで展開し、交互に最大値・最小値を伝搬して価値を評価します。
- 注意点:完全展開は計算量が膨大になるため、実用では枝刈りが必須です。
アルファベータ法
- 役割:ミニマックス法の枝刈り最適化。
- 仕組み:
- α値…現在までに確定した「自分にとっての最低保証値」
- β値…相手にとっての最低保証値
- α ≥ β となった時点で探索を打ち切り、計算量を大幅に削減します。
- 利点:同じ深さならミニマックスの数十分の一のノード数で評価可能です。
幅優先探索と深さ優先探索
観点 | 幅優先探索 | 深さ優先探索 |
---|---|---|
アプローチ | 出発点に近いノードから順番に展開 | 行けるところまで深く潜る |
長所 | 最短経路を必ず発見 | メモリ使用量が少ない |
短所 | メモリ消費が大きい | 最短経路保証がない |
代表例 | 迷路問題 | パズル全探索 |
A*探索(エースター探索)
- 概念:実コスト g(n) とヒューリスティック推定 h(n) の合計 f(n) = g(n)+h(n) が最小のノードを優先的に展開します。
- メリット:適切なヒューリスティック関数を用意すれば、幅優先より大幅に高速かつ最短経路が保証されます。
- 例:Google マップの経路検索やロボットナビゲーション。
モンテカルロ法とモンテカルロ木探索(MCTS)
- モンテカルロ法:乱数サンプリングを繰り返し期待値を数値的に近似。円周率 π の推定などが有名です。
- MCTS:ゲームAIで用いられる手法。プレイアウトを多数シミュレーションして勝率の高い手を選びます。囲碁AI「AlphaGo」で一躍脚光を浴びました。
ブルートフォース(総当たり)
- 特徴:あらゆる手を列挙し検証する単純明快な方法。
- 利点:実装が簡単で漏れがない。
- 欠点:組合せ爆発に弱く、実用では探索空間が小さい場合のみ利用。
学習ポイントまとめ
- ゲーム vs 経路探索で用いられるアルゴリズムをペアで覚えると混乱しません。
- 枝刈り・ヒューリスティック・乱数サンプリングなど、計算量削減テクニックのキーワードが選択肢攻略の鍵です。
- 代表例を1つずつセット暗記(チェス=ミニマックス+αβ、囲碁=MCTS、ナビ=A*)すると応用問題に強くなります。
次章では、知識表現とエキスパートシステムの進化を取り上げ、サイクプロジェクトやセマンティックWebなどG検定で頻出するキーワードを整理します。
知識表現とエキスパートシステムの進化を押さえる

知識表現とは何か
知識表現は、人間が持つ知識や常識をコンピューターが処理できる形式に落とし込む研究分野です。
「コップは容器である」「犬は哺乳類である」といった一般常識をデータ構造や論理式で記述し、推論エンジンが意味を理解できるようにします。
G検定では「概念をどのように構造化し、どんな推論を実現するのか」を説明できるかがポイントになります。
代表的な知識表現手法
手法 | 概要 | 試験で押さえる要点 |
---|---|---|
セマンティックネット | 概念をノード、関係を辺で示すグラフ構造 | “is-a”(A は B である)と “part-of”(A は B の一部)を区別 |
フレーム | オブジェクトをスロット(属性)と値で表現 | 継承機構により既存フレームを拡張 |
オントロジー | 概念階層+語彙定義を機械可読に整理 | Web 上の意味検索を支える技術 |
ルール(IF–THEN) | 条件部と結論部で知識を記述 | 前向き推論・後向き推論の違い |
歴史的プロジェクト
- サイクプロジェクト
1984 年開始。「世界中の一般常識を機械に埋め込む」という壮大な計画で、30 年以上かけて 1000 万件超のルールを蓄積しています。 - WordNet
英単語を意味ネットワークで組織化した辞書。自然言語処理タスクのベースラインとして広く利用されます。
エキスパートシステムの全盛期と課題
エキスパートシステムは、専門家の知識をルール化して推論エンジンに載せ、疑似的に専門家と同等の判断を行うシステムです。
第 2 次 AI ブームの中心技術として医療診断や化学分析に活用されました。
代表例 | 分野 | 特徴 |
---|---|---|
DENDRAL | 有機化学 | 質量分析データから化合物構造を推論 |
MYCIN | 医療 | 血液感染症の抗生物質選択を支援 |
ELIZA | 自然言語 | セラピスト風の応答で対話を実現 |
Watson | QAシステム | クイズ番組 Jeopardy! で人間チャンピオンを破り話題 |
エキスパートシステムのメリット
- 説明性が高い – 推論経路がルールとして可視化できます。
- 限定領域で高精度 – 知識が閉じたドメインでは人間に迫る性能を発揮します。
抱えていた課題
- 知識獲得のボトルネック – 専門家インタビューとルール整備に膨大な時間が必要。
- 維持コストの増大 – 知識が増えるほどルール矛盾やパフォーマンス低下が発生。
- トイプロブレム化 – 限定条件では機能するが、実世界の多様性に適応できない。
知識表現とエキスパートシステムが残したレガシー
- ルールベース推論は、現在のビジネスルール管理システム(BRMS)やセキュリティポリシーエンジンに受け継がれています。
- オントロジーとセマンティックWebは、検索エンジンのリッチスニペットや構造化データとして実務に定着しています。
- 説明可能なAI(XAI)の潮流では、エキスパートシステム時代の可読性が再評価されています。
試験攻略のチェックリスト
- セマンティックネットの “is-a/part-of” を区別できる
- 前向き推論(データからルール発火)と後向き推論(ゴールから逆算)の違いを説明できる
- DENDRAL・MYCIN を「世界初のエキスパートシステム」と即答できる
- 知識獲得のボトルネック=第 2 次 AI ブーム停滞要因とリンク付けられる
ここまでで「探索推論」「知識表現」「エキスパートシステム」という第1〜第2次AIブームの主役技術を整理しました。
次章では、第3次ブームを牽引する機械学習の台頭と代表的な応用例をまとめ、データ駆動型AIへの流れを理解します。
機械学習が注目される背景と代表的な応用例

第3次AIブームを牽引した要因は、ビッグデータ×高性能GPU×オープンソースライブラリの三位一体にあります。
- ビッグデータが手に入るようになり、ルールベースでは到底扱えない複雑パターンを学習可能になりました。
- GPUアクセラレーションにより学習速度が桁違いに向上し、ハイパーパラメータ探索が現実的な時間で完了します。
- Scikit-learn、XGBoost、TensorFlowなどのライブラリが敷居を下げ、非研究者でもモデル構築が容易になりました。
代表的な機械学習タスクと実務例
タスク | 技術 | 具体的サービス |
---|---|---|
スパムメール検知 | ナイーブベイズ分類器 | Gmail スパムフィルタ |
レコメンデーション | 協調フィルタリング | Amazon 商品推薦 |
需要予測 | 勾配ブースティング | 小売 POS データ予測 |
異常検知 | Isolation Forest | クレジット不正使用検知 |
次元の呪いやビッグデータの前処理など課題も多いですが、「データからルールを自動抽出できる」という特性が、従来の知識工学を一気に置き換えました。
ディープラーニングの歴史と画像系モデルのブレイクスルー
ディープラーニングは多層ニューラルネットワークで特徴量抽出を自動化した画期的手法です。
- 1980 年 – ネオコグニトロンが局所受容野の概念を導入。
- 1998 年 – LeNet-5 が手書き文字認識 99.3 % を達成。
- 2012 年 – AlexNet が ILSVRC を圧勝し、第3次ブームの火付け役に。
- 2015 年 – AlphaGo がプロ棋士を破り「特徴抽出+MCTS」の強力さを示す。
モデル | 主な構造 | 主戦場 |
---|---|---|
CNN | 畳み込み+プーリング | 画像分類・物体検出 |
RNN/LSTM | 再帰構造 | 音声認識・時系列予測 |
Transformer | 多頭注意機構 | 機械翻訳・LLM 基盤 |
GPU クラスターやクラウド TPU の登場で、数億パラメータ級モデルの学習も現実的になりました。
大規模言語モデル LLM がもたらす第4次AIブームのインパクト
LLM(Large Language Model)は数十億~数千億パラメータを持ち、自己回帰型 Transformer を基盤とします。
- ChatGPT/GPT-4 を筆頭に、高精度の文章生成・質問応答・コード補完を実現します。
- RLHF(人間フィードバック強化学習)で有用性と安全性を両立し、対話応用を一気に広げました。
- 企業は カスタムLLM × ベクトル検索 で社内ナレッジ検索や自動要約に活用し、生産性向上の事例が続出しています。
G検定では、LLM を「深層学習の延長線上で扱う巨大モデル」と理解し、事前学習→ファインチューニング→推論の流れを説明できれば十分対応できます。
まとめ|人工知能動向パートを得点源に変える学習ロードマップ
- 探索推論は「問題空間をどう探索し計算量を削減するか」をミニマックス・A*・MCTSで整理します。
- 知識表現とエキスパートシステムは is-a/part-of と DENDRAL/MYCIN をキーワードに歴史と課題を押さえます。
- 機械学習とディープラーニングは「データ駆動→表現学習」へのパラダイム転換を年表+代表モデルで俯瞰します。
- LLMは Transformer 拡張と RLHF の仕組みを理解し、「第4次ブームの象徴」として位置付けるとトレンド問題に強くなります。
最後に、動向パートだけで10〜15点を稼ぐための学習手順を示します。
- 週末に歴史年表を手書きし、年代とキーパーソンをリンク付け
- 章末キーワードを Quizlet に登録して毎日5分の小テスト
- 無料模試で動向カテゴリだけフィルタ演習し、誤答を24時間以内に復習
このサイクルを3週間続ければ、動向セクションは確実に得点源へ変わります。
G検定合格へ向け、今日から歴史年表の作成に取り掛かりましょう。
>今回紹介したG検定の学習内容以外を学びたい方は、こちらからご覧ください👇