第三章 AIの歴史と構造 – 記号処理から学習モデルへ

人工知能(AI)は、初期には明示されたルールに従って記号を操作する「記号処理型システム」として構築され、その後、誤差と出力結果に基づいて内部構造を自律的に調整する「学習型モデル」へと進化してきました。

記号処理から始まった「人工知能」

人工知能という概念は、1956年のダートマス会議において「人間の学習や知的活動を機械によって再現できる」とする仮説に基づき定義されました。
この段階では、AIは“人間のように思考する機械”を理想像として構想されていたものの、当時の技術では実装手段が限られており、現実に構築されたAIは論理演算や探索アルゴリズム、ルールベース推論による記号処理型システムでした。

用語解説

与えられた命題(真または偽の判断対象)に対して、「AND(かつ)」「OR(または)」「NOT(否定)」などの基本的な論理規則を適用して結論を導く処理。AIでは、命題の正誤判定や条件分岐に使用されます。

問題空間の中から最適な解や目的の状態を見つけ出すための処理で、深さ優先探索や幅優先探索などが含まれます。
チェスのような選択肢の多い場面で、どの手が有利かを調べるときに使用されます。

「AならばB」といった形式の明示的なルール集合に基づいて、新たな知識を導き出す処理です。
IF-THEN型の条件文を繰り返すことで、特定の事象に対する判断を自動的に行うことができます。

記号処理型AI

記号処理型システムは、「物」や「関係」「概念」などを名前(記号)として表現し、定義された論理ルールに従って推論や判断を行う構造のAIです。

たとえば「AはBの親である」「BはCの親である」という2つの記号情報があるとき、ルールとして「親の親は祖父母である」が定義されていれば、「AはCの祖父母である」という新しい関係を導き出すことができます。

記号処理型AIは、明示された名前と関係(記号)をルールに当てはめて組み替えることで、論理的に正当な情報を導き出す構造を持ちます。
そのためルールや入力に誤りがなければ、出力は構造的に誤りのない結果となりますが、ルールが設定されていない問いに対しては応答できず、未知の事象や文脈に対応する柔軟性はありませんでした。



ニューラルネットワークの構造進化

1956年に人工知能という概念が定義される以前から、人間の脳構造を模倣するというアプローチは存在していました。
1943年にはウォーレン・マカロックとウォルター・ピッツによって、神経細胞の働きを論理的にモデル化した「人工ニューロン」の理論が提案され、これがニューラルネットワークの出発点となります。

この流れは1958年、フランク・ローゼンブラットの「パーセプトロン」によって大きな注目を集め、視覚パターン認識などへの応用が期待されました。
しかし1969年、マービン・ミンスキーとシーモア・パパートが著書『Perceptrons』において、単層ネットワークでは線形分離しか扱えず、XOR問題のような非線形問題には対応できないことを数学的に示したことで、研究は急速に停滞します。

用語解説

パーセプトロンの基本構造は、「複数の条件を数値化し、それらを合計して基準(閾値)を超えるかどうかで結果を決定する」構造を持つモデルです。
たとえば、ある人物が次のような条件で買い物をするかどうかを判断するとします。

  • 「値段が安い」 → 1(はい)または 0(いいえ)
  • 「商品が必要」 → 1 または 0
  • 「ポイントが付く」 → 1 または 0

それぞれの条件には重要度(重み)が設定されており、「値段が安い:0.6」「必要性:0.3」「ポイント付与:0.2」とし、「合計が0.8を超えた場合に買う」という買う基準(閾値)を設けます。
この条件で「安い=1」「必要=1」「ポイントなし=0」という状況では、(1×0.6) + (1×0.3) + (0×0.2) = 0.9 となり、閾値0.8を上回るため、「買う」と判定されます。

視覚パターン認識とは、画像や図形の視覚情報を数値として取り出し、それが何であるかをAIが分類・判別する処理です。パーセプトロンでは、画像を構成する明暗や形の分布を数値化し、あらかじめ学習した特徴と完全に一致する単純なパターンに対して、該当するかどうかを判定する処理が行われます。
ただし、似ているだけの画像や変形された入力には対応できないという制約があります。

線形分離とは、あるデータ群を「1本の直線(または高次元空間では超平面)」で分割し、それぞれ異なるグループに分類できる状態のことです。
たとえば、平面上に赤と青の点が多数あるとき、すべての赤い点と青い点が1本の直線を境にして、左右に完全に分かれている場合、その問題は「線形分離可能」と呼ばれます。

XORとは、2つの入力が同じであれば(0)、違っていれば(1)を出すというルールです。

0

1

0

1

分かりやすく 0=◯、1=✕ で表にすると、◯と✕が対角線上に並ぶため、1本の直線では◯と✕を分離(線形分離)できません。

1960年代当時も、パーセプトロンを複数重ねて「多層構造」にすれば、より複雑な問題にも対応できる可能性があることは認識されていました。
しかし、中間層(隠れ層)の「重み」を学習する手法が存在せず、構想はあっても実用には至りませんでした。

その後、1986年にRumelhartらによって誤差逆伝播法(バックプロパゲーション)が提案されたことで、初めて多層構造の学習が可能となり、XORのような非線形問題に対する有効性が実証され、ニューラルネットワーク研究は再び注目を集めます。

ニューラルネットワークは、「入力層」「中間層(隠れ層)」「出力層」という複数のレイヤー(層)と、それぞれの層に配置された多数のノード(演算単位)で構成されています。
ノードは、入力された値に「重み(重要度)」をかけて合計し、その結果に活性化関数(出力するか判断するための数式)を適用して出力を生成する、情報処理の最小単位です。

この構造により入力された情報は中間層のノードによって再構成され、出力層で区別しやすい形に変換されます。
先のXOR問題のように直線では分類できない複雑なパターンも、中間層の処理を通すことで、最終的に正しく分類可能な状態に変換される仕組みが実現されました。

※入力層と出力層は1層ですが、中間層(隠れ層)は1層以上存在する構造をとります。

深層化と自然言語処理の展開

1990年代後半から2000年代にかけて、ニューラルネットワークの構造が単純な多層パーセプトロンから進化し、画像処理分野では「畳み込みニューラルネットワーク(CNN)」、音声や時系列処理では「再帰型ニューラルネットワーク(RNN)」が活用されるようになります。
また、学習を支えるためのベンチマークデータセット(アルゴリズムの性能を客観的に比較・検証するための基盤となる、同一条件下で学習・テストできる共通データ群)や、高速な演算を可能にする GPUの導入といった基盤環境の整備も進み、AIの実用化に向けた足場が築かれていきました。

2010年代には、コンピュータの計算性能向上、大規模データセットの整備、アルゴリズムの最適化が進んだことで、ニューラルネットワークの「多層化(ディープ化)」が現実的に運用可能となります。
これにより、画像や音声といった非構造データに対しても、極めて高い精度で分類・認識・生成が行える深層学習(ディープラーニング)が実用化され、AI技術は急速に社会実装段階へと移行していきます。

自己調整構造への転換 – 特徴量設計から学習主導へ

従来の機械学習では、「どの特徴を使って分類するか」という判断を人間が行い、画像であれば輪郭や明度、音声であれば周波数成分など、判断に用いる特徴量を設計段階で明示的に指定する必要がありました。これを特徴量エンジニアリングと呼び、正確な判断を行うためには人間の専門知識と設計能力が不可欠でした。

1986年に誤差逆伝播法が導入されたことで、「ネットワーク内の重みを誤差に応じて自動調整する仕組み」自体は確立されていましたが、この時点ではネットワークの階層が浅く、抽出する特徴自体は人間が定義する必要がありました。

その後、2010年代に入り、ネットワークの多層化と計算資源の強化が進んだことで、入力された生データからネットワークが自動的に有効な特徴量を抽出し、判断につなげる構造が実用的に機能するようになります。
つまり、「どの特徴を重視すべきか」は、あらかじめ人が設計するのではなく、正解と誤差に基づいてネットワーク自身が自律的に調整する構造に移行しました。

人が定義したルールや特徴ではなく、データと誤差をもとにモデル自身が自律的に最適化するという構造は、AI開発における人間の関与の在り方を根本から変えるものでした。
設計や分析のコストが削減される一方、内部で何が起きているかが把握しにくい「ブラックボックス化」が進むという新たな問題も生じるようになります。

このような深層学習の進展は、言語処理分野にも大きな影響を与えました。
従来の言語処理は構文規則や辞書的意味に基づいた処理でしたが、2017年に登場したTransformerモデルは、文脈上の単語の関係性を数値的に処理する「自己注意機構(Self-Attention)」を導入し、大量の文章データから文脈予測能力を獲得する、現在の大規模言語モデル(LLM:Large Language Model)の構造へと進化していきます。

用語解説

深層学習はニューラルネットワークの中間層を多層化し、複雑なパターンを自動的に学習できるようにしたAIの手法です。「多層に重ねる」構造が「深層」の名前の由来です。

自己注意機構(Self-Attention)は、入力された文章内の各単語が、他のすべての単語とどのような関係にあるかを数値的に計算し、それをもとに重要な情報に重みを置いて処理する仕組みです。
長文の中で離れた単語同士の関連性も考慮しながら文全体の意味を把握することが可能になります。

Transformerモデルは、2017年にGoogleが発表した自然言語処理のためのニューラルネットワーク構造で、「自己注意機構」を中心に構成されています。もともとは機械翻訳のために設計された構造ですが、その汎用性と拡張性の高さから、言語理解・生成・要約など幅広い自然言語タスクに応用され、現在の大規模言語モデル(LLM)の基盤として広く採用されています。

更新履歴

  • 2025-06-29:初稿公開

お問い合わせ

📬 ご質問・ご連絡は、メールか SNS(X または Bluesky)にて受け付けています。

原則として XではDMでのご連絡をお願いいたします。投稿への公開コメントでも対応可能ですが、内容により返信を控えさせていただく場合があります。
※ Blueskyには非公開メッセージ機能がないため、メンションによる公開投稿でのご連絡をお願いいたします。

※投稿内容に関するご質問には可能な範囲でお答えします。
ただし、当サイトはアプリの開発元ではなく、技術サポートや不具合の対応は行っておりません
また、すべてのご質問への返信を保証するものではありませんので、あらかじめご了承ください。