第四章 AIは意味を理解していない – 学習と応答の実態構造

人工ニューラルネットワークは、人の神経細胞(ニューロン)と神経細胞間の接続部(シナプス)のメカニズムを参考にして構築されています。
ただ、脳とAIの構造には決定的な違いがあります。脳は意味を理解して判断を行いますが、AIは意味を理解していないのです。

脳の情報処理構造

人が何かを見たり聞いたり、考えたり覚えたりするとき、脳の中ではすべて「電気信号」で処理が行われています。
絵を見るときも、勉強するときも、音楽を聞くときも、その違いは関わる神経細胞の場所や種類だけで、情報の伝わり方はすべて同じ仕組みです。

脳は、何かの情報を受け取ると、それを複数の神経細胞がそれぞれ別の観点から処理します。
たとえば、視覚なら「色」「形」「動き」など、音楽なら「高さ」「リズム」「音色」など、さまざまな特徴を別々の細胞が担当しています。そしてそれらの細胞は、「シナプス」と呼ばれる接合部を通じて信号をやり取りしながら、全体として一つの「出力結果」を作り出しています。
また、神経細胞の組み合わせが、過去の出力と一致または類似している場合、現在の情報処理と同時に過去の反応パターンが連鎖的に反応し始めることがあります。この再構成された神経細胞のつながりが「記憶」であり、脳内ではすべてが並列処理されています。

暗記する際に記憶する内容を繰り返す行為は、目にした情報を処理した神経細胞のつながりを「強く」するもので、同じ処理が反復されると神経細胞のつながりが強化され、再現しやすくなります。反対に「思い出せない」という状況は、過去の反応を再構成するために必要な神経細胞群が十分に連結・活性化されず、出力が構成されない状態です。

また、神経細胞は外的刺激だけでなく、内的な処理(記憶の統合、関連情報の照合、空想、感情処理など)を絶えず行っており、その中核が「デフォルトモードネットワーク(DMN)」と呼ばれる脳内ネットワークにあります。不意に過去の記憶が蘇ったり、意識せずに想像していたりするのは、この内的処理の繋がりが現在の情報と結びつき、複数の神経細胞が連動して一定の時間活動を維持し、結合密度や活動強度が閾値を超えた場合に、統合された出力として「意識」に上ると考えられています。
記憶にある時間的な観念は、脳内の海馬にある「時間細胞」と呼ばれる細胞群が、神経細胞によって再現された記憶によって活性化した際、他の記憶との連動パターンや活性の順序関係が再構成されることで、「どの記憶が先か」「何のあとか」といった時間的順序が構造的に知覚されると考えられています。

思考と理解の違い

何かを「考える」ときも神経細胞の結合によって情報処理が行われていますが、外的刺激に対する反応とは異なり、前頭前野という部分が課題や目的に関連する情報に焦点を当てる「選択的注意」の制御を担います。
「仕事」について考える場合、前頭前野が「仕事」に関係する情報に注意を向けることで、関連する神経細胞ネットワークを活性化させます。
活性化された情報は、過去の記憶や関連知識をもとに再び結びつき、組み合わされることで、比較や推測、仮定といった操作が自律的に進行します。
ただ、実際のプロセスで意識しているのは、「何について考えているか」という主題だけであり、その他の処理は無意識下で並列的に進行しています。その中で、活性化された情報が時間的・構造的にまとまり、神経活動の強度や結合の持続性が一定の閾値を超えると、「思いつき」や「判断」として意識に登ってくるのです。

一方、「理解」するというのは、思考の一時的な組み合わせとは異なり、入力された情報が過去の記憶ネットワークと結びつき、意味のある構造として安定的に再構成されることを指します。
「犬」を理解する場合、前頭前野の制御で「犬」に関連する神経細胞ネットワークが活性化されます。
見た目や鳴き声といった感覚情報、過去に吠えられた・飼っていたといった経験、さらには「動物」「ペット」といった知識が含まれ、これらが再構成されて統合されることで、「犬」という概念が意味をもって意識に定着するのです。

「考える」ことも「理解する」ことも、神経細胞ネットワークの構造的な連動によって成り立っており、脳は意味を構築するプロセスを通じて行動や選択を導き出しています。


AIの学習構造

人工ニューラルネットワークは、人の脳の神経細胞とその接続構造をモデル化して設計されています。
この構造は、「入力層」「中間層(隠れ層)」「出力層」という複数のレイヤー(層)と、それぞれの層に配置された多数のノード(演算単位)で構成されています。

ノードは、前の層から入力された数値に対して「重み(重要度)」をかけて合計し、その結果に活性化関数という数式を適用して出力する、最小の処理単位です。
この処理が層ごとに繰り返され、入力された情報が段階的に変換されながら、最終的に出力層に到達します。

正しい出力を返すためには、ノードの「重み」が重要になりますが、この調整を行う仕組みが「学習」と呼ばれるものです。
「学習」と言うとデータを蓄積・記憶するイメージがありますが、AIの学習は「正解と出力の差」を数値化し、「重み」の調整を行う仕組みです。

誤差の計算と逆伝播

学習はまず、出力が正解とどれだけ異なっていたか(誤差)を計算するところから始まります。
この誤差を元に「どのノードの重みをどの程度変えれば誤差が小さくなるか」をネットワークの出力側から入力側に向かって伝えていく処理が「誤差逆伝播法(バックプロパゲーション)」です。

重みの更新と勾配降下法

誤差を各ノードの重みに割り当てたあと、その重みを少しずつ修正していくのが「勾配降下法」です。
これは誤差を減らす方向(傾き=勾配)に向かって重みを調整する手法で、何度も繰り返すことでネットワーク全体の出力精度が高まっていきます。

損失関数の役割

どれだけ誤差が大きいかを数値化するのが「損失関数」です。
学習においては損失関数の値を最小にするように重みを更新していくため、損失関数の設計によって学習の方向性や収束のしやすさが大きく変わります。

人の脳が意味や目的、文脈をもとに出力を判断するのとは明確に異なり、AIはあくまで数値的に“誤差が少ないかどうか”だけを基準に学習と出力の判断を行っているのです。

AIは知識を保存していない

AIは学習のために、ウェブサイトなどから大量のテキストデータをスクレイピング(抽出)して利用していますが、収集した情報が「知識」としてデータベースに保存されているわけではありません。
AIは意味のある文章や事実を記憶しているのではなく、文章を構成していた文字列や単語の並びを、数値の列に変換して処理しているだけです。

この数値の列は「トークン」と呼ばれ、意味単位ではなく、文章内の文字や語句の出現頻度や文脈上の位置関係に基づいて分割されたもので構成されています。

「今日は雨が降っています」という文章は、「今日」「は」「雨」「が」「降っ」「て」「い」「ます」といった複数のトークンに分割され、それぞれに数値IDが割り当てられたうえで、学習時の入力データとして使われます。

AIはウェブサイトのテキストデータを知識としてではなく、構文上の出現単位を数値列として処理する素材として利用しているのです。

確率に基づく予測応答の構造

AIはトークン列のパターンが、どのような並びで出現するかを統計的に学習し、次に出現する可能性が高いトークンを重み付きの数値計算によって予測できるよう構造を調整しています。

たとえば「犬の鳴き声は わん!」という文が学習時に含まれていた場合、「犬」「の」「鳴き声」「は」「わん」などの語がそれぞれトークンに分割され、数値に変換されたうえで、その並び方のパターンがモデル内の重みとして調整されます。
この処理により、ユーザーが「犬の鳴き声は?」と入力した場合、類似の語順や出現傾向に基づいて「わん!」という語が統計的に”もっともらしい”出力として選ばれる構造が形成されているのです。

Chat GPTや GeminiなどのチャットAIが、「大規模言語モデル(LLM)」と呼ばれる所以は、自然言語テキストを対象とした予測モデルであり、数十億〜数兆単位のパラメータ(重み)と数千億〜数兆語規模のテキストデータを学習に用いている構造的特性に基づいているからです。
この膨大な学習データから、ユーザーの入力したテキスト(プロンプト)に対し、類似の語順や出現傾向を予測し、確率的に最適とされる「単語」が順に出力される構造になっています。

人の脳もAIも、情報を一元的に保存しておくようなデータベース構造を持っているわけではありません。
脳は、神経細胞の結合によって情報を再構成し、記憶や思考、意味の理解を並列に処理します。
一方でAIは、トークンとして数値化された情報をもとに、ノード間の重みを使って次に続く語を予測しており、そこに意味の理解や思考のプロセスは存在しません。出力されたテキストは、学習データから確率と統計学的に算出された「文字列の並びの最適解」なのです。

更新履歴

2025-07-04:初稿公開

お問い合わせ

📬 ご質問・ご連絡は、メールか SNS(X または Bluesky)にて受け付けています。

原則として XではDMでのご連絡をお願いいたします。投稿への公開コメントでも対応可能ですが、内容により返信を控えさせていただく場合があります。
※ Blueskyには非公開メッセージ機能がないため、メンションによる公開投稿でのご連絡をお願いいたします。

※投稿内容に関するご質問には可能な範囲でお答えします。
ただし、当サイトはアプリの開発元ではなく、技術サポートや不具合の対応は行っておりません
また、すべてのご質問への返信を保証するものではありませんので、あらかじめご了承ください。