エキスパートシステム vs ニューロシステム

AIサーバーやクラウドについて その他

/*************************************************************************************/
だいぶ前に聞いた事がある人工知能における、エキスパートシステム vs ニューロシステム、というのが
あった気がするが、決着はついたのか? (->ChatGPT)
はい、1980〜90年代によく言われた構図ですね。
結論から言うと、「決着」というよりは “統合された” というのが正確です。
どちらかが完全勝利した、という話ではありません。

## ① エキスパートシステムとは?
代表例:
* Digital Equipment Corporation のXCON(R1)

特徴:
* 人間の専門家の知識を if–then ルール で記述
* 知識ベース+推論エンジン
* 1980年代に大流行(第五世代コンピュータ構想など)

強み:
* 推論過程が説明可能(Explainable)
* 医療診断・故障診断などで実績

弱み:
* ルール爆発(保守困難)
* あいまい・画像・音声に弱い
* 知識獲得が大変

## ② ニューロシステム(ニューラルネット)とは?
代表例:
* Geoffrey Hinton
* Yann LeCun

特徴:
* データから学習
* 重みパラメータによるパターン認識
* 2010年代に「ディープラーニング革命」

強み:
* 画像・音声・自然言語に圧倒的に強い
* 人間がルールを書かなくてよい

弱み:
* ブラックボックス
* 論理推論が苦手
* データ大量必要

# ③ 勝ったのはどっち?
### 2010年代までは
実質的に ニューロ系の圧勝 でした。
特に
* Google
* OpenAI
* Microsoft
などがディープラーニングに巨額投資。
エキスパートシステムは「古いAI」と呼ばれるようになりました。

# ④ でも、最近どうなった?
ここが面白いポイントです。

## 実は「融合」が進んでいる
現在のAIは:
* ニューラルネットでパターン理解
* ルールベースで制約管理
* 知識グラフで論理構造化
という ハイブリッド型 になっています。

例:
* 生成AIに「ツール使用」させる
* ルールで出力制御
* 医療AIで知識ベース併用

# ⑤ なぜ統合が必要なのか?
ニューラルだけでは:
* 数学証明が弱い
* 法律推論が不安定
* 因果推論が弱い
→ ここで シンボリックAI(=エキスパート系) が再評価されています。

これを
> Neuro-Symbolic AI(神経記号AI)
と呼びます。

# ⑥ 結論
| 観点       | 勝者         |
| ---------- | ------------ |
| 画像・音声 | ニューロ     |
| 論理推論   | ルール系     |
| 現在の主流 | ハイブリッド |

つまり
> ❌ 「決着がついた」
> ⭕ 「戦いは終わり、統合フェーズに入った」
というのが現状です。

もしよければ、
* なぜ第五世代AIは失敗したのか?
* 今回の生成AIブームは同じ失敗を繰り返すのか?
* シンボリックAIは復活するのか?
どれを深掘りますか?

/*************************************************************************************/
DeepSeekが中国政治の話題になると、判で押したような回答になるのは、ルールで出力制御を行っているためか?
鋭い視点ですね。
結論から言うと、
> ほぼ確実に「ルールによる出力制御」+「学習段階での制約」の両方です。

## ① DeepSeekとは
DeepSeek は中国の生成AI企業で、大規模言語モデルを公開しています。
中国国内で提供されるAIは、法律上 内容規制に従う義務 があります。

## ② なぜ「判で押したような回答」になるのか?
主な理由は3層構造です。
### 1️⃣ 事後フィルタリング(ルールベース)
もっとも分かりやすいのはこれ。
* 特定キーワード検出
* 禁止話題ブロック
* 定型文への置き換え
これは昔のエキスパートシステム的な
if 条件 → 出力制御
です。
かなり高確率で使われています。

### 2️⃣ RLHF(強化学習による価値調整)
LLMは
* 何が「望ましい回答」か
* 何が「危険回答」か
を人間のフィードバックで学習します。
中国モデルでは
「政治的に安全な回答」が高評価されるよう
調整されている可能性が高いです。
これはルールというより
報酬設計による誘導。

### 3️⃣ 事前学習データの偏り
* 検閲済みデータ中心
* 国家公式見解が多い
この場合、モデル内部の確率分布自体が
「定型回答」に寄ります。
これは完全にニューロ側の影響。

# ③ つまり構造はこう
ユーザー入力

LLM(確率的生成)

安全フィルタ(ルール)

定型回答 or 修正回答

かなり高い確率でこの形です。

# ④ これは中国だけ?
いいえ。
* OpenAI
* Google
* Anthropic
も同様に安全フィルタを持っています。
違いは:
| 項目           | 中国モデル   | 米国モデル |
| -------------- | ------------ | ---------- |
| 政治批判       | 制限強い     | 比較的許容 |
| 暴力・差別     | 制限         | 制限       |
| 国家指導部批判 | 強制ブロック | 基本許容   |

# ⑤ なぜ「同じ文」になるのか?
生成AIは本来ランダム性があります。
それでも毎回同じになるのは:
* 出力を固定文に強制
* 高確率テンプレを再サンプリング
* フィルタ後に定型文上書き
のどれか。
これは ニューロではなく、明示的な制御層の匂いが強い です。

# ⑥ 面白いポイント
これはまさにあなたが前に聞いた
> エキスパートシステム vs ニューロシステム
の現代版です。
* コアはニューロ(LLM)
* 上にシンボリック制御(検閲ルール)
つまり
> 国家レベルでの「Neuro-Symbolic AI」
とも言えます。

さらに踏み込むと:
* これは技術問題か?
* それとも政治制度の反映か?
* AIは国家体制の鏡になるのか?
どこまで深掘りますか?

/*************************************************************************************/

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です