145 Views
January 09, 26
スライド概要
NotebookLMで整理したゲームAIの進化
ゲームAIの進化譜:制御から創発へ ゲームAIの目的は「最適解」ではない。 プレイヤーを楽しませるための「知性の錯覚(Illusion of Intelligence)」の構築である。 目的の根本的な相違 学術的AI ゲームAI 学術的AIは「人間を超える性能」を追求する。(例:チェス、囲碁) ゲームAIは「人間らしい振舞い」と「意図の伝わる動き」、そして「適度な失敗」を重視する。 この進化の歴史は、開発者が「複雑性」を管理し、いかに効率よく「知性の錯覚」を構築してきたかの記録である。
第一世代の標準:有限ステートマシン(FSM)とその限界 FSMは「状態 (State)」と「遷移 (Transition)」で行動 を定義する、決定論的で理解しやすいモデルだった。 プレイヤー発見 待機 巡回 攻撃 プレイヤーを見失う 例: Half-Life, Quake The Problem: ステート爆発 (State Explosion) ゲームが複雑化するにつれ、「ステート爆発」が発生した。 行動を追加するたび、既存の全状態からの遷移を定義する必要がある。 状態数がNになると、遷移の数はN²のオーダーで増加する。 Noto Sans JP Medium 結果として、コードはメンテナンス不可能な「スパゲッティコード」と化した。
複雑性の克服:『Halo 2』とビヘイビアツリー(BT)革命 *Halo 2* (Bungie, 2004) 「モジュール化された構造」 The Challenge: 課題: 前作を凌駕する戦闘AI。歩兵、乗り物の操縦、連携行動など、 FSMでは管理不能なほどの複雑な振る舞いが求められた。 The Solution: ビヘイビアツリー (Behavior Trees) パラダイムシフト: 状態遷移ではなく、「タスクの階層構造」で 行動を決定する。 革新: 「モジュール性」の獲得。行動ロジックを独立したサブツ リーとして開発・再利用可能に。 『Halo 2』での実装例: AIの「身体制御サブツリー」を「徒歩用」 から「ビークル用」に差し替えるだけで、上位の意思決定ロジッ クを変更せずに行動を適応。
ビヘイビアツリーの構造:タスクを組み合わせる論理 ルートから毎フレーム「Tick」が伝播し、各ノードは成功(Success),失敗(Failure),実行中(Running)のいずれかを返す。 セレクター (Selector / Fallback) ノード 論理: 「OR」条件 / if-else文 動作: 子ノードを左から順に実行し、最初に「成功」した時 点で終了。全て失敗した場合のみ「失敗」を返す。 用途: 優先順位のある行動選択 シーケンス (Sequence) ノード 論理: 「AND」条件 動作: 子ノードを左から順に実行し、全てが「成功」して 初めて「成功」を返す。一つでも失敗すれば即中断。 用途: 一連の手順の実行 ? Selector Tick [Try Melee] [Try Shooting] [Take Cover] -> Sequence Tick [Select Target] [Aim] [Fire]
*F.E.A.R.* (Monolith Productions, 2005) 次なる自律性へ:『F.E.A.R.』とゴール指向アクションプランニング(GOAP) パラダイムシフト:手続き型から宣言型へ ビヘイビアツリー (Procedural): デザイナーが「もしAならBをせよ」という具体的な手順を記述する。 GOAP (Declarative): デザイナーは「ゴール」と、AIが実行可能な「アクション」のリストを与える。 Planner 現在状態 (Current State) HasWeapon: True TargetVisible: False [Find Target] [MoveToSight] [Attack] ゴール状態 (Goal State) KillEnemy Plan GOAPの構成要素 1. ゴール (Goals): AIが達成すべき目標。(e.g., `KillEnemy`) 2. 世界の状態 (World State): 現在の世界の状況。(e.g., `HasWeapon: True`, `TargetVisible: False`) 3. アクション (Actions): 各アクションは「前提条件」「効果」「コスト」を持つ。 プランニングの仕組み: AIは「現在の世界状態」と「ゴール」のギャップを埋めるため、アクションを逆算的に連鎖させ、リアル タイムで「計画(Plan)」を立案する。
創発的挙動の価値:AIが自ら解決策を発見する時 「創発 (Emergence)」とは、個々の単純なルールの組み合わせから、開発 者が直接設計していない、高度で理にかなった行動が生まれる現象。 Goal: ProtectSelf テーブルを倒す -> 遮蔽物が生成される -> 身を守れる Goal: ProtectSelf InCover FlipObject CreatesCover Goal Achieved The Situation (AI soldier character on F.E.A.R.) The “Discovery” The Emergent Action デザイナーは「テーブルを倒せ」と教えたのではない。 AIがゴール達成のために自らその手段を発見したのである。
*Horizon Zero Dawn (Guerrilla Games, 2017) 長期的戦略の構造化:『Horizon Zero Dawn』と 階層型タスクネットワーク(HTN) The Challenge GOAPはアクション数が増えると探索空間が爆発し、計算負 荷が高まる。オープンワールドで活動し続けるAIには不向き。 The Solution HTNはプランニングに「階層構造」を導入する。 How HTN Works 複合タスク (Compound Tasks): 抽象的な目標。「プレイヤ ーを狩る」。直接実行できず、分解が必要。 基本タスク (Primitive Tasks): 実行可能なアクション。 「移動する」「攻撃する」。 メソッド (Methods): 複合タスクを分解する方法。デザイナ ーが「ドメイン知識」を埋め込む。「ウォッチャーなら隠密 に、サンダージョーなら強襲で」といった指針を与える。 [複合] プレイヤーを狩る メソッドA (隠密) [草むらに移動] [待ち伏せ] [急襲] メソッドB (強襲) [咆哮] [突進] [範囲攻撃]
*Left 4 Dead* (Valve, 2008) 演出を司る神の視点:『Left 4 Dead』のAI Director キャラクターAIから、ゲーム体験全体を制御する「システムAI」へ。 Player Stress Meter Peak Build-Up / Relax 敵の出現頻度 (Enemy Spawn Rate) アイテム配置 Director 音楽強度 (Music Intensity) Goal: 目的: プレイヤーの状態を監視し、ゲームの「ドラマ」を動的に生成することで、無限のリプレイ性を生み出す。 Control Mechanism 監視メトリクス (Monitoring Metrics): ストレス / 緊張度、フロー距離 ペーシングサイクル (Pacing Cycle): Directorはゲームの状態を「静寂」→「ピーク」→「緩和」のサイクルで能動的に管理する。 具体例 (Concrete Example): プレイヤーが苦戦していれば敵の出現を抑制し、余裕があれば特殊感染者を投入して緊張を高める。
世界を創造するAI:プロシージャルコンテンツ生成(PCG) The Scope: AI技術をキャラクターの知性から、ゲーム世界そのものの構築に応用する。 Modern Approach: 波動関数崩壊 (Wave Function Collapse - WFC) *Townscaper, *Bad North* プレイヤーがルールを知らなくても、クリセルく整合性を 取れたタイル、「」などによる」とれかするAI。 コンセプト: 量子力学に触発された制約充足アルゴリズム。 1. 重ね合わせ (Superposition): 初期状態では、全ての セルにあらゆるタイル(壁、屋根など)が置かれる可 能性がある。 2. 観測 (Observation): プレイヤーのクリックなどで一 つのセルが特定のタイルに確定(崩壊)する。 3. 伝播 (Propagation): 隣接ルールに基づき、隣のセルの 可能性が削ぎ落とされる。これが連鎖的に波及する。 プレイヤーがルールを知らなくても、クリックするだけで 美しく整合性の取れた街並みが生成される。 「クリエイティビティの補助輪」として機能するAI。 1. 重ね合わせ 2. 観測 3. 伝播
学習するAIの黎明:『Black & White』と強化学習の萌芽 Case Study: Black & White (Lionhead Studios, 2001) 2001年の時点で、認知科学に基づくBDIモデルとニューラルネットワークをゲームプレイの中核に据えた。 The Learning Mechanism Input: クリーチャーは空腹などの 「欲求 (Desire)」を持つ。 Action: 欲求を満たす行動を 選択する。(例: 村人を食べる) Feedback: プレイヤーは 「撫でる(正の報酬)」か「叩 く(負の報酬)」でフィードバ ックを与える。 Learning: パーセプトロンを 用いた決定木の重みが更新さ れ、行動の優先度が変化する。 [Creature Action] [Player Feedback] Pet Slap [Update Neural Net] [Modified Future Action] The Connection to Today: これは現 代の RLHF (Reinforcement Learning from Human Feedback) の、極めて 原始的で直感的な実装例と言える。
現代の最前線:ニューロ・シンボリックAIと生成AIの統合 ニューロ・シンボリックAI: 学習と論理の融合 従来のAI (ルールベース) の「制御しやすさ」と、 深層学習AIの「学習能力」を両立させる。 ニューラル部 (Neural) シンボリック部 (Symbolic) 複雑な状況認識、 直感的判断 大局的意思決定、 ルール遵守 Result: デザイナーの意図を保証しつつ、学習ベー スの柔軟性を実現する。 LLMによるNPCの革新と現実的課題 Potential: LLM搭載NPCは、ゲーム内の出来事を 「知覚」し、キャラクター設定に基づき「推論」 し、対話や行動を動的に「出力」できる。 Current Challenges: 現在の課題 幻覚 (Hallucination) : 世界設定にない嘘 をつく。 レイテンシ (Latency) : 応答に数秒かか り、ゲーム体験を損なう。 Primary Use Case: 主な活用法: 現状では、NPCの 直接制御より、開発中に会話データやBTを大量生 成する「開発支援ツール」としての利用が先行。
主体性の軌跡:明示的な制御から、誘導された創発へ ゲームAIの歴史は、開発者がAIに主体性(エージェンシー) を委譲していくプロセスである。 FSM (完全な制御 - Total Control) BT / GOAP (ルールの下での自律 - Autonomy under Rules) AI Director (体験の演出 - Experience Curation) Generative / Neuro-Symbolic (コンテンツと対話の生成 - Content & Dialogue Generation) 「複雑さは、プレイヤーの体験に寄与して初めて価値を持つ」。 最強のAIではなく、最高の「好敵手」や「パートナー」を創り出すことが目的である。 かつて、我々はAIの「操り人形師」だった。やがて「監督」になり、今は「コーチ」になりつつある。 AIが真に対話や振る舞いを「生成」する時代、ゲームデザイナーの新たな役割とは何か?
参考資料:主要技術と代表的タイトルの変遷 年代 (Era) 主要アルゴリズム (Key Algorithm) 代表的タイトル (Landmark Title) 技術的革新のポイント (Key Technical Innovation) 1998 有限ステートマシン (FSM) Half-Life スクリプトによる分隊戦術。堅実だが拡張性に乏しい。 2001 強化学習 / BDIモデル Black & White ユーザーフィードバックによる学習、認知モデルの導入。 2004 ビヘイビアツリー (BT) Halo 2 モジュール性、拡張性の高い意思決定。現在の業界標準。 2005 GOAP F.E.A.R. プランニングによる自律的行動解決。環境利用の創発。 2008 AI Director Left 4 Dead ペース配分と緊張度の動的制御。構造化された予測不能性。 2016 波動関数崩壊 (WFC) Townscaper 制約充足による整合性のあるマップ自動生成。 2017 HTNプランニング Horizon Zero Dawn 長期的・階層的な行動計画。群れ制御への応用。 2024+ ニューロ・シンボリック / LLM Research Demos 生成AIと論理ベースAIの融合。対話と行動の動的生成。