【DL輪読会】NeuroAI for AI Safety

385 Views

January 09, 25

スライド概要

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

2025年1月9日 DEEP LEARNING JP NeuroAI for AI Safety [DL Papers] 安全性のための脳型AI 担当: Hiroshi Yamakawa(The University of Tokyo) http://deeplearning.jp/ 1

2.

動機:WBAIでも脳型AIから安全性を検討 \2025年、新年あけましておめでとうございます/ 脳の構造と機能をモデルにした「ヒト脳型AGI」を開発し、人類と調和するAIの実現を 目指すWBAIです。今年は設立10周年。2027年の「WBRA」初期版完成に向け、大き く加速していきます。脳科学・AIに興味のある方のご参加をお待ちしています! https://wba-initiative.org/25057/ ・WBAI: Whole Brain Architecture Initiative (全脳アーキテクチャ・イニシアティブ) ・WBRA: Whole Brain Reference Architecture (全脳参照アーキテクチャ) 2

3.

イントロダクション

4.

NeuroAI for AI Safetyの概要 論文Aは 脳科学の知見 を活用し、AI安全性の技術課題をどう解決できるかまとめたロー ドマップ (シングルカラムで88ページ) 主なポイント ● 7つのアプローチ (+ WBAアプローチ ) で計8アプローチ ● AI安全の3側面(ロバストネス / 仕様 / 監査)へ脳科学からの示唆 ● 複数領域(視覚、報酬、認知アーキ、解釈可能性など)を横断的に扱う 書誌情報: Mineault, Patrick, Niccolò Zanichelli, Joanne Zichen Peng, Anton Arkhipov, Eli Bingham, Julian Jara-Ettinger, Emily Mackevicius, et al. 2024. “NeuroAI for AI Safety.” arXiv [Cs.AI]. arXiv. http://arxiv.org/abs/2411.18526. 参考資料:アプローチ表 4

5.

NeuroAI for AI Safetyの概説 論文は全体として、多岐にわたる神経科学の知見(感覚表現の頑 強性、学習・報酬系のメカニズム、大規模シミュレーション手法な ど)を具体的にAI安全へ応用するルートマップを示しています。著者 らは、「神経科学はAI安全のまだ未開拓なフロンティアを数多く抱 えており、双方を結びつける研究がこれから必須になる 」という メッセージを強調しています。 まとめると、本論文は「脳という自然知能が備える頑健性や社会 性をどう取り出し、AIの安全性に貢献できる形で組み込むか 」を 体系的に整理したものであり、今後の研究領域を網羅的に示す ロードマップといえます。 5

6.

アジェンダ 1. イントロダクション 2. 背景・問題設定 3. アプローチ表の概要 4. 各アプローチの紹介 5. まとめ 6

7.

背景・問題設定 - AI安全の課題と脳科学的手法 -

8.

AI安全の3つの主要課題 1. Robustness(堅牢性) 分布外データやadversarial攻撃に 対する脆弱性 2. Specification(仕様の正確理解) “言った通り”ではなく“意図した通り” に振る舞う必要 3. Assurance(監査/解釈可能性) AIのブラックボックス化を防ぎ、挙 動を理解・修正可能にする必要 8

9.

なぜ脳科学?人間の頑強さ・協調性から学ぶ 人間・動物の脳が示す特性 ● ● ノイズ耐性・学習の汎化能力 進化や社会的要因から生まれた安全機制(協調行動・倫理観な ど) AI安全との関連 ● ● 頑健な感覚・運動制御、適切な意思決定 道徳観・社会性・報酬系を模倣することで暴走を防ぐ 9

10.

従来のAI安全策 vs. 脳科学アプローチ 従来の安全策例 ● Adversarialトレーニング / 形式手法 / ルールベースの監査 脳科学由来手法の特徴 ● ● ● 神経回路の仕組みを転用 生物学的制約で探索空間を狭める ユーザや社会が理解しやすいアルゴリズムを期待 10

11.

アプローチ表の概要 - 8つのアプローチをざっくり -

12.

アプローチ表の全体像 第2章: 感覚システムのリバースエンジニアリング 第3章: 身体をもつデジタルツイン 第4章: 生物物理学的に詳細な脳モデル 第5章: 認知アーキテクチャの構築 第6章: 脳データでAIをファインチューニング 第7章: 脳が実装する損失関数の推定 第8章: 神経科学に学ぶ機構的解釈可能性 WBA: 全脳アーキテクチャー・アプローチ 12

13.

各アプローチの共通フレーム X.1: 核となる アイディア X.4: 実現可能 性評価 X.2: 影響評価 13 X.5: 推奨される 機会

14.

アプローチ表 章 / 論文 分類 X.1:核となるアイディア X.2:影響評価 X.4:実現可能性評価 X.5:推奨される機会 第2章:(感覚システムのリバー 堅牢性 スエンジニアリング) 生物の感覚野を大規模に計測し、それ を予測する「デジタルツイン」モデルを 構築し、堅牢かつ汎化性の高い表現を AIに移植。 アドバーサリアル攻撃や分布外データに対する頑健性を 向上できる。人間の感覚表現とのアラインが仕様逸脱の リスクを低減し、安全な探求行動を実現。 大量データ収集のコストとツール整備が課題。既存の ニューロピクセルやイメージング技術と大規模データ解 析を組み合わせれば段階的に実装可能。 国際共同研究や大規模プロジェクトで感 覚野計測を標準化し、モデル構築のオー プンデータベースを整備。 第3章:(身体をもつデジタルツ シミュレーション イン) 脳活動+身体や環境をバーチャル空 間でシミュレートし、脳由来の豊かな行 動特性と安全性を仮想実験で検証。 ロボットや自律エージェントが安全に探求するための試験 場となり、過激化・制御不能リスクを仮想空間で最小化。 ヒト並みの協調性や柔軟性を再現しやすくなる。 3Dスキャンや高精度シミュレーション、脳全域の計測 データが必要。大規模計算リソースの確保が不可欠だ が、段階導入での小規模実験が始まっている。 動物行動学やバイオメカニクスと連携、 オープンソースのバーチャル環境を蓄積 ・共有し協働促進。 第4章:(生物物理学的に詳細 シミュレーション な脳モデル) 全脳コネクトームやニューロン特性を忠 実に再現し、人間に近い汎用知能を実 現する可能性を探る。 生物学的な回路を再現することでヒト並みの価値観や解 釈可能性が期待される。だが膨大なスケールであり、実 装と検証コストが非常に高い。 超大規模 EM画像・光学イメージング・シミュレーション 設備などの技術革新が必要。 10年単位の投資を想定 し、部分領域モデルから段階的に進める。 コネクトーム解析や大規模計算基盤との 協力体制を確立、段階ごとのモデル検証 と最適化を図る。 第5章:(認知アーキテクチャの シミュレーショ 構築) ン、保証 認知科学由来のモジュールやベイズ的 推論構造をソフトウェア的に大規模統 合し、柔軟な知能を形成。 人間の帰納バイアスやリソース制約下の合理性を取り込 み、安全かつ高精度なタスク間学習を可能にする。説明 可能性の向上や誤り制御がしやすい一方、複雑化への 懸念がある。 心理学タスクや認知モデルの大量データを統合し、大 規模学習技術を導入する必要。確率的プログラミング 言語の標準化など専門的な環境整備が要る。 大規模タスクデータや確率的プログラミン グのオープンライブラリ整備、学際的チー ムによる機敏なモデル実装と評価が鍵。 第6章:(脳データでAIをファイ ンチューニング) 仕様、堅牢性 fMRIやBCIなどから得られる “思考プロ 人間の内部表象に近いプロセスを叩き込むことで、ブラッ セス”を活用し、 AIに人間型の推論過程 クボックス的な近道学習を抑制し、道徳判断や意思決定 を学習させる。 をより安全・解釈可能にする。但し脳情報の誤用リスクや 倫理面にも注意が必要。 連続的な脳活動記録の取得コストが高い。非侵襲計測 でもビットレートやノイズの問題あり。大規模学習との統 合研究は始まったばかりで実現には実験的裏付けが 必要。 臨床研究や fMRIコホートと連携し、脳 データ+ AIモデルを結ぶ共通プラット フォームを構築。倫理的ガイドラインを整 備し、安全性とプライバシーを担保。 第7章:(脳が実装する損失関 数の推定) 仕様 ドーパミン系などの強化学習回路から 多次元的な “内的報酬 ”構造を解明し、 AIの報酬設計に反映。 極端な目標暴走を防ぎ、社会的協調やリスク回避を組み 込める可能性がある。ただし脳の報酬系は複雑であり、 IRLで完全解明するのは困難。進化論的要因や個体差を 考慮しないと不備が生じるリスク。 神経活動や行動データを組み合わせた IRL技術が初期 社会的学習やモチベーション研究との連 段階。マルチモーダル計測と因果操作を活用しつつ、 携で、標準化されたベンチマークと解析 比較的長期の研究を要する。 プロトコルを整備。 AI安全性と倫理面の 議論を同時に進める。 第8章:(神経科学に学ぶ機構 保証 的解釈可能性) 神経科学で培った回路・集団活動解析 手法をAIモデルへ応用し、内部可視化 や因果的デバッグを高度化。 チューニングカーブや回路構造を把握できれば、学習の 過程で危険な兆候を検知しやすくなる。回路レベルで問 題箇所を切除・修正する可能性も。 大規模モデルのポリセマンティック表現や再帰的ネット ワークへの適用は難易度が高い。分野横断のソフトや ツール群がまだ整備途中であり、コストも大。 ニューラルデータ解析手法と AIモデル可 視化ツールを統合し、ワークショップで手 法検証を標準化・オープンソース化。 WBA:(全脳アーキテクチャー・ 仕様 アプローチ) 既存の神経科学知見を集約して、ヒト 脳型AGIのソフトウェア仕様書を標準化 されたBRAデータとしてリバースエンジ ニアリングする。 BRAデータを常に最先端の脳科学研究と整合させ、開発 者の神経科学的知識の有無に関わらず脳的 AGI実装を 可能とする。自動更新により解釈可能性と信頼性を向上 させ、安全・多様な応用を促進する。 BRAデータは標準化を終えており、その作成は LLMで 大幅に自動化が進行しつつあるため 2027年までに初 期版の完成を目指している。一旦、脳全体の BRAデー タを作成したら、その後は低コストで継続的に更新する 技術ロードマップを提示。 国際的な神経科学データや LLMツール の連携体制を強化し、 BRAデータの自動 更新プラットフォームを構築。医療・ AI安 全性・解釈可能性への応用を加速する。 14

15.

アプローチ表の概観: 依存関係のネットワーク A. 論文B(WBA)との関係 論文B → 第2章/第3章/…:WBRAのメタ・アーキテクチャ(脳全体のBRA)を参照することで、それぞれの局所的アプローチ(感覚シ ステム、身体シミュレーション、生物物理モデルなど)を統合的に設計しやすくする。 • 各章 → 論文B:個別に得られる知見(感覚野のデータ、身体シミュレータ、報酬回路のモデルなど)はWBRAにフィードバックされ、 脳全体を更新するデータベースとして作用。 B. 互いの章同士の連携例 • • • • • • 第2章 → 第6章:感覚システムの堅牢なリバースエンジニアリング 結果を用いて、AIモデルをファインチューニングする(視覚表現のロ バスト化など)。 第3章 → 第2章:身体動作から得られる多様な感覚フィードバックを 豊かにし、感覚システムのモデリング精度を上げる。 第4章 → 第7章:生物物理学的モデルが明らかにする神経回路の 詳細が、脳の報酬系(強化学習)のメカニズム推定に役立つ。 第5章 → 第8章:認知アーキテクチャのモジュール分割を行うこと で、メカニスティックな解釈(回路レベルの理解)が容易になる。 第7章 → 第6章:推定された損失関数を使ってAIを学習・微調整す ることで、人間的な動機や倫理的判断を模倣しやすくなる。 (山川による作図) 15

16.

各アプローチの紹介

17.

第2章:感覚システムの表現をリバースエンジニアリング 2.1 核となるアイディア ● 生物の感覚野を大規模記録 → モデル化 → AIに移植し、堅牢な表現を獲得 2.2 影響評価 ● Adversarial耐性や分布外対応力の向上、仕様逸脱リスクの低減 2.4 実現可能性評価 ● 大規模データとツール必須だが、既にNeuropixels等あり段階的に可能 2.5 推奨される機会 ● 国際データベース整備・共同研究 ● モデル共有の標準化 17

18.

敵対的攻撃に対するロバスト性の必要性 図 3: 画像認識モデル (torchvision の ResNet-50) に対する敵対的 攻撃の例。入力画像のわずかな変化により、モデルは自信を持っ てこのチワワの画像にマイクロ波というラベルを適用します。に触発 された [43]。 18

19.

感覚系と身体化されたデジタルツインの比較 【第2章: 感覚系のデジタルツイン】 主に以下の関係性をモデル化する: ● ● ● 入力 i(t) と脳の状態 s(t) の関係 脳の状態は高次元の測定値 m(t) によって 反映される これらの要素間の関係性を考慮する 【第3章: 身体化されたデジタルツイン】 より包括的な関係性をモデル化する: ● ● ● ● ● 入力 i(t) 脳の状態 s(t) 運動出力 o(t) 環境/世界の状態 w(t) これら全ての要素間の完全な関係性をモデ ル化する必要がある 主な違いは、セクション3の身体化されたデジタルツインの 方が、より多くの要素(特に運動出力と環境との相互作用) を考慮に入れる必要があるという点 19

20.

第3章:身体をもつデジタルツインの構築 3.1 核となるアイディア ● 脳+身体+環境をバーチャルに統合 → 仮想空間で安全性検証 3.2 影響評価 ● 軍事・ロボット等の事故リスクを仮想で低減 ● 危険な挙動の事前シミュレーション 3.4 実現可能性評価 ● 3Dシミュレータや大規模計算リソースが要る ● 小規模プロトタイプから段階的に拡張中 3.5 推奨される機会 ● バイオメカニクスとの連携 ● オープンソース仮想環境や共同研究体制 20

21.

身体化されたデジタル ツインの提案された価値 図 13: 従来の AI と比較した、身体化されたデジタル ツインの提案された価値。適応的 でインテリジェントな動作を示すすべての潜在的なシステムのうち、人間と互換性のある 安全な動作を示すものはほんの一部です。神経活動と実施形態からの制約により、安 全な適応行動に向けて解の空間が縮小する可能性があります。 21

22.

第4章:生物物理学的に詳細な脳モデル 4.1 核となるアイディア ● 全脳コネクトームや生理学的特性を精密再現 → 人間レベル知能を狙う 4.2 影響評価 ● 本質的にヒト脳に近いモデル ● 解釈可能性高いがコスト膨大 4.4 実現可能性評価 ● 10年以上の長期計画 ● 超大規模データ+スパコン 4.5 推奨される機会 ● コネクトーム解析との協力 ● 部分領域から段階拡張 22

23.

全脳コネクトミクスの一般的なパイプライン 図 14: 全脳コネクトミクスの一般的なパイプライン。 [237] から CC-BY ライセンスに基づいて。 23

24.

第5章:認知アーキテクチャの構築 5.1 核となるアイディア ● 認知科学由来のモジュール化+ベイズ的推論 → 柔軟な知能 5.2 影響評価 ● タスク間の移行性・学習効率向上、誤り制御が容易に 5.4 実現可能性評価 ● 心理学タスクを大規模集積、確率的プログラミング言語など要 5.5 推奨される機会 ● 大規模タスクデータ整備 ● 学際的チームで評価環境を共有 24

25.

より安全なAIのための認知アーキテクチャの発展経路 1. データとタスク - 現状:限定的・断片的 - 目標:包括的な文脈と環境変化 への対応 → AIの安全性評価を網羅的に 2. モデル設計 - 現状:「専門的で解釈可能」or「大 規模でブラックボックス」 - 目標:解釈可能性を保ったスケー ルアップ → 大規模AIの理解と制御を可能 に 3. 発見プロセス - 現状:人手による試行錯誤 - 目標:体系的な自動化 → 潜在的リスクの見落とし防止 期待される成果 - システムの予測可能性向上 - 安全性評価の充実 - 解釈・制御可能性の確保 25

26.

認知基盤モデル 図 17: 行動基盤モデル、認知基盤モデル、および推 論基盤モデルで構成される認知基盤モデル。 モデルへの入力はタスクです。出力は、インテリジェン ト システムがコンテキスト内でタスクをどのように表現 し、それについて推論し、決定を下すかを完全に説明 したものです。これらは、それぞれモデルプログラム、 事後予測、および動作として形式化されます。 ● Behavior Foundation Model: 人や動物の行 動データ全般を学習し、あらゆる状況・タスクで の行動を広範に予測・シミュレートできる大規模 モデル。 ● Cognitive Foundation Model: 多様なタスクや 文脈を踏まえ、認知プロセスや表象をプログラム 的に生成・説明できる大規模モデル。 ● Inference Foundation Model: リソース制約下 でも人間に近い合理的な推論(ベイズ推論や近 似推論)を汎用的に行う大規模モデル。 26

27.

第6章:脳データを用いたAIのファインチューニング 6.1 核となるアイディア ● fMRIやBCIで得た脳活動 → AI内部表現を微調整し、人間的推論に近づける 6.2 影響評価 ● ブラックボックス学習の危険な“近道”回避 ● 道徳判断・意思決定を人間基準に 6.4 実現可能性評価 ● 非侵襲計測の限界(ビットレート、ノイズ) ● 臨床・BCIとの共同必要 6.5 推奨される機会 ● 大規模被験者実験+倫理ガイドライン確立 ● 脳×AIプラットフォーム構築 27

28.

第6章:脳データを用いたAIのファインチューニング(LLM作成図) この図は、人間や動物の脳活動データをAIモデルの強化に活用するプロ セスを示しています。左側で脳活動データを取得し(EEG/MRIなど)、中 央でデータ抽出と特徴マッピングを行い、右側でより安全なAIシステムと して強化されます。パステルカラーと絵文字を用いて、データの流れを直 感的に表現しています。 28

29.

第7章:脳が実装する損失関数の推定 7.1 核となるアイディア ● ドーパミン系等の強化学習回路を解析 → 多次元の“内的報酬”をモデル化 7.2 影響評価 ● 目的暴走を防ぎ、社会性・倫理性を組み込みやすい 7.4 実現可能性評価 ● IRL手法の成熟、マルチモーダル神経計測が必要 ● 長期的挑戦 7.5 推奨される機会 ● 社会的学習や動機付けの標準ベンチマーク ● AI倫理研究と連携 29

30.

脳の損失関数を推論する3つのアプローチ 1. タスク駆動型ニューラルネット 脳内の表現を生み出す目的関数を逆推論し、AIシステムに転移。画像認識や言語処理など、特定のタス クに対する脳の反応パターンを分析 ✓ 具体的なタスクベースの分析が可能 2. 報酬システムからの推論 脳の報酬系(特に中脳辺縁系)から報酬関数を推定。ドーパミン神経細胞の活動パターンなど、報酬予測 誤差の信号を解析 ✓ 生物学的な報酬メカニズムに基づく 3. 進化的アプローチ 種を超えて保存されている古い損失関数を特定・推定し、カタログ化。生存や繁殖に関わる基本的な価 値関数を解明 ✓ 普遍的な価値基準の解明に有効 30

31.

BrainScore:脳とAIの整合性評価指標 概要:人工ニューラルネットワーク(ANN)が脳の視覚処理システムをどの程度正確に模倣しているかを 評価するベンチマークシステム 主要な観察 • 過去6年間スコアが停滞 • 他の機械学習ベンチマークと異なり、急速な進歩が見られない • 画像分類性能の向上に反して、脳との整合性は低下傾向 現状の課題 • モデルの多様性不足 • 評価スコアの識別力不足 • 評価の不安定性(ノイズの影響) 改善に向けた提案 • より識別力の高いベンチマークの開発 • モデル設計空間の拡大 • 生理学的実験との統合 31

32.

第8章:神経科学に学ぶ機構論的解釈可能性 8.1 核となるアイディア ● 脳の回路解析手法をAIモデル内部へ応用 → 回路レベルで因果関係を把握 8.2 影響評価 ● 危険行動を事前検知、回路単位で修正 ● 透明性向上 8.4 実現可能性評価 ● 大規模モデルへの解析コスト大 ● 分野横断ツール未成熟 8.5 推奨される機会 ● AIモデル可視化ツール × ニューラルデータ解析の統合 ● 大規模ワークショップ・OSS化 32

33.

機構論的解釈可能性の研究 Behavioral:モデルをブラックボックスとして扱い、入力と出力の対応関係から安全性や頑健性を 評価する。 Attributional:出力に対する入力特徴の寄与度を算出し、どの要素がどれだけ影響したかを可視 化する。 Concept-based:高レベル概念やパターンをモデル内部で検出し、抽象的な表現が意思決定をど う支配しているか解析する。 Mechanistic:ネットワーク内の回路や因果構造を細部まで追跡し、入力から出力への計算プロセ スを明らかにする。 33

34.

WBA:全脳アーキテクチャー・アプローチ W.1 核となるアイディア ● 既存神経科学知見を一元化 → ヒト脳型AGI用のBRAを自動的に更新 W.2 影響評価 ● 常に最新脳科学との整合がとれ、開発者は脳科学知識不要 ● 安全・解釈性に寄与 W.4 実現可能性評価 ● LLMでの文献解析進行中 ● 2027年初期版→低コスト継続更新 W.5 推奨される機会 ● 国際的データ連携、LLM活用基盤 ● 医療・AI安全への展開 34

35.

脳参照アーキテクチャ(BRA)駆動開発 (2020頃に確立) 脳型ソフトウエア 築 仮説的コンポーネント図(HCD) 構 SCID法 脳情報フロー (BIF) 作成 BIFの適切 度評価 神経科学分野の論文・データ 35 価 制約 HCDの適 切度評価 脳参照アーキテクチャ (BRA) 実装 忠実度 評価 評 脳全体の数千におよぶ 神経回路モジュールを参 照することで、人間の解 剖学的構造と一致した認 知機能を再現するソフト ウェアを構築する方法。 近年はLLMを用いた開 発の効率化が著しい。

36.

ヒト脳型AGIを用いたヒトと超知能の共存を促進する枠組み (山川, 2025) BRAデータを基盤として4つの技術領域を発展させることで、以下の点で有益となる という想定について整理を進めている。 1. 解釈可能性(IFD):人間の脳の構造に基づいて いるため、AIの意思決定プロセスが理解しやす い。 2. 制御可能性(CMD):脳の階層構造を模倣するこ とで、より安全で制御可能なAIシステムの開発 が可能になります。 3. コミュニケーション(MCD):人間とAIの間の認知 的な橋渡しとして機能し、より効果的な対話と協 力が実現できます。 4. 知識・価値の保存(KPD):人類の知識や価値観 を脳に似た構造で保持・発展させることで、人間 中心の発展が期待できます。 36

37.

まとめ

38.

総括:脳科学アプローチがAI安全を切り開く 方向性 多くのNeuroAI研究は直接的にはAIの「性能向上」を目指しているが、 そこに「AI Safety」という観点を優先順位高く組み込み、脳科学由来の 堅牢性・協調性のヒントを探ることが重要と強調される 8アプローチの共通点 • 脳構造や機能を転用し、ロバストネス/仕様理解/解釈性を強化 • 実装段階・時間軸は多様だが、連携することで相乗効果 今後の課題 • 大規模データ・コスト / 学際的コラボ / 倫理面 • 長期視点での研究投資が要 38

39.

全般的な感想 • 提案された7つのアプローチは相互に補完し合う一方で、それぞれが重複する 領域もあり、一見すると整理状況が難解。 • 指摘されるように、脳を模倣すれば自動的に安全な特性が得られるわけではな く、そこには人間の攻撃性や偏見といったリスクも含まれる。 – したがって、安全性を高めるには、脳のどの部分をどのように取り込み・再設 計するかを慎重に検証する必要がある。 • この種の研究には大規模なデータ取得や新技術への投資、学際的な連携、そ して理論面での体系化が不可欠であることを繰り返し指摘。 • どのレベルで脳原理をAIに取り入れると実質的な安全性強化につながるのかを 解明することが今後の大きな課題。 39

41.

山川の感想 • 論文の結論としては、「神経科学から学べる安全性の要素は十分に あるが、そのためには研究体制・資金・技術開発・理論的整理が不可 欠」というメッセージに集約されています • 論文中の7つのアプローチは存在するが、直交しておらず性質も整 理されていないので把握しづらい • 根拠なしに高度AIが人間と同様の性質をもつと考えすぎ(直交仮説 を想定していない) • 根拠なしに、人間の(攻撃的)特性を楽観視している • 41

42.

山川の感想 • 論文の結論としては、「神経科学から学べる安全性の要素は十分に あるが、そのためには研究体制・資金・技術開発・理論的整理が不可 欠」というメッセージに集約されています • 論文中の7つのアプローチは存在するが、直交しておらず性質も整 理されていないので把握しづらい • 根拠なしに高度AIが人間と同様の性質をもつと考えすぎ(直交仮説 を想定していない) • 根拠なしに、人間の(攻撃的)特性を楽観視している • 42