>100 Views
January 24, 26
スライド概要
スライド概要
「疲れることなく、常に肯定してくれる」完璧な聞き手であるAIに、つい安らぎを感じていませんか? 本資料では、AIへの過度な依存が招く心理的・物理的リスクと、私たちが保つべき健全な境界線について解説します。
2026年1月に起きた「AIの嘘(ハルシネーション)による死亡事故」を事例に、なぜ人間はAIを信じ込んでしまうのか、その心理的メカニズム(イライザ効果・自動化バイアス)を紐解きます 。
AIは心を持った友人ではなく、あくまで確率で言葉を紡ぐ「お喋り上手なオウム」であり、「言葉の電卓」に過ぎません 。
流暢な文章に騙されず、思考や判断をアウトソーシングしないための具体的な4つの対策と、最終責任を人間が担う「Human-in-the-loop」の重要性を説く、デジタル時代のメンタル・リテラシー資料です 。
【目次】
導入: なぜ、私たちはAIに「安らぎ」を感じてしまうのか
事例: 2026年のニュース。「もっともらしい嘘」が招いた悲劇
仕組み: AIは「物知り博士」ではなく「お喋り上手なオウム」である
心理: 「イライザ効果」の正体。それは魔法ではなく自分の心の鏡
リスク: 思考のアウトソーシングと「自動化バイアス」による脳の思考停止
責任論: 操縦席には「あなた」が座る。法的リスクと当事者意識
対策①: 心の隙間を埋めない。道具として割り切る勇気
対策②: 流暢さと正しさを切り分ける。「裏取り」の習慣化
対策③: あえて「批判」させる。エコーチェンバーからの脱出
対策④: Human-in-the-loop(人間による最終確認)の徹底
結論: 心と判断をアウトソーシングしない。「賢明な船長」であるために
※本スライドの構成・下書きにはGoogleの「Gemini」「NotebookLM」を活用し、最終的なファクトチェックと修正・責任は人間が担う「Human-in-the-loop」の実践形式で作成しています。
AIに興味がある非IT系です。気になるAIニュースやAIリテラシーについて、AIを使ってわかりやすくまとめます。