466 Views
December 24, 25
スライド概要
近年、生成AIは社会全般に急速に浸透し、教育機関においても授業準備、学生指導、事務作業など多様な場面で活用が進みつつあります。その利便性の高さが注目される一方で、「期待したほど効率化されない」「かえって手間が増えた」という声や、誤用や過度な依存といった課題も指摘されており、適切な理解と活用が求められています。
本講演会では「生成AIは 結局どう使えばいいの か」という問いを出発点に、決定論的AIと非決定論的AIの本質的な違いを理解することで、生成AIの有用性と限界を明確にします。さらに、システム思考の視点から「なぜAI導入が期待通りの成果につながらないのか」を考察し、教育活動や業務改善において生成AIを効果的に活用するための視点を提供します。
長岡技術科学大学 技学研究院 情報・経営システム系 雲居 玄道
生成AI、結局どう使えばいいの? ~期待と現実のギャップをシステム思考で読み解く~ 長岡技術科学大学 情報・経営システム系 准教授 雲居 玄道 1/31
自己紹介 雲居 玄道(くもい げんどう) 長岡技術科学大学 情報・経営システム系 マネジメントシステム学講座 機械学習理論研究室 博士課程: 早稲田大学 理工学術院 経営システム工学専攻 専門分野:機械学習理論,統計科学,ビジネスアナリティクス,経営工学 著書の紹介: 「本願寺白熱教室: お坊さんは社会で何をするのか?」 小林 正弥 (監修), 藤丸 智雄 (編集),法蔵館 2015年6月 雲居 玄道 (担当:共著, 範囲:ウェブに見る宗教の公共性) 2/31
専門分野と研究領域 3/31
今日持ち帰っていただきたいこと 3つのゴール 1. 理解する: なぜAI導入で「楽にならない」のか? 期待と現実のギャップの本質 2. 見極める: どんな業務にAIを使うべきか? 3x3マトリクスによるリスク評価 3. 実践する: 明日から使える判断基準 「許容誤差」という視点 小手先のプロンプト技術ではなく、 システム全体を最適化する考え方を学びます 4/31
導入 - なぜ「楽」にならないのか? 本日のアプローチ プロンプトの小手先のテクニックではなく... 業務プロセス全体(システム)の視点から考える DXの本質 紙をPDFにすること デジタイゼーション ≠ DX 真のDX 組織や業務の変革 競争力の確立 今日は「システム思考」で生成AIの活用法を一緒に考えていきます 5/31
よくある失敗パターン 現場で聞こえる声 「AIに報告書を 書かせたら、事実と 違うことだらけ...」 「チェックに時間が かかって、結局自分で 書いた方が早かった」 「毎回違うこと言うから 業務で使えない...」 ❓ これらは本当にAIの問題? それとも... 使い方の問題? 6/31
Office Automation (OA) の歴史 コンピュータへの「旧来の期待」 電卓 1970s ワープロ 1980s Excel 1990s 業務 システム 2000s~ 我々が求めてきた「信頼」の条件 1. 正確(Correctness): 1 + 1 は必ず 2 になる 2. 高速(Speed): 人間より速い 3. 不変(Consistency): 何度実行しても同じ結果 (決定論的) 7/31
従来システムの特徴 決定論的システムの強み 強み 限界 完全な再現性 創造性がない 検証可能性 柔軟性に欠ける 責任の明確化 自然言語が苦手 同じ入力 → 同じ出力 テストで品質保証 プログラムされたことだけ 想定外に対応できない バグは修正できる 曖昧さを扱えない この「完全な再現性」への信頼が、生成AI活用の障壁になっている 8/31
期待と現実のギャップ 生成AIの登場と「期待のズレ」 期待 AIもコンピュータ だから正確なはず 仕事が楽になる! 現実 もっともらしい嘘 (幻覚:ハルシネーション) 毎回言うことが違う 修正に時間がかかる 自分でやった方が早い ❓ 便利なはずの道具を導入したのに、なぜ逆に仕事が増えるのか? 9/31
第1部 - 敵を知る 生成AIとは何か? AIの進化の歴史 ルールベースAI if-then規則 ~2000s 機械学習 データから学習 2000s~ ディープ ラーニング 大規模NN 2010s~ 生成AI Transformer LLM 生成AIは確率的予測に基づく、新しいパラダイム 2020s~ 10/31
生成AIの仕組み 生成AIの正体 ~ 確率による予測 ~ 昔々、あるところに 入力テキスト おじいさんが:80% おばあさんが:15% その他 5% 一言で言えば 生成AIは「次に来る確率の高い単語を選ぶ」だけ 思考しているわけではない! 11/31
AIの3つのモード 生成AIの進化 ~ 3つの動作モード ~ 1. 予測モード(基本) 単純な文章生成、要約、翻訳 例: ChatGPT初期版、GPT-3 2. 推論モード(Reasoning) 内部で「思考プロセス(独り言)」 を経る 複雑な問題を段階的に解決 例: OpenAI o1、o3 3. エージェントモード 必要に応じて外部ツールを使用 検索、計算、コード実行など モードが進化しても、 根本原理は「確率」のまま 12/31
非決定論の世界 「毎回違う」はバグではなく仕様 従来のシステム(決定論的) Input A Output B (常に同じ) 生成AI(非決定論的) Input A Output B' Output B'' Output B''' なぜ「非決定論」なのか? 人間も「非決定論的」 (同じ質問でも気分で答えが変わ る) AIは人間に近づくために「一意 性」を捨てた この「ゆらぎ」が創造性の源泉 13/31
非決定論の世界 しかし、副作用も... 創造的タスク ゆらぎ = 多様性 アイデア出し 文章の言い回し 揺らぎを制御したい... ファインチューニング 特定ドメインのデータで再学習 専門性に特化させる 事実に基づくタスク ゆらぎ = 間違い ハルシネーション 再現性の欠如 過度なファインチューニング = 思想誘導 ユーザーの判断を誘導 多様性の喪失 14/31
第2部 - システム思考 なぜ導入しても楽にならないのか? ~ 負のループ ~ 時短効果の相殺 残業増 楽をしたい ⚠️ ボトルネック 検品・修正 コスト増大 AIに丸投げ (期待) 問題の本質 AIが短縮した「作成時間」を「検 品・修正時間」が上回る → 自分でやった方が早かった なぜ検品に時間がかかるのか? 1. 事実確認: ハルシネーション対応 2. 整合性チェック: 前後の矛盾確認 AI単体の性能ではなく、人間の作業も含めた 3. 最終確認: 責任を取るのは人間 不正確・ゆらぎ のある出力(仕様) 全工程で評価する → システム思考 15/31
解決の鍵 タスクの分解と精度の定義 1. 出力の構造化度(Structure) 形式的な厳密さ: 数式、コード、JSON vs 自然言語 形式エラーの許容度 2. 情報の操作(Operation) 情報をどう変形させるか: 圧縮、変換、拡張 AIが「創作」する度合い 3. 業務の許容誤差(Tolerance) その業務は100%の精度が必要か? 多少の誤差は許されるか? 16/31
第3部 - 3x3マトリクス マトリクスの枠組み(箱の理解) 情報の操作 (Operation) → 圧縮 (Compress) 変換 (Transform) 拡張 (Expand) → ) e r u t c u r tS ( 度 化 造 構 の 力 出 高 (Strict) 数式、コード、JSON 形式エラーNG 中 (Formatted) 報告書、定型文 体裁が重要 低 (Natural) 対話、ブレスト 自由度が高い 17/31
拡張タスクの罠 拡張 (Expansion) の2つの顔 A. 創造的 (Creative) 例: ✅ 安全地帯 • 推薦⽂ • 物語‧アイデア出し • ブレインストーミング 特徴: 「正解」がない 読み⼿が気に⼊ればOK B. 確定的 (Deterministic) 例: ⚠ 危険地帯 • 論⽂執筆 • 事実ベース報告書 • 仕様書→コード 特徴: 「事実‧仕様」が正解 検証コスト: 極⼤ 18/31
なぜ確定的拡張が危険か 確定的拡張が最も危険な理由 3つの落とし穴 1. ハルシネーションの頻発 AIは「知らない」と言えない もっともらしく嘘をつく 専門知識がないと見抜けない 2. 検証コストの爆発 参考文献の裏取り データの再計算 3. 責任の所在 最終的な責任は人間 「AIが間違えた」は通用しない 丸投げ ≠ 委任 ✍ 同じ「書く」作業でも 創造的なら「味」 確定的なら「嘘」になる 19/31
業務マッピング実践 情報の操作 (Operation) → 圧縮 → )erutcurtS( 度化造構の⼒出 ⾼ (Strict) 数式、コード、JSON 形式エラーNG 中 (Formatted) 報告書、定型⽂ 体裁が重要 低 (Natural) 対話、ブレスト ⾃由度が⾼い 変換 拡張 (Compress) (Transform) (Expand) 動画 → ⼿順書 レガシーコードの⾔語移⾏ 分析⽤Pythonコード⽣成 録⾳ → 議事録作成 マニュアル多⾔語化 シラバス素案作成 マニュアル集 → チャットボット 録⾳ → ⽂字起こし 壁打ち相⼿(思考整理) 20/31
精度要件による使い分け 同じタスクでも精度要件で変わる ケーススタディ: アンケート分析 シナリオA: 傾向把握 目的: 全体の満足度を知る 許容誤差: 数%の誤読OK 判断: AIで自動化 検証: サンプリング確認のみ シナリオB: 個別対応 目的: 苦情・問題の発見 許容誤差: 見逃し絶対NG 判断: 人間が全件確認 AIは補助ツールとして活用 タスクそのものではなく、「システムとして求められる精度」で判断する 21/31
研究・教育事例 情報の操作 (Operation) → 圧縮 (Compress) → )erutcurtS( 度化造構の⼒出 ⾼ (Strict) 数式、コード、JSON 形式エラーNG 中 (Formatted) 報告書、定型⽂ 体裁が重要 低 (Natural) 対話、ブレスト ⾃由度が⾼い 🎥スライド作成 ⾏動履歴 → 嗜好説明 [4] 変換 拡張 (Transform) (Expand) 帳票認識 [1] 💯パラメータ⽣成 [2] 天気予報⽂作成 [3] 経典現代語訳 [5] 🎥⼝述原稿読み上げ キャリア教育⽀援 システム [6] 💯問題⽂⽣成 [2,7] 個別最適化 教科書作成 1. 飯田 庸介, Châu Nguyễn Hồng, Thảo Nguyễn Thanh, Tiên Quách Mỹ, 雲居 玄 道, "汎用Vision-Language Model を用いた 帳票画像からの構造化データ抽出における実 用性評価", SITA, 2025. 2. 石田 崇, 雲居 玄道, 小林 学, 平澤 茂一,"生成 AIを用いた統計学の学習用練習問題自動生成 システムの試作", 日本教育工学会論文誌, vol.49(2), pp.341-354, 2025. 3. 髙須賀 匠, 高野 雄紀, 渡邊 正太郎, 雲居 玄 道, "ChatGPTによる天気図画像からの天気 コメント生成の検証", 天気, vol.72(12). (掲載予定) 4. 浅見 圭祐, 雲居 玄道, "大規模言語モデルに よる嗜好説明を介した評価予測の性能評価", SITA, 2025. 5. 荻野 就登, 雲居 玄道, "KLダイバージェンス を用いた浄土宗・浄土真宗教義解釈の差異定 量化", SITA, 2025. 6. 松浦 瑛太, 雲居 玄道, "高校生を対象とした 生成AI型キャリア教育支援システムの有効性 評価", SITA, 2025. 7. 石田 崇, 須子 統太, 小林 学, 雲居 玄道, 隈 裕 子, 平澤 茂一, "細分化した学習項目に基づく 数学学習用問題のAI自動生成に関する検討", CIEC, 2025. (PCカンファレンス最優秀論文 賞) 22/31
第4部 - 処方箋 AI活用の判断チェックリスト ステップ1: タスクの性質を確認 ステップ3: コスト見積もり ステップ2: 精度要件を明確化 これらに答えられない場合は、 まだ生成AIを 導入すべきではない [ ] 出力の構造化度は? (高/中/低) [ ] 情報は? (圧縮/変換/拡張) [ ] 【拡張】創造的 or 確定的? [ ] このタスクの目的は? [ ] 高いの精度が必要か? [ ] ミスが起きた場合の影響は? [ ] 検品にかかる時間は? [ ] AI作成時間 + 検品時間 < 従来 の作業時間? 23/31
教育現場への示唆 レポート課題と生成AI利用 生成AIの得意分野をレポート課題にする 負のパターン 理解していない学生が... 教育的アプローチ 確定的情報拡張という検証が不可避なレポー ト課題にする 参考文献を探して、引用してまと 授業のまとめレポートを書かせる めるレポート課題 論文の解説スライドを作成させる 生成AIが書いたレポートの検証課 題 → 情報圧縮なので、安定して高性能 複数の選択肢がある多段階のデー 学習効果ゼロ タ分析課題 24/31
新しい教育の可能性 AI時代の教育設計 従来の教育 vs これからの教育 従来の評価 ゼロから書けるか 知識の暗記 文章力 これからの評価 正しく指示できるか 間違いを見抜けるか 批判的思考力 25/31
逆説的結論 生成AIで楽をするには「専門性」が必要 高度なタスクでの「丸投げ」は失敗する 成功の条件: ✅ 「明確な指示(仕様)」を出せること ✅ 「正解のプロセス」を知っていること ✅ 一瞬でミスに気づけること 結論: AIを使いこなすには、 人間側の専門知識が不可欠 26/31
専門家が有利な理由 なぜ専門家はAIを使いこなせるのか 3つのアドバンテージ ① 明確な指示 「正解」を知っている から、何を求めれば いいか分かる 例: データ分析の 詳細な仕様書 ② 瞬時の検証 ③ 効率的な修正 出力を一目見ただけで 正誤が判断できる 間違いの「原因」が すぐ分かる 検品時間が 劇的に短い → プロンプトを 即座に改善 27/31
まとめ 1. 生成AIは「非決定論(ゆらぎ)」のシステムである 毎回違う結果 = 仕様、バグではない 2. 漫然と使うと「チェックコストの増大」という負のループに陥る 検品時間 > 作成時間短縮 = 失敗 3. 3 × 3マトリクスと「許容誤差」でタスクを選別する 高いの精度が本当に必要か?を問う 4. 特に「確定的拡張」のタスクには要注意 創造的 → 味、確定的 → 嘘 5. AIを使いこなすには専門性が必要 正しい指示、瞬時の検証能力が鍵 28/31
最終メッセージ AIとの正しい付き合い方 🤖 AIは魔法の杖ではない 「有能だが、たまに嘘をつく部下」 経理のような正確な仕事は慎重に 企画やアイデア出しなら頼りになる 使いこなすのは管理職(あなた)の力量次第 29/31
明日からできること 実践のための3ステップ Step 1: 業務の棚卸し 今やっている業務をリスト化 各業務を3x3マトリクスにプロッ ト Step 2: 許容誤差の定義 各業務で「どこまでの誤差を許せ るか」を明確化 関係者と合意形成 Step 3: スモールスタート 「安全地帯」(情報圧縮)から導入 検品コストを測定しながら拡大 💡 一気に全業務に導入せず、 学習しながら段階的に拡大する 30/31
ありがとうございました 質疑応答 本講演が皆さまのAI活用のヒントになれば幸いです [email protected] 31/31