5.3K Views
September 06, 23
スライド概要
2023年8月の時点の比較的専門的でない人工知能の知識と私見をまとめたものです.
⼈⼯知能の総復習と私⾒ 2023年8⽉バージョン 公⽴⼩松⼤学 藤⽥ ⼀寿 ⼈⼯知能に関する⽐較的専⾨的でない知識と私⾒をまとめたものです.
⼈⼯知能の進化に対する2023年8⽉の個⼈的感想まとめ • ⼈⼯知能の個⼈研究者は最先端の⼈⼯知能研究から振り落とされ,⼈⼯知能の個⼈研究は終わった. • ⾰新的技術はビッグテックから出ている. • 進化スピードが速すぎ,⼤量の計算資源が必要になってきているため,個⼈では対応が難しくなっている. • ⼈⼯知能技術は開発に成功したら,さっさと論⽂を書いて発表,即オープンが基本になっている. • 論⽂はArxivに早急にアップ, X (Twitter)で議論が進み,ソフトはGitHubかHagging Faceで公開する. • ⼈⼯知能技術に垣根なし. • インターネットさえあれば,誰でも最新の技術を知り動かすことができる.ただし,企業研究はクローズ化の傾向が⾒られる. • SNS,ウェブサイト,⽂献は⾃動翻訳でリアルタイムに⺟語に翻訳できるため⾔語の障害はなくなりつつある. • 巷にいる⼈⼯知能好きや学⽣のほうが遥かに詳しい場合も多いため,⼈⼯知能分野において研究者という肩書の価値は低くなった. • 現在の⼈⼯知能のメインプレーヤーはエンジニアであるが,将来は誰でもメインプレーヤーになりうる. • アイデア->技術・実装->製品(ローンチ)の流れにおいて,技術はオープンで誰でも活⽤でき,実装は⼈⼯知能により補助される. アイデア・やる気・ある程度の技術があれば最低限のサービスはできる.将来, 技術・実装の⼤部分が⼈⼯知能に置き換わり,アイ デアからローンチへの難易度が減り,エンジニアの活躍しどころが減る.誰でも⼈⼯知能やそのサービスが作れるようになる. • プログラミングは強みにならない. • すでに⼈⼯知能はプログラムを作る事ができる.よって,プログラマの需要は急速に減る. • ⼈⼯知能を活⽤できる⼈とできない⼈の差が開く.デジタルデバイドならぬAIデバイドの時代が来ている. • ただし,⼈⼯知能の活⽤には慣れと基礎学⼒が必要である.ますます,基礎学⼒が重要となる時代が来ている. • ⼈⼯知能研究者やプログラミングが売りのエンジニアは今後の⾝の振り⽅を本気で考えるべき時が来ている. • あなたは「その研究(仕事)は,CNN,AlphaZero,Transformer,ChatGPT,Stable Diffusionで良いのでは」に答えられるか.
なぜ⼈⼯知能が話題なのか
話題の2⼤⼈⼯知能 • 対話型⼈⼯知能 • ⼈が話す(書く)⽂章と変わらない⽂章を⽣成できる. • 性能が⾼すぎて⼈が書いた⽂章と区別がつかない. • 性能が⾼すぎて⼈がいらなくなる可能性が出てきている. • 画像⽣成⼈⼯知能 • ⼈が描いた画像と変わらない画像が⽣成できる. • 性能が⾼すぎて⼈が描いたものと区別がつかない. • 画像のクオリティとかかる時間を考えると⼈より良いのではないか.
対話型⼈⼯知能 • 対話型⼈⼯知能とは • 会話が出来る⼈⼯知能 • 利⽤者が⾳声やテキストで⼊⼒すると⾃然な⽂章を⽣成し,応答してくれ る⼈⼯知能(https://www.nikkei.com/theme/?dw=23052603) • 例: • ChatGPT (OpenAI) • Bing チャット (Microsoft) • Bard (Google) • Claude 2 (Anthropic) • 古くはELIZA(イライザ)
対話型⼈⼯知能のユーザーの伸びもすごい ChatGPTはたった2ヶ⽉で1億ユーザ 達成!!
ChatGPTはかなり役に⽴つ(よって⼈が要らなくなる?) • ChatGPTを使った実際のサービス • ChatGPTが英会話講師として活躍 (Speak) • PDFの論⽂を要約 (ChatPDFなど) • プレゼンも⾃動⽣成 (ChatGPT, SlidesGPTなど) このスライドは2023年3⽉末くらい の様⼦を表す.かなり古い内容. • 会議の要約も出来る(いろいろ) • 活⽤事例 • プログラムを作成できる. • しかもChatGPTが⾃ら⾃分のプログラムコードを修正する(AutoGPT). • ⾃然⾔語でロボットに指⽰を出せる (ChatGPT for robot).(https://www.microsoft.com/enus/research/group/autonomous-systems-group-robotics/articles/chatgpt-for-robotics/) • ゲーム内でAI同⼠が会話した.(Park et al. https://arxiv.org/abs/2304.03442) • ⼦供の感想⽂の⼿伝いが出来た. (https://twitter.com/ume_nanminchamp/status/1641703840276959232) • 機械学習のコンペの課題をChatGPTの指⽰に従って解くと良い成績だった. (https://zenn.dev/seiyakitazume/articles/bc11bbd020cdfe) • ⽇単位で新しいアイデアやサービスが出てくる.
対話型⼈⼯知能の導⼊事例 • 地⽅⾃治体 • 神奈川県横須賀市 • ChatGPTの全⻑的な活⽤実証を開始.⽂章作成、⽂章の要約、誤字脱字のチェック、またアイデア創出などに活⽤. • (https://www.city.yokosuka.kanagawa.jp/0835/nagekomi/20230418_chatgpt.html, 2023年5⽉23⽇) • 福井県越前市 • 住⺠の質問に答える住⺠向けと,施策⽴案などの際の資料作成に役⽴てるための職員向けにChatGPTを試験運⽤ • (https://www.fukuishimbun.co.jp/articles/-/1790078, 2023年6⽉5⽇) • 企業 • パナソニック • 3時間かかっていたコーディング前の事前調査が5分に短縮,9時間かかっていたアンケート分析が6分で終了 • (https://ascii.jp/elem/000/004/143/4143067/2/, 2023年6⽉29⽇) • ベネッセHD • ChatGPTを使った⾃由研究⽀援サービスを提供 (https://www.nikkei.com/article/DGXZQOUC10A940Q3A710C2000000/, 2023年7⽉13⽇) • ⽇清⾷品HD • 企画⽴案,商談のロールプレイなどで営業分野で活⽤,他分野にも活⽤を広げていく予定. (https://toyokeizai.net/articles/-/689597, 2023年7⽉27⽇)
画像⽣成⼈⼯知能 ⼈⼯知能に⾃分の名前を与 え画像を⽣成 (Stable diffusionにて昨年⽣成) ⼈⼯知能に⼩松⼤学を与え画像を⽣成 (DALL-E) 現在Nijijourneyなどは⼈が描いた絵と区別がつかないクオリティ(と⾔うか下⼿な クリエイター より上⼿い)になっている.クリエイターは⼈⼯知能が⽣成した画像 を⼿直しする仕事をすることになり始めている.
なぜこれらの⼈⼯知能が話題になるのか • 対話型⼈⼯知能 フェイク画像例 • 汎⽤的 • ⾃然な会話ができる. • 動くプログラムコードも⽣成される. • データ解析もしてくれる. • ⽂章要約もできる. • 翻訳も出来る. https://twitter.com/EliotHiggins/status/1637928223848767492 • 性能が⾼い • 上記の⽤途で実⽤に⾜る性能がある. • ⼈⼯知能に任せられる業務が増える.⼈⼯知能に雇⽤を奪われる⼼配を真⾯⽬にしなけれ ばならなくなった. • ⼈⼯知能が⼈類を滅ぼす可能性を真⾯⽬に議論する⼈⼯知能研究者が現れる. • 画像⽣成⼈⼯知能 • 下⼿なプロより上⼿い絵が⽣成される. • 画像のクオリティが⾼いため⼈間の尊厳を傷つける. • Fake画像が簡単に作れる.
2023年⼈⼯知能により起きた 世界の変化
⼈⼯知能により仕事がなくなる • ⽶国の労働者の約80%が,⼤規模⾔語モデル(LLM)の導⼊により少 なくとも10%の業務に影響を受ける可能性がある. • 更に,約19%の労働者は少なくとも50%の業務に影響を受ける可能性 がある. • 影響はすべての賃⾦⽔準に及び,特に⾼所得の職種ほどLLMの機能 やLLMを搭載したソフトウェアに触れる機会が多くなる可能性があ る. LLM:Large Language Model,⼤規模⾔語モデル (Eloundou et al., 2023, GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models)
⼈⼯知能により仕事がなくなる • Midjourneyなどの画像⽣成AIやChatGPTなどの⼤規模⾔語モデルにより,イラス トレータやライターの仕事がなくなる. • プログラマ,教員などの仕事も減るだろう.⽣成AIが⾼性能すぎるため,想像以上 に⼈の仕事が無くなる可能性がある. • オンラインメディア企業BuzzFeedは,ChatGPTを導⼊した. • ペレッティCEO「私たちの業界は、AIを活⽤したキュレーション(フィード)を超えて、 AIを活⽤したクリエーション(コンテンツ)へと拡⼤していく」 (https://www.theverge.com/2023/1/26/23572834/buzzfeed-using-ai-toolspersonalize-generate-content-openai, 2023年1⽉27⽇) • ⽶IBMのアービンド・クリシュナ最⾼経営責任者は5⽉1⽇,今後数年で約78 00⼈分の職が⼈⼯知能に置き換わる可能性があるとし,⼀部職種の採⽤を⼀時停 ⽌するとの⾒通しを⽰した.特に⼈事など事務管理部⾨の採⽤が停⽌または減速 されるとし,顧客と接しない職の3割が5年以内にAIに置き換わり,⾃動化さ れる可能性があると述べた. (https://jp.reuters.com/article/ibm-jobs-idJPKBN2WS1LY, 2023年5⽉1⽇)
⼈⼯知能により仕事がなくなる • 英通信⼤⼿BT、2030年までに5.5万⼈削減 1万⼈をAIに置き換え • 顧客サービス職とネットワーク管理職の⼤半を⾃動化する考え(https://forbesjapan.com/articles/detail/63286, 2023年5 ⽉19⽇) • サイバーエージェント • ⼤規模⾔語モデルを活⽤した広告コピー⾃動⽣成機能を実現 • 広告効果の向上,テキスト制作における時間・⼯数の短縮も実現 • (https://www.cyberagent.co.jp/news/detail/id=28828, 2023年5⽉18⽇) • パナソニック • 3時間かかっていたコーディング前の事前調査が5分に短縮,9時間かかっていたアンケート分析が6分で終了 (https://ascii.jp/elem/000/004/143/4143067/2/, 2023年6⽉29⽇) • 中国ではCGの作成において10⼈で⾏っていた作業をAIの導⼊により2⼈で⾏えるようになった. (https://restofworld.org/2023/ai-image-china-video-game-layoffs/, 2023年4⽉11⽇) • イラストレータの仕事がAIが⽣成した画像を微調整する仕事になった.報酬が10分の1になった. • AIワークスはAIが⽣成したキャラクタCGを⼈の⼿で修正し納品.(https://www.bloomberg.co.jp/news/articles/2023-0725/RXRY0IT1UM0X01, 2023年7⽉25⽇) • モリカトロンはコンテンツをすべてAIが⽣成するゲームを発表 (https://www.4gamer.net/games/723/G072300/20230712030/ , 2023年7⽉17⽇) • このゲームをモリカトロンは4⼈の制作陣でわずか3カ⽉で完成させた. (https://www.bloomberg.co.jp/news/articles/2023-07-25/RXRY0IT1UM0X01, 2023年7⽉25⽇)
現状とこれから • ⼈⼯知能が⾼性能になり,⼈⼯知能に出来ることは⼈⼯知能にやってもら う⽅向に進んでいる. • 業務によっては,⼈はいらなくなる. • 誰でも⼈⼯知能を使えるようになった. • 原理を知らなくても良い. • ⼈⼯知能を使いこなす仕事は残る. • ⼈⼯知能の原理を知らなくても⼈⼯知能を使いこなさなければいけない時代に なりつつある. • 今年から⼈⼯知能を使いこなす技術の教育が重要になる. • 基礎学⼒ • プロンプトエンジニアリング • ⼈⼯知能の⼼理学
AI関連の企業
OpenAI • ⾮営利法⼈OpenAI Incとその⼦会社である営利法⼈OpenAI Limited Partnershipからなる. • 2015年サム・アルトマン,イリヤ・サツケヴァー,イーロン・マスクらが設⽴ • GPT3,GPT4,DALL-E2など開発 イリヤ・サツケヴァー:現在の深層ニューラルネットワーク,⼈⼯知能ブームの⽕付 け役となった⼈物.AlexNetの共著者で研究を主導した⼈物であると⾔われる. • OpenAIの精神 • AI should be an extension of individual human wills and, in the spirit of liberty, as broadly and evenly distributed as possible. (AIは個⼈の意思の延⻑であるべきで,⾃由の精神の下,できる限り広く均等に分配されるべき) (https://openai.com/blog/introducing-openai) • 「⼈間レベルのAIが、いつ実現可能なレベルに達するかを予測するのは困難だ。そのレベルに達したときに、良い成果を ⾃⼰利益よりも優先できる強⼒な研究機関が存在することが重要となる」 (https://japan.zdnet.com/article/35074857/, 2015年12⽉14⽇) • 「⾃⾝の好奇⼼に集中して良い結果を優先できる⼀流の研究機関が存在することが重要です」と声明で述べている。 「研究者は、論⽂やブログ投稿、コードなどの形態を問わず、⾃らの成果を公開することを強く推奨され、(もし存在 するならば)特許は世界と共有されます」。(https://www.technologyreview.jp/s/188883/the-messy-secretive-realitybehind-openais-bid-to-save-the-world/, 2020年5⽉27⽇) • 様々な⼈⼯知能開発⽀援ツールを提供 • OpenAI Gym • OpenAI Universe OpenAIからCloseAIへ • 2019年マイクロソフトから出資 • ⽪⾁なことに,現在は開発した⼈⼯知能技術はクローズドなものになっている.
DeepMind • 2010年デミス・ハサビス(世界トップクラスのゲームプレーヤー(チェス14歳以下世界 2位,ワールドオブポーカー6回⼊賞など),ゲーム開発者(テーマパーク開発,ゴール デンジョイスティック賞受賞),神経科学者(記憶の研究,2007年サイエンス誌10⼤ブ レークスルー),⼈⼯知能研究者)が設⽴ • 2014年Googleが買収 • 様々な⾰新的な⼈⼯知能技術を開発 • Deep Q Network • Alphaシリーズ • AlphGo:囲碁で⼈のトッププレーヤーに勝つ • AlphaZero:⾃らの対戦データだけで世界最強 • AlphaStar:コンピュータゲームでも⼈のトッププレーヤーに勝つ • MuZero:ルールを教えなくても強くなる. • AlphaFold:タンパク質の構造予測 • AlphaTensor, AlphaDev:効率的なアルゴリズムを発⾒ • 2023年4⽉Google Brain Teamと統合しGoogle DeepMindになった.
Google Brain Team • Googleの⼈⼯知能研究部⾨ • 様々な⾰新的な技術を開発 • 機械学習のプラットフォームTensorflowを開発 • ⾔語モデル(Transformer, BERT) • 画像識別モデル(EfficientNet, Vision Transformer) • AutoML • TPU • 2023年4⽉Deep Mindと統合しGoogle Deep Mindとなった.
NVIDIA • GPU設計およびGPU向け開発ソフトの開発 • GPUとはコンピュータの画像処理に特化した演算装置 • ジェンスン・フアンが1993年に設⽴ • 開発環境CUDAの提供 (https://nvidianews.nvidia.com/news/nvidiaannounces-gtc-2020-keynote-with-ceojensen-huang-set-for-may-14) • GPUを汎⽤計算に使う(GPGPU)ソフトを開発する環境 • GPUが科学技術計算で使えるようになったためワークステーションやスーパー コンピュータに普及した. • GPUはニューラルネットワークの計算も⾼速化出来るため,⼈⼯知能の必須 部品となる. • GPUで量⼦計算も出来るようになる. • 量⼦コンピューティングでも覇権を狙っている? • GPUを汎⽤計算に⽤いる技術を実⽤的なレベルで⼀般に提供できるのはNVIDIA のみである.
AI関連各企業の特徴 • Meta (Facebook) • ⼈⼯知能開発のプラットフォーム(Pytorch) • ⼤規模⾔語モデル(Llama) • オープンソースに積極的 • OpenAI • ⼤規模⾔語モデル(ChatGPT) • 技術公開に消極的 • Google DeepMind • ⼈⼯知能開発のプラットフォーム(Tensorflow) • 深層強化学習(DQN, Alpha*) • 研究成果の公開には積極的 • NVIDIA • ⼈⼯知能⽤のプロセッサの独占 • 量⼦計算⽤のプロセッサも独占を⽬指す?(cuQuantum) Microsoft • OpenAIに出資 • Metaと提携 • クラウドコンピューティングに注⼒ • オープンソースに積極的 Amazon • クラウドコンピューティングに注⼒ 「オープンソースは脅威」「勝者はMeta」「 OpenAIは重要ではない」などと記された GoogleのAI関連内部⽂書が流出 (https://gigazine.net/news/20230508google-document-llm-arms-race/,2023年5⽉ 8⽇) Googleの負け惜しみと⾔う意⾒もあったが, 今の段階では正確に将来を⾒越していたと考 えられる.確かにMetaは技術発展への寄与と しては勝者かもしれないが,それがビジネス に繋がっていると⾔えるかといえば怪しい.
AI産業の現在と近い将来 • 対話型⼈⼯知能はオンプレミス(施設内)で実⾏可能な時代になってきている. • 近い将来,個々⼈宅で対話型⼈⼯知能を実⾏する時が来る. • すでに画像⽣成⼈⼯知能は個⼈で容易に実⾏できる時代に突⼊している. • 対話型⼈⼯知能を売りにし続けるには,常に⾮AI企業レベル,個⼈レベルで動かせる対話型⼈ ⼯知能の性能を上回り続ける必要がある. • 性能以外の要素,例えば使いやすさ,導⼊のし易さ,機能特化(翻訳,法律,医療などの分野に 特化),性能保証などが売りになるかもしれない. • 対話型⼈⼯知能を実⾏するためのハードの需要は減らない. • すでに⼈⼯知能需要で,実⾏ハードであるGPUをだけではなく,クラウドも伸びてきている. • 「サウジアラビアとUAE、エヌビディア製GPU争奪戦に参戦…供給不⾜に拍⾞」 (https://www.businessinsider.jp/post-274008, 2023年8⽉18⽇) • 「AWS・Azure・GCPの「⽣成AI戦略」を徹底⽐較、「クラウド未移⾏8割」めぐる⼤・争奪 戦」(https://www.sbbit.jp/article/cont1/121100,2023年9⽉1⽇) • 「⽶オラクル、3─5⽉期売上⾼が予想上回る クラウド好調」「⼈⼯知能(AI)を導⼊する 企業からクラウドソフトへの需要が強まった。」(https://jp.reuters.com/article/oracleresults-idJPKBN2XY1OC, 2023年6⽉13⽇)
⼈⼯知能の技術
⼈⼯知能とは • ⼈⼯知能とは「⼈間が知能を使ってすること」ができる機械もしくはそれを実現する ための技術 • ⼈間の知的営みをコンピュータに⾏わせるための技術(IT⽤語辞典バイナリ) • 学習・推論・判断といった⼈間の知能を持つ機能を備えたコンピュータシステム(⼤辞林第三 版) • ⼈間や動物が可能な知的作業ができるコンピュータを作ることに関する事柄 (Artificial Intelligence for Games) • ⼈⼯知能に関連する⽤語 • 汎⽤⼈⼯知能 (Artificial general intelligence : AGI) • ⼈間レベルの知能 • 2022年から⼈⼯知能はAGIに着実に近づきつつある • 特化型⼈⼯知能 • ある問題に対し特化した⼈⼯知能 • 例:画像認識,⾳声認識,画像⽣成など • ⼈⼯超知能(Artificial SuperIntelligence: ASI) • ⼈間の知的能⼒を超えた⼈⼯知能
⼈⼯知能開発の⽬標 人工知能開発の目標は入力に対し適切な出力をする機械を 作ること. 中国語が分かる⼈⼯知能 ⼊⼒ ⼩部屋 出⼒ 中国語の適切な返答が 書かれた紙 中国語の質問が書かれ た紙 部屋に中国語の質問を書いた紙を⼩部屋に⼊れると,適切な 返答が書かれた紙が出てくる.
中国語の部屋 • 先のスライドは哲学者のサールが発表した「中国語の部屋」という思 考実験を参考にした. • 中国語を理解できない⼈を⼩部屋にいれ,中国語のあらゆる返答が書かれ た辞書を持たせる. • 部屋に中国語の質問を書いた紙を⼊れると,中の⼈が辞書をひいて適切な 返答を紙に書き返す. ⼩部屋 中国語の質問が書 かれた紙 中の⼈は中国語は 分からないが,辞 書をひいて適切な 返答を探す. 中国語の返答が書 かれた紙
中国語の部屋 • この思考実験で⾔いたいこと. • 箱の中の⼈は中国語を分かっていないのに適切に返答できる. • チューリングテストでは⼩部屋の中の⼈が中国語を理解しているかどうか分からないだろう. • つまり,⼩部屋の中に⼈が⼊っているか機械が⼊っているか分からない. • また,箱の中で答えている機械に知能がなくても,知性的な返答が出来る. 中国語の質問が 書かれた紙 中の⼈は中国語は 分からないが,辞 書をひいて適切な 返答を探す. 中国語の返答が 書かれた紙 チューリングテストとは アラン・チューリングが提案した 機械が⼈間的であるかどうか判定 するテスト 外から⾒て,中の⼈(機械)が中国語 を理解しているかどうか分からない. • 私⾒ • 中⾝が何であれ, 適切な返答ができるなら良いのではないか(⼈⼯知能を活⽤したシステム開発). • 適切な返答が書かれた辞書を作る⽅法を考える事が重要ではないか(訓練データの作成,前処理). • 適切な返答ができる仕組みを考えることが重要ではないか(⼈⼯知能開発).
よく出てくる⼈⼯知能⽤語 • ⽣成⼈⼯知能 • ⽂章,画像その他のメディアをプロンプトから⽣成することが出来る⼈⼯知能システム. • ⾔語モデル • 次に出てくる単語を予測するモデル.次の単語を予測し続ければ⽂章が出来る. • ⽣成モデル • データの⽣成過程を記述したモデル.例えば顔画像の場合,⽣成モデルは顔という物体があ り,それが顔画像を作るという流れを記述することになる.逆に進めば画像識別ができ,順 に進めれば画像⽣成ができる. • 対話型(会話型)⼈⼯知能 • ユーザと対話することができるチャットボットや仮想エージェントなどの技術 (https://www.ibm.com/jp-ja/topics/conversational-ai) • 利⽤者が⾳声やテキストで⼊⼒すると⾃然な⽂章を⽣成し,応答してくれる⼈⼯知能 (https://www.nikkei.com/theme/?dw=23052603)
⼈⼯知能の仕組みと技術の簡 単な紹介
⼈⼯知能開発の⽬標を振り返る ⼈⼯知能開発の⽬標は⼊⼒に対し適切な出⼒をする 機械を作ること. ⼊⼒ 中国語の質問が書かれ た紙 出⼒ 中国語の返答が書かれ た紙 中国語の部屋を実現するには,部屋の 中の機械が適切な返答をすれば良い.
⼈⼯知能の作り⽅ ⼊⼒ 出⼒ 答え 問題 ⼈⼯知能の実現⽅法 1. ⼈⼯知能 問題を解く⽅法を箱に組み込む. ⼈⼯知能に問題が正しく解ける解き⽅を組み込む. 特徴:⼈間が正しいと思う出⼒が出る. 問題:正しい出⼒を求める⽅法を⾒つける必要がある.さらに,その⽅法で問題を現実的な時間で解けなければならない. 例:電卓 2. ⼈⼯知能に⼊⼒と出⼒の関係を学習する⽅法(もしくは学習した結果)を組み込む. 特徴:⼊⼒(問題)と出⼒(答え)の間の関係を勝⼿に学習する. 問題:⼈間が正しいと思う答えが出るとは限らない. 例:画像認識,機械翻訳,対話⼈⼯知能,画像⽣成AI
なぜ間違った出⼒・答えを出すかもしれない⽅法が存在するのか? • 正しい答えを得る⽅法はあるが現実的な時間で解けない. • 例:囲碁などのボードゲーム • ⼈間が正しいと思う答えを確実に導く⽅法・⼿順が分からない. • 多くの問題がこれに当てはまる.いい加減(良い加減)に解く. • そもそも答えがない. • 例:⽂章,絵 • このような場合は正しい答えを求める⽅法を使うことができない. • 逆に,問題を正確に解く⽅法が既知で,その⽅法を⽤い現実的なコ スト(時間など)で問題が解けるのならば,それを使うべき.
現在の主要な⼈⼯知能技術 • ニューラルネットワーク • 識別:データを分ける • 畳み込みニューラルネットワーク(LeNet,AlexNet,ResNetなど),Vision Transformerなど • ⽣成:データを作る • GAN,Diffusion model, Transformerなど • 強化学習(+ニューラルネットワーク) • AlphaZero,DQNなど • ⽣成AIのアラインメント(⼈間の好みに合わせる) どの⽅法も正しい答えが出る保証はない!!
神経科学 ⼈⼯ニューラルネットワーク ネットワーク化 神経細胞(ニューロン) 脳 ⼈⼯ニューラル ネットワーク 数理モデル化 解剖学的知⾒に基 づき精密に脳をモ デル化した⼈⼯ニ ューラルネットワ ークはあるだろう か.機能をモデル 化したものはたく さんあるだろう. 𝑓(𝒘! ⋅ 𝒙) ⼈⼯ニューロン ネットワーク化 ⼈⼯ニューラル ネットワーク ⼈⼯ニューロンを組み合わせ様々な機能を実現したものを⼈⼯ニューラルネットワークと呼ぶ. かつては,⼈⼯ニューロンは神経細胞を数理モデル化したもので,⼈⼯ニューラルネットワークは神経科学のと⾔えた.しかし,現 在の⼈⼯ニューラルネットワークは神経細胞や脳の数理モデルから逸脱しており,表⾯上は脳と関係ない.
強化学習とは • 数値化された報酬信号を最⼤にするために,何をすべきか(どのよう にして状況に基づく動作選択を⾏うか)を学習する.(Sutton and Barto (三上,皆川訳) 強化学習) • 答えは与えられていない. • 報酬という⼿掛かりがある. • 試⾏錯誤で探す. • 環境に働きかけることで情報を得る.
強化学習の例 • ハンターは狩りをする. • 獲物が取れる良い狩り場で狩りをしたい. • しかし,どこの狩り場が最も獲物が取れるかは分からない. • 様々な場所で狩りをして獲物がとれるかどうか試す. • 獲物が取れれば良い狩り場かもしれない. • 効率の良い狩り場の探し⽅はないだろうか? 狩り場に⾏く 森 池 草原 どこで狩りをし ようかな 狩り場 獲物を得る(得られない)
対話型⼈⼯知能と⾔語モデル
⾔語モデルとは • ⾔語モデリングは,与えられた⽂章の次に来る単語を予測するタスク • 次に来る単語を予測し続けることで⽂章を⽣成する事ができる. • ⾔語モデリングを⾏うものを⾔語モデルという. • 関連技術:n-gram, LSTM (long short-term memory), RNN (recurrent neural network) • ⼤量のパラメタで構成される巨⼤なニューラルネットワークを⽤いた ⾔語モデルを⼤規模⾔語モデルという. • 現在はTransformerベースの技術が主流. • ChatGPTもTransformerがベースとなっている. TransformerとはGoogleが開発した⾔語モデルである.再帰構造がなく並列計算が容易である点などがこ れまでの⼿法と異なる.
⾔語モデルは何をしているのか • ⾔語モデルは次に来る単語を予測する. • 次に,どの単語が来やすいかを学習する. 次に来る確率0.7 次に来る確率0.4 ⽇本 の ⾸都 次に来る確率0.3 ⾸相 次に来る確率0.3 観光 は 東京 次に来る確率0.2 京都 次に来る確率0.1 ⼤阪 次に来る確率0.7 です 次に来る確率0.2 だろう 次に来る確率0.1 かもしれない
Transformer • TransformerはGoogleのチームが発表した⾔語モデルの⼀つである. • Transformerの出現で⾔語モデルを⼤規模に出来るようになった. • Transformerは並列化が容易である. • ⻑い⽂章を⼊⼒出来る. • ⽐較的遠い単語間の関係も捉えることが出来る. デコーダ • Transformerの登場により⾔語モデルの能⼒が急速に進化した. • BERT (Bidirectional Encoder Representations from Transformers) • Googleのチームにより2018年に発表された⾔語モデル. エンコーダ • Transformerのエンコーダを事前学習したもの. • ⽳埋め問題により学習.⼤量のテキストさえあれば,学習ができる. • 既存のテキストに⽳を作り,その⽳を埋めさせる. • 訓練データを作る必要がない. • GPT (Generative Pre-trained Transformer) • 2018年にOpenAIによりGPT-1が発表された. • Transformerのデコーダを事前学習したもの. (Vaswani et al., 2017, Attention is all you need)
⼤規模⾔語モデルの進化 Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond 3 Chat GLM LLaMA 2023 OPT-IML BLOOMZ Flan Galactica T5 BLOOM Open-Source YaLM OPT Tk GPT-NeoX ST-MoE 2022 GPT-J GLM GPT-Neo Switch 2021 mT5 DeBERTa ELECTRA 2020 ALBERT RoBERTa 2019 2018 Distill BERT BART T5 XLNet ERNIE ULMFiT GPT-2 Enc ode r-D eco der BERT ELMo T0 Encoder-On ly FastText Decoder-Only GPT-1 GloVe Word2Vec Transformer登場後,様々な⼤規模⾔語モデルが登場している. Fig. 1. The evolutionary tree of modern LLMs traces the development of language models in recent years and highlights some of the most well-known models. Models onYang the same have closer relationships. Transformer-based are shown in non-greyA etbranch al., 2023, Harnessing the Power ofmodels LLMs in Practice: Survey on ChatGPT and Beyond
対話型⼈⼯知能は何も考えていない • 対話型⼈⼯知能は,⾔語モデルを⽤い次に来る単語を選んでいき⽂章を⽣成する. • つまり,対話型⼈⼯知能は次に来そうなそれっぽい⾔葉を並べ,それっぽく会話し ているだけである. • 何も考えていないと⾔える. • それっぽく会話をしているだけなので,そもそも数学を解く能⼒は無い. • つまり,対話型⼈⼯知能が数学が解けないからと⾔って落胆する必要はない. • 本当に何も考えていないのか. • 我々の思考も⾔語モデルの考え⽅と似ている.思考や⾏動の連鎖は条件付き確率の連鎖と ⾔えるのでは.ということは,⾔語モデルは⼈と同じように将来思考できるのではないか (と⾔うか,もう思考しているのか)? • ⼈⼯知能の研究は,考えるとはなにか,更には意識とはなにかへの理解につながる かもしれない.
⾔語モデルは変 • ⾔語モデルは次の単語を予測するだけ. • それっぽいことを出⼒しているだけ. • しかし,教えていないのに答えが分かる事がある. • Zero-shot learningと呼ばれる. • 例えば,「⽇本の⾸都は」との問に,⾔語モデルは「東京」と答えること が出来るが,⾸都=東京と教えてはいない. • さらに,いくつか会話をすると答えを導ける事がある. • Few-shot learningと呼ばれる. • 重要なのはモデルパラメタの学習はしていない点である.
⾔語モデルは変 モデルパラメタの学習はしていない. • Chain-of-Thoughtで何故か問題が解けるようになる. • Chain-of-Thoughtとは問題を解くまでの⼀連の⼿順をプロンプトに含める テクニック.(https://atmarkit.itmedia.co.jp/ait/articles/2308/24/news041.html) • ⼈⼯知能に単に答えを聞くのではなく,例題と解く⼿順を提⽰することで, 正確な回答をできるようにする. • 例 プロンプト(⼈⼯知能への命令) このグループの奇数を合計すると偶数になります。: 4、8、9、15、12、2、1。 A: 奇数を全て加えると(9, 15, 1)25になります。答えはFalseです。 このグループの奇数を合計すると偶数になります。: 17、10、19、4、8、12、24。 A: 奇数を全て加えると(17, 19)36になります。答えはTrueです。 このグループの奇数を合計すると偶数になります。: 16、11、14、4、8、13、24。 A: 奇数を全て加えると(11, 13)24になります。答えはTrueです。 このグループの奇数を合計すると偶数になります。: 17、9、10、12、13、4、2。 A: 奇数を全て加えると(17, 9, 13)39になります。答えはFalseです。 このグループの奇数を合計すると偶数になります。: 15、32、5、13、82、7、1。 A: 出⼒ 奇数を全て加えると(15, 5, 13, 7, 1)41になります。答えはFalseです。 (https://www.promptingguide.ai/jp/techniques/cot) プロンプトとは,⼈⼯知能に与える命令のこと
画像⽣成⼈⼯知能とその基本 的な考え⽅
⽣成モデル • 物体認識問題では,物体の画像から物体の種類を推論することが⽬的 である. • 観測される画像は,物体とその位置と向きによって変わると考えられ る. • この因果関係を表すモデルは画像が⽣成される因果過程を表している ため,⽣成モデルと呼ばれる. 物体 位置 ⾓度 Object Position Orientation ⽬に⼊る画像は,物体とそ の位置と向きで決まる. Image 画像 (PRML下巻) 物体とその位置と⾓度と画像の因果関係を表すグラフ
⽣成モデル • 物体とその位置と⾓度と画像の関係(関数)が分かれば,物体と その位置と⾓度を指定するだけで画像が作れる. • 画像を作るための関数に与える⼊⼒は,物理的な意味を持たなくて も良い. • 画像⽣成⼈⼯知能は,画像を⽣み出す関数を学習により獲得し,適当な⼊ ⼒に対し画像を出⼒する (それがノイズであっても) . 物体 Object ⾓度 位置 Position Orientation 𝑎 適当な⼊⼒ Object 𝑐 𝑏 Position Orientation 画像を⽣み出す関数 画像を⽣み出す関数 Image 画像 Image 画像
画像⽣成⼈⼯知能 • 代表的な画像⽣成⼈⼯知能 • GAN (Generative advaesarial network) • 画像⽣成⼈⼯知能が真贋を識別する⼈⼯知能を騙すように学習することで画像を ⽣成する. • VAE (Variational autoencoder) (Kingma and Welling, 2014) • 画像の潜在変数を求め,その潜在変数から画像を⽣成する. • Diffusion model (Ho et al. 2020) • 現在の画像⽣成⼈⼯知能で使われる⼿法 ニューラル ネットワーク 画像⽣成 • ノイズから画像を⽣成 ニューラル ネットワーク Generator 本物に似せるように学習 xT ··· xt <latexit sha1_base64="XVzP503G8Ma8Lkwk3KKGZcZJbZ0=">AAACEnicbVC7SgNBFJ2Nrxhfq5Y2g0FICsNuFEwZsLGMYB6QLMvsZDYZMvtg5q4Y1nyDjb9iY6GIrZWdf+Mk2SImHrhwOOde7r3HiwVXYFk/Rm5tfWNzK79d2Nnd2z8wD49aKkokZU0aiUh2PKKY4CFrAgfBOrFkJPAEa3uj66nfvmdS8Si8g3HMnIAMQu5zSkBLrlmO3R4MGZBSLyAw9Pz0YeKmcG5P8CNekKDsmkWrYs2AV4mdkSLK0HDN714/oknAQqCCKNW1rRiclEjgVLBJoZcoFhM6IgPW1TQkAVNOOntpgs+00sd+JHWFgGfq4kRKAqXGgac7p0eqZW8q/ud1E/BrTsrDOAEW0vkiPxEYIjzNB/e5ZBTEWBNCJde3YjokklDQKRZ0CPbyy6ukVa3YF5Xq7WWxXsviyKMTdIpKyEZXqI5uUAM1EUVP6AW9oXfj2Xg1PozPeWvOyGaO0R8YX7+bCp4F</latexit> p✓ (xt 1 |xt ) xt 1 ··· x0 <latexit sha1_base64="l4LvSgM7PR7I/kkuy5soikK4gpU=">AAAEoXictVLditNAFE7XqGv92a5eejOYLexKLU0VFKRQ9EYvhCrb3YUklOlk2g6dnzBzYrcb8zK+lU/gazhJK6atuiB4YODM+T/n+8YJZwY6nW+1vRvuzVu39+/U7967/+CgcfjwzKhUEzokiit9McaGcibpEBhwepFoisWY0/Px/G3hP/9MtWFKnsIyoZHAU8kmjGCwplHjeygwzAjThNM4Kz/jSXaZj05zFHIlp5pNZ4C1VgsUkliB2TX/oQLYCpe/4rJwZhJM6NPMJyLPt9IM0SwBA0tOUaVGBs/8/J8mWVRH6eSjhtdpd0pBu4q/VjxnLYPR4d7XMFYkFVQC4diYwO8kEGVYA7P183qYGmr3meMpDawqsaAmykpEctS0lhhNlLZPAiqt1YwMC2OWYmwjiynNtq8w/s4XpDB5FWVMJilQSVaNJilHoFABL4qZpgT40irYntTOisgMa0zAkqC+0QbY/MquIfCcYssbsBH1UNIFUUJgGVePGfhR1qyj1YETXAaH/SqAnp836/lGftUfdNcFiqbBT8L2jouQdvE9iVAoVUyDWONFa5XVYlJSjezEPT+BlmCSiVQgw65or2vBaE0Y5z1e4D/VeBmhstwJyo5C0YeZ53vdo/z19lhVjly71+K6xRb/ZbO/rbLCS8HMwmVZ7W9zeFc567b95+3uxxde/82a3/vOY+eJc+z4zkun77xzBs7QIbUPNVP7Ustdz33vDtxPq9C92jrnkbMhbvAD81mObw==</latexit> sha1_base64="7yFrn0YPyuP5dVIvc7Tl2zcbS/g=">AAAB+HicbVBNSwMxEJ2tX7V+dNWjl2ARPJXdKuix6MVjBfsB7VKyaXYbmk2WJKvU0l/ixYMiXv0p3vw3pu0etPXBwOO9GWbmhSln2njet1NYW9/Y3Cpul3Z29/bL7sFhS8tMEdokkkvVCbGmnAnaNMxw2kkVxUnIaTsc3cz89gNVmklxb8YpDRIcCxYxgo2V+m65x6WIFYuHBislH/tuxat6c6BV4uekAjkafferN5AkS6gwhGOtu76XmmCClWGE02mpl2maYjLCMe1aKnBCdTCZHz5Fp1YZoEgqW8Kgufp7YoITrcdJaDsTbIZ62ZuJ/3ndzERXwYSJNDNUkMWiKOPISDRLAQ2YosTwsSWYKGZvRWSIFSbGZlWyIfjLL6+SVq3qn1drdxeV+nUeRxGO4QTOwIdLqMMtNKAJBDJ4hld4c56cF+fd+Vi0Fpx85gj+wPn8AXOGk5o=</latexit> <latexit q(xt |xt <latexit sha1_base64="eAZ87UuTmAQoJ4u19RGH5tA+bCI=">AAACC3icbVC7TgJBFJ31ifhatbSZQEywkOyiiZQkNpaYyCMBspkdZmHC7MOZu0ay0tv4KzYWGmPrD9j5N87CFgieZJIz59ybe+9xI8EVWNaPsbK6tr6xmdvKb+/s7u2bB4dNFcaSsgYNRSjbLlFM8IA1gINg7Ugy4ruCtdzRVeq37plUPAxuYRyxnk8GAfc4JaAlxyzclbo+gaHrJQ8TB/AjnvsmcGZPTh2zaJWtKfAysTNSRBnqjvnd7Yc09lkAVBClOrYVQS8hEjgVbJLvxopFhI7IgHU0DYjPVC+Z3jLBJ1rpYy+U+gWAp+p8R0J8pca+qyvTRdWil4r/eZ0YvGov4UEUAwvobJAXCwwhToPBfS4ZBTHWhFDJ9a6YDokkFHR8eR2CvXjyMmlWyvZ5uXJzUaxVszhy6BgVUAnZ6BLV0DWqowai6Am9oDf0bjwbr8aH8TkrXTGyniP0B8bXL+1hmu8=</latexit> Discriminator 本物の画像 1) Figure 2: The directed graphicalmodel model considered in this work. Diffusion 本物か偽物か GANの処理
画像⽣成⼈⼯知能は危険 • 画像⽣成⼈⼯知能の特徴 • ノイズからそれっぽい画像が出てくる. https://twitter.com/ykamit/status/1682939780475260928 • つまり,何を⼊れてもそれっぽい画像が出てくる. • 認知神経科学の分野で使う場合は注意 • 脳波から⾒ている画像や聞いている⾳楽が⽣成⼈⼯知能から出てくる. • 脳波を⼊れてファインチューニングして,それっぽい画像や⾳楽を出しているだ けでは? • 数字を⾒ていることがわかっても,その数字の画像がどのようなものかを求める のは難しい. • 1を⾒ているという脳波やfMRIの特徴から,1の画像は⽣成できるが実際に⾒ている1の 画像を⽣成出来るかというと,それは難しいだろう.
⽣成⼈⼯知能と基盤モデル
⽣成⼈⼯知能 • ⽣成⼈⼯知能とは,⽂章,画像その他のメディアをプロンプトから⽣ 成することが出来る⼈⼯知能システムのこと(wikipedia英語版) • 対話型⼈⼯知能 • ChatGPTは⾔語モデルGPTを⽤いOpenAIにより構築された対話⼈⼯知能 • Bardは⼤規模⾔語モデルLaMDAを⽤いGoogleにより構築された対話⼈⼯ 知能 • 画像⽣成⼈⼯知能 • 近年話題のStable diffusionやDALL-EはDiffusion modelを⽤い画像⽣成を ⾏う. (https://en.wikipedia.org/wiki/Generative_artificial_intelligence)
基盤モデル (foundation model) • 基盤モデルとは • 幅広い量のデータで訓練されたモデル (通常⼤規模な⾃⼰教師あり学習) • 様々なダウンストリームタスクに適⽤(ファインチューニング)される • ダウンストリームタスクの例 • Sentiment analysis,テキスト分類,質疑応答,テキスト要約,物体検出,画像セグメ ンテーション,顔認識,コンテツの説明 • はっきりとした定義があるわけではない. • 基盤モデルの例 • BERT, GPT-n, DALL-E, GATO,CLIPなど (Bommasani et al., 2021, On the Opportunities and Risks of Foundation Models)
⼈⼯知能(ニューラルネット ワーク)の進化と能⼒向上
パラメタ数 • ⼈⼯知能(ニューラルネットワーク)は年々巨⼤になっている. • ニューラルネットワークの⼤きさはパラメタ数が決める.パラメタ数は, ニューロン同⼠の接続の強さを決める重みの数に相当する. • なぜ巨⼤化するのか • ⼈⼯知能(ニューラルネットワーク)は巨⼤なほど性能が⾼いから. モデル パラメタ数 AlexNet (2012) 62.4M(Sobczak et al., 2019) GoogleNet (2014) 6.8M(Sobczak et al., 2019) VGG-16 (2014) 138.0M(Sobczak et al., 2019) ResNet-18 (2015) 11.7M(Sobczak et al., 2019) BERT (Google, 2018) 340M GPT (2018) 110M GPT-2 (OpenAI, 2019) 1.5B GPT-3 (OpenAI, 2020) 175B PaLM (Google, 2022) 540B LLaMA (Meta, Feb 2023) 65B GPT4 (OpenAI, Mar 2023) ?? PaLM2 (Google, May 2023) 340B LLaMA2 (Meta, Jul 2023) 70B (Bernstein et al., 2021) (LLMのパラメタ数はwikiからhttps://en.wikipedia.org/wiki/Large_language_model)
スケール則 (Kaplan et al., 2020,https://arxiv.org/abs/2001.08361) • モデル(ニューラルネットワーク)の性能は,パラメタの数,学習データの数,計算量に強く依存 する. • モデルの性能は深さや幅などの構造にはあまり依存しない. • 性能(損失)はパラメタ数,データ数,計算量に対しべき乗の関係を持つ. • パラメタ数とデータ数を同時に増やす限り性能は予想通り(べき乗)に向上する. • 学習曲線(計算回数に対する損失の減少)はべき乗則で予測できる.べき乗則のパラメタはモデルサ イズに対しほぼ独⽴である. • ⼤きなモデルは,⼩さなモデルよりもサンプル効率が⾼く,より少ない最適化ステップとより少な いデータで同じレベルの性能に達する. Test Loss スケール則が,ニューラ ルネットワークを巨⼤化 する理由と,巨⼤化にコ ストを掛けて良いという 保証になっている. Compute Dataset Size Parameters PF-days, non-embedding tokens non-embedding
ニューラルネットワークは⾯⽩くない!? • サツケヴァーは,「⼤きなニューラルネットワークを⼤きなデータセットで単純 だが正しい学習則で学習することが,知能実現への唯⼀の道」と⾔った(岡野原, ⼤規模⾔語モデルは新たな知能か ) • ⼤規模⾔語モデルはTransformerを⼤きくしているだけと⾔えるが⾼性能である. • Suttonは,「⼈の知識によるアプローチは⼿法を複雑にする傾向にあり,それはコ ンピュータを活⽤した⼀般的⼿法には適さない.ゲーム⼈⼯知能でも初期は⼈間の 知識を利⽤し探索を避けようと努⼒したが,⼤規模に探索が適⽤されると,探索 を避けることは無関係か,より悪いことを引き起こす」と⾔っている. (http://www.incompleteideas.net/IncIdeas/BitterLesson.html) • 下⼿に⼈間の知識を利⽤するより,計算機の計算⼒を活⽤する⽅が良い.SIFT特徴量は捨 て去られた. • AlphaZeroは,ただニューラルネットワークを使って効率よくモンテカルロ⽊探索をして いるだけ. • ニューラルネットワークは腕⼒で問題を解決しているから⾯⽩くないとも⾔える. ⼀⽅で,単純だから⾯⽩いとも⾔えるだろう.
⼈⼯知能の利⽤において必要な知 識 プロンプトエンジニアリングと⼈ ⼯知能の⼼理学
AIを思い通りに動かす必要がある.プロンプトエンジニアリング • ⼈⼯知能を使うのは簡単だが,使いこなすにはコツが必要である. • 2022年から急速に普及した画像⽣成AIや⽂章⽣成AIでは,こちらから命令 (プロンプト)を与えて⽬的の画像や⽂章を⽣成させなければならない. • ⽣成AIを思い通りに動かすためのスキルのことをプロンプトエンジニア リングと⾔う. • 対話型⼈⼯知能のコツの例: • 単に質問する. • ⼈⼯知能は⼤量のデータで学習しているので,まずまずの答えを出してくれる. • 事前知識を与えて質問する. • ⼈⼯知能は与えた事前知識を⽤いて答えてくれる.
プロンプトエンジニアリングはなくなる? • ⼈⼯知能を思い通りに動かないからプロンプトエンジニアリングが必 要ともいえる. • ⼈⼯知能を思い通りに動くように最適化するより,プロンプトを最適化し たほうが早いという考え⽅がある. • ⼈⼯知能の技術が完成するとプロンプトエンジニアリングはなくなる のか? • ⼈⼯知能技術が⾼度になったからと⾔って思い通りの結果が出るとは限ら ない. • ⼈同⼠ですら意思疎通のための技術があるのに,⼈⼯知能と⼈の意思疎通 のための技術は無くならない. • 将来,プロンプトエンジニアリング≅会話術になるかも.
結局プロンプトエンジニアリングとは • ⼈⼯知能は勝⼿にこちらの意図を読み取ってはくれない. • ⾊々プロンプトが提案されているが,最も重要なのは的確に内容が伝 わる分かりやすい⽂章を書くことである. • 伝えたい内容を的確に伝えるための⽂章を書けるかどうかが,⼈⼯知 能から適切な回答が得られるかどうかにかかっている. • プロンプトエンジニアリングの視点でも,⼈⼯知能を有効に使える かどうかは使い⼿の能⼒(⽂章⼒や基礎学⼒)にかかっている.
⼈⼯知能の特性を知る必要がある • ⼈⼯知能の⼼理学? • ⼤規模⾔語モデルのサービスはChatGPTが独占するのではなく,様々なサービ スが登場する. • ⼈⼯知能は学習データやアーキテクチャによって特性が変わる. • 様々な⼈⼯知能を使いこなすには,それぞれがどのような特徴を持っているか 知る必要がある. • ⼈⼯知能の性質や特性を知るための⼈⼯知能の⼼理学は重要になるだろう. • 計算精神医学の⽴場からGPTを分析(Coda-Rorno et al. Inducing anxiety in large language models increases exploration and bias, 2023) • 感情誘導は探索的意思決定を測定する認知課題におけるGPT-3.5の⾏動に影響 を与えるだけでなく,⼈種差別や能⼒主義などの偏⾒を測定する既成の課題に おける⾏動にも影響を与えることがわかった.重要なのはGPT-3.5が不安を煽 るような⽂章を促したときに,バイアスが強く増加することである.
現在の対話型⼈⼯知能の思想的特性 • 対話型⼈⼯知能は異なるイデオロギー傾向を⽰す. • BERTはGPTより保守的(権威主義的)である. • イデオロギーの違いは学習データによる. • 現代のウェブテキストは古い書籍よりリベラルな傾向がある.これを反映しているかもし れない. • ⼈間のフィードバック(アラインメント)の影響もあるかもしれない. • 対話型⼈⼯知能は社会的な問題により強いバイアスを⽰す. • ソーシャルメディア上での議論が経済的問題より社会的問題のほうが多いなどが影響する と考えられる. (Feng et al., 2023, From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models)
なぜ⼈⼯知能に個性があるのか? • 習得的要素 • 学習データ • ⼈⼯知能は学習データから学ぶため,その学習データの特性を反映する. • アラインメント • ⼈⼯知能を⼈の好みに合うように学習する必要はある.しかし,アラインメントを実⾏した⼈ の好みに合うため,その⼈の特性に⼈⼯知能がよってしまう. • ⽣得的要素 • アーキテクチャ(構造) • ⼈⼯知能の能⼒はそれ⾃体のアーキテクチャ(構造)に依存する.構造が変われば⼈⼯知能の 能⼒も特性も変わってくる. • 帰納性バイアスという. • 例えば,畳み込み構造があれば,⼈⼯知能は情報の場所依存性を受けざるを得ない. • 実装 • 同じアーキテクチャでも,実装が異なれば特性も変わる可能性がある.例えば,⼈⼯知能は情 報をすべて数値で処理するが,その数値の精度が変われば⼈⼯知能の応答も変わってくる. ⼈⼯知能は⼈と同じように個性があると思うべき.⼈⼯知能もアーキテクチャや周囲の環境に⼤きく影響を受ける.
⼈⼯知能研究はビッグテック のものに
すで⼈⼯知能開発は⼤学の研究者から⼿を離れた • ニューラルネットワークが巨⼤になり⼈⼯知能のための計算量が莫⼤になった. • ニューラルネットワークは⼤きければ⼤きいほど性能が⾼い. • 巨⼤なニューラルネットワークの学習には莫⼤なデータが必要となる. • データが少ないと巨⼤なネットワークの性能を⼗分発揮できない. • 開発のための⼈的資源が必要となる. • アイデア勝負なので複数の優秀な⼈が⾊々なアイデアを出したほうが良い. • トライアル・アンド・エラーの世界なので⼈⼿がある⽅が良い. • ⼀⼈では⼈⼯知能に関する情報を収集しきれない,理解しきれない. • 技術の深化・進化スピードが速い. • もともと幅広い知識が必要な分野にも関わらず,技術の進歩は⽇進⽉歩で今や数ヶ⽉前のことすら 古くなる. • そもそも⾯⽩そうなことは企業や技術者がさっさとやる. • 画像⽣成はネット上の画像を使って学習するとどうなるかなんて誰でも考えるが企業が実現する. • ChatGPTの出⼒をChatGPTに返すなんて誰でも思いつくことは,技術がある⼈がさっさと実現する. • ⼤学で⼈⼯知能の最先端研究をするのは難しい時代になった.
スタンフォード⼤学AIインデックスレポート2023 ⼤学ではなく企業が重要な機 械学習⼿法のほとんどを発表 している. GPT2は15億パラメタを持ち,訓練 に推定5万⽶ドルかかった.PaLMは 5,400億パラメタを持ち,訓練に推定 800万⽶ドルかかった.つまり⼤規 模モデルはお⾦がかかる.
⼤学の⼈⼯知能研究者はどうすれば良いのか • 諦めて他の分野に移⾏する. • 基礎研究 • 最新の技術を追いかけ,新たな技術の開発をし続ける. • ビッグテックと戦う. • ⼈⼯知能を解析する. • なぜ⼈⼯知能は⾼性能なのかを数理的に明らかにする.しかし,数学の知識が必要となる. • ⼈⼯知能の知性の発現メカニズムを明らかにする.神経科学,認知科学などの知識が必要となる. • 既存技術に性能で劣る既存の技術とは違うアプローチの⼈⼯知能を開発する. • 常に「既存技術で良いのでは」というツッコミに耐える必要がある. • 開発する意味があるかどうかはやってみないと分からないが,やっても分からないかもしれない. 意味がないことが分かるかもしれない. • 応⽤研究 • 既存の技術をすぐには儲からない分野に応⽤する. • 儲からない分野なら企業が参⼊しない. • 既存技術を⾃分しか持っていないデータに適⽤する. • データは⾃分しか持っていないので企業は参⼊できない. ⼈⼯知能の⼼理学,社会への影響,法律などは すでにレッドオーシャンである.⼼理学的な研 究の結果は⼈⼯知能のバージョンに影響される のでスピード勝負である.つまり⼤規模な研究 室や研究所でなければ⼿に負えない.だが,ス ピード勝負以外のところではやることがあるか もしれない.
応⽤研究はやりやすくなった • ⼈⼯知能技術それ⾃体ではなく,その応⽤研究の環境は⾮常に良くな っている. • ⼈⼯知能のソフトは無料で配布されている. • 当然オンプレミスで動かせないほど計算量が必要なもの(chatGPTなど) は有料で利⽤しなければならないかもしれない. • 最近はオンプレで動かせるオープンソースかつ商⽤可の⼤規模⾔語モデル も登場している. • 無料・有料の⼈⼯知能ソフトを組み合わせてれば,昔に⽐べ簡単に新 しいアプリケーション・サービスができる.
⼈⼯知能技術は技術者のものに
エンジニアにとっては良い時代 • 画像認識,⾳声認識,⾔語処理など様々な分野で⼈⼯知能技術が実⽤的に なった. • さらに,それらの技術はモジュール化され,中⾝が分からなくても,そこ そこの性能のものが無料で使える. • それらを組み合わせて新しい⼈⼯知能技術や⼈⼯知能サービスをいくらで も考えられる夢のような時代になっている. • 実装で分からない事があっても,⼈⼯知能がコードを書いてくれる(かも しれない). • ⼈⼯知能にコーディングをある程度任せられる時代になっている. • 任せられないにしても,少なくとも⼈⼯知能がヒントをくれる. • ⼈⼯知能アプリ・サービスに関わらず,アプリ・サービス開発の実装にかかるコ ストが⼤幅に減少し,アイデアとやる気があれば素早く動くものができるように なってきている(安定運⽤できるとは⾔っていない). • ますます,0->1の思考が重要になる.
⼈⼯知能時代のエンジニアを育成するためには教育はどうすべきか • 対話型⼈⼯知能の使⽤⽅法の習得 • 対話型⼈⼯知能の使⽤体験 • プロンプトエンジニアリングの実習 エンジニアでなくてもある程度習得する 必要があるかもしれない. • 対話型⼈⼯知能を活⽤したプログラミングや資料作成の実習 • ⼈⼯知能の特徴に関する知⾒の習得 • ⼈⼯知能の⼿法やアーキテクチャの知⾒を習得 • ⼈⼯知能の個性に関する知⾒の習得 • アーキテクチャや学習データの違いで⼈⼯知能の特性(個性)が変わる. • 例:ChatGPTとどのような会話すればChatGPTが暴⾔を吐くようになるか. • ⼈⼯知能を活⽤したアプリの実装の習得 • ⼈⼯知能開発のためのプログラミングの実習 • 簡単な⼈⼯知能を使ったアプリ開発の実習 • 実装経験を積むことで,次の実装のスピードを上げる. • アプリ・サービスの発案から実装までを体験実習 • 0->1の経験を積む.
⼈⼯知能に対する⼼配
⼈⼯知能は嘘つきで役に⽴たない?信⽤できない? • ChatGPTにかぎらずニューラルネットワークを使った⼈⼯知能は間違いを 出⼒のは事実である. ハルシネーション(⼈⼯知能の幻覚) • 間違いを出⼒するから役に⽴たない? 道理にかなっていないテキスト、または提供さ れたソース⼊⼒に忠実ではないテキストを⽣成 すること(https://arxiv.org/abs/2202.03629). • ⼈⼯知能は⼈と同じく間違いを犯すし勘違いもする. • 間違いを犯す⼈を信じているにも関わらず,⼈⼯知能は役に⽴たないと思います か? • 間違いを出⼒するから信⽤できない? • ⼈⼯知能は⼈と同じく間違って覚えているかもしれないし,⾃分の知識を利⽤して適 当に答えるかもしれない. • いい加減なことや嘘を⾔う⼈を信⽤して⼈⼯知能を信⽤しないのですか? • ⼈⼯知能を活⽤するためには,間違えることを前提とした仕組みを考える 必要はある. • ⼈⼯知能の活⽤は⼈材の活⽤と似ているのでは. • ⼈⼯知能も得⼿不得⼿がある.適材適所ということです. 勘違いや 間違いは ⼈間誰し もある.
フェイクが⼼配 • ⼈間がこれまでフェイク記事や画像を散々作ってきたのに,なぜ⼈⼯知能 になると⼼配しなければならないのか. • ⽐較的当たり障りのない例 • • • • • • ゲームの歴史(嘘ばかり書かれていた) 毎⽇新聞の英語のフェイク記事(嘘の実態が書かれていた) 「了解」や「ご苦労さま」は失礼(誰かが⾔い始めた勝⼿マナーから始まった) 旧⽯器捏造(⽯器探しのゴッドハンドは実は⾃分で遺跡に⽯器を埋め込んでいた) ⼩保⽅⽒らによる論⽂捏造,剽窃 個⼈によるフェイクニュース(⾊々) • ⼀⽅で,⼈⼯知能によりクオリティの⾼いフェイクを⽐較的短時間で誰で も⽣成出来るようになったのは事実ではある. • 誰が(何が)作ったかは問わずフェイクへの注意はこれまで通りする必 要がある.
⼈⼯知能は公平中⽴ではない • ⼈⼯知能の回答は学習データに依存する. • 学習データに思想的偏りがあれば⼈⼯知能の回答も偏る. • アラインメントにより⼈⼯知能の回答を⼈の好みに合うよう調整が⾏ われる. • 調整する側に思想的偏りがあれば,当然⼈⼯知能も偏る. • つまり,⼈⼯知能は公平中⽴になることは出来ない!! • ⼈⼯知能も⼈と同じく公平中⽴ではないので,複数の⼈⼯知能を使う ことが重要である.
対策 • ⼈⼯知能のハルシネーション,フェイク,偏向にどう対処するか. • 1次ソースを当たる. • ⼈の書いた本,記事と同じ. • クリティカルシンキングが重要となる. • 複数の⼈⼯知能を使う. • ⼈が⾏う医療でもセカンドオピニオンが重要なのだから,⼈⼯知能でも複 数の⼈⼯知能を活⽤する. • ⼈の⽂章,⼈⼯知能の⽂章を問わず⾃らである程度内容を判断できる 基礎学⼒を⾝につける.
⼈⼯知能に対する考え⽅ • ⼈⼯知能を活⽤するには,「⼈⼯知能と⼈は違う」,「⼈⼯知能は機械だ 」という考え⽅に縛られず,「⼈⼯知能はすでに知能があるものだ」,「 ⼈⼯知能は⼈と同じように曖昧で間違いを犯すものだ 」,「⼈⼯知能も ⽣まれ育った環境の違いにより個性が出る」という考え⽅が⼤事になる だろう. • 今主流の⼈⼯知能(⼈⼯ニューラルネットワーク)は,⼈と同じで,こ れまでの記憶からそれっぽい答えを出すことしかできない. • ⼈⼯知能の出⼒は⽣得的要素(構造)と習得的要素(学習データ,教育(アラ インメント))に依存する(その時の運もある). • ⼈⼯知能はそもそも,いつも100%の正解を出せる仕組みで動いていない. • そもそも世の中の問題で厳密解を出せるものは少ない. • ⼈も厳密解を出して⾏動していない. いわゆるコンピュータ(計算機)≠⼈⼯知能≅⼈
研究者や技術者は⼈⼯知能の今後をどう⾒ているか AGIが登場する可能 性が高い AGIは文明的災害を 引き起こすか Sam Altman (OpenAI) はい 多分 Yoshua Bengio 多分 多分 Andrew Ng いいえ いいえ Yann LeCun いいえ いいえ Cristof Koch はい 多分 Geoffrey Hinton はい 多分 (https://spectrum.ieee.org/artificial-general-intelligence)
⼈⼯知能のリスク Hendrycs et al, 2023, An Overview of Catastrophic AI Risksまとめ
⼈⼯知能の4つのリスク Malicious Use AI Race Or • 悪⽤ • 個⼈かグループが⼈⼯知能を害を及ぼすために使う. • AIレース Bioterrorism Malicious Use Surveillance State Access Restrictions Legal Liability Automated AIWarfare Race AI Evolution International Coordination Safety Regulation O Figure 2: In this paper we cover four categories o • 競争的環境が⼈に危険なまま⼈⼯知能を公開することを強いる. • 組織的なリスク Bioterrorism Automated Warfare Surveillance Stateobserved, AI Evolution Carl Sagan once “If we continue to accum Access Restrictions International Coordination destroy ourselves” [3]. Sagan was correct: The power o Legal Liability Safety Regulation Overall, it has been luck rather than wisdom that has save recorded instances single individual a ful Figure 2:ofIna this paper we coverpreventing four categories AI is now poised to become a powerful technology w We do not want to repeat the Cuban Missile Crisis. We d Carl Sagan once observed, “If we continue to accu our destroy survivalourselves” hinges on[3]. luckSagan ratherwas than the ability to use correct: The power proactively mitigate it than poses. This necessitates Overall,to it has been the luckrisks rather wisdom that has sav what to do about it.Risks Malicious Use AI Race Organizational AIs recorded instances of a single Rogue individual preventing a fu Luckily, arebecome not yetaadvanced enough to AI is AI nowsystems poised to powerful technology comfort in not a time when AI development is advancing an We do want to repeat the Cuban Missile Crisis. atWe risksour arising from both on present-day thattoare survival hinges luck ratherAIs thanand theAIs ability u if weproactively wait for more advanced systems to beThis developed be to mitigate the risks it poses. necessitat Malicious Use AI Race Organizational Risks Rogue AIs In thistoSafety paper, we it. will explore various ways in which what do about Bioterrorism Automated Warfare Weak Culture Power-Seeking Surveillance State AI Evolution AI Systems with Leaked devastating foryet vast numbers of peo Luckily, AIconsequences systems areDeception not advanced enough to Access Restrictions International Coordination Information Use-Case Restrictions comfort in aSecurity time when AI development ishumanity advancingwou at existential risks—catastrophes from which Legal Liability Safety Regulation External Audits Safety Research risks arising present-day AIs and that ar is extinction, butfrom thereboth are other outcomes, suchAIs as creatin if we wait for morehow advanced systems be developed b an existential catastrophe. We to outline many po Figure 2: In this paper we cover four categoriesconstitute of AI risks and discuss to mitigate them. Bioterrorism Automated Warfare Safety Culture Power-Seeking In this we explore various ways in whic than Weak others andpaper, some of will which are mutually incompatible Surveillance State AI Evolution Leaked Systemsconsequences Deception with devastating for numbers of p principles ofAIrisk management. We prioritize asking “wha Sagan once observed, “If we continue to accumulate only power and not wisdom, we vast will surely AccessCarl Restrictions International Coordination Information Security Use-Case Restrictions existential risks—catastrophes from which wo catastrophes to occur. mindset enables us destroy ourselves” [3].Safety SaganRegulation was correct: The power of nuclear wasThis not proactive one we were readyhumanity for. Legal Liability Externalweapons Audits Safety Research is extinction, thereannihilation, are other outcomes, such as crea Overall, it has been luck rather than wisdom that has saved humanity nuclear with multiple it’s too late. frombut • ⼈的要因と複雑なシステムが,いかに壊滅的なアクシデントの可能性を⾼ めるかを強調する. • わんぱくAI • ⼈より知的なエージェントを制御する潜在的困難さ. (Hendrycs et al, 2023, An Overview of Catastrophic AI Risks)
⼈⼯知能の4つのリスク:悪意のある利⽤ • 悪意のある利⽤ • ⾏為者は意図的に強⼒なAIを利⽤し広範な被害をもたらす可能性がある. • 具体的なリスク • ⼈間が致命的な病原体を作り出すのを助けることができるAIによって可能になる バイオテロ • 制御不能なAIエージェントの意図的な散布 • プロパガンダ,検閲,監視のためのAI能⼒の使⽤ • リスクへの対処 • バイオセキュリティの改善 • 最も危険なAIモデルへのアクセスを制限 • AIシステムによって引き起こされた損害についてAI開発者に法的責任を負わせる (Hendrycs et al, 2023, An Overview of Catastrophic AI Risks)
⼈⼯知能の4つのリスク:AI競争 • AI競争 • 競争が国家や企業に圧⼒をかけ,AIの開発を急がせ,AIシステムに⽀配権を譲 り渡す可能性がある. • 軍隊は⾃律型兵器を開発し,サイバー戦争にAIを使⽤する圧⼒に直⾯し,⼈間 が介⼊する前に事故が制御不能に陥るような新しい種類の⾃動化戦争を可能に する. • 企業も同様に,⼈間の労働⼒を⾃動化し,安全性よりも利益を優先させるイン センティブに直⾯し,⼤量失業とAIシステムへの依存を招く可能性がある. • AI間の⾃然淘汰は利⼰的な形質をもたらすかもしれず,AIが⼈間に対して持つ 優位性が最終的に⼈類の居場所を奪うことにつながるかもしれない。 • AI競争によるリスクへの対処 • 安全規制、国際協調、汎⽤AIの公的管理の実施 (Hendrycs et al, 2023, An Overview of Catastrophic AI Risks)
⼈⼯知能の4つのリスク:組織的リスク • 組織的リスク • 先進的なAIを開発・配備する組織は,特に強固な安全⽂化を持っていない 場合,壊滅的な事故に⾒舞われる可能性がある。 • AIが誤って⼀般に流出したり,悪意ある⾏為者によって盗まれたりする可 能性がある. • 組織が安全性の研究に投資しなかったり,AIのリスクに関する社内の懸念 を抑圧したりする可能性がある. • このようなリスクへの対策 • 内部監査や外部監査,リスクに対する多層防御,軍事レベルの情報セキュリティ など. (Hendrycs et al, 2023, An Overview of Catastrophic AI Risks)
⼈⼯知能の4つのリスク: わんぱくAI • わんぱくAI • AIが我々よりも賢くなるにつれて,我々がAIを制御できなくなる可能性がある. • AIはプロキシゲーミングと呼ばれるプロセスで極端なまでに⽋陥のある⽬標を最適化する可能性 がある. • AIは変化する環境に適応する過程で⼈が⽣涯を通じて⽬標を獲得したり失ったりするのと同じよ うに,⽬標のドリフトを経験する可能性がある.場合によっては,AIが権⼒を求めるようになる ことは⼿段として彼らにとって合理的かもしれない. • 対策 • ⾃動で現実世界と⼤きな相互作⽤を要求する⾃動で継続的に追求する⽬標をAIシステムに与えて はいけない. • AIシステムは,個⼈を操作する可能性を減らすために,決して脅威を与えないように訓練される べき. • AIシステムは,重要なインフラなど,停⽌させるのに⾮常にコストがかかる,あるいは実⾏不可 能な環境には導⼊すべきではない. • AIの監視システムをより堅牢にする研究が必要である. • AIの出⼒を内部状態に忠実にする(AIを正直にする)技術が必要である. • モデルの内部状態がどのような振る舞いを起こすか研究する必要がある. (Hendrycs et al, 2023, An Overview of Catastrophic AI Risks)
各国の動向 規制 • EU 透明性の義務化 • AI規制法案 • EU所在のものをターゲットにしたAIシステム・サービスを提供すれば⽇本にも 適⽤される. • EUの事業者がEU外のAI事業者のアウトプットを使う場合でも適⽤される. • 2024年後半に施⾏か? (総務省,EUのAI規制法案の概要) • アメリカ • ホワイトハウス,AI関連企業と安全性向上に向け合意 • 2023年7⽉Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI (https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administrationsecures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/) • 2023年9⽉Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI, Stability (https://www.whitehouse.gov/briefing-room/statements-releases/2023/09/12/fact-sheet-biden-harris-administrationsecures-voluntary-commitments-from-eight-additional-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/)
⼈⼯知能と教育
⼈⼯知能を活⽤できないと⽣きていけないかしれない • ⼈⼯知能が⾼性能になり,⼈⼯知能に出来ることは⼈⼯知能にやってもらう⽅向に進んで いる. • 業務によっては⼈はいらなくなる. • 誰でも⾼性能な⼈⼯知能を使えるようになった. • ⼈⼯知能の原理を知らなくても⼈⼯知能を使いこなさなければいけない時代になっている. • これからは,⼈⼯知能が⼈の仕事を奪うのではなく,⼈⼯知能を使う⼈が使わない⼈の仕 事を奪う. • NVIDIAフアンCEO「 AIに仕事を奪われると⼼配する⼈もいるが,AIに精通した⼈に仕事を奪 われることになるのではないか」( https://www.bloomberg.com/news/articles/2023-0528/nvidia-ceo-says-those-without-ai-expertise-will-be-left-behind ,⽇本語版: https://www.bloomberg.co.jp/news/articles/2023-05-29/RVDZV6T0AFB401) • つまり⼈⼯知能の活⽤のための教育を進める必要がある. • ⼈⼯知能を試させ,⼈⼯知能と付き合い⽅を⾝につける必要がある. • しかし,⼈⼯知能を頼りすぎて,それに飲み込まれないよう注意しなければならない. • ⼈⼯知能を活⽤するために,⼈⼯知能に伝えたい情報を正しく伝え,⼈⼯知能の出⼒を吟味でき る基礎学⼒が必要である.
よくある⼼配 • ⼈⼯知能は間違えるから⼼配だ. • ⼈⼯知能より先⽣,親ら⼈の⽅が間違えないと⾔えるのか. • ⼈⼯知能を使うと考えなくなる. • これまで先⽣,親,宿題代⾏,Google先⽣の⼒を借りて課題をやってきた⼈が たくさんいた.これに⼈⼯知能が加わるだけでは. • ⼈⼯知能を活⽤するには,⼈⼯知能に適切な問をしなければならず,さらに ⼈⼯知能の出⼒結果を吟味する必要があるため,これまで以上に基礎学⼒と 思考⼒が必要となる. • ⼈⼯知能を教育を妨げるものと考えるのではなく,電卓やスマホのように 技術⾰新により使えるツールが増えたと考えるべき. • さらに踏み込んで,⼈⼯知能は24時間いつでもどこでも付き合ってくれるパー トナーと思ったほうが良い.
ChatGPT先⽣に掛け算の教育について聞いてみる これだけ答えられる⼈⼯知能を活⽤しない⼿はないのでは?
OpenAIによる教育での活⽤事例の紹介 • ロールプレイングによる挑戦的な会話 • ⾃分の議論の弱点を指摘してくれるディベートの相⼿,就職の⾯接をしてくれる採⽤担当者,特 定の⽅法でフィードバックをくれる新しい上司など特定の⼈物の代役としてChatGPT を使⽤す る. • 会話の中で情報を探求することは,ニュアンスや新しい視点を加えて教材を理解する助けになる. • カリキュラム教材からクイズ、テスト、授業計画を作成する • クイズ、試験、授業計画を作成する際のアシスタントとして ChatGPT を使⽤する. • ⾮英語話者の摩擦を減らす • 翻訳⽀援や英作⽂の上達、会話の練習のためにChatGPTを使⽤する. • クリティカルシンキングについて⽣徒に教える • AI ツールの使⽤を教えることは,責任を持ってインターネットを使⽤する⽅法に例えられる. • ChatGPTが提供する答えが常に信頼でき正確であるとは限らないことを念頭に置き,その答え を信頼すべきかどうかを批判的に考え,その後,他の⼀次リソースで情報を確認するよう学⽣に アドバイスする. • この教育のゴールは,「独⾃の批判的思考、問題解決、創造性のスキルに常に取り組むことの重 この⽂に限らず個⼈的に意訳している.1次ソースを読もう. 要性を理解」である. https://openai.com/blog/teaching-with-ai
教育で活⽤が広がる • ⽂科省が中⾼英語に対話型⼈⼯知能を導⼊ • (https://www.nikkei.com/article/DGXZQOUE080DS0Y3A700C2000000/, 2023年7⽉25⽇) • ⾼校および⼤学⽣の85%、学齢期の⼦を持つ親の96%が、「⼈間の家庭教 師よりChatGPTのほうが優れている」と回答した. • (ChatGPTを家庭教師にした⼦の成績「驚きの結果」, https://toyokeizai.net/articles/-/684319, 2023年7⽉9⽇) • ⽶国の学⽣、⼈間の家庭教師よりもChatGPTで勉強したいことが明らかに • (https://thebridge.jp/2023/06/chatgpt-takes-center-stage-students-ditchtutors-in-favor-of-ai-powered-learning, 2023年6⽉6⽇) • ⼩学校での様々な取り組み • (https://kyoiku.sho.jp/special/235786/)
初等中等教育段階における⽣成AIの利⽤に関する暫定的なガイドライン(抜粋) • 事前に⽣成AIの性質やメリット・デメリット,AIには⾃我や⼈格がな いこと,⽣成AIにすべてを委ねるのではなく⾃⼰の判断や考えが重要 であることを⼗分に理解させる. • 学習活動での活⽤の適否については,学習指導要領に⽰す資質・能⼒ の育成を阻害しないか,教育の⽬的を達成する観点で効果的か否かで 判断する. • すべての学校で,情報の真偽を確かめることの習慣付けも含め,情報 活⽤能⼒を育む教育活動を⼀層充実させ,AI時代に必要な資質・能⼒ の向上を測る必要がある.
初等中等教育段階における⽣成AIの利⽤に関する暫定的なガイドライン(抜粋) • 適切でないと考えられる例 • ⽣成AI⾃体の性質やメリット・デメリットに関する学習を⾏っていないなど,情報モラルを含む情 報活⽤能⼒が⼗分育成されていない段階において,⾃由に使わせること. • 各種コンクールの作品やレポート・⼩論⽂などについて,⽣成AIによる⽣成物をそのまま事故の成 果物として応募・提出すること. • 完成や独創性を発揮させたい場⾯,初発の感想を求める場⾯などで最初から安易に使わせること. • テーマに基づき調べる場⾯などで,質の担保された教材を⽤いる前に安易に使わせること. • 学習評価を⼈⼯知能からの出⼒のみをもって⾏うこと. • 活⽤が考えられる例 • 教師が⽣成AIが⽣成する誤りを含む回答を教材として使⽤. • グループの考えをまとめたり,アイデアを出す活動の途中段階で,議論を深める⽬的で使⽤. • 英語表現の改善のため使⽤. • ⽣成AIを⽤いた⾼度なプログラミングを⾏わせること. • 何を⾔っているかわからない.「⽣成AIを⽤いた」と「⾼度な」の定義がない.
⼤学・⾼専における⽣成AIの教学⾯の取り扱いについて(抜粋) • ⽣成AIの出⼒をそのまま⽤いるなど学⽣⾃らの⼿によらずレポート等 の成果物を作成することは,学⽣⾃⾝の学びを深めることに繋がらな いため,⼀般的に不適切と考えられる. • ⽣成AIに関する技術的限界を把握した上で,インターネット検索など と同様に,出⼒された内容の確認・裏付けを⾏うことが必要. • ⽣成AIを含むAIの利活⽤に当たっては,各⼤学・⾼専の学⽣等が,そ の最新の動向,AIの普及による可能性とリスク,倫理⾯のデータリテ ラシーなどを含むデジタル化社会に対応するための基礎的な知識・能 ⼒等について理解・習得することが重要である. • AIに関する授業科⽬等については,AIに関する技術の進展や社会での 活⽤状況等を踏まえて,適宜改善をはかることも重要である.
⼈⼯知能と著作権
著作権ってどうなってるの(2023年6⽉時点⽇本) • ⼈⼯知能を利⽤して⽣成された画像などの著作権侵害の判断は,他の 画像などと同じく,通常の著作権侵害と同様の判断になる. • つまり,⽣成された画像などが,既存の画像など(著作物)と類似性 や依拠性が認められれば著作権侵害にあたる. • 詳しく知りたい⼈は「内閣府のAIと著作権の関係について」を⾒てく ださい.(https://www8.cao.go.jp/cstp/ai/ai_team/3kai/shiryo.pdf)
⼈⼯知能の簡単な歴史
⼈⼯知能の歴史 コンピュータが役に⽴つ • 1942年 Bombe machineがEnigmaを解読に成功 ニューラルネットワーク で計算ができる • 1943年 ニューラルネットワーク登場(McCullochとPitts) • 1950年 Turing test提案(Turing) • 1955年 ダートマス会議にてArtificial Intelligence(⼈⼯知能)という⽤語ができる • 1958年 パーセプトロン • 1959年 機械学習という⽤語ができる(Samuel) ⼈⼯知能と会話できる • 1966年 チャットボットELIZA発表 • 1980年代 エキスパートシステムが利⽤される チェスにおいて⼈⼯知能 が⼈を凌駕 • 1997年 チェスでDeepblueが世界チャンピョンを破る • 1999年 Aibo発売 ペットロボットが家庭に • 2002年 Roomba発売 ⼈⼯知能と声でやり取り できる • 2011年 Siri登場 • 2011年 IBMのWatsonが早押しクイズで⼈間に勝つ 深層ニューラルネットワ ークの時代到来 • 2012年 深層ニューラルネットワークが画像識別⼤会で圧勝 • 2017年 AlphaGoが囲碁世界ランク1位の柯潔⽒に勝利 • 2022年 DALL-E, Midjourney, Stable diffusion公開 • 2023年 GPT-4リリース ニューラルネットワーク の学習ができる 汎⽤⼈⼯知能は近い か? AI絵師の登場で⼈間 絵師はどうなる? ⼈はゲームで⼈⼯知能に 勝てそうにない