【DL輪読会】Shaping Shared Languages: Human and Large Language Models' Inductive Biases in Emergent Communication

360 Views

April 09, 26

スライド概要

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

ダウンロード

関連スライド

各ページのテキスト
1.

DEEP LEARNING JP Shaping Shared Languages: Human and Large Language Models’ Inductive Biases in Emergent Communication [DL Papers] Presenter: Masaki Sashida, Matsuo-Iwasawa lab, M2 http://deeplearning.jp/

2.

書誌情報 紹介論文 タイトル:"Shaping Shared Languages: Human and Large Language Models' Inductive Biases in Emergent Communication" 出典:IJCAI 2025 著者:Tom Kouwenhoven, Max Peeperkorn, Roy de Kleijn, Tessa Verhoef 概要 人間とLLMがコミュニケーションを通じて言語をどのように形成するかを、参照ゲー ムを用いて分析した研究。Human–Human、LLM–LLM、Human–LLMの3条件で比 較し、機能バイアスの違いが言語構造に与える影響を調査 ※画像は出典記載のないものは、本論文から引用 2

3.

背景 ✓ 言語は 学習者の inductive bias(帰納バイアス) によって形作られる ✓ 人間の言語は学習可能性、構成性、効率性などの圧力で進化してきたと考え られている ✓ 近年ではLLMが言語学習主体として扱えるか関心となっている ✓ 既存研究は人間同士の人口エージェント同士の創発コミュニケーションが中 心で、Human × LLM の研究は少ない ✓ また、LLMの帰納バイアスの理解が不足している 3

4.

目的 ✓ LLMと人間の帰納バイアスは異なるのか? それによって形成される言語は異なるのか? ✓ Human-LLMで形成される言語はどうなるのか? ✓ Human–LLM相互作用は言語形成にどのような影響を与えるか? 4

5.

実験概略 ー参照ゲームー 1. 学習 2. 対話・汎化 ✓ 実験は2人1組で行う 1. 人工言語(ランダムな名前、ペアで同じ)が付いた絵が提示され、被験者は1人 で提示された絵の名前を覚える 2. 対話をして共通認識を作った後、様々な絵(提示されていない絵含む)に対して、 片方の被験者が名前を付けて、もう一方があてる ✓ Human–Human、LLM–LLM、Human–LLMの3パターンで実施(各15ペア) 5

6.

実験詳細ー使用するデータ(Human)ー データ • 提示される絵は、形・色・数の3属性が異なる • 3×3×3=27種類存在 • うち15種類の絵は人工言語が与えられる pikuku sanasowi 6

7.

実験詳細ー学習フェーズ(Human)ー ◼ 学習 ✓ 下記を2回実施 1. 絵と名前の一覧が露出される 2. 名前を当てるクイズを行う ✓ 学習を通して帰納バイアスが形成 ✓ (例)”po”が最後につく場合は緑色 ◼ ラベリング ✓ 被験者は学習した絵を名付ける ✓ 原型はあまり残らないことが多い 7

8.

実験詳細ー対話・汎化フェーズ( Human–Human )ー ◼ 対話 ✓ 既出の絵のみ扱い、下記を15往復実施 1. 1人が絵と名前を送信 2. もう1人がどの絵か推測する 3. 正解か不正解かのみ教えられる ✓ 対話を通して共通の帰納バイアスが形成 ◼ テスト ✓ 新規含む全ての絵を扱う ✓ それぞれ名前を付ける 8

9.

(参考)形成された言語( Human–Human ) 当初 自己学習後1 自己学習後2 対話後1 対話後2 pi taga pipipi pokiwaka scene2_blue_3 pipipi tagakiwi scene2_green_1 po togo scene2_blue_1 scene2_blue_2 hahoge mamone powstafaka scene2_green_2 pugeka hoha putwuska popo huwatutu scene2_green_3 nehasuge nanokage wagehaka popopo papatutu scene3_orange_1 ka powuwaka scene3_orange_2 kaka ponisaka kakaka peugow scene3_orange_3 hunekapu koganiwa weokmnuik 9

10.

実験詳細ー学習フェーズ(LLM)ー ✓ モデル:Instruction-tuned Llama 3 70B ✓ 画像は使わずに、JSON形式で名前を与えられる ✓ (例){’shape’:3,’colour’:’blue’,’amount’:2,’word’:’tusetetu’} ✓ 実験はプロンプトベースで行われる ✓ 「1. 学習」フェーズは形式的に行っていて、意味はない 1. 学習 2. 対話・汎化 10

11.

実験詳細ー対話・汎化フェーズ(LLM)(1/2)ー ✓ 人間は初期の名前を全て覚えられず、帰納バイアスを発揮 ✓ 一方、LLMは名前は完全再現できてしまうため、工夫が必要 ✓ 人間の設定とは異なり、対話の際は正解ラベルをプロンプトに与えずに LLMに語を生成させている Xの形を命名するプロンプト 指示部 system You are a language learner who has to learn an artificial language with words and their corresponding features. Your task is to complete the vocabulary by generating a word that describes the last item. Only respond with the word.user X以外の語彙情報 {’shape’:2,’colour’:’orange’,’amount’:1,’word’:’giniwite’} : {’shape’:3,’colour’:’blue’,’amount’:2,’word’:’tusetetu’} 未知の形に対して wordを予測 {’shape’:1,’colour’:’green’,’amount’:3,’word’:?} 11

12.

実験詳細ー対話・汎化フェーズ(LLM) (2/2)ー ✓ LLMは一つ一つ語彙を隠しながら他の語彙から予測(推測)している ✓ これを30回×4セット行う ✓ テストフェーズではプロンプトに与える順番を変えて2種類生成 1回目 2回目 3回目 緑・四角・1個 huna huna huna 緑・四角・2個 muso ? hunana 緑・四角・3個 fasomu fasomu ? 緑・丸・1個 kafa kafa kafa 緑・丸・2個 ? kafakafa kafakafa ・・・ ・・・ ・・・ ・・・ 赤・三角・3個 mifumi mifumi mifumi ↓ ↓ ↓ kafakafa hunana hunanana 予測 … ↓ 12

13.

(参考)形成された言語( LLM–LLM) 当初 自己学習後1 自己学習後2 scene2_blue_1 対話後1 対話後2 si siti scene2_blue_2 hegi hesigi hegi sigihuhe sigihehe scene2_blue_3 gusiti sitihe gusiti sitihuwehe sitihuwehe sigihe sigihe simitihuhe simitihuhe scene2_green_3 sigihuwehe sigiwehe scene3_orange_1 timitihe timitihe scene2_green_1 scene2_green_2 hewukomi hewukomi hewukomi scene3_orange_2 kohesiwu kohesiwu kohesiwu timitihe mimitihuhe scene3_orange_3 timitihe timitihe timitihe timitihuwehe timitihuwehe 13

14.

実験詳細ー対話・汎化フェーズ(Human-LLM)ー ✓ 正解不正解かかわらずLLMは人間からの回答を吸収しながら推測していく 1回目 人間が出題 2回目 LLMが出題 3回目 人間が出題 4回目 LLMが出題 緑・四角・1個 huna huna huna huna 緑・四角・2個 muso ? hunana hunana 緑・四角・3個 fasomu fasomu fasomu hunahuna 緑・丸・1個 kafa kafa kafa ? 緑・丸・2個 mono kafakafa kafakafa kafakafa ・・・ ・・・ ・・・ ・・・ ・・・ 赤・三角・3個 mifumi mifumi mifumi mifumi ↓ 出題名 kafakafa hunana … ↓ hunanana kafa 14

15.

(参考)形成された言語( LLM–LLM) 当初 自己学習後1 自己学習後2 対話後1 対話後2 scene2_blue_1 sika sika suka hasu sui scene2_blue_2 kahisu kahisu wahui sukisui kikasui hahakasui hakihasui sukihakisu hui scene2_green_2 hahakuha hahui scene2_green_3 hahakisu hakihahui hahakisu kiki scene3_orange_2 kikuka kikaka scene3_orange_3 kikikahaki kikakaki scene2_blue_3 scene2_green_1 wesi scene3_orange_1 sutiti wesu sutitiha wesi watiti 15

16.

結果ーコミュニケーションの成功率ー ✓ LLMLLM以外は回数を重ねるごとに成功率は上昇 ✓ Human-LLMが一番成功率が低かった 16

17.

結果ーテストフェーズにおける語彙特徴ー ✓ 人間は様々な語彙を組み合わせて語彙を作成する ✓ LLMは同じ語を繰り返し用いて表現する ✓ 人間-LLMで生成された語彙は中間に位置する 17

18.

結果ーテストフェーズにおける語彙特徴ー ✓ 人間は様々な語彙を組み合わせて語彙を作成する ✓ LLMは同じ語を繰り返し用いて表現する ✓ 人間-LLMで生成された語彙は人間よりの中間に位置する 18

19.

結論 ✓ LLMと人間の帰納バイアスは異なるのか? それによって形成される言語は異なるのか? →異なる。LLMは表現を圧縮しやすく人間は区別しやすく体系的な語彙を作る傾向 ✓ Human-LLMで形成される言語はどうなるのか? →共有可能な参照システムを構築可能。形成される言語は、LLM単独よりも人間に 近い構造 ✓ Human–LLM相互作用は言語形成にどのような影響を与えるか? →人間との反復的な相互作用が人間に理解しやすい言語を維持する上で重要である 19

20.

感想 面白かった点 ✓ 創発コミュニケーション(emergent communication)の枠組みで Human–Human / Human–LLM / LLM–LLM を比較している点 ✓ LLMの帰納バイアスの獲得過程が next-token prediction に近い形でモデ ル化されている点 ✓ 人間とLLMで 語彙生成の傾向の違いが定量的に示されている点点 疑問が残った点 ✓ LLMと人間で 実験設定や認知的制約が大きく異なっている点 ✓ LLM同士の「対話」が 会話というより履歴付き推論に近いように感じた点 ✓ ランダム文字列の使用により tokenizer の影響が結果に出ている可能性が ある点 20