---
title: 【DL輪読会】Shaping Shared Languages: Human and Large Language Models&#039; Inductive Biases in Emergent Communication
tags: 
author: [Deep Learning JP](https://image.docswell.com/user/DeepLearning2023)
site: [Docswell](https://www.docswell.com/)
thumbnail: https://bcdn.docswell.com/page/4JMY8NYMJW.jpg?width=480
description: 【DL輪読会】Shaping Shared Languages: Human and Large Language Models&#039; Inductive Biases in Emergent Communication by Deep Learning JP
published: April 09, 26
canonical: https://image.docswell.com/s/DeepLearning2023/KMQXPE-2026-04-15-104518
---
# Page. 1

![Page Image](https://bcdn.docswell.com/page/4JMY8NYMJW.jpg)

DEEP LEARNING JP Shaping Shared Languages: Human and Large Language
Models’ Inductive Biases in Emergent Communication
[DL Papers]
Presenter: Masaki Sashida, Matsuo-Iwasawa lab, M2
http://deeplearning.jp/


# Page. 2

![Page Image](https://bcdn.docswell.com/page/PJR95D9L79.jpg)

書誌情報
紹介論文
タイトル:&quot;Shaping Shared Languages: Human and Large Language Models&#039;
Inductive Biases in Emergent Communication&quot;
出典:IJCAI 2025
著者:Tom Kouwenhoven, Max Peeperkorn, Roy de Kleijn, Tessa Verhoef
概要
人間とLLMがコミュニケーションを通じて言語をどのように形成するかを、参照ゲー
ムを用いて分析した研究。Human–Human、LLM–LLM、Human–LLMの3条件で比
較し、機能バイアスの違いが言語構造に与える影響を調査
※画像は出典記載のないものは、本論文から引用
2


# Page. 3

![Page Image](https://bcdn.docswell.com/page/PEXQK136JX.jpg)

背景
✓ 言語は 学習者の inductive bias（帰納バイアス） によって形作られる
✓ 人間の言語は学習可能性、構成性、効率性などの圧力で進化してきたと考え
られている
✓ 近年ではLLMが言語学習主体として扱えるか関心となっている
✓ 既存研究は人間同士の人口エージェント同士の創発コミュニケーションが中
心で、Human × LLM の研究は少ない
✓ また、LLMの帰納バイアスの理解が不足している
3


# Page. 4

![Page Image](https://bcdn.docswell.com/page/3EK952YGED.jpg)

目的
✓ LLMと人間の帰納バイアスは異なるのか？
それによって形成される言語は異なるのか？
✓ Human-LLMで形成される言語はどうなるのか？
✓ Human–LLM相互作用は言語形成にどのような影響を与えるか？
4


# Page. 5

![Page Image](https://bcdn.docswell.com/page/L73WK49575.jpg)

実験概略 ー参照ゲームー
1. 学習
2. 対話・汎化
✓ 実験は２人１組で行う
1. 人工言語（ランダムな名前、ペアで同じ）が付いた絵が提示され、被験者は１人
で提示された絵の名前を覚える
2. 対話をして共通認識を作った後、様々な絵（提示されていない絵含む）に対して、
片方の被験者が名前を付けて、もう一方があてる
✓ Human–Human、LLM–LLM、Human–LLMの３パターンで実施（各１５ペア）
5


# Page. 6

![Page Image](https://bcdn.docswell.com/page/87DK3QGYJG.jpg)

実験詳細ー使用するデータ（Human）ー
データ
• 提示される絵は、形・色・数の３属性が異なる
• ３×３×３＝２７種類存在
• うち１５種類の絵は人工言語が与えられる
pikuku
sanasowi
6


# Page. 7

![Page Image](https://bcdn.docswell.com/page/VJPK4L32E8.jpg)

実験詳細ー学習フェーズ（Human）ー
◼ 学習
✓ 下記を２回実施
1. 絵と名前の一覧が露出される
2. 名前を当てるクイズを行う
✓ 学習を通して帰納バイアスが形成
✓ (例)”po”が最後につく場合は緑色
◼ ラベリング
✓ 被験者は学習した絵を名付ける
✓ 原型はあまり残らないことが多い
7


# Page. 8

![Page Image](https://bcdn.docswell.com/page/2EVVXQ4XEQ.jpg)

実験詳細ー対話・汎化フェーズ（ Human–Human ）ー
◼ 対話
✓ 既出の絵のみ扱い、下記を15往復実施
1. １人が絵と名前を送信
2. もう１人がどの絵か推測する
3. 正解か不正解かのみ教えられる
✓ 対話を通して共通の帰納バイアスが形成
◼ テスト
✓ 新規含む全ての絵を扱う
✓ それぞれ名前を付ける
8


# Page. 9

![Page Image](https://bcdn.docswell.com/page/57GLVW1REL.jpg)

（参考）形成された言語（ Human–Human ）
当初
自己学習後１
自己学習後２
対話後１
対話後２
pi
taga
pipipi
pokiwaka
scene2_blue_3
pipipi
tagakiwi
scene2_green_1
po
togo
scene2_blue_1
scene2_blue_2
hahoge
mamone
powstafaka
scene2_green_2
pugeka
hoha
putwuska
popo
huwatutu
scene2_green_3
nehasuge
nanokage
wagehaka
popopo
papatutu
scene3_orange_1
ka
powuwaka
scene3_orange_2
kaka
ponisaka
kakaka
peugow
scene3_orange_3 hunekapu
koganiwa
weokmnuik
9


# Page. 10

![Page Image](https://bcdn.docswell.com/page/4EQY63DYJP.jpg)

実験詳細ー学習フェーズ（LLM）ー
✓ モデル：Instruction-tuned Llama 3 70B
✓ 画像は使わずに、JSON形式で名前を与えられる
✓ （例）{’shape’:3,’colour’:’blue’,’amount’:2,’word’:’tusetetu’}
✓ 実験はプロンプトベースで行われる
✓ 「1. 学習」フェーズは形式的に行っていて、意味はない
1. 学習
2. 対話・汎化
10


# Page. 11

![Page Image](https://bcdn.docswell.com/page/KJ4W41ZZ71.jpg)

実験詳細ー対話・汎化フェーズ（LLM）（1/2）ー
✓ 人間は初期の名前を全て覚えられず、帰納バイアスを発揮
✓ 一方、LLMは名前は完全再現できてしまうため、工夫が必要
✓ 人間の設定とは異なり、対話の際は正解ラベルをプロンプトに与えずに
LLMに語を生成させている
Xの形を命名するプロンプト
指示部
system You are a language learner who has to learn an
artificial language with words and their corresponding
features. Your task is to complete the vocabulary by
generating a word that describes the last item. Only
respond with the word.user
X以外の語彙情報
{’shape’:2,’colour’:’orange’,’amount’:1,’word’:’giniwite’}
：
{’shape’:3,’colour’:’blue’,’amount’:2,’word’:’tusetetu’}
未知の形に対して
wordを予測
{’shape’:1,’colour’:’green’,’amount’:3,’word’:？}
11


# Page. 12

![Page Image](https://bcdn.docswell.com/page/LE1Y4GRD7G.jpg)

実験詳細ー対話・汎化フェーズ（LLM） （2/2）ー
✓ LLMは一つ一つ語彙を隠しながら他の語彙から予測（推測）している
✓ これを30回×４セット行う
✓ テストフェーズではプロンプトに与える順番を変えて２種類生成
1回目
2回目
3回目
緑・四角・1個
huna
huna
huna
緑・四角・2個
muso
?
hunana
緑・四角・3個
fasomu
fasomu
?
緑・丸・1個
kafa
kafa
kafa
緑・丸・2個
?
kafakafa
kafakafa
・・・
・・・
・・・
・・・
赤・三角・3個
mifumi
mifumi
mifumi
↓
↓
↓
kafakafa
hunana
hunanana
予測
…
↓
12


# Page. 13

![Page Image](https://bcdn.docswell.com/page/GEWGXK18J2.jpg)

（参考）形成された言語（ LLM–LLM）
当初
自己学習後１
自己学習後２
scene2_blue_1
対話後１
対話後２
si
siti
scene2_blue_2
hegi
hesigi
hegi
sigihuhe
sigihehe
scene2_blue_3
gusiti
sitihe
gusiti
sitihuwehe
sitihuwehe
sigihe
sigihe
simitihuhe
simitihuhe
scene2_green_3
sigihuwehe
sigiwehe
scene3_orange_1
timitihe
timitihe
scene2_green_1
scene2_green_2
hewukomi
hewukomi
hewukomi
scene3_orange_2 kohesiwu
kohesiwu
kohesiwu
timitihe
mimitihuhe
scene3_orange_3 timitihe
timitihe
timitihe
timitihuwehe
timitihuwehe
13


# Page. 14

![Page Image](https://bcdn.docswell.com/page/47ZL6ZP9J3.jpg)

実験詳細ー対話・汎化フェーズ（Human-LLM）ー
✓ 正解不正解かかわらずLLMは人間からの回答を吸収しながら推測していく
1回目
人間が出題
2回目
LLMが出題
3回目
人間が出題
4回目
LLMが出題
緑・四角・1個 huna
huna
huna
huna
緑・四角・2個 muso
?
hunana
hunana
緑・四角・3個 fasomu
fasomu
fasomu
hunahuna
緑・丸・1個
kafa
kafa
kafa
?
緑・丸・2個
mono
kafakafa
kafakafa
kafakafa
・・・
・・・
・・・
・・・
・・・
赤・三角・3個 mifumi
mifumi
mifumi
mifumi
↓
出題名
kafakafa
hunana
…
↓
hunanana
kafa
14


# Page. 15

![Page Image](https://bcdn.docswell.com/page/YJ6W2ZMDJV.jpg)

（参考）形成された言語（ LLM–LLM）
当初
自己学習後１
自己学習後２
対話後１
対話後２
scene2_blue_1
sika
sika
suka
hasu
sui
scene2_blue_2
kahisu
kahisu
wahui
sukisui
kikasui
hahakasui
hakihasui
sukihakisu
hui
scene2_green_2
hahakuha
hahui
scene2_green_3
hahakisu
hakihahui
hahakisu
kiki
scene3_orange_2
kikuka
kikaka
scene3_orange_3
kikikahaki
kikakaki
scene2_blue_3
scene2_green_1
wesi
scene3_orange_1 sutiti
wesu
sutitiha
wesi
watiti
15


# Page. 16

![Page Image](https://bcdn.docswell.com/page/GJ5M2WZ8J4.jpg)

結果ーコミュニケーションの成功率ー
✓ LLMLLM以外は回数を重ねるごとに成功率は上昇
✓ Human-LLMが一番成功率が低かった
16


# Page. 17

![Page Image](https://bcdn.docswell.com/page/9E294QRV7R.jpg)

結果ーテストフェーズにおける語彙特徴ー
✓ 人間は様々な語彙を組み合わせて語彙を作成する
✓ LLMは同じ語を繰り返し用いて表現する
✓ 人間-LLMで生成された語彙は中間に位置する
17


# Page. 18

![Page Image](https://bcdn.docswell.com/page/D7Y4MWDQEM.jpg)

結果ーテストフェーズにおける語彙特徴ー
✓ 人間は様々な語彙を組み合わせて語彙を作成する
✓ LLMは同じ語を繰り返し用いて表現する
✓ 人間-LLMで生成された語彙は人間よりの中間に位置する
18


# Page. 19

![Page Image](https://bcdn.docswell.com/page/VENYW962J8.jpg)

結論
✓ LLMと人間の帰納バイアスは異なるのか？
それによって形成される言語は異なるのか？
→異なる。LLMは表現を圧縮しやすく人間は区別しやすく体系的な語彙を作る傾向
✓ Human-LLMで形成される言語はどうなるのか？
→共有可能な参照システムを構築可能。形成される言語は、LLM単独よりも人間に
近い構造
✓ Human–LLM相互作用は言語形成にどのような影響を与えるか？
→人間との反復的な相互作用が人間に理解しやすい言語を維持する上で重要である
19


# Page. 20

![Page Image](https://bcdn.docswell.com/page/Y79PX2LDE3.jpg)

感想
面白かった点
✓ 創発コミュニケーション（emergent communication）の枠組みで
Human–Human / Human–LLM / LLM–LLM を比較している点
✓ LLMの帰納バイアスの獲得過程が next-token prediction に近い形でモデ
ル化されている点
✓ 人間とLLMで 語彙生成の傾向の違いが定量的に示されている点点
疑問が残った点
✓ LLMと人間で 実験設定や認知的制約が大きく異なっている点
✓ LLM同士の「対話」が 会話というより履歴付き推論に近いように感じた点
✓ ランダム文字列の使用により tokenizer の影響が結果に出ている可能性が
ある点
20


