【DL輪読会】NN の内部挙動分析のためのCircuit について

4.8K Views

July 04, 24

スライド概要

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

DEEP LEARNING JP [DL Papers] NNの内部挙動分析のためのCircuitについて Keno Harada, the University of Tokyo http://deeplearning.jp/ 1

2.

Transformerの挙動分析 Ferrando et al., 2024, “A PRIMER ON THE INNER WORKINGS OF TRANSFORMER-BASED LANGUAGE MODELS” 2

3.

Attention headの分析と活⽤ • Contextの活⽤には Retrieval headが影響 Wu et al., 2024, “Retrieval Head MechanisNcally Explains Long-Context Factuality” • Attention sink現象 → sliding windowの際に 最初のtokenも含める Xiao et al., 2023, “EFFICIENT STREAMING LANGUAGE MODELS WITH ATTENTION SINKS” 3

4.

Neurons in Feedforward blockの分析と活⽤ • 特定のtoken, n-gram, positionに 発⽕するneuronが存在する Voita et al., 2023, “Neurons in Large Language Models: Dead, N-gram, Positional ” • 特定の⾔語ニューロンの特定 →発⽕パターンで⾔語制御 Tang et al., 2024, “Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models” 4

5.

Residual Streamの分析と活⽤ • Sparse autoencoderにより解釈可能性を向上させ、 feature steeringによる出⼒制御 Templeton et al., 2024, “Scaling Monosemanticity: Extracting Interpretable Features from Claude 3 Sonnet ” 5

6.

Transformerの挙動分析 Ferrando et al., 2024, “A PRIMER ON THE INNER WORKINGS OF TRANSFORMER-BASED LANGUAGE MODELS” 6

7.

• Circuitはどのように発⾒できるか • どのようなcircuitが⾒つかっているか • Circuitは何に役⽴つか︖ • Circuitはどのように獲得されるか︖ 7

8.

Circuits • “A subgraph of a neural network. Nodes correspond to neurons or directions (linear combinations of neurons). Two nodes have an edge between them if they are in adjacent layers. The edges have weights which are the weights between those neurons (or n1Wn2T if the nodes are linear combinations). For convolutional layers, the weights are 2D matrices representing the weights for different relative positions of the layers.” Olah et al., 2020, “Zoom In: An Introduction to Circuits” 8

9.

Circuitsの例 Olah et al., 2020, “Zoom In: An IntroducNon to Circuits” 9

10.

Induction Heads Elhage et al, 2021, “A Mathematical Framework for Transformer Circuits” …[A][B]…[A]の続きは[B]とするようなHeads In-context learningとの関連性が指摘されている Ferrando et al., 2024, “A PRIMER ON THE INNER WORKINGS OF TRANSFORMER-BASED LANGUAGE MODELS” 10

11.

Induction Heads Olsson et al., 2022, “In-context Learning and Induction Heads” 11

12.

有名なCircuit Conmy et al., 2023, “Towards Automated Circuit Discovery for Mechanistic Interpretability” 12

13.

IOI circuit in GPT-2 Wang et al., 2022, “INTERPRETABILITY IN THE WILD: A CIRCUIT FOR INDIRECT OBJECT IDENTIFICATION IN GPT-2 SMALL” 13

14.

Indirect Object Identification(IOI) task “When Mary and John went to the store, John gave a drink to ___ “ 上記を解くのに必要な⼯程 • ⽂中に出てくる名前を全て把握(Mary, John, John) • 被っている名前を除去(John) • 残りの名前を出⼒(Mary) 14

15.

IOI circuitに含まれる重要なhead • Duplicate Token Heads • ⽂中にすでに出たtokenを特定するhead • Token duplicationが起きていることを⽰すsignal • S-Inhibition Heads • Name Mover Headsのattentionからduplicate tokensを除去するhead • Name Mover Heads • 残りの名前を出⼒するhead • ⽂中の名前にattendする • Negative Name Move Heads • 正しい答えとは反対⽅向を⽰すhead • 出⼒を間違えた時にCross-entropy lossがデカくならないようにhedgeす るhead 15

16.

重要なheadに関連する機能を⽰すhead • Previous Token Heads • Subjectを表すtokenの情報を次に続くtokenにcopyす るhead • Induction Heads • Backup Name Mover Heads • Name Mover Headsの予備 16

17.

Circuitの⾒つけ⽅: path patching Forward passの⼀部を、別の⼊⼒での発⽕パターン に置き換える Logitの変化を⾒て、patchによる変化が⼤きいhead を絞り込む 絞り込んだheadについてattention patternを分析 Wang et al., 2022, “INTERPRETABILITY IN THE WILD: A CIRCUIT FOR INDIRECT OBJECT IDENTIFICATION IN GPT-2 SMALL” 17

18.

絞り込んだheadはどこから影響を受けるか︖ • 絞り込んだheadのq, k, vに影響を与えるheadの特 定を再度path patchingを⾏い特定 Wang et al., 2022, “INTERPRETABILITY IN THE WILD: A CIRCUIT FOR INDIRECT OBJECT IDENTIFICATION IN GPT-2 SMALL” 18

19.

特定した重要headをknock out後、どうなる︖ • knock outしたheadと同じような役割を果たす headが⾒つかる • 学習時のdropoutが影響︖ 19

20.

Circuitsの妥当性の確認 • Faithfulness • モデル全体と同じようにcircuit単体でtaskを解けるか • Completeness • Taskを解く上で必要となるnodeを全て含む • Circuitと分類されているものの⼀部をknockoutさせた とき、その下がり幅がモデル全体、circuit集合から抜い た場合でそこまで差が出ないか • Minimality • 関係ないnodeを含まない • Circuit中から何かknockoutしたときに性能の変わり幅 はどれほどか 20

21.

Automatic Circuit DisCovery (ACDC) Conmy et al., 2023, “Towards Automated Circuit Discovery for Mechanistic Interpretability” 21

22.

Circuitsの効率良い⾒つけ⽅ • Patchingではなくattribution(importance)を元に 特定 Ferrando et al., 2024, “InformaNon Flow Routes: AutomaNcally InterpreNng Language Models at Scale” 22

23.

Circuitsの効率良い⾒つけ⽅: attributionの計算 • z_jとyの距離が⼩さい → z_jの情報がyにたくさん → z_j重要 Ferrando et al., 2024, “Information Flow Routes: Automatically Interpreting Language Models at Scale” 23

24.

Circuitsの効率良い⾒つけ⽅:FFN edges Ferrando et al., 2024, “Information Flow Routes: Automatically Interpreting Language Models at Scale” 24

25.

Circuitsの効率良い⾒つけ⽅:Attention edges Ferrando et al., 2024, “Information Flow Routes: Automatically Interpreting Language Models at Scale” 25

26.

Circuitsの効率良い⾒つけ⽅ • 特定の値以上のedgeを残す Ferrando et al., 2024, “Information Flow Routes: Automatically Interpreting Language Models at Scale” 26

27.

Circuitsの⾒つけ⽅: Causal Abstraction • 理想なcircuitsを仮定して、それに対応するものを ⾒つけ出す Geiger et al., 2021, “Causal Abstractions of Neural Networks” 27

28.

Circuitsは何に役⽴つか︖ • 出⼒制御による信頼性・安全性向上 • 重みの初期化・モデルマージ・蒸留/枝刈り・デー タ戦略 Samragh et al., 2023, “Weight Subcloning: Direct Initialization of Transformers Using Larger Pretrained Ones” Cheng et al., 2024, “Instruction Pre-Training: Language Models are Supervised Multitask Learners” 28

29.

Circuitsの獲得とタスク性能の関係 Syntactic Attention Structure (SAS)の例 • 特定の係り受けを担うheadの獲得 → ⽂法構造に関する知識問題の正答率上昇 Chen et al., 2024, “SUDDEN DROPS IN THE LOSS: SYNTAX ACQUISITION, PHASE TRANSITIONS, AND SIMPLICITY BIAS IN MLMS” 29

30.

Circuitsの獲得とタスク性能の関係 Syntactic Attention Structure (SAS)の例 • ⼈間に容易に解釈可能な形ではない場合も Chen et al., 2024, “SUDDEN DROPS IN THE LOSS: SYNTAX ACQUISITION, PHASE TRANSITIONS, AND SIMPLICITY BIAS IN MLMS” 30

31.

おすすめ資料 • https://transformer-circuits.pub/ • https://distill.pub/2020/circuits/ • https://arxiv.org/abs/2404.14082 • https://arxiv.org/abs/2405.00208 31