CS224n | Natural Language Processing with Deep Learning Stanford University
Lecture Notes: Part IV - Dependency Parsing
1
Lecture Notes: Part IV
Dependency Parsing
CS224n
RNN LSTM CNN
transformerbert问答要、成、模型
理解等前沿内容。
笔记核心词
Dependency Grammar, Dependency Structure, Neural
Dependency Parsing, 依存解析, 依存句法, 语法依赖
课程
全部料和
已整
任意
二维
获取!!
微信公众号·全套资料
回复 CS224n
底部菜单栏
Bilibili·课程视频
视频简介
置顶评论
GitHub·项目代码
阅读 ReadMe
点击超链接
系列内容
Awesome AI Courses Notes Cheat Sheets
@
ShowMeAI
Lecture Notes: Part IV - Dependency Parsing
2
1. Dependency Grammar and Dependency
Structure
与编器中析树 NLP 中的树是于分子的
句法结构。使用的结构主要有两种类短语结构和依存结构。
短语结构文法使用短语结构语法将词组织成嵌套成分。以下章节
将对此进行更详细的说明。我们现在关注依存语法
句子的依存结构展示了单词依赖于另外一个单词(修饰或者是参
head dependent
一般这些依存关系形成树结构。他们通常用语法关系的名称(主
体,宾语,同等)
Bills on ports and immigration
were submitted by Senator Brownback, Republican of
Kansas.
依存树的例子如右图所示:
ROOT
依存于唯一一个节点。
1.1 Dependency Parsing
依存语法是给定一个输入句子
S
,分析句子的句法依存结构的任
务。依存句法的输出是一棵依存语法树,其中输入句子的单词是
通过依存关系的方式连接。正式地,依存语法问题是创建一个输
S=
w
0
w
1
...
w
n
w
0
ROOT
G
的的变体,包括基于神经网络的方法,我们将会在后面介绍。
确切地说,在依存语法中有两个子问题:
个可以用于解析新句子的解析模型
解析
和句
,根
得到
的最
存语法图
1.2 Transition-Based Dependency Parsing
Transition-based 依存
创建从输入句到依存句法树的映射。学习问题是创建一个可以根
据转移历史来预测状态机中的下一个转换的模型。分析问题是使
列。大多数 Transition-based 系统不会使用正式的语法。
1 Notes info.
课件/Slides
视频/Video
GitHub·代码
Bilibili·视频
Stanford University X ShowMeA
I
Figure 1: Dependency tree for
this sentence 1
存树】
1.1 Notes info.
课件/Slides
视频/Video
GitHub·代码
Bilibili·视频
Stanford University X ShowMeAI
1.2 Notes info.
课件/Slides
视频/Video
GitHub·代码
Bilibili·视频
Stanford University X ShowMeAI
CS224n | Natural Language Processing with Deep Learning Stanford University
Lecture Notes: Part IV - Dependency Parsing
3
1.3 Greedy Deterministic Transition-Based
Parsing
这个系统是 Nivre 2003 提出,与当时的常用方法截然
同。
这个转换系统是一个状态机,它由状态和这些状态之间的转换组
换。
S=
w
0
w
1
...
w
n
三元组
c=,β,A)
来自 S 的单词
w
i
的堆
σ
来自 S的单 w
i
的缓冲区 β
一组形式 (w
i
,r,
w
j
)的依存弧其中 w
i
,
w
j
是来
S
,和
r
描述依存关系
因此,对于任意句子
=
0
1
...
一个形式为
([w
0
]
σ
,[w
1
...w
n
]
β
,)
的初始状态
c
0
(现在只有
ROOT 在堆 σ中,没有被选择的单词都在缓冲 β中。
一个形式为
(σ,[]
β
,A)的终点状态。
转移:在状态之间有三种不同类型的转移:
SHIFT
顶部(前提条件:缓冲区不能为空)
LeftArc
r
A
(w
j
,r,
w
i
) w
i
是堆的第单词 w
j
是堆
的单。从 w
i
(前条件
以及
w
i
不是 ROOT )。
RigℎtArc
r
A
(w
i
,r,
w
j
) w
i
w
j
w
j
词)。
下图给出了这三个转换的更正式的定
1.3 Notes info.
课件/Slides
视频/Video
GitHub·代码
Bilibili·视频
Stanford University X ShowMeAI
Figure 2: Transitions for
Dependency Parsing. 2
解析的转换
系列内容
Awesome AI Courses Notes Cheat Sheets
@
ShowMeAI
Lecture Notes: Part IV - Dependency Parsing
4
1.4 Neural Dependency Parsing
虽然依赖项解析有很多深层模型,这部分特别侧重于贪心,基于
转移的神经网络依存语法解析器。与传统的基于特征的判别依存
语法解析器相比,神经网络依存语法解析器性能和效果更好。与
以前模型的主要区别在于这类模型依赖稠密而不是稀疏的特征表
示。
统。最终,模型的目标是预测从一些初始状态
c
到一个终点状态
的转换序列,对模型中的依存语法树进行编码的。由于模型是贪
心的前的
c=,β,A)
提取试一
T{SHIFT,LeftArc
r
,RigℎtArc
r
}
σβ, A定的
弧的集合
特征选择:根据该模型所需的复杂性,定义神经网络的输入是有
灵活性的。对给定句子 S的特征包含一些子集:
1.

:在 顶部缓冲 中一词的词
(和它们的依存)。
2.

:在
中一单词词性 POS 。词标注
由一个离散集合组成:
={,,,,,...}
3.

:在
中一单词
=
{,,,,,...}
的将 one-hot
映射一个
d
维的密的
S
word
的完
E
w
d×N
w
N
w
/
POS E
t
d×N
t
E
l
d×N
l
,其
N
t
N
l
分别
n
word
,n
tag
,n
label
S
word
S
tag
S
label
的选择:
1.
S
word
s
1
,s
2
,s
3
,b
1
,b
2
,b
3
栈顶第二 leftmost / rightmost
的子
lc
1
(s
i
),rc
1
(s
i
),lc
2
(s
i
),rc
2
(s
i
),i=1,2
。栈
leftmost of leftmost /
rightmost of rightmost 的子单词:
1.4 Notes info.
课件/Slides
视频/Video
GitHub·代码
Bilibili·视频
Stanford University X ShowMeAI
CS224n | Natural Language Processing with Deep Learning Stanford University
Lecture Notes: Part IV - Dependency Parsing
5
2.
lc
1
(l
c
1
(
s
i
)),r
c
1
(r
c
1
(
s
i
)),i=1,2
S
word
n
word
=18
个元素。
3.
S
tag
:相应的词性标注,则
S
tag
含有
n
tag
=18
个元素。
4.
S
label
:单词对应的依存标签,不包括堆/缓冲区 6
单词,因此
S
label
含有
n
label
=12
个元素。
注意我们使用一个特殊的
NULL
表示不存在的元素:当堆和缓冲
区为空或者还没有指定依存关系时。对一个给定句子例子,我们
E
w
,
E
t
,
E
l
中提取们对应的稠的特征的表,然后将这向量
连接来作
[x
w
,x
t
,x
l
]
。在练时
密的向量表示,以及后面各层的参数
前馈经网
[x
w
,x
t
,x
l
]
softmax
们可在隐
[x
w
,x
t
,x
l
]
进行算,
使
[W
1
w
,W
1
t
,W
1
l
]
应的输入类型,如下图所示。然后我们应用一个非线性函数并使
用一仿
[W
2
]
,使转移
度),有相同数量的 softmax 概率。
Figure 3: The neural network
architecture for greedy, transition-
base dependency parsing. 3
解析】
注意在上图中,使用的非线性函数是 ()=
3
greedy transition-based
A Fast and Accurate
Dependency Parser using Neural Networks
CS224n | Natural Language Processing with Deep Learning Stanford University
Lecture Notes: Part IV - Dependency Parsing
6
机器学习
深度学习
自然语言处
计算机视觉
知识图谱
Machine Learning
Deep Learning
Natural Language Processing
Computer Vision
Knowledge Graphs
Stanford · CS229
Stanford · CS230
Stanford · CS224n
Stanford · CS231n
Stanford · CS520
# 系列内容 Awesome AI Courses Notes Cheatsheets
图机器学习
深度强化学
自动驾驶
Machine Learning with Graphs
Deep Reinforcement Learning
Deep Learning for Self-Driving Cars
Stanford · CS224W
UCBerkeley · CS285
MIT · 6.S094
...
...
...
ShowMeAI 的分覆盖知名TOP20+ AI 旨在学习一整
高品质中文学习笔记和速查表。
斯坦(Stanford University) Natural Language Processing with Deep Learning (CS224n)
系列的第三门产出。
课程版本 2019 Winter,核心深(transformerbert问答摘要、文生成)在当(2021 )
业界和研究界依旧是前沿的方法。最新版课程的笔记生产已在规划中,也敬请期待。
笔记内容经由深度加工整合,以 5 个部分构建起完整的CS224n 容世界”,并依托 GitHub 建了汇总
页。快扫描二维码,跳转进入吧!有任何建议和反馈,也欢迎通过下方渠道和我们联络 (*3)~