初学者|一文了解成分句法分析

点击上方蓝色字体,关注AI小白入门


跟着博主的脚步,每天进步一点点




本文介绍了自然语言处理中成分句法分析,包括定义、基本任务、常见方法以及短语结构和依存结构的关系,最后,分享了一些流行的工具以及工具实战例子。



定义


维基百科上给的定义如下:The constituency-based parse trees of constituency grammars (= phrase structure grammars) distinguish between terminal and non-terminal nodes. The interior nodes are labeled by non-terminal categories of the grammar, while the leaf nodes are labeled by terminal categories.


句子的组成成分叫句子成分,也叫句法成分。在句子中,词与词之间有一定的组合关系,按照不同的关系,可以把句子分为不同的组成成分。句子成分由词或词组充当。


句法结构分析是指对输入的单词序列(一般为句子)判断其构成是否合乎给定的语法,分析出合乎语法的句子的句法结构。句法结构一般用树状数据结构表示,通常称之为句法分析树(syntactic parsing tree)或简称分析树(parsing tree),而完成这种分析过程的程序模块称为句法结构分析器(syntactic parser),也简称分析器(parser)。



基本任务


句法结构分析的基本任务主要有三个:1.判断输入的字符串是否属于某种语言。2.消除输入句子中的词法和结构等方面的歧义。3.分析输入句子的内部结构,如成分构成、上下文关系等。


如果一个句子有多种结构表示,句法分析器应该分析出该句子最有可能的结构。有时人们也把句法结构分析称为语言或句子识别。


一般构造一个句法分析器需要考虑二部分:语法的形式化表示和词条信息描述问题,分析算法的设计。目前在自然语言处理中广泛使用的是上下文无关文法(CFG)和基于约束的文法(又称合一语法)。



常见方法


句法结构分析可以分为基于规则的分析方法、基于统计的分析方法以及近年来基于深度学习的方法等。


基于规则的分析方法:其基本思路是由人工组织语法规则,建立语法知识库,通过条件约束和检查来实现句法结构歧义的消除。


基于统计的分析方法:统计句法分析中目前最成功当属基于概率上下文无关文法(PCFG或SCFG)。该方法采用的模型主要包括词汇化的概率模型(lexicalized probabilistic model)和非词汇化的概率模型(unlexicalized probabilistic model)两种。


基于深度学习的分析方法:近几年深度学习在nlp基础任务取得了不错的效果,也涌现出了不少论文。



短语结构和依存结构关系


短语结构树可以被一一对应地转化成依存关系树,反过来则不然,因为一棵依存关系树可能对应多个短语结构树。转化方法可以通过如下实现:


定义中心词抽取规则,产生中心词表;

根据中心词表,为句法树中每个结点选择中心子结点;

同一层内将非中心子结点的中心词依存到中心子结点的中心词上,下一层的中心词依存到上一层的中心词上,从而得到相应的依存结构。



工具推荐


StanfordCoreNLP

斯坦福的,提供成分句法分析功能。

Github地址:https://github.com/Lynten/stanford-corenlp

官网:https://stanfordnlp.github.io/CoreNLP/


# 安装:pip install stanfordcorenlp# 国内源安装:pip install stanfordcorenlp -i https://pypi.tuna.tsinghua.edu.cn/simple# 使用stanfordcorenlp进行句法成分分析# 先下载模型,下载地址:https://nlp.stanford.edu/software/corenlp-backup-download.htmlfrom stanfordcorenlp import StanfordCoreNLP# 对中文进行句子成分分析zh_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27', lang='zh') s_zh = '我爱自然语言处理技术!' con_zh = zh_model.parse(s_zh) print(con_zh)  (IP    (IP      (NP (NN 我爱))      (ADVP (AD 自然))      (NP (NN 语言))      (VP (VV 处理)        (NP (NN 技术))))    (PU !)))# 对英文进行句子成分分析eng_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27') s_eng = 'I love natural language processing technology!' con_eng = eng_model.parse(s_eng) print(con_eng)(ROOT  (S    (NP (PRP I))    (VP (VBP love)      (NP (JJ natural) (NN language) (NN processing) (NN technology)))    (. !)))
# 国内源安装:pip install stanfordcorenlp -i https://pypi.tuna.tsinghua.edu.cn/simple
# 使用stanfordcorenlp进行句法成分分析
# 先下载模型,下载地址:https://nlp.stanford.edu/software/corenlp-backup-download.html
from stanfordcorenlp import StanfordCoreNLP
# 对中文进行句子成分分析
zh_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27', lang='zh')
s_zh = '我爱自然语言处理技术!'
con_zh = zh_model.parse(s_zh)
print(con_zh)

(IP
   (IP
     (NP (NN 我爱))
     (ADVP (AD 自然))
     (NP (NN 语言))
     (VP (VV 处理)
       (NP (NN 技术))))
   (PU !)))

# 对英文进行句子成分分析
eng_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27')
s_eng = 'I love natural language processing technology!'
con_eng = eng_model.parse(s_eng)
print(con_eng)


(ROOT
 (S
   (NP (PRP I))
   (VP (VBP love)
     (NP (JJ natural) (NN language) (NN processing) (NN technology)))
   (. !)))


Berkeley Parser

伯克利大学nlp组开源的工具。提供英文的句法分析功能。

官方地址:http://nlp.cs.berkeley.edu/software.shtml


SpaCy

工业级的自然语言处理工具,遗憾的是不支持中文。

Gihub地址:https://github.com/explosion/spaCy

官网:https://spacy.io/


代码已上传:https://github.com/yuquanle/StudyForNLP/blob/master/NLPbasic/Constituency.ipynb


参考:

1. 统计自然语言处理

2. 中文信息处理报告-2016


The End


▼往期精彩回顾▼ 新年送福气|您有一份NLP大礼包待领取
初学者|NLP相关任务简介
初学者|别说还不懂依存句法分析

长按二维码关注
AI小白入门

ID:StudyForAI

学习AI学习ai(爱)

期待与您的相遇~

你点的每个赞,我都认真当成了喜欢
全部评论

相关推荐

点赞 收藏 评论
分享
牛客网
牛客企业服务