数学应用-谈谈中文分词

发表者: 吴军, Google 研究员

谈谈中文分词

—– 统计语言模型在中文处理中的一个应用

上回我们谈到 利用统计语言模型进行语言处理 ,由于模型是建立在词的基础上 的,对于中日韩等语言,首先需要进行分词。例如把句子 “中国航天官员应邀 到美国与总署官员开会。”

分成一串词:

中国 / 航天 / 官员 / 应邀 / 到 / 美国 / 与 / / 总署 / 官员 / 开 会。

最容易想到的,也是最简单的分词办法就是查字典。这种方法最早是由北京航天 航空大学的梁南元教授提出的。

用 “查字典” 法,其实就是我们把一个句子从左向右扫描一遍,遇到字典里有 的词就标识出来,遇到复合词(比如 “上海大学”)就找最长的词匹配,遇到 不认识的字串就分割成单字词,于是简单的分词就完成了。这种简单的分词方法 完全能处理上面例子中的句子。八十年代, 哈工大的王晓龙博士 把 它理论化, 发展成最少词数的分词理论,即一句话应该分成数量最少的词串。这种方法一个 明显的不足是当遇到有二义性 (有双重理解意思)的分割时就无能为力了。比 如,对短语 “发展中国家” 正确的分割是“发展-中-国家”,而从左向右查字 典的办法会将它分割成“发展-中国-家”,显然是错了。另外,并非所有的最长 匹配都一定是正确的。比如 “上海大学城书店”的正确分词应该是 “上海-大 学城-书店,” 而不是 “上海大学-城-书店”。

九十年代以前,海内外不少学者试图用一些文法规则来解决分词的二义性, 都不是很成功。90 年前后,清华大学的郭进博士用统计语言模型成功解决分词 二义性,将汉语分词的错误率降低了一个数量级。

利用统计语言模型分词的方法,可以用几个公式简单概括如下:

我们假定一个句子S可以有几种分词方法,为了简单起见我们假定有以下三种: A1, A2, A3, …, Ak, B1, B2, B3, …, Bm C1, C2, C3, …, Cn

其中,A1, A2, B1, B2, C1, C2 等等都是汉语的词。那么最好的一种分词方法 应该保证分完词后这个句子出现的概率最大。也就是说如果 A1,A2,…, Ak 是

最好的分法,那么 (P 表示概率):

P (A1, A2, A3, …, Ak) 〉 P (B1, B2, B3, …, Bm), 并且 P (A1, A2, A3, …, Ak) 〉 P(C1, C2, C3, …, Cn)

因此,只要我们利用上回提到的统计语言模型计算出每种分词后句子出现的概 率,并找出其中概率最大的,我们就能够找到最好的分词方法。

当然,这里面有一个实现的技巧。如果我们穷举所有可能的分词方法并计算出每 种可能性下句子的概率,那么计算量是相当大的。因此,我们可以把它看成是一 个 动态规划 (Dynamic Programming) 的,并利用 “维特比”( Viterbi ) 算 法快速地找到最佳分词。

在清华大学的郭进博士以后,海内外不少学者利用统计的方法,进一步完善中文 分词。其中值得一提的是清华大学孙茂松教授和香港大学吴德凯教授的工 作。

需 要指出的是,语言学家对词语的定义不完全相同。比如说 “北京大学”,有 人认为是一个词,而有人认为该分成两个词。一个折中的解决办法是在分词的同 时,找到复合词的嵌套结构。在上面的例子中,如果一句话包含 “北京大学” 四个字,那么先把它当成一个四字词,然后再进一步找出细分词 “北京” 和 “大学”。这种方法是最早是郭进在 “Computational Linguistics” (《计 算机语言学》)杂志上发表的,以后不少系统采用这种方法。

一般来讲,根 据不同应用,汉语分词的颗粒度大小应该不同。比如,在机器翻 译中,颗粒度应该大一些,“北京大学”就不能被分成两个词。而在语音识别中, “北京大学”一般 是被分成两个词。因此,不同的应用,应该有不同的分词系 统。Google 的葛显平博士和朱安博士,专门为搜索设计和实现了自己的分词系 统。

也 许你想不到,中文分词的方法也被应用到英语处理,主要是手写体识别中。 因为在识别手写体时,单词之间的空格就不很清楚了。中文分词方法可以帮助判 别英语单 词的边界。其实,语言处理的许多方法通用的和具体的语言无关。 在 Google 内,我们在设计语言处理的时,都会考虑它是否能很容易地适用 于各种自然语言。这样,我们才能有效地支持上百种语言的搜索。

对中文分词有兴趣的读者,可以阅读以下文献:

1. 梁南元

书面汉语自动分词系统

m/demo/LiangNanyuan-JCIP-1987.pdf

2. 郭进

统计语言模型和汉语音字转换的一些新结果

m/demo/GuoJin-JCIP-1993.pdf

3. 郭进

Critical Tokenization and its Properties u/J/J97/J97-4004.pdf

4. 孙茂松

Chinese segmentation without using lexicon and hand-crafted training data

声明: 除非转自他站(如有侵权,请联系处理)外,本文采用 BY-NC-SA 协议进行授权 | 智乐兔
转载请注明:转自《数学应用-谈谈中文分词
本文地址:https://www.zhiletu.com/archives-2795.html
关注公众号:智乐兔

赞赏

wechat pay微信赞赏alipay pay支付宝赞赏

上一篇
下一篇

相关文章

在线留言

你必须 登录后 才能留言!

在线客服
在线客服 X

售前: 点击这里给我发消息
售后: 点击这里给我发消息

智乐兔官微