用几十行代码实现python中英文分词

说到分词大家肯定一般认为是很高深的技术,但是今天作者用短短几十行代码就搞定了,感叹python很强大啊!作者也很强大。不过这个只是正向最大匹配,没有机器学习能力

注意:使用前先要下载搜狗词库

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
# -*- coding:utf-8 -*-
  
#写了一个简单的支持中文的正向最大匹配的机械分词,其它不用解释了,就几十行代码
#附:搜狗词库下载地址:http://vdisk.weibo.com/s/7RlE5
  
import string
__dict= {}
  
def load_dict(dict_file='words.dic'):
    #加载词库,把词库加载成一个key为首字符,value为相关词的列表的字典
  
    words= [unicode(line,'utf-8').split()for linein open(dict_file)]
  
    for word_len, wordin words:
        first_char= word[0]
        __dict.setdefault(first_char, [])
        __dict[first_char].append(word)
     
    #按词的长度倒序排列
    for first_char, wordsin __dict.items():
        __dict[first_char]= sorted(words, key=lambda x:len(x), reverse=True)
  
def __match_ascii(i,input):
    #返回连续的英文字母,数字,符号
    result= ''
    for iin range(i,len(input)):
        if not input[i]in string.ascii_letters:break
        result+= input[i]
    return result
  
  
def __match_word(first_char, i ,input):
    #根据当前位置进行分词,ascii的直接读取连续字符,中文的读取词库
  
    if not __dict.has_key(first_char):
        if first_charin string.ascii_letters:
            return __match_ascii(i,input)
        return first_char
  
    words= __dict[first_char]
    for wordin words:
        if input[i:i+len(word)]== word:
            return word
  
    return first_char
  
def tokenize(input):
    #对input进行分词,input必须是uncode编码
  
    if not input:return []
  
    tokens= []
    i= 0
    while i <len(input):
        first_char= input[i]
        matched_word= __match_word(first_char, i,input)
        tokens.append(matched_word)
        i+= len(matched_word)
  
    return tokens
  
  
if __name__== '__main__':
    def get_test_text():
        import urllib2
        url= "http://news.baidu.com/n?cmd=4&class=rolling&pn=1&from=tab&sub=0"
        text= urllib2.urlopen(url).read()
        return unicode(text,'gbk')
  
    def load_dict_test():
        load_dict()
        for first_char, wordsin __dict.items():
            print '%s:%s' % (first_char,' '.join(words))
  
    def tokenize_test(text):
        load_dict()
        tokens= tokenize(text)
        for tokenin tokens:
            print token
  
    tokenize_test(unicode(u'美丽的花园里有各种各样的小动物'))
    tokenize_test(get_test_text())
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容