Python jieba结巴分词原理及用法解析

Alysa ·
更新时间:2024-11-14
· 824 次阅读

1、简要说明

结巴分词支持三种分词模式,支持繁体字,支持自定义词典

2、三种分词模式

全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义

精简模式:把句子最精确的分开,不会添加多余单词,看起来就像是把句子分割一下

搜索引擎模式:在精简模式下,对长词再度切分

# -*- encoding=utf-8 -*- import jieba if __name__ == '__main__': str1 = '我去北京天安门广场跳舞' a = jieba.lcut(str1, cut_all=True) # 全模式 print('全模式:{}'.format(a)) b = jieba.lcut(str1, cut_all=False) # 精简模式 print('精简模式:{}'.format(b)) c = jieba.lcut_for_search(str1) # 搜索引擎模式 print('搜索引擎模式:{}'.format(c))

运行

3、某个词语不能被分开

# -*- encoding=utf-8 -*- import jieba if __name__ == '__main__': str1 = '桃花侠大战菊花怪' b = jieba.lcut(str1, cut_all=False) # 精简模式 print('精简模式:{}'.format(b)) # 如果不把桃花侠分开 jieba.add_word('桃花侠') d = jieba.lcut(str1) # 默认是精简模式 print(d)

运行

4、 某个单词必须被分开

# -*- encoding=utf-8 -*- import jieba if __name__ == '__main__': # HMM参数,默认为True '''HMM 模型,即隐马尔可夫模型(Hidden Markov Model, HMM),是一种基于概率的统计分析模型, 用来描述一个系统隐性状态的转移和隐性状态的表现概率。 在 jieba 中,对于未登录到词库的词,使用了基于汉字成词能力的 HMM 模型和 Viterbi 算法, 其大致原理是: 采用四个隐含状态,分别表示为单字成词,词组的开头,词组的中间,词组的结尾。 通过标注好的分词训练集,可以得到 HMM 的各个参数,然后使用 Viterbi 算法来解释测试集,得到分词结果。 ''' str1 = '桃花侠大战菊花怪' b = jieba.lcut(str1, cut_all=False, HMM=False) # 精简模式,且不使用HMM模型 print('精简模式:{}'.format(b)) # 分开大战为大和战 jieba.suggest_freq(('大', '战'), True) e = jieba.lcut(str1, HMM=False) # 不使用HMM模型 print('分开:{}'.format(e))

运行

您可能感兴趣的文章:python中文分词库jieba使用方法详解python同义词替换的实现(jieba分词)Python jieba库用法及实例解析Python人工智能之路 jieba gensim 最好别分家之最简单的相似度实现详解Python数据可视化编程 - 词云生成并保存(jieba+WordCloud)Python基于jieba库进行简单分词及词云功能实现方法python使用jieba实现中文分词去停用词方法示例python jieba分词并统计词频后输出结果到Excel和txt文档方法浅谈python jieba分词模块的基本用法用python结合jieba和wordcloud实现词云效果



jieba 分词 Python

需要 登录 后方可回复, 如果你还没有账号请 注册新账号