Python jieba库分词模式实例用法

Shaine ·
更新时间:2024-09-21
· 972 次阅读

在中文分词中,jiebe库是最为常见的,主要的原因还是它独特的支持分词模式如:精确模式、全模式、搜索引擎模式。也对应着三种方式,包括jieba.cut()方法、jieba.lcut()方法、jieba.cut_for_search()方法。下面就为大家实例操作这些分词模式,以及方法的使用,一起来了解下吧。

全模式: import jieba seg_list = jieba.cut("南京市长江大桥欢迎你。", cut_all=True) print(type(seg_list),seg_list) 精确模式: seg_list1 = jieba.lcut("南京市长江大桥欢迎你。", cut_all=False) print(type(seg_list1),seg_list1) 搜索模式: seg_list2 = jieba.cut_for_search("南京市长江大桥欢迎你。") print(type(seg_list2),seg_list2) print("全模式:" + "/ ".join(seg_list)) print("精确模式:" + "/ ".join(seg_list1)) print("搜索引擎模式:" + "/ ".join(seg_list2))

输出结果:

全模式:南京/ 南京市/ 京市/ 市长/ 长江/ 长江大桥/ 大桥/ 欢迎/ 你/ 。

精确模式:南京市/ 长江大桥/ 欢迎/ 你/ 。

搜索引擎模式:南京/ 京市/ 南京市/ 长江/ 大桥/ 长江大桥/ 欢迎/ 你/ 。

内容扩展:

获取词性

我们还可以通过jiaba这个库把词性进行区分,比如动词,名词等

import jieba.posseg as psg seg_list = psg.cut("我要进行关键词提取") print([(s.word, s.flag) for s in seg_list]) # [('我', 'r'), ('要', 'v'), ('进行', 'v'), ('关键词', 'n'), ('提取', 'v')]

我们还可以提取动词或者名词,我们来提取下里面的动词

import jieba.posseg as psg seg_list = psg.cut("我要进行关键词提取") print([(s.word, s.flag) for s in seg_list if s.flag.startswith('v')])

到此这篇关于Python jieba库分词模式实例用法的文章就介绍到这了,更多相关Python jieba库分词模式怎么用内容请搜索软件开发网以前的文章或继续浏览下面的相关文章希望大家以后多多支持软件开发网!

您可能感兴趣的文章:python 利用jieba.analyse进行 关键词提取Python jieba结巴分词原理及用法解析Python基于wordcloud及jieba实现中国地图词云图Python基于jieba, wordcloud库生成中文词云Python中文分词库jieba,pkusegwg性能准确度比较python中文分词库jieba使用方法详解python同义词替换的实现(jieba分词)



jieba 分词 Python

需要 登录 后方可回复, 如果你还没有账号请 注册新账号