189 8069 5689

pythonpkuseg工具怎么使用

本篇内容介绍了“python pkuseg工具怎么使用”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

创新互联专注于叶县企业网站建设,响应式网站建设,商城建设。叶县网站建设公司,为叶县等地区提供建站服务。全流程按需网站设计,专业设计,全程项目跟踪,创新互联专业和态度为您提供的服务

细分领域的中文分词工具,简单易用,跟现有开源分词工具相比提高了分词的准确率。

Linux作为测试环境,在新闻数据(MSRA)、混合型文本(CTB8)、网络文本(WEIBO)数据上对不同工具包进行了准确率测试。 

细领域训练及测试结果

以下是在不同数据集上的对比结果:

python pkuseg工具怎么使用 

跨领域测试结果

我们选用了混合领域的CTB8语料的训练集进行训练,同时在其它领域进行测试,以模拟模型在“黑盒数据”上的分词效果。选择CTB8语料的原因是,CTB8属于混合语料,理想情况下的效果会更好;而且在测试中我们发现在CTB8上训练的模型,所有工具包跨领域测试都可以获得更高的平均效果。以下是跨领域测试的结果:

python pkuseg工具怎么使用

pkuseg具有如下几个特点:

  • 多领域分词。不同于以往的通用中文分词工具,此工具包同时致力于为不同领域的数据提供个性化的预训练模型。根据待分词文本的领域特点,用户可以自由地选择不同的模型。 我们目前支持了新闻领域,网络文本领域和混合领域的分词预训练模型,同时也拟在近期推出更多的细领域预训练模型,比如医药、旅游、专利、小说等等。

  • 更高的分词准确率。相比于其他的分词工具包,当使用相同的训练数据和测试数据,pkuseg可以取得更高的分词准确率。

  • 支持用户自训练模型。支持用户使用全新的标注数据进行训练。 

使用方式

代码示例1:使用默认模型及默认词典分词

import pkuseg

seg = pkuseg.pkuseg()                        # 以默认配置加载模型
text = seg.cut('我爱北京天安门')                # 进行分词
print(text)

结果

    loading model
    finish
    ['我', '爱', '北京', '天安门']

“python pkuseg工具怎么使用”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注创新互联网站,小编将为大家输出更多高质量的实用文章!


网站名称:pythonpkuseg工具怎么使用
当前路径:http://cdxtjz.cn/article/gcdedo.html

其他资讯