码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • spacy教程(持续更新ing...)


    诸神缄默不语-个人CSDN博文目录

    最近更新时间:2022.6.27
    最早更新时间:2022.6.27

    本文介绍spacy模型的使用方式,即spacy的API使用教程。spacy包的API基本都要靠特定模型(trained pipeline)来使用,本文主要用英文(en_core_web_sm)和中文(zh_core_web_sm)来做示例,毕竟我就只会这两种语言。
    spacy模型官网:Trained Models & Pipelines · spaCy Models Documentation

    文章目录

    • 1. 分词
    • 2. 停用词表
    • 3. 分句

    1. 分词

    官网示例(可以在网上直接用docker运行):

    import spacy
    from spacy.lang.en.examples import sentences 
    
    nlp = spacy.load("en_core_web_sm")
    doc = nlp(sentences[0])
    print(doc.text)
    for token in doc:
        print(token.text, token.pos_, token.dep_)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    输出:

    Apple is looking at buying U.K. startup for $1 billion
    Apple PROPN nsubj
    is AUX aux
    looking VERB ROOT
    at ADP prep
    buying VERB pcomp
    U.K. PROPN dobj
    startup NOUN advcl
    for ADP prep
    $ SYM quantmod
    1 NUM compound
    billion NUM pobj
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    可以看到模型将句子进行了tokenize,并给出了每个token的词性(pos_)和dependency relation(dep_)(我也不知道这是啥。介绍见:DependencyParser · spaCy API Documentation)

    2. 停用词表

    Defaults文档见Language · spaCy API Documentation

    import spacy
    sp=spacy.load('en_core_web_sm')
    StopWord=sp.Defaults.stop_words
    
    • 1
    • 2
    • 3

    StopWord是一个由停用词(字符串格式)组成的集合。

    3. 分句

    Sentencizer文档见Sentencizer · spaCy API Documentation
    这里的句子是那种完整的句子,以句号之类的标准作为划分标准的那种。

    import spacy
    from spacy.lang.zh.examples import sentences
    
    nlp = spacy.load("zh_core_web_sm")
    total_doc=''.join(sentences)
    nlp.add_pipe('sentencizer', name='sentence_segmenter', before='parser')
    doc = nlp(total_doc)
    print(doc.text)
    for token in doc:
        print(token)
        print(token.is_sent_start)
    for sent in doc.sents:
        print(sent)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    输出略。总之is_sent_start属性为True的token就是句子开头的token,doc.sents是句子列表的迭代器。

    另外v2.0版本spacy有这种分句的写法,在v3.0(我是3.2.4)版本的spacy中无法使用,我没有试过:

    from seg.newline.segmenter import NewLineSegmenter  # note that pip package is called spacyss
    import spacy
    
    nlseg = NewLineSegmenter()
    
    nlp = spacy.load('en')
    nlp.add_pipe(nlseg.set_sent_starts, name='sentence_segmenter', before='parser')
    
    doc = nlp(my_doc_text)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    所需的包是:spacyss · PyPI

  • 相关阅读:
    Flask框架:运用Ajax轮询动态绘图
    C#基于BytesIO程序包的TCP Client客户端窗体程序
    CentOS 7.8 kubeadm安装 k8s 1.26
    基于LSTM和SVM的设备故障诊断(Matlab代码实现)
    Pytorch学习 day12(模型的保存和加载)
    UniApp状态管理:从深入理解到灵活运用
    FPGA实战小项目3
    架构师如何做好需求分析
    linux 设备树的由来与使用
    django——公众号服务开发
  • 原文地址:https://blog.csdn.net/PolarisRisingWar/article/details/125045428
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号