Win10(x64)系统Python 3.6.5(Anaconda3)本地调用哈工大最新版LTP 3.4
本文基于网上失败与成功经验,经过多次调试,实现了Win10(x64)系统下Python 3.6.5(Anaconda3)本地调用哈工大LTP 3.4,故将主要关键步骤分述如下:
- LTP的选择与下载
- LTP本地安装
- pyltp库安装
- 程序调用与测试
LTP的选择与下载
哈工大语言技术平台(LTP) 提供包括中文分词、词性标注、命名实体识别、依存句法分析、语义角色标注等丰富、 高效、精准的自然语言处理技术。 —— [ 哈工大语言技术平台 ]
python语言下本地调用LTP,需要安装LTP、LTP模型文件以及第三方库pyltp。
目前语言技术平台3.4.0版 发布, * 增加新的基于Bi-LSTM的SRL模型 * 增加了SRL的多线程命令行程序srl_cmdline * 修改了SRL相关的编程接口已经改变,修复了之前内存泄露的相关问题。
笔者电脑为Win10(x64)系统,Python为Anaconda3所集成的python3.6.5,采用哈工大最新版LTP 3.4,根据版本匹配建议(链接),需下载ltp-3.4.0-win-x64-Release.zip以及模型文件ltp_data_v3.4.0.zip。需要预先说明的是,此时对应的python库
LTP采用C++编写,若采用python语言调用LTP,安装pyltp库,版本pyltp-0.2.1,直接采用pip命令安装难以成功,会出现缺少VC++ 14.0 组件的错误。其实笔者电脑已安装Visual studio 2017
最后经过多次尝试网上说的一些方法,采用安装pyltp对应的 wheel文件成功。网上能找到pyltp-0.2.1的wheel文件,但更低版本的就难以找到了。据说是一个大神在自己的电脑(win10)上编译的,64bit的windows应该都可以,csdn下载地址(链接)
pyltp-0.2.1-cp35-cp35m-win_amd64.whl
pyltp-0.2.1-cp36-cp36m-win_amd64.whl
注意: 这两个文件的区别是python版本号
LTP本地安装
(1)新建一个项目文件夹,比如:F:\myprojects\LTP;
(2)将模型文件ltp_data_v3.4.0.zip解压后的ltp_data文件夹放入项目文件夹;
(3)将ltp-3.4.0-win-x64-Release.zip解压后的dll、exe文件全部拷入项目文件夹。 LTP文件夹
模型文件夹
按照官网提示(链接),LTP 3.4.0 版本 SRL模型 pisrl.model 如在windows系统下不可用,可以到官网“此链接” 下载支持windows的语义角色标注模型。
由后期调试经验表明,此步骤非常重要,语义角色标注模型基本报错,通过替换win版本后调试成功。
pyltp库安装
由前述下载好pyltp-0.2.1-cp36-cp36m-win_amd64.whl 文件后,存放到本地文件夹,然后采用pip命令安装,如笔者存放在路径F:\fruanjian\pyth下,pip命令:
pip install F:\fruanjian\pyth\pyltp-0.2.1-cp36-cp36m-win_amd64.whl
程序调用与测试
参考网上示例(链接),做了细部修改,比如更改路径,以及3.4版本语义角色分析需采用pisrl.model
程序调用代码块
代码块语法遵循标准markdown代码,例如:
import os
LTP_DATA_DIR = 'F:\myprojects\LTP\ltp_data34' # ltp模型目录的路径
cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model') # 分词模型路径,模型名称为`cws.model`
pos_model_path = os.path.join(LTP_DATA_DIR, 'pos.model') # 词性标注模型路径,模型名称为`pos.model`
ner_model_path = os.path.join(LTP_DATA_DIR, 'ner.model') # 命名实体识别模型路径,模型名称为`pos.model`
par_model_path = os.path.join(LTP_DATA_DIR, 'parser.model') # 依存句法分析模型路径,模型名称为`parser.model`
srl_model_path = os.path.join(LTP_DATA_DIR, 'pisrl.model') # 语义角色标注模型目录路径,模型目录为`srl`。注意该模型路径是一个目录,而不是一个文件。
from pyltp import SentenceSplitter
from pyltp import Segmentor
from pyltp import Postagger
from pyltp import NamedEntityRecognizer
from pyltp import Parser
from pyltp import SementicRoleLabeller
#分句,也就是将一片文本分割为独立的句子
def sentence_splitter(sentence='人生苦短。我用python。你呢?'):
sents = SentenceSplitter.split(sentence) # 分句
print ('\n'.join(sents))
#分词
def segmentor(sentence='我是中国人'):
segmentor = Segmentor() # 初始化实例
segmentor.load(cws_model_path) # 加载模型
words = segmentor.segment(sentence) # 分词
#默认可以这样输出
print ('\t'.join(words))
# 可以转换成List 输出
words_list = list(words)
segmentor.release() # 释放模型
return words_list
def posttagger(words):
postagger = Postagger() # 初始化实例
postagger.load(pos_model_path) # 加载模型
postags = postagger.postag(words) # 词性标注
for word,tag in zip(words,postags):
print (word+'/'+tag)
postagger.release() # 释放模型
return postags
#命名实体识别
def ner(words, postags):
recognizer = NamedEntityRecognizer() # 初始化实例
recognizer.load(ner_model_path) # 加载模型
netags = recognizer.recognize(words, postags) # 命名实体识别
for word, ntag in zip(words, netags):
print (word + '/' + ntag)
recognizer.release() # 释放模型
return netags
#依存语义分析
def parse(words, postags):
parser = Parser() # 初始化实例
parser.load(par_model_path) # 加载模型
arcs = parser.parse(words, postags) # 句法分析
print ("\t".join("%d:%s" % (arc.head, arc.relation) for arc in arcs))
parser.release() # 释放模型
return arcs
#角色标注
def role_label(words, postags, arcs):
labeller = SementicRoleLabeller() # 初始化实例
labeller.load(srl_model_path) # 加载模型
roles = labeller.label(words, postags, arcs) # 语义角色标注
for role in roles:
print (role.index, "".join(
["%s:(%d,%d)" % (arg.name, arg.range.start, arg.range.end) for arg in role.arguments]))
labeller.release() # 释放模型
#测试分句子
print('******************测试将会顺序执行:**********************')
sentence_splitter()
print('###############以上为分句子测试###############')
#测试分词
words=segmentor()
print('###############以上为分词标注测试###############')
#测试标注
tags = posttagger(words)
print('###############以上为词性标注测试###############')
#命名实体识别
netags = ner(words,tags)
print('###############以上为命名实体识别测试###############')
#依存句法识别
arcs = parse(words,tags)
print('###############以上为依存句法测试###############')
#角色标注
roles = role_label(words,tags,arcs)
print('###############以上为角色标注测试###############')
再次提醒,可能替换ltp_data文件夹下语义角色分析的pisrl.model,否则可能出错。
另一个出错的地方就是 SementicRoleLabeller.label函数,笔者修改后采用3个参数,调试成功。
测试结果为
而 SementicRoleLabeller.label采用网上的4个参数,调用函数如下
一直调试不成功,出现如下错误:
Traceback (most recent call last):
File “F:\xuexi\spypython\nlpprogram\test_ltp.py”, line 95, in
roles = role_label(words,tags,netags,arcs)
File “F:\xuexi\spypython\nlpprogram\test_ltp.py”, line 72, in role_label
roles = labeller.label(words, postags, netags, arcs) # 语义角色标注
Boost.Python.ArgumentError: Python argument types in
SementicRoleLabeller.label(SementicRoleLabeller, list, VectorOfString, VectorOfString, VectorOfParseResult)
did not match C++ signature: