0
点赞
收藏
分享

微信扫一扫

自然语言处理(NLP)相关


结巴分词使用

  • 中文分词之结巴分词~~~附使用场景+demo(net)
  • jieba分词、自定义词典提取高频词、词性标注及获取词的位置
  • jieba分词增加自定义词表
  • 词性标注
  • [python] 使用Jieba工具中文分词及文本聚类概念
  • jieba分词词性标记含义

Toolkits 综合NLP工具包

  • THULAC 中文词法分析工具包by 清华 (C++/Java/Python)
  • NLPIRby 中科院 (Java)
  • LTP 语言技术平台by 哈工大 (C++)
  • FudanNLPby 复旦 (Java)
  • BosonNLPby Boson (商业API服务)
  • HanNLP(Java)
  • SnowNLP(Python) Python library for processing Chinese text
  • YaYaNLP(Python) 纯python编写的中文自然语言处理包,取名于“牙牙学语”
  • DeepNLP(Python) Deep Learning NLP Pipeline implemented on Tensorflow with pretrained Chinese models.
  • chinese_nlp(C++ & Python) Chinese Natural Language Processing tools and examples
  • Chinese-Annotator(Python) Annotator for Chinese Text Corpus 中文文本标注工具

Popular NLP Toolkits for English/Multi-Language 常用的英文或支持多语言的NLP工具包

  • CoreNLPby Stanford (Java)
  • NLTK(Python)
  • spaCy(Python)
  • OpenNLP(Java)
  • gensim(Python) Gensim is a Python library for topic modelling, document indexing and similarity retrieval with large corpora.

Chinese Word Segment 中文分词

  • Jieba 结巴中文分词(Python) 做最好的 Python 中文分词组件
  • kcws 深度学习中文分词(Python) BiLSTM+CRF与IDCNN+CRF
  • ID-CNN-CWS(Python) Iterated Dilated Convolutions for Chinese Word Segmentation
  • Genius 中文分词(Python) Genius是一个开源的python中文分词组件,采用 CRF(Conditional Random Field)条件随机场算法。
  • loso 中文分词(Python)

Information Extraction 信息提取

  • MITIE(C++) library and tools for information extraction
  • Duckling(Haskell) Language, engine, and tooling for expressing, testing, and evaluating composable language rules on input strings.
  • IEPY(Python) IEPY is an open source tool for Information Extraction focused on Relation Extraction.
  • Snorkel: A training data creation and management system focused on information extraction
  • Neural Relation Extraction implemented with LSTM in TensorFlow
  • A neural network model for Chinese named entity recognition
  • Information-Extraction-ChineseChinese Named Entity Recognition with IDCNN/biLSTM+CRF, and Relation Extraction with biGRU+2ATT 中文实体识别与关系提取

QA & Chatbot 问答和聊天机器人

  • Rasa NLU(Python) turn natural language into structured data
  • Rasa Core(Python) machine learning based dialogue engine for conversational software
  • Chatterbot(Python) ChatterBot is a machine learning, conversational dialog engine for creating chat bots.
  • Chatbot(Python) 基於向量匹配的情境式聊天機器人
  • Tipask(PHP) 一款开放源码的PHP问答系统,基于Laravel框架开发,容易扩展,具有强大的负载能力和稳定性。
  • QuestionAnsweringSystem(Java) 一个Java实现的人机问答系统,能够自动分析问题并给出候选答案。
  • 使用TensorFlow实现的Sequence to Sequence的聊天机器人模型(Python)
  • 使用深度学习算法实现的中文阅读理解问答系统(Python)
  • DuReader中文阅读理解Baseline代码(Python)

Corpus 中文语料

  • 开放知识图谱OpenKG.cn
  • 大规模中文概念图谱CN-Probase公众号介绍
  • CLDC中文语言资源联盟
  • 中文 Wikipedia Dump
  • 98年人民日报词性标注库@百度盘
  • 百度百科100gb语料@百度盘密码neqs 出处应该是梁斌penny大神
  • 搜狗20061127新闻语料(包含分类)@百度盘
  • UDChinese(for training spaCy POS)
  • 中文word2vec模型
  • 中文word2vec模型之维基百科中文使用2017年6月20日中文维基百科语料训练的脚本和模型文件。
  • Synonyms:中文近义词工具包基于维基百科中文和word2vec训练的近义词库,封装为python包文件。
  • Chinese_conversation_sentimentA Chinese sentiment dataset may be useful for sentiment analysis.
  • 中文突发事件语料库Chinese Emergency Corpus
  • dgk_lost_conv 中文对白语料chinese conversation corpus
  • 用于训练中英文对话系统的语料库Datasets for Training Chatbot System
  • 八卦版問答中文語料
  • 中国股市公告信息爬取通过python脚本从巨潮网络的服务器获取中国股市(sz,sh)的公告(上市公司和监管机构)
  • tushare财经数据接口TuShare是一个免费、开源的python财经数据接口包。
  • 保险行业语料库[52nlp介绍Blog] OpenData in insurance area for Machine Learning Tasks
  • 最全中华古诗词数据库唐宋两朝近一万四千古诗人, 接近5.5万首唐诗加26万宋诗. 两宋时期1564位词人,21050首词。
  • DuReader中文阅读理解数据
  • 中文语料小数据包含了中文命名实体识别、中文关系识别、中文阅读理解等一些小量数据
  • 中文人名语料库中文姓名,姓氏,名字,称呼,日本人名,翻译人名,英文人名。
  • 中文数据预处理材料中文分词词典和中文停用词
  • 漢語拆字字典

Organizations 相关中文NLP组织和会议

  • 中国中文信息学会
  • NLP Conference CalenderMain conferences, journals, workshops and shared tasks in NLP community.
举报

相关推荐

0 条评论