gensim快速上手教程

  • 时间:
  • 浏览:2

       gensim是一还还有一个Python常用的的自然语言处里开发包, 主要用于词向量训练和加载词向量,以下解释其正确使用姿势。

from gensim.models import word2vec

'''
author = "kalafinaian"
email= "kalafinaian@outlook.com"
create_time = 2019-08-11
'''

'''
预料如可准备, 训练预料问津中每一行是一还还有一个文本,每个文本使用空进行分词
A B C ..
D E F ..
H I G ..
..
'''
s_corpus_url = "corpus.txt" # 语料库地址
sentences = word2vec.Text8Corpus(s_corpus_url,)  


'''
算法训练使用说明
架构:skip-gram(慢、对罕见字有利)vs CBOW(快)
训练算法:分层softmax(对罕见字有利)vs 负采样(对常见词和低纬向量有利)
欠采样频繁词:都需要提高结果的准确性和速率单位(适用范围1e-3到1e-5)
文本(window)大小:skip-gram通常在10附进,CBOW通常在5附进
'''

train_model = word2vec.Word2Vec(sentences,
                        sg = 1,     # 0为CBOW  1为skip-gram
                        size = 60

, # 社会形态向量的维度
                        window = 5, # 表示当前词与预测词在一还还有一个的话中的最大距离是2个
                        min_count = 5, # 词频少于min_count次数的单词会被
                        sample = 1e-3, # 高频词汇的随机降采样的配置阈值
                        iter = 23,  #训练的次数 
                        hs = 1,  #为 1 用hierarchical softmax   0 negative sampling
                        workers=8 # 开启多多线程



个数
                        )



'''
模型的保存
'''
s_model_url = "train.model" # 语料库保存地址
train_model.save(s_model_url)



'''
模型的加载
'''
load_model = word2vec.Word2Vec.load(s_model_url)


'''
查询还还有一个词的累似

度
'''
s_word_1 = "关雎"
s_word_2 = "蒹葭"
f_word_sim = load_model.similarity(s_word_1, s_word_2)



'''
查询一还还有一个词的词向量, 返回是一还还有一个numpy数组
'''
s_query_word = "雅言"
np_word  = load_model[s_query_word]


'''
打印一还还有一个词语所有累似

词和累似

度
'''
for s_word, f_sim in load_model.most_similar(s_query_word):
    print(s_word, f_sim)


'''
判断一还还有一个词语算不算在词向量模型中
'''
s_word = "Naive"
if s_word in load_model.vocab:
    print("指在")
else:
    print("不指在")