时间:2021-05-22
在读取https://github.com/Embedding/Chinese-Word-Vectors中的中文词向量时,选择了一个有3G多的txt文件,之前在做词向量时用的是word2vec,所以直接导入模型然后indexword即可。
因为这是一个txt大文件,尝试了DataFrame,np.loadtxt等,都没有成功,其中主要遇到的问题是:
解决办法:
尝试使用的代码:
代码1:try:lines=np.loadtxt(filepath)catch:感觉这块不会写了咦,,, print(ValueError)但这样的话,它就不会继续循环去读上边的txt了呢代码2:lines=[]with open(filepath) as f: for line in f: lines.append(line)np.save(filepath,lines)代码3 def readEmbedFile(embedFile):# embedId = {}# input = open(embedFile,'r',encoding="utf-8")# lines = []# a=0# for line in input:# lines.append(line)# a=a+1# print(a)# nwords = len(lines) - 1# splits = lines[1].strip().split(' ') # 因为第一行是统计信息,所以用第二行# dim = len(splits) - 1# embeddings=[]# # embeddings = [[0 for col in range(dim)] for row in range(nwords)]# b=0# for lineId in range(len(lines)):# b=b+1# print(b)# splits = lines[lineId].split(' ')# if len(splits) > 2:# # embedId赋值# embedId[splits[0]] = lineId# # embeddings赋值# emb = [float(splits[i]) for i in range(1, 300)]# embeddings.append(emb)# return embedId, embeddings代码4:def load_txt(filename): lines=[] vec_dict={} with open(filename,r) as f: for line in f: list=line.strip() lines.append(line) for i, line in emuate(lines): if i=0: continue line=line.split(" ") wordID=line[0] wordvec=[float line[i] for i in range(1,300)] vec_dict[wordId]=np.array(wordvec) return vec_dict具体内存不足主要的原因是:
我的虚拟机中确实内存不太够,后来使用实验室32G的主机后,可以得到idvec,而得不到向量的,报的错还是memory error.
另一个原因,是需要把词向量转换为float形式,在python中str 占的内存>float类型,如代码所示:
在我的电脑,64位操作系统,64位的python, 所占内存大小排序为:
dic=list>str>tuple>int>float
读取时候可以用np.load().item就可以复原原来的字典,主要参照下述文件:
然后通过python的字典操作就可以遍历得到每个词的词向量了,dic[vocab]
心得:
距离完全解决项目的问题还有5~6的大关卡,但静下心来,一步步地做总会突破的呀!
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
最近在处理词向量这块,因为平时习惯把处理的词向量保存成文件,但是txt文件读取出来的都是string格式的数字,有必要转成float型上网查了一下教程,在这记录
python读取.txt(.log)文件、.xml文件、excel文件数据,并将数据类型转换为需要的类型,添加到list中详解1.读取文本文件数据(.txt结尾
最近写程序需要从文件中读取数据,并把读取的数据转换成向量。查阅资料之后找到了读取csv文件和txt文件两种方式,下面结合自己的实验过程,做简要记录,供大家参考:
docx2txt的Github地址docx2txt是基于python的从docx文件中提取文本和图片的库。代码是从python-docx中获取的。它也可以从页眉
通过python对多个txt文件进行处理读取路径,读取文件获取文件名,路径名对响应的文件夹名字进行排序对txt文件内部的数据相应的某一列/某一行进行均值处理写入