时间:2021-05-22
由于这两天换了IDE,在导入以前的工程的时候发现了一个大问题,由于以前脑残的我不知道改编码方式,导致出现了大量的GBK,这就很难受,要是一个两个还好说,可是这么多要是一个一个的改我会觉得现在的我比以前还脑残,于是乎,我就想用python批量的修改一下,然后就产生了这篇文章,其中好多不足的地方还请大佬指导
本来一开始的思路还是比较清晰,觉得也比较简单,天真的认为用GBK的方式读取出文件内容,然后UTF8写入就好了,可是在实际的操作中我发现我就是太天真了,出现了大量的问题,比如说:
怎么查看文件的编码方式
好吧我承认就出现了这一个问题。
那么遇到问题我们该怎么办呢,没错,Google,果然功夫不负会Google人,我看到了一个函数,就是chardet.detect()函数,当然要导入chardet模块,也就是pip,如果是Anaconda的环境当我没说,pip了不要打我。言归正传,这个函数是干嘛用的呢?
这个函数会返回一个含有三个键值对的字典类型
是不是看到encoding后眼前一亮,这样取出encoding的值然后比较不知道是啥了,然后我就在一边感叹python的强大的第三方库的支持一边开始了对这个函数的测试,先建两个txt,然后脸滚键盘,保存的时候一个是UTF-8,一个是GBK,值得竹注意的是读取方式应该是二进制,也就是'rb',接着就是兴致勃勃地Ctrl Shift F10,出现了惊人的一幕:
{'encoding': 'utf-8', 'confidence': 0.99, 'language': ''}
看看,看看这美丽的单引号,然后直接和”utf-8”比较不就结束了,万万没想到,他竟然是False,我还以为我看错了,就疯狂Ctrl F5,等待奇迹的出现,功夫不负有心人,果然,奇迹没有出现,于是我type了一下,嗯,果然是str类型的,又试了下和”utf-8”比较不就结束了,没错,结果是True,你们听我解释,我昨天做的时候真不是这样的,不管了,写都写了,按昨天的思路来吧,大家凑活看吧(不要打我),现在我们假设他是False,并且类型是NoneType,并且转为str后是None,你们要相信我昨天真的是这样的!
好了就这样吧,那既然是无法比较怎么办呢,没错,拿出一开始脸滚键盘的那两个测试文件来,用他们呢读取出的字典的值作比较不就好了(一说到这我就莫名的心痛),然后我们在想一下是把文件编码改为UTF-8,所以本来就是UTF-8的我们就不用管他,我都脸滚键盘的建测试文件了我还在意这些细节干嘛,不说了,难受,效果图也不贴了,直接上代码你们自己看吧。。。
# coding utf-8import osimport chardet# 获得所有java文件的路径,传入根目录路径def find_all_file(path: str) -> str: for root, dirs, files in os.walk(path): for f in files: if f.endswith('.java'): fullname = os.path.join(root, f) yield fullname pass pass pass# 判断是不是utf-8编码方式def judge_coding(path: str) -> dict: with open('utf.txt', 'rb') as f: # 删除就行 utf = chardet.detect(f.read()) # 同上 with open(path, 'rb') as f: c = chardet.detect(f.read()) if c != utf: # 改为 c != 'utf-8' return c# 修改文件编码方式def change_to_utf_file(path: str): for i in find_all_file(path): c = judge_coding(i) if c: change(i, c['encoding']) print("{} 编码方式已从{}改为 utf-8".format(i, c['encoding']))def change(path: str, coding: str): with open(path, 'r', encoding=coding) as f: text = f.read() with open(path, 'w', encoding='utf-8') as f: f.write(text)# 查看所有文件编码方式def check(path: str): for i in find_all_file(path): with open(i, 'rb') as f: print(chardet.detect(f.read())['encoding'], ': ', i)def main(): my_path = 'C:\\WorkSpace' change_to_utf_file(my_path) # check(my_path)if __name__ == '__main__': main()到此这篇关于使用python批量转换文件编码为UTF-8的实现的文章就介绍到这了,更多相关python批量转换UTF-8内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例讲述了Python实现批量转换文件编码的方法。分享给大家供大家参考。具体如下:这里将某个目录下的所有文件从一种编码转换为另一种编码,然后保存import
复制代码代码如下:iconv('GBK','UTF-8//IGNORE','');//将字符串由GBK编码转换为UTF-8编码但iconv只能解决编码预先知道的
最近在处理文本文件时,遇到编码格式和换行符的问题。基本上都是GBK和UTF-8编码的文本文件,但是python3中默认的都是按照utf-8来打开。用不正确的编码
其实用php生成UTF-8的文件没有什么特别的,只要把我们执行的那个PHP文件改成UTF-8编码保存起来,然后页面内容也用UTF-8的编码就可以了。 代码
1概述Go语言的字符串是使用UTF-8编码的。UTF-8是Unicode的实现方式之一。本文内容包括:UTF-8和Unicode的关系,Go语言提供的unico