时间:2021-05-23
Python 爬虫之超链接 url中含有中文出错及解决办法
python3.5 爬虫错误:
UnicodeEncodeError: 'ascii' codec can't encode characters这个错误是由于超链接中含有中文引起的,超链接默认是用ascii编码的,所以不能直接出现中文,若要出现中文,
解决方法如下:
import urllib from urllib.request import urlopenlink="http://list.jd.com/list.html?cat=9987,653,655&ev=exbrand%5F9420&trans=1&JL=3_品牌_金立(Gionee)" #含有中文的超链接# 需要用 urllib.parse.quote 转换link=urllib.parse.quote(link)html=urlopen(link).read() #就可以访问了,不会报异常以上就是 Python 爬虫出现错误解决办法的详解,如有疑问请留言或者到本站的社区交流讨论,感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
当excel文档里面的超链接无法打开,提示以下错误,而经确认,用户对超链接的目的文档有完全控制权限。以下提供该问题的解决办法 1、打开开始菜单,在运行里输
当excel文档里面的超链接无法打开,提示以下错误,而经确认,用户对超链接的目的文档有完全控制权限。以下提供该问题的解决办法1、打开开始菜单,在运行里输入reg
Vm中一个超链接URL需要拼接中文作为Get请求的参数。如果直接拼接,传到后台Action的参数对象中后取出会是乱码,需要编码后再拼接到URL上。解决方法是在A
通用网络爬虫的目标在整个互联网中,爬虫从种子URL开始访问网页,采集当中所有超链接。为了防止获取重复的URL,将爬取到的网页信息存储在原始数据库或队列中,然后对
Linux中unzip解压时中文乱码的解决办法当我们在linux中解压一个含有中文名字的压缩包如“资料.zip”时,如果直接使用如下的命令,将会出现中文乱码。u